Изобретение искусственного интеллекта было центральной темой в научной фантастике, по крайней мере, с 19-го века. От рассказа Э.М. Форстера «Остановка машин» (1909) до недавнего телесериала HBO «Западный мир» писатели склонны изображать эту возможность как безудержную катастрофу.
Но этот вопрос больше не является выдумкой. Выдающиеся современные ученые и инженеры теперь также обеспокоены тем, что супер-ИИ однажды может превзойти человеческий интеллект и стать «худшей ошибкой» человечества.
Нынешние тенденции говорят о том, что человечество собирается вступить в международную гонку вооружений за такую технологию. Какая бы высокотехнологичная компания или правительственная лаборатория не изобрела первый ИИ, она получит потенциально доминирующую в мире технологию.
Поэтому для тех, кто хочет остановить такое событие, вопрос состоит в том, как воспрепятствовать гонке вооружений такого рода или, по крайней мере, побудить конкурирующие команды не пренебрегать безопасностью супер-ИИ.
Как заметил философ Ник Бостром, искусственный интеллект ставит перед изобретателями две фундаментальные проблемы. Одной из них является проблема контроля, которая заключается в том, чтобы убедиться, что искусственный интеллект имеет те же цели, что и человечество.
Без этого ИИ может намеренно, случайно или по небрежности уничтожить человечество.
Вторая — это политическая проблема, которая заключается в гарантии, что преимущества новой технологии не распространятся только на элиту, а будут доступны всему человечеству.
Если произойдет гонка вооружений ИИ, это может привести к тому, что конкурирующие группы проигнорируют эти проблемы, чтобы быстрее разработать свою технологию. Это может привести к появлению недружественного супер-ИИ.
Одно из предлагаемых решений — использовать государственную политику, чтобы затруднить участие в гонке, уменьшить количество конкурирующих групп. Чем меньше соперников, тем меньше будет давления.
Но как правительства могут уменьшить конкуренцию таким образом?
В типичной гонке за новой технологией, будут участвовать только самые конкурентоспособные команды.
Это потому, что вероятность изобрести супер-ИИ очень мала, а участие в гонке очень дорогое из-за больших инвестиций в исследования и разработки.
Это говорит о том, что сокращение количества конкурирующих групп на данный момент не является самым важным приоритетом. Но даже при меньшем количестве участников в гонке, интенсивность соревнования может привести к проблемам, упомянутым выше.
Таким образом, чтобы снизить интенсивность конкуренции между группами, стремящимися создать супер-ИИ и повысить свои возможности, правительства могут обратиться к государственным закупкам и налогам.
Конечно, все это зависит от того, действительно ли супер-ИИ является угрозой человечеству. И некоторые ученые не думают, что это так. Естественно, мы могли бы со временем избавиться от рисков, связанных с его разработкой. Некоторые думают, что люди могут даже слиться с ИИ.
Как бы то ни было, наша планета и ее обитатели получат огромную выгоду от того, что мы получим лучшее от ИИ, технологии, которая все еще находится в зачаточном состоянии. Для этого нам необходимо понять, какую роль может сыграть человечество.
Математика, которую Альберт Эйнштейн разработал для описания гравитационного механизма физической Вселенной в начале 20 века,…
В последние годы астрономы разработали методы измерения содержания металлов в звездах с чрезвычайной точностью. Обладая…
Какими бы эффективными ни были электронные системы хранения данных, они не имеют ничего общего с…
В 1896 году немецкий химик Эмиль Фишер заметил нечто очень странное в молекуле под названием…
Если вам посчастливилось наблюдать полное затмение, вы наверняка помните ореол яркого света вокруг Луны во…
В ранней Вселенной, задолго до того, как они успели вырасти, астрономы обнаружили то, что они…