Должны ли правительства сдерживать разработки сверхинтеллектуального ИИ?

Должны ли правительства сдерживать разработки сверхинтеллектуального ИИ? ИИ

Изобретение искусственного интеллекта было центральной темой в научной фантастике, по крайней мере, с 19-го века. От рассказа Э.М. Форстера «Остановка машин» (1909) до недавнего телесериала HBO «Западный мир» писатели склонны изображать эту возможность как безудержную катастрофу.

Но этот вопрос больше не является выдумкой. Выдающиеся современные ученые и инженеры теперь также обеспокоены тем, что супер-ИИ однажды может превзойти человеческий интеллект и стать «худшей ошибкой» человечества.

Нынешние тенденции говорят о том, что человечество собирается вступить в международную гонку вооружений за такую ​​технологию. Какая бы высокотехнологичная компания или правительственная лаборатория не изобрела первый ИИ, она получит потенциально доминирующую в мире технологию.

Поэтому для тех, кто хочет остановить такое событие, вопрос состоит в том, как воспрепятствовать гонке вооружений такого рода или, по крайней мере, побудить конкурирующие команды не пренебрегать безопасностью супер-ИИ.

Как заметил философ Ник Бостром, искусственный интеллект ставит перед изобретателями две фундаментальные проблемы. Одной из них является проблема контроля, которая заключается в том, чтобы убедиться, что искусственный интеллект имеет те же цели, что и человечество.

Без этого ИИ может намеренно, случайно или по небрежности уничтожить человечество.

Вторая — это политическая проблема, которая заключается в гарантии, что преимущества новой технологии не распространятся только на элиту, а будут доступны всему человечеству.

Если произойдет гонка вооружений ИИ, это может привести к тому, что конкурирующие группы проигнорируют эти проблемы, чтобы быстрее разработать свою технологию. Это может привести к появлению недружественного супер-ИИ.

Одно из предлагаемых решений — использовать государственную политику, чтобы затруднить участие в гонке, уменьшить количество конкурирующих групп. Чем меньше соперников, тем меньше будет давления.

Но как правительства могут уменьшить конкуренцию таким образом?

В типичной гонке за новой технологией, будут участвовать только самые конкурентоспособные команды.

Это потому, что вероятность изобрести супер-ИИ очень мала, а участие в гонке очень дорогое из-за больших инвестиций в исследования и разработки.

Это говорит о том, что сокращение количества конкурирующих групп на данный момент не является самым важным приоритетом. Но даже при меньшем количестве участников в гонке, интенсивность соревнования может привести к проблемам, упомянутым выше.

Таким образом, чтобы снизить интенсивность конкуренции между группами, стремящимися создать супер-ИИ и повысить свои возможности, правительства могут обратиться к государственным закупкам и налогам.

Конечно, все это зависит от того, действительно ли супер-ИИ является угрозой человечеству. И некоторые ученые не думают, что это так. Естественно, мы могли бы со временем избавиться от рисков, связанных с его разработкой. Некоторые думают, что люди могут даже слиться с ИИ.

Как бы то ни было, наша планета и ее обитатели получат огромную выгоду от того, что мы получим лучшее от ИИ, технологии, которая все еще находится в зачаточном состоянии. Для этого нам необходимо понять, какую роль может сыграть человечество.

Источники: https://theconversation.com/singularity-how-governments-can-halt-the-rise-of-unfriendly-unstoppable-super-ai-121999

logo