Изобретение искусственного интеллекта было центральной темой в научной фантастике, по крайней мере, с 19-го века. От рассказа Э.М. Форстера «Остановка машин» (1909) до недавнего телесериала HBO «Западный мир» писатели склонны изображать эту возможность как безудержную катастрофу.
Но этот вопрос больше не является выдумкой. Выдающиеся современные ученые и инженеры теперь также обеспокоены тем, что супер-ИИ однажды может превзойти человеческий интеллект и стать «худшей ошибкой» человечества.
Нынешние тенденции говорят о том, что человечество собирается вступить в международную гонку вооружений за такую технологию. Какая бы высокотехнологичная компания или правительственная лаборатория не изобрела первый ИИ, она получит потенциально доминирующую в мире технологию.
Поэтому для тех, кто хочет остановить такое событие, вопрос состоит в том, как воспрепятствовать гонке вооружений такого рода или, по крайней мере, побудить конкурирующие команды не пренебрегать безопасностью супер-ИИ.
Как заметил философ Ник Бостром, искусственный интеллект ставит перед изобретателями две фундаментальные проблемы. Одной из них является проблема контроля, которая заключается в том, чтобы убедиться, что искусственный интеллект имеет те же цели, что и человечество.
Без этого ИИ может намеренно, случайно или по небрежности уничтожить человечество.
Вторая — это политическая проблема, которая заключается в гарантии, что преимущества новой технологии не распространятся только на элиту, а будут доступны всему человечеству.
Если произойдет гонка вооружений ИИ, это может привести к тому, что конкурирующие группы проигнорируют эти проблемы, чтобы быстрее разработать свою технологию. Это может привести к появлению недружественного супер-ИИ.
Одно из предлагаемых решений — использовать государственную политику, чтобы затруднить участие в гонке, уменьшить количество конкурирующих групп. Чем меньше соперников, тем меньше будет давления.
Но как правительства могут уменьшить конкуренцию таким образом?
В типичной гонке за новой технологией, будут участвовать только самые конкурентоспособные команды.
Это потому, что вероятность изобрести супер-ИИ очень мала, а участие в гонке очень дорогое из-за больших инвестиций в исследования и разработки.
Это говорит о том, что сокращение количества конкурирующих групп на данный момент не является самым важным приоритетом. Но даже при меньшем количестве участников в гонке, интенсивность соревнования может привести к проблемам, упомянутым выше.
Таким образом, чтобы снизить интенсивность конкуренции между группами, стремящимися создать супер-ИИ и повысить свои возможности, правительства могут обратиться к государственным закупкам и налогам.
Конечно, все это зависит от того, действительно ли супер-ИИ является угрозой человечеству. И некоторые ученые не думают, что это так. Естественно, мы могли бы со временем избавиться от рисков, связанных с его разработкой. Некоторые думают, что люди могут даже слиться с ИИ.
Как бы то ни было, наша планета и ее обитатели получат огромную выгоду от того, что мы получим лучшее от ИИ, технологии, которая все еще находится в зачаточном состоянии. Для этого нам необходимо понять, какую роль может сыграть человечество.
Если вы хотите выделиться на своем следующем метал-концерте, не соглашайтесь на цветное пятно в море…
Свет полумиллиона спутников, которые человечество планирует запустить на орбиту Земли в ближайшие годы, может испортить…
Поскольку известные исследователи искусственного интеллекта (ИИ) видят ограничения на нынешнем этапе развития технологии, все больше…
Команда астрономов, изучающая распределение галактик в ближайшем космосе, обнаружила нечто поистине необычное: огромную нить галактик,…
Около 4,5 миллионов лет назад огромная космическая собака пронеслась мимо нашей Солнечной системы – и…
Камень на Марсе рассыпал удивительное желтое сокровище после того, как «Кьюриосити» случайно разбил его ничем…