США только что представили самую амбициозную попытку контролировать ИИ на сегодняшний день
В понедельник президент США Джо Байден издал масштабный и амбициозный указ об искусственном интеллекте (ИИ), что вывело США на передний план дискуссий о регулировании ИИ.
При этом США опередив другие государства в гонке за власть над ИИ. Ранее Европа лидировала со своим Законом об искусственном интеллекте, который был принят Европейским парламентом в июне 2023 года, но в полную силу вступит не раньше 2025 года.
Президентский указ представляет собой набор инициатив для регулирование ИИ – некоторые из них хороши, а другие кажутся довольно недоработанными. Его целью является устранение вреда, варьирующегося от непосредственного, такого как дипфейки, создаваемые ИИ, до промежуточного вреда, такого как потеря рабочих мест, и долгосрочного вреда, такого как широко обсуждаемая экзистенциальная угроза, которую ИИ может представлять для людей.
Амбициозный план Байдена
Конгресс США не спешил принимать важные меры по регулированию деятельности крупных технологических компаний. Этот президентский указ, вероятно, является одновременно попыткой обойти зачастую зашедшую в тупик работу Конгресса, а также дать толчок действиям. Например, указ призывает Конгресс принять двухпартийный закон о конфиденциальности данных.
Двухпартийная поддержка в нынешних условиях? Удачи в этом, господин Президент.
Сообщается, что указ будет реализован в течение следующих трех месяцев-одного года. Он охватывает восемь областей:
- Стандарты безопасности и защиты для ИИ.
- Защита конфиденциальности.
- Справедливость и гражданские права.
- Права потребителей.
- Работа
- Инновации и конкуренция
- Международное лидерство
- Управление ИИ.
На одном С другой стороны, приказ охватывает многие проблемы, поднятые учеными и общественностью. Например, одна из его директив — выпустить официальное руководство о том, как на контент, созданный искусственным интеллектом, можно наносить водяные знаки, чтобы снизить риск дипфейков.
Он также требует от компаний, разрабатывающих модели искусственного интеллекта, доказать их безопасность, прежде чем они смогут это сделать. быть развернут для более широкого использования. Президент Байден заявил:
Это означает, что компании должны сообщать правительству о крупномасштабных системах искусственного интеллекта, которые они разрабатывают, и делиться результатами строгих независимых испытаний, чтобы доказать, что они не представляют угрозы для национальной безопасности или безопасности американцев. человек.
Потенциально губительное использование искусственного интеллекта в войне
В то же время приказ не решает ряд насущных проблем. Например, в нем напрямую не рассматривается вопрос о том, как бороться с роботами-убийцами с искусственным интеллектом — неприятная тема, которая обсуждалась в течение последних двух недель на Генеральной Ассамблее Организации Объединенных Наций.
Такого беспокойства не должно быть. игнорироваться. Пентагон разрабатывает множество недорогих автономных дронов в рамках недавно объявленной программы Replicator. Точно так же Украина разработала отечественные ударные дроны с искусственным интеллектом, которые могут идентифицировать и атаковать российские войска без вмешательства человека.
Можем ли мы оказаться в мире, где машины решают, кому жить, а кому умереть? Исполнительный указ просто требует от военных использовать ИИ этично, но не оговаривает, что это означает.
А как насчет защиты выборов от оружия массового убеждения на базе ИИ? Ряд СМИ сообщили о том, что на недавние выборы в Словакии могли повлиять дипфейки. Многие эксперты, в том числе и я, также обеспокоены неправомерным использованием ИИ на предстоящих президентских выборах в США.
Если не будет введен строгий контроль, мы рискуем жить в эпоху, когда ничему, что вы видите или слышите в Интернете, нельзя доверять. . Если это звучит как преувеличение, учтите, что Республиканская партия США уже выпустила предвыборную рекламу, которая, судя по всему, полностью создана искусственным интеллектом.
Упущенные возможности
Многие инициативы в указе можно и нужно повторить в других местах, включая Австралию. Мы также должны, как того требует приказ, предоставить арендодателям, государственным программам и государственным подрядчикам рекомендации о том, как обеспечить, чтобы алгоритмы ИИ не использовались для дискриминации людей.
Мы также должны, как того требует приказ. , бороться с алгоритмической дискриминацией в системе уголовного правосудия, где ИИ все чаще используется в ситуациях с высокими ставками, в том числе для вынесения приговора, условно-досрочного освобождения и испытательного срока, досудебного освобождения и содержания под стражей, оценки рисков, наблюдения и прогнозирующей полицейской деятельности, и это лишь некоторые из них. p>
ИИ также неоднозначно использовался для таких приложений в Австралии, например, в Плане управления преследованием подозреваемых, используемом для наблюдения за молодежью в Новом Южном Уэльсе.
Возможно, это самый противоречивый аспект исполнительной власти. Порядок – это то, что устраняет потенциальный вред самых мощных так называемых «передовых» моделей ИИ. Некоторые эксперты считают, что эти модели, разрабатываемые такими компаниями, как Open AI, Google и Anthropic, представляют реальную угрозу человечеству.
Другие, в том числе и я, считают, что подобные опасения преувеличены и могут отвлечь от более важных дел. непосредственный вред, такой как дезинформация и неравенство, которые уже наносят ущерб обществу.
Приказ Байдена предусматривает чрезвычайные военные полномочия (в частности, Закон об оборонном производстве 1950 года, введенный во время Корейской войны), требующий от компаний уведомлять федеральное правительство, когда обучение таких пограничных моделей. Также требуется, чтобы они делились результатами тестов безопасности «красной команды», в ходе которых внутренние хакеры используют атаки для проверки программного обеспечения на наличие ошибок и уязвимостей.
Я бы сказал, что это будет сложно, а возможно, и невозможно. контролировать развитие пограничных моделей. Вышеупомянутые директивы не остановят компании, разрабатывающие такие модели за рубежом, где власть правительства США ограничена. Сообщество открытого исходного кода также может разрабатывать их распределенным способом, что делает мир технологий «безграничным».
Влияние указа, вероятно, окажет наибольшее влияние на само правительство и то, как оно речь идет об использовании искусственного интеллекта, а не бизнеса.
Тем не менее, это долгожданный шаг. Саммит по безопасности искусственного интеллекта, который проведет премьер-министр Великобритании Риши Сунак, который пройдет в ближайшие два дня, теперь по сравнению с ним выглядит чем-то вроде праздника дипломатических разговоров.
Это действительно заставляет завидовать президентской власти, чтобы добиться чего-то. готово.
Тоби Уолш, профессор искусственного интеллекта, руководитель исследовательской группы, UNSW, Сидней
Эта статья переиздана из The Conversation под лицензией Creative Commons. Прочтите оригинал статьи.