Магнат-миллиардер Илон Маск и ряд экспертов призвали в среду приостановить разработку мощных систем искусственного интеллекта (ИИ), чтобы дать время убедиться в их безопасности.
Открытое письмо, подписано более 1000 человек, включая Маска и соучредителя Apple Стива Возняка, было вызвано выпуском GPT-4 от компании OpenAI, поддерживаемой Microsoft.
Компания заявляет, что ее последняя модель намного шире. мощнее, чем предыдущая версия, которая использовалась для запуска ChatGPT, бота, способного генерировать фрагменты текста из самых кратких подсказок.
«Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества. », — говорится в открытом письме под названием «Приостановить гигантские эксперименты с ИИ».
«Мощные системы ИИ следует разрабатывать только после того, как мы будем уверены, что их эффекты будут положительными, а их риски будут управляемыми», — говорится в нем.
Маск был первоначальным инвестором OpenAI, провел годы в его совете директоров, а его автомобильная компания Tesla разрабатывает системы искусственного интеллекта, которые помогают использовать ее технологию автономного вождения, среди прочего.
The Письмо, организованное Институтом будущего жизни, финансируемым Маском, было подписано видными критиками, а также конкурентами OpenAI, такими как глава отдела стабильного ИИ Эмад Мостак.
Канадский пионер ИИ Йошуа Бенжио, также подписавший виртуальная пресс-конференция в Монреале предупредила, что «общество не готово» к этому мощному инструменту и возможным злоупотреблениям им.
«Давайте притормозим. Давайте позаботимся о том, чтобы мы разработали более надежные ограждения, — сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, — как мы сделали это в отношении ядерной энергетики и ядерного оружия».
Письмо, цитируемое из блога основателя OpenAI Сэма Альтмана, который предположил, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем начинать обучение будущих систем».
»Мы согласны. Этот момент настал сейчас», — написали авторы открытого письма.
«Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4. .»
Они призвали правительства вмешаться и ввести мораторий, если компании не смогут договориться.
Шесть месяцев следует использовать для разработки протоколов безопасности, систем управления ИИ, и переориентировать исследования на обеспечение того, чтобы системы ИИ были более точными, безопасными, «заслуживающими доверия и лояльными».
В письме не были подробно описаны опасности, выявленные GPT-4.
Но исследователи в том числе Гэри Маркус из Нью-Йоркского университета, подписавший письмо, уже давно утверждают, что чат-боты — великие лжецы и потенциально могут быть суперраспространителями дезинформации.
Однако автор Кори Доктороу сравнил индустрию ИИ с схему «накачки и сброса», утверждая, что как потенциал, так и угроза систем ИИ сильно преувеличены.
© Agence France-Presse
Солнечный зонд Parker's NASA повторил свои рекордсменные показатели декабря 2024 года, провалившись в рамках ожапывающего…
Как раз тогда, когда вы думали, что можете расслабиться о предполагаемом «городском убийце» астероида 2024…
Европа лаборатория CERN заявила в понедельник, что подробный анализ не выявил никаких технических препятствий для…
Экзотическое состояние материи было обнаружено, скрывающимся в предыдущем экзотическом состоянии, которое обнаружилось в магнитном соединении…
Curiosity NASA Mars Rover обнаружил самые большие органические (содержащие углеродные) молекулы, когда-либо обнаруживаемые на красной…
Одним из первых проверенных прогнозов общей относительности является гравитационное отклонение Starlight. Эффект впервые наблюдался в…