Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»

Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»

Магнат-миллиардер Илон Маск и ряд экспертов призвали в среду приостановить разработку мощных систем искусственного интеллекта (ИИ), чтобы дать время убедиться в их безопасности.

Открытое письмо, подписано более 1000 человек, включая Маска и соучредителя Apple Стива Возняка, было вызвано выпуском GPT-4 от компании OpenAI, поддерживаемой Microsoft.

Компания заявляет, что ее последняя модель намного шире. мощнее, чем предыдущая версия, которая использовалась для запуска ChatGPT, бота, способного генерировать фрагменты текста из самых кратких подсказок.

«Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества. », — говорится в открытом письме под названием «Приостановить гигантские эксперименты с ИИ».

«Мощные системы ИИ следует разрабатывать только после того, как мы будем уверены, что их эффекты будут положительными, а их риски будут управляемыми», — говорится в нем.

Маск был первоначальным инвестором OpenAI, провел годы в его совете директоров, а его автомобильная компания Tesla разрабатывает системы искусственного интеллекта, которые помогают использовать ее технологию автономного вождения, среди прочего.

The Письмо, организованное Институтом будущего жизни, финансируемым Маском, было подписано видными критиками, а также конкурентами OpenAI, такими как глава отдела стабильного ИИ Эмад Мостак.

Канадский пионер ИИ Йошуа Бенжио, также подписавший виртуальная пресс-конференция в Монреале предупредила, что «общество не готово» к этому мощному инструменту и возможным злоупотреблениям им.

«Давайте притормозим. Давайте позаботимся о том, чтобы мы разработали более надежные ограждения, — сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, — как мы сделали это в отношении ядерной энергетики и ядерного оружия».

«Надежный и лояльный

Письмо, цитируемое из блога основателя OpenAI Сэма Альтмана, который предположил, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем начинать обучение будущих систем».

​»Мы согласны. Этот момент настал сейчас», — написали авторы открытого письма.

​«Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4. .»

​Они призвали правительства вмешаться и ввести мораторий, если компании не смогут договориться.

​Шесть месяцев следует использовать для разработки протоколов безопасности, систем управления ИИ, и переориентировать исследования на обеспечение того, чтобы системы ИИ были более точными, безопасными, «заслуживающими доверия и лояльными».

​В письме не были подробно описаны опасности, выявленные GPT-4.

​Но исследователи в том числе Гэри Маркус из Нью-Йоркского университета, подписавший письмо, уже давно утверждают, что чат-боты — великие лжецы и потенциально могут быть суперраспространителями дезинформации.

​Однако автор Кори Доктороу сравнил индустрию ИИ с схему «накачки и сброса», утверждая, что как потенциал, так и угроза систем ИИ сильно преувеличены.

© Agence France-Presse

logo