Магнат-миллиардер Илон Маск и ряд экспертов призвали в среду приостановить разработку мощных систем искусственного интеллекта (ИИ), чтобы дать время убедиться в их безопасности.
Открытое письмо, подписано более 1000 человек, включая Маска и соучредителя Apple Стива Возняка, было вызвано выпуском GPT-4 от компании OpenAI, поддерживаемой Microsoft.
Компания заявляет, что ее последняя модель намного шире. мощнее, чем предыдущая версия, которая использовалась для запуска ChatGPT, бота, способного генерировать фрагменты текста из самых кратких подсказок.
«Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества. », — говорится в открытом письме под названием «Приостановить гигантские эксперименты с ИИ».
«Мощные системы ИИ следует разрабатывать только после того, как мы будем уверены, что их эффекты будут положительными, а их риски будут управляемыми», — говорится в нем.
Маск был первоначальным инвестором OpenAI, провел годы в его совете директоров, а его автомобильная компания Tesla разрабатывает системы искусственного интеллекта, которые помогают использовать ее технологию автономного вождения, среди прочего.
The Письмо, организованное Институтом будущего жизни, финансируемым Маском, было подписано видными критиками, а также конкурентами OpenAI, такими как глава отдела стабильного ИИ Эмад Мостак.
Канадский пионер ИИ Йошуа Бенжио, также подписавший виртуальная пресс-конференция в Монреале предупредила, что «общество не готово» к этому мощному инструменту и возможным злоупотреблениям им.
«Давайте притормозим. Давайте позаботимся о том, чтобы мы разработали более надежные ограждения, — сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, — как мы сделали это в отношении ядерной энергетики и ядерного оружия».
Письмо, цитируемое из блога основателя OpenAI Сэма Альтмана, который предположил, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем начинать обучение будущих систем».
»Мы согласны. Этот момент настал сейчас», — написали авторы открытого письма.
«Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4. .»
Они призвали правительства вмешаться и ввести мораторий, если компании не смогут договориться.
Шесть месяцев следует использовать для разработки протоколов безопасности, систем управления ИИ, и переориентировать исследования на обеспечение того, чтобы системы ИИ были более точными, безопасными, «заслуживающими доверия и лояльными».
В письме не были подробно описаны опасности, выявленные GPT-4.
Но исследователи в том числе Гэри Маркус из Нью-Йоркского университета, подписавший письмо, уже давно утверждают, что чат-боты — великие лжецы и потенциально могут быть суперраспространителями дезинформации.
Однако автор Кори Доктороу сравнил индустрию ИИ с схему «накачки и сброса», утверждая, что как потенциал, так и угроза систем ИИ сильно преувеличены.
© Agence France-Presse
Определение хода времени в нашем мире тикающих часов и колеблющихся маятников — это простой случай…
Уран — необычная планета Солнечной системы.Хотя ось вращения большинства планет перпендикулярна плоскости их орбит, угол…
Что ж, вердикт вынесен. Луна все-таки сделана не из зеленого сыра.Тщательное расследование, опубликованное в мае…
Появляется все больше свидетельств того, что Марс когда-то был грязным и влажным, покрытым озерами и…
Звезда, находящаяся на расстоянии более 160 000 световых лет от Земли, только что стала эпическим объектом…
74 миллиона километров — это огромное расстояние, с которого можно что-то наблюдать. Но 74 миллиона…