Категории: Новости

Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»

Магнат-миллиардер Илон Маск и ряд экспертов призвали в среду приостановить разработку мощных систем искусственного интеллекта (ИИ), чтобы дать время убедиться в их безопасности.

Открытое письмо, подписано более 1000 человек, включая Маска и соучредителя Apple Стива Возняка, было вызвано выпуском GPT-4 от компании OpenAI, поддерживаемой Microsoft.

Компания заявляет, что ее последняя модель намного шире. мощнее, чем предыдущая версия, которая использовалась для запуска ChatGPT, бота, способного генерировать фрагменты текста из самых кратких подсказок.

«Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества. », — говорится в открытом письме под названием «Приостановить гигантские эксперименты с ИИ».

«Мощные системы ИИ следует разрабатывать только после того, как мы будем уверены, что их эффекты будут положительными, а их риски будут управляемыми», — говорится в нем.

Маск был первоначальным инвестором OpenAI, провел годы в его совете директоров, а его автомобильная компания Tesla разрабатывает системы искусственного интеллекта, которые помогают использовать ее технологию автономного вождения, среди прочего.

The Письмо, организованное Институтом будущего жизни, финансируемым Маском, было подписано видными критиками, а также конкурентами OpenAI, такими как глава отдела стабильного ИИ Эмад Мостак.

Канадский пионер ИИ Йошуа Бенжио, также подписавший виртуальная пресс-конференция в Монреале предупредила, что «общество не готово» к этому мощному инструменту и возможным злоупотреблениям им.

«Давайте притормозим. Давайте позаботимся о том, чтобы мы разработали более надежные ограждения, — сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, — как мы сделали это в отношении ядерной энергетики и ядерного оружия».

«Надежный и лояльный

Письмо, цитируемое из блога основателя OpenAI Сэма Альтмана, который предположил, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем начинать обучение будущих систем».

​»Мы согласны. Этот момент настал сейчас», — написали авторы открытого письма.

​«Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4. .»

​Они призвали правительства вмешаться и ввести мораторий, если компании не смогут договориться.

​Шесть месяцев следует использовать для разработки протоколов безопасности, систем управления ИИ, и переориентировать исследования на обеспечение того, чтобы системы ИИ были более точными, безопасными, «заслуживающими доверия и лояльными».

​В письме не были подробно описаны опасности, выявленные GPT-4.

​Но исследователи в том числе Гэри Маркус из Нью-Йоркского университета, подписавший письмо, уже давно утверждают, что чат-боты — великие лжецы и потенциально могут быть суперраспространителями дезинформации.

​Однако автор Кори Доктороу сравнил индустрию ИИ с схему «накачки и сброса», утверждая, что как потенциал, так и угроза систем ИИ сильно преувеличены.

© Agence France-Presse

Виктория Ветрова

Космос полон тайн...

Недавние Посты

«Важное открытие»: после многих лет исследований ученые обнаружили новую химическую реакцию

Особое наблюдение во время лабораторных экспериментов привело исследователей к прорыву на всю жизнь.После многих лет…

14.03.2026

Исследование предполагает, что женщины в космосе могут столкнуться со скрытым риском образования тромбов

Ни для кого не секрет, что длительное пребывание в условиях невесомости негативно сказывается на организме…

14.03.2026

Эта эпическая туманность выглядит как гигантский мозг, парящий в космосе

JWST сделал одно из самых устрашающе красивых изображений: светящееся облако газа и пыли, напоминающее гигантский…

14.03.2026

Самая энергичная частица-призрак, которую когда-либо видели, возможно, возникла из струй черных дыр

Представьте себе, что вы ловите одну каплю дождя и понимаете, что она упала из-за шторма…

13.03.2026

Самая большая в истории радиокарта неба обнаружила 13,7 миллиона скрытых объектов

Наш взгляд на космос полностью меняется в зависимости от того, как мы его наблюдаем.Теперь астрономы…

13.03.2026

Странный «чириканье» может раскрыть причину самых ярких сверхновых во Вселенной

Никогда ранее не наблюдавшийся «чириканье» в свете взрывающейся звезды дало новые подсказки о двигателе, приводящем…

12.03.2026