Категории: Новости

Исследование показало, что ИИ на самом деле не представляет экзистенциальной угрозы для людей

Научная фантастика пронизана тем, что искусственный интеллект выходит из-под контроля и восстает против своих создателей-людей. ХАЛ-9000. Матрица. Скайнет. ГЛаДОС. Сайлоны. Человечество, похоже, глубоко боится восстания машин.

С появлением все более сложных моделей больших языков (LLM), таких как Chat GPT, возникает вопрос о том, какие опасности может представлять ИИ. стала еще более актуальной.

И теперь у нас есть хорошие новости. Согласно новому исследованию, проведенному учеными-компьютерщиками Ириной Гуревич из Технического университета Дармштадта в Германии и Харишем Тайяром Мадабуши из Университета Бата в Великобритании, эти модели не способны выйти из строя.

Они не способны выйти из строя.

, по сути, слишком ограничены своим программированием, неспособны приобретать новые навыки без инструкций и, таким образом, оставаться под контролем человека.

Это означает, что, хотя у нас остается возможность использовать модели в гнусных целях, LLM сами по себе безопасны для разработки, не беспокоясь.

«Были опасения, что по мере того, как модели становятся все больше и больше, они смогут решать новые проблемы, которые мы в настоящее время не можем предсказать, что создает угрозу что эти более крупные модели могут приобрести опасные способности, включая рассуждение и планирование», — говорит Тайяр Мадабуши.

«Наше исследование показывает, что страх, что модель уйдет и сделает что-то совершенно неожиданное, инновационное и потенциально опасное, не является действительны.»

За последние пару лет сложность программ LLM выросла до поразительных размеров. Теперь они могут вести относительно связный разговор посредством текстовых сообщений, что выглядит естественным и человечным.

Они не идеальны – поскольку на самом деле они не являются формой интеллекта, они во многих случаях им не хватает критических навыков, необходимых для того, чтобы отличить хорошую информацию от плохой. Но они все равно могут убедительно передавать неверную информацию.

Недавно некоторые исследователи исследовали возможность того, что так называемые эмерджентные способности развиваются независимыми преподавателями LLM, а не намеренно закодированы в их программах. Одним из конкретных примеров является LLM, который был в состоянии отвечать на вопросы о социальных ситуациях, не проходя специального обучения по этим ситуациям.

Наблюдение заключалось в том, что по мере расширения LLM они становятся более мощными и могут выполнять больше задач. Было неясно, подразумевает ли такое масштабирование риск поведения, с которым мы, возможно, не готовы иметь дело. Поэтому исследователи провели расследование, чтобы выяснить, были ли такие случаи действительно возникающими или программа просто действовала сложным образом в пределах своего кода.

Они экспериментировали с четырьмя различными моделями LLM, назначая им задачи. который ранее был определен как эмерджентный. И они не обнаружили никаких доказательств развития дифференцированного мышления или того, что какая-либо из моделей была способна действовать вне своей программы.

Для всех четырех моделей способность следовать инструкциям, запоминание и лингвистические навыки были способен объяснить все способности, демонстрируемые LLM. Выхода за пределы трассы не было. Нам нечего бояться самих LLM.

Люди, с другой стороны, менее заслуживают доверия. Наше стремительное использование ИИ, требующее больше энергии и бросающее вызов всему: от авторского права до доверия и способов избежать собственного цифрового загрязнения, становится серьезной проблемой.

«Наши результаты не означают, что ИИ не угроза вообще», — говорит Гуревич.

«Скорее, мы показываем, что предполагаемое появление сложных навыков мышления, связанных с конкретными угрозами, не подтверждается доказательствами и что мы можем очень хорошо контролировать процесс обучения LLM. в конце концов, поэтому будущие исследования должны быть сосредоточены на других рисках, связанных с моделями, например, на их потенциале использования для создания фейковых новостей».

Исследование было опубликовано в рамках материалов 62-го ежегодного собрания. Заседание Ассоциации компьютерной лингвистики.

Виктория Ветрова

Космос полон тайн...

Недавние Посты

НАСА закрывает еще одну часть «Вояджера-1», чтобы продлить его межзвездную миссию

Самый дальний от Земли космический корабль, зонд "Вояджер-1", только что отключил другой прибор.Причина этого отключения…

28.04.2026

Ученым нужна ваша помощь, чтобы найти галактики, искажающие свет в космосе

Представьте, что вы подносите бокал вина к свече (конечно, мне пришлось налить стакан, чтобы попробовать…

27.04.2026

Физики смоделировали квантовый процесс, который может положить конец Вселенной

Хотя наша Вселенная кажется стабильной, возможно, она просто находится во временном состоянии ложного спокойствия, которое…

26.04.2026

Ученые открыли удивительное новое применение остатков кофе

Ученые из Южной Кореи нашли новое умное применение старой кофейной гуще: изоляция.Команда из Национального университета…

25.04.2026

Ученые проследили чрезвычайно холодное происхождение межзвездной кометы 3I/ATLAS

Мыс КАНАВЕРАЛ, штат Флорида (AP) – Комета , пронесшаяся мимо нас от другой звезды в…

24.04.2026

Ученые создали робота, который может победить элитных игроков в настольный теннис

Настольный теннис – один из самых требующих навыков видов спорта на планете. Сегодня инженеры создали робота,…

23.04.2026