Исследование показало, что ИИ на самом деле не представляет экзистенциальной угрозы для людей

Исследование показало, что ИИ на самом деле не представляет экзистенциальной угрозы для людей

Научная фантастика пронизана тем, что искусственный интеллект выходит из-под контроля и восстает против своих создателей-людей. ХАЛ-9000. Матрица. Скайнет. ГЛаДОС. Сайлоны. Человечество, похоже, глубоко боится восстания машин.

С появлением все более сложных моделей больших языков (LLM), таких как Chat GPT, возникает вопрос о том, какие опасности может представлять ИИ. стала еще более актуальной.

И теперь у нас есть хорошие новости. Согласно новому исследованию, проведенному учеными-компьютерщиками Ириной Гуревич из Технического университета Дармштадта в Германии и Харишем Тайяром Мадабуши из Университета Бата в Великобритании, эти модели не способны выйти из строя.

Они не способны выйти из строя.

, по сути, слишком ограничены своим программированием, неспособны приобретать новые навыки без инструкций и, таким образом, оставаться под контролем человека.

Это означает, что, хотя у нас остается возможность использовать модели в гнусных целях, LLM сами по себе безопасны для разработки, не беспокоясь.

«Были опасения, что по мере того, как модели становятся все больше и больше, они смогут решать новые проблемы, которые мы в настоящее время не можем предсказать, что создает угрозу что эти более крупные модели могут приобрести опасные способности, включая рассуждение и планирование», — говорит Тайяр Мадабуши.

«Наше исследование показывает, что страх, что модель уйдет и сделает что-то совершенно неожиданное, инновационное и потенциально опасное, не является действительны.»

За последние пару лет сложность программ LLM выросла до поразительных размеров. Теперь они могут вести относительно связный разговор посредством текстовых сообщений, что выглядит естественным и человечным.

Они не идеальны – поскольку на самом деле они не являются формой интеллекта, они во многих случаях им не хватает критических навыков, необходимых для того, чтобы отличить хорошую информацию от плохой. Но они все равно могут убедительно передавать неверную информацию.

Недавно некоторые исследователи исследовали возможность того, что так называемые эмерджентные способности развиваются независимыми преподавателями LLM, а не намеренно закодированы в их программах. Одним из конкретных примеров является LLM, который был в состоянии отвечать на вопросы о социальных ситуациях, не проходя специального обучения по этим ситуациям.

Наблюдение заключалось в том, что по мере расширения LLM они становятся более мощными и могут выполнять больше задач. Было неясно, подразумевает ли такое масштабирование риск поведения, с которым мы, возможно, не готовы иметь дело. Поэтому исследователи провели расследование, чтобы выяснить, были ли такие случаи действительно возникающими или программа просто действовала сложным образом в пределах своего кода.

Они экспериментировали с четырьмя различными моделями LLM, назначая им задачи. который ранее был определен как эмерджентный. И они не обнаружили никаких доказательств развития дифференцированного мышления или того, что какая-либо из моделей была способна действовать вне своей программы.

Для всех четырех моделей способность следовать инструкциям, запоминание и лингвистические навыки были способен объяснить все способности, демонстрируемые LLM. Выхода за пределы трассы не было. Нам нечего бояться самих LLM.

Люди, с другой стороны, менее заслуживают доверия. Наше стремительное использование ИИ, требующее больше энергии и бросающее вызов всему: от авторского права до доверия и способов избежать собственного цифрового загрязнения, становится серьезной проблемой.

«Наши результаты не означают, что ИИ не угроза вообще», — говорит Гуревич.

«Скорее, мы показываем, что предполагаемое появление сложных навыков мышления, связанных с конкретными угрозами, не подтверждается доказательствами и что мы можем очень хорошо контролировать процесс обучения LLM. в конце концов, поэтому будущие исследования должны быть сосредоточены на других рисках, связанных с моделями, например, на их потенциале использования для создания фейковых новостей».

Исследование было опубликовано в рамках материалов 62-го ежегодного собрания. Заседание Ассоциации компьютерной лингвистики.

logo