Категории: Новости

Исследование показало, что ИИ на самом деле не представляет экзистенциальной угрозы для людей

Научная фантастика пронизана тем, что искусственный интеллект выходит из-под контроля и восстает против своих создателей-людей. ХАЛ-9000. Матрица. Скайнет. ГЛаДОС. Сайлоны. Человечество, похоже, глубоко боится восстания машин.

С появлением все более сложных моделей больших языков (LLM), таких как Chat GPT, возникает вопрос о том, какие опасности может представлять ИИ. стала еще более актуальной.

И теперь у нас есть хорошие новости. Согласно новому исследованию, проведенному учеными-компьютерщиками Ириной Гуревич из Технического университета Дармштадта в Германии и Харишем Тайяром Мадабуши из Университета Бата в Великобритании, эти модели не способны выйти из строя.

Они не способны выйти из строя.

, по сути, слишком ограничены своим программированием, неспособны приобретать новые навыки без инструкций и, таким образом, оставаться под контролем человека.

Это означает, что, хотя у нас остается возможность использовать модели в гнусных целях, LLM сами по себе безопасны для разработки, не беспокоясь.

«Были опасения, что по мере того, как модели становятся все больше и больше, они смогут решать новые проблемы, которые мы в настоящее время не можем предсказать, что создает угрозу что эти более крупные модели могут приобрести опасные способности, включая рассуждение и планирование», — говорит Тайяр Мадабуши.

«Наше исследование показывает, что страх, что модель уйдет и сделает что-то совершенно неожиданное, инновационное и потенциально опасное, не является действительны.»

За последние пару лет сложность программ LLM выросла до поразительных размеров. Теперь они могут вести относительно связный разговор посредством текстовых сообщений, что выглядит естественным и человечным.

Они не идеальны – поскольку на самом деле они не являются формой интеллекта, они во многих случаях им не хватает критических навыков, необходимых для того, чтобы отличить хорошую информацию от плохой. Но они все равно могут убедительно передавать неверную информацию.

Недавно некоторые исследователи исследовали возможность того, что так называемые эмерджентные способности развиваются независимыми преподавателями LLM, а не намеренно закодированы в их программах. Одним из конкретных примеров является LLM, который был в состоянии отвечать на вопросы о социальных ситуациях, не проходя специального обучения по этим ситуациям.

Наблюдение заключалось в том, что по мере расширения LLM они становятся более мощными и могут выполнять больше задач. Было неясно, подразумевает ли такое масштабирование риск поведения, с которым мы, возможно, не готовы иметь дело. Поэтому исследователи провели расследование, чтобы выяснить, были ли такие случаи действительно возникающими или программа просто действовала сложным образом в пределах своего кода.

Они экспериментировали с четырьмя различными моделями LLM, назначая им задачи. который ранее был определен как эмерджентный. И они не обнаружили никаких доказательств развития дифференцированного мышления или того, что какая-либо из моделей была способна действовать вне своей программы.

Для всех четырех моделей способность следовать инструкциям, запоминание и лингвистические навыки были способен объяснить все способности, демонстрируемые LLM. Выхода за пределы трассы не было. Нам нечего бояться самих LLM.

Люди, с другой стороны, менее заслуживают доверия. Наше стремительное использование ИИ, требующее больше энергии и бросающее вызов всему: от авторского права до доверия и способов избежать собственного цифрового загрязнения, становится серьезной проблемой.

«Наши результаты не означают, что ИИ не угроза вообще», — говорит Гуревич.

«Скорее, мы показываем, что предполагаемое появление сложных навыков мышления, связанных с конкретными угрозами, не подтверждается доказательствами и что мы можем очень хорошо контролировать процесс обучения LLM. в конце концов, поэтому будущие исследования должны быть сосредоточены на других рисках, связанных с моделями, например, на их потенциале использования для создания фейковых новостей».

Исследование было опубликовано в рамках материалов 62-го ежегодного собрания. Заседание Ассоциации компьютерной лингвистики.

Виктория Ветрова

Космос полон тайн...

Недавние Посты

Самая черная ткань из когда-либо созданных, поглощает 99,87% всего падающего на нее света

Если вы хотите выделиться на своем следующем метал-концерте, не соглашайтесь на цветное пятно в море…

05.12.2025

НАСА предупреждает, что почти все изображения космического телескопа вскоре могут быть загрязнены

Свет полумиллиона спутников, которые человечество планирует запустить на орбиту Земли в ближайшие годы, может испортить…

05.12.2025

Приближаются компьютеры, сделанные из ткани человеческого мозга. Готовы ли мы?

Поскольку известные исследователи искусственного интеллекта (ИИ) видят ограничения на нынешнем этапе развития технологии, все больше…

04.12.2025

«Торнадо» галактик может оказаться самой длинной вращающейся структурой, которую когда-либо видели

Команда астрономов, изучающая распределение галактик в ближайшем космосе, обнаружила нечто поистине необычное: огромную нить галактик,…

04.12.2025

Близкую кисть с «Космической собакой» все еще можно увидеть на краю Солнечной системы

Около 4,5 миллионов лет назад огромная космическая собака пронеслась мимо нашей Солнечной системы – и…

04.12.2025

«Кьюриосити» расколол камень на Марсе и преподнес большой сюрприз

Камень на Марсе рассыпал удивительное желтое сокровище после того, как «Кьюриосити» случайно разбил его ничем…

03.12.2025