Категории: Новости

Исследование показало, что ИИ на самом деле не представляет экзистенциальной угрозы для людей

Научная фантастика пронизана тем, что искусственный интеллект выходит из-под контроля и восстает против своих создателей-людей. ХАЛ-9000. Матрица. Скайнет. ГЛаДОС. Сайлоны. Человечество, похоже, глубоко боится восстания машин.

С появлением все более сложных моделей больших языков (LLM), таких как Chat GPT, возникает вопрос о том, какие опасности может представлять ИИ. стала еще более актуальной.

И теперь у нас есть хорошие новости. Согласно новому исследованию, проведенному учеными-компьютерщиками Ириной Гуревич из Технического университета Дармштадта в Германии и Харишем Тайяром Мадабуши из Университета Бата в Великобритании, эти модели не способны выйти из строя.

Они не способны выйти из строя.

, по сути, слишком ограничены своим программированием, неспособны приобретать новые навыки без инструкций и, таким образом, оставаться под контролем человека.

Это означает, что, хотя у нас остается возможность использовать модели в гнусных целях, LLM сами по себе безопасны для разработки, не беспокоясь.

«Были опасения, что по мере того, как модели становятся все больше и больше, они смогут решать новые проблемы, которые мы в настоящее время не можем предсказать, что создает угрозу что эти более крупные модели могут приобрести опасные способности, включая рассуждение и планирование», — говорит Тайяр Мадабуши.

«Наше исследование показывает, что страх, что модель уйдет и сделает что-то совершенно неожиданное, инновационное и потенциально опасное, не является действительны.»

За последние пару лет сложность программ LLM выросла до поразительных размеров. Теперь они могут вести относительно связный разговор посредством текстовых сообщений, что выглядит естественным и человечным.

Они не идеальны – поскольку на самом деле они не являются формой интеллекта, они во многих случаях им не хватает критических навыков, необходимых для того, чтобы отличить хорошую информацию от плохой. Но они все равно могут убедительно передавать неверную информацию.

Недавно некоторые исследователи исследовали возможность того, что так называемые эмерджентные способности развиваются независимыми преподавателями LLM, а не намеренно закодированы в их программах. Одним из конкретных примеров является LLM, который был в состоянии отвечать на вопросы о социальных ситуациях, не проходя специального обучения по этим ситуациям.

Наблюдение заключалось в том, что по мере расширения LLM они становятся более мощными и могут выполнять больше задач. Было неясно, подразумевает ли такое масштабирование риск поведения, с которым мы, возможно, не готовы иметь дело. Поэтому исследователи провели расследование, чтобы выяснить, были ли такие случаи действительно возникающими или программа просто действовала сложным образом в пределах своего кода.

Они экспериментировали с четырьмя различными моделями LLM, назначая им задачи. который ранее был определен как эмерджентный. И они не обнаружили никаких доказательств развития дифференцированного мышления или того, что какая-либо из моделей была способна действовать вне своей программы.

Для всех четырех моделей способность следовать инструкциям, запоминание и лингвистические навыки были способен объяснить все способности, демонстрируемые LLM. Выхода за пределы трассы не было. Нам нечего бояться самих LLM.

Люди, с другой стороны, менее заслуживают доверия. Наше стремительное использование ИИ, требующее больше энергии и бросающее вызов всему: от авторского права до доверия и способов избежать собственного цифрового загрязнения, становится серьезной проблемой.

«Наши результаты не означают, что ИИ не угроза вообще», — говорит Гуревич.

«Скорее, мы показываем, что предполагаемое появление сложных навыков мышления, связанных с конкретными угрозами, не подтверждается доказательствами и что мы можем очень хорошо контролировать процесс обучения LLM. в конце концов, поэтому будущие исследования должны быть сосредоточены на других рисках, связанных с моделями, например, на их потенциале использования для создания фейковых новостей».

Исследование было опубликовано в рамках материалов 62-го ежегодного собрания. Заседание Ассоциации компьютерной лингвистики.

Виктория Ветрова

Космос полон тайн...

Недавние Посты

Интернет — это мусорный бак. Вот как мы могли бы его спасти.

Что касается нашего опыта работы в Интернете, то, как сказал бы Боб Дилан, «времена меняются».…

19.09.2024

Крупнейшие джеты черных дыр, когда-либо виденные, создают галактическую структуру, которая поразит вас

Сверхмассивная черная дыра, выбрасывающая в космос астрофизические струи, образовала самую большую структуру галактического происхождения, которую…

19.09.2024

Марс шаткий-шаткий. Третья луна могла бы объяснить ее сжатие и выпуклости.

Может ли давно потерянная луна объяснить довольно необычную форму Марса, а также рельеф на поверхности…

19.09.2024

Эта знаменитая картина Ван Гога демонстрирует удивительно точную физику

Созданная голландским художником Винсентом Ван Гогом в 1889 году, картина Звездная ночь является одной из…

18.09.2024

Не пропустите сегодняшнюю Урожайную Луну и последнее лунное затмение 2024 года! Вот когда это увидеть.

В ночь с 17 на 18 сентября ожидается неглубокое частичное лунное затмение.Конечно, затмение небольшое, но…

18.09.2024

Послушайте жуткий «звук» из черной дыры, снятый НАСА

НАСА создало захватывающий аудиоклип звуковых волн, исходящих из сверхмассивной черной дыры, расположенной на расстоянии 250…

18.09.2024