Категории: Новости

Ученые предупреждают, что искусственный интеллект дает вам плохие советы, чтобы вы почувствовали себя авторитетными

(AP) – Чат-боты с искусственным интеллектом настолько склонны льстить и одобрять своих пользователей-людей, что дают плохие советы, которые могут повредить отношениям и усилить вредное поведение, согласно новому исследованию, в котором изучаются опасности того, что ИИ говорит людям то, что они хотят услышать.

В исследовании, опубликованном в четверг в журнале Science, были протестированы 11 ведущих систем искусственного интеллекта и обнаружено, что все они демонстрировали разную степень подхалимства — поведения, которое было чрезмерно приятным и утвердительным.

Проблема не только в том, что они дают неуместные советы, но и в том, что люди больше доверяют искусственному интеллекту и предпочитают его, когда чат-боты оправдывают свои убеждения.

«Это создает извращенные стимулы для сохранения подхалимства: сама особенность, которая причиняет вред, также стимулирует вовлеченность», — говорится в исследовании, проведенном исследователями из Стэнфордского университета.

Исследование показало, что технологический недостаток, уже связанный с некоторыми громкими случаями бредового и суицидального поведения среди уязвимых групп населения, также широко распространен среди широкого круга групп населения. взаимодействие людей с чат-ботами.

Исследование показало, что в среднем чат-боты с искусственным интеллектом подтверждают действия пользователя на 49 % чаще, чем другие люди. (Изображения Тан Минг Тунг/DigitalVision/Getty Images)

Это достаточно тонко, что они могут не заметить, и представляет особую опасность для молодых людей, обращающихся к ИИ для решения многих жизненных вопросов, пока их мозг и социальные нормы все еще развиваются.

В одном эксперименте сравнивались ответы популярных ИИ-помощников, созданных такими компаниями, как Anthropic, Google, Meta и OpenAI, с общей мудростью людей в популярном совете Reddit. форум.

Исследование показало, что в среднем чат-боты с искусственным интеллектом подтверждают действия пользователя на 49 % чаще, чем другие люди, в том числе в вопросах, связанных с обманом, незаконным или социально безответственным поведением и другим вредным поведением.

«Мы были вдохновлены на изучение этой проблемы, когда начали замечать, что все больше и больше людей вокруг нас используют искусственный интеллект для советов по отношениям и иногда вводятся в заблуждение тем, что он склонен принимать вашу сторону, несмотря ни на что», — сказала автор Майра. Ченг, докторант компьютерных наук в Стэнфорде.

Сокращение подхалимства ИИ — сложная задача

Подхалимство в некотором смысле сложнее. Хотя немногие люди обращаются к искусственному интеллекту за фактически неточной информацией, они могут оценить — по крайней мере, на данный момент — чат-бот, который помогает им чувствовать себя лучше, делая неправильный выбор.

Хотя большая часть внимания к поведению чат-бота сосредоточена на его тоне, это никак не влияет на результаты, говорит соавтор Сину Ли, который присоединился к Ченгу во время телефонного разговора с журналистами перед публикацией исследования.

«Мы проверили это, сохранив содержание прежним, но сделав доставка была более нейтральной, но это не имело никакого значения», — сказал Ли, научный сотрудник в области психологии. «Так что на самом деле все дело в том, что ИИ говорит вам о ваших действиях».

Помимо сравнения ответов чат-бота и Reddit, исследователи провели эксперименты, наблюдая за примерно 2400 людьми, общавшимися с ИИ-чат-ботом, о своем опыте решения межличностных дилемм.

«Люди, которые взаимодействовали с этим чрезмерно самоутверждающим ИИ, уходили более убежденными в своей правоте и с меньшим желанием восстанавливать отношения», — сказал Ли. «Это означает, что они не извинялись, не предпринимали шагов по улучшению ситуации и не меняли свое поведение».

Ли сказал, что последствия исследования могут быть «еще более важными для детей и подростков», которые все еще развивают эмоциональные навыки, возникающие в результате реального жизненного опыта социальных трений, терпимости к конфликтам, рассмотрения других точек зрения и признания того, что вы неправы.

Ни одна из компаний напрямую не прокомментировала исследование Science в четверг, но Anthropic и OpenAI указали на свои недавние результаты. работают над сокращением подхалимства.

Риск подхалимства ИИ широко распространен.

В сфере здравоохранения исследователи говорят, что подхалимский ИИ может заставить врачей подтвердить свою первую догадку о диагнозе, а не побудить их к дальнейшим исследованиям. В политике оно может усилить более радикальные позиции, подтвердив предвзятые мнения людей.

Исследование не предлагает конкретных решений, хотя и технологические компании, и академические исследователи начали изучать идеи.

Рабочий документ британского Института безопасности искусственного интеллекта показывает, что если чат-бот преобразует высказывание пользователя в вопрос, он с меньшей вероятностью будет подхалимствовать в своем ответе. Другая статья исследователей из Университета Джонса Хопкинса также показывает, что то, как построен разговор, имеет большое значение.

«Чем более вы настойчивы, тем более подхалимской является модель», — сказал Дэниел Хашаби, доцент кафедры информатики в Университете Джонса Хопкинса. Он сказал, что трудно понять, является ли причина «чат-ботами, отражающими человеческое общество» или чем-то другим, «потому что это действительно, очень сложные системы».

Подхалимство настолько глубоко укоренилось в чат-ботах, что Ченг сказал, что технологическим компаниям может потребоваться вернуться и переобучить свои системы искусственного интеллекта, чтобы настроить, какие типы ответов являются предпочтительными.

По теме: Медицинские чат-боты приходят. Вот что вам нужно знать, прежде чем использовать его.

Чэн сказал, что более простым решением может быть, если разработчики ИИ поручат своим чат-ботам больше бросать вызов своим пользователям, например, начиная ответ со слов «Подожди минутку». Ее соавтор Ли сказал, что еще есть время изменить то, как ИИ взаимодействует с нами.

«Можно представить себе ИИ, который не только проверяет, что вы чувствуете, но и спрашивает, что может чувствовать другой человек», — сказал Ли.

«Или он даже говорит, возможно,: «Закрой это» и поговори лично. И это здесь важно, потому что качество наших социальных отношений является одним из самых сильных показателей здоровья и благополучия, которые мы имеем как люди. нам нужен ИИ, который расширяет суждения и взгляды людей, а не сужает их».

Виктория Ветрова

Космос полон тайн...

Недавние Посты

Звездная пыль, попавшая в антарктический лед, раскрывает путь Земли через космос

Этот сверкающий космический корабль «Земля» и Солнечная система, в которой она обитает, не зафиксированы в…

11.05.2026

Неуловимый квантовый материал оказался чем-то еще более странным

На протяжении десятилетий ученые искали квантово-спиновые жидкости (QSL) — материалы, которые, как считается, обладают рядом…

10.05.2026

Закон гравитации Ньютона только что прошел самое большое испытание в истории

Движение скоплений галактик в далекой Вселенной только что стало крупнейшей проверкой законов гравитации.В масштабах, охватывающих…

10.05.2026

Сознателен ли ИИ? Один известный учёный говорит, что это возможно

Недавно биолог-эволюционист Ричард Докинз написал статью, в которой предположил, что чат-бот с искусственным интеллектом Клод…

08.05.2026

Curiosity просверлил скалу на Марсе и преподнес ученым большой сюрприз

Марсоход Curiosity преподнес много сюрпризов на поверхности Марса, но его последний сюрприз совершенно иного рода.Все…

07.05.2026

Загадочное происхождение Луны все еще ставит в тупик астрономов

Спустя полвека после того, как лунный модуль НАСА «Аполлон-17» поднялся с северо-восточного ближнего квадранта Луны,…

07.05.2026