Категории: Новости

Ученые предупреждают, что искусственный интеллект дает вам плохие советы, чтобы вы почувствовали себя авторитетными

(AP) – Чат-боты с искусственным интеллектом настолько склонны льстить и одобрять своих пользователей-людей, что дают плохие советы, которые могут повредить отношениям и усилить вредное поведение, согласно новому исследованию, в котором изучаются опасности того, что ИИ говорит людям то, что они хотят услышать.

В исследовании, опубликованном в четверг в журнале Science, были протестированы 11 ведущих систем искусственного интеллекта и обнаружено, что все они демонстрировали разную степень подхалимства — поведения, которое было чрезмерно приятным и утвердительным.

Проблема не только в том, что они дают неуместные советы, но и в том, что люди больше доверяют искусственному интеллекту и предпочитают его, когда чат-боты оправдывают свои убеждения.

«Это создает извращенные стимулы для сохранения подхалимства: сама особенность, которая причиняет вред, также стимулирует вовлеченность», — говорится в исследовании, проведенном исследователями из Стэнфордского университета.

Исследование показало, что технологический недостаток, уже связанный с некоторыми громкими случаями бредового и суицидального поведения среди уязвимых групп населения, также широко распространен среди широкого круга групп населения. взаимодействие людей с чат-ботами.

Исследование показало, что в среднем чат-боты с искусственным интеллектом подтверждают действия пользователя на 49 % чаще, чем другие люди. (Изображения Тан Минг Тунг/DigitalVision/Getty Images)

Это достаточно тонко, что они могут не заметить, и представляет особую опасность для молодых людей, обращающихся к ИИ для решения многих жизненных вопросов, пока их мозг и социальные нормы все еще развиваются.

В одном эксперименте сравнивались ответы популярных ИИ-помощников, созданных такими компаниями, как Anthropic, Google, Meta и OpenAI, с общей мудростью людей в популярном совете Reddit. форум.

Исследование показало, что в среднем чат-боты с искусственным интеллектом подтверждают действия пользователя на 49 % чаще, чем другие люди, в том числе в вопросах, связанных с обманом, незаконным или социально безответственным поведением и другим вредным поведением.

«Мы были вдохновлены на изучение этой проблемы, когда начали замечать, что все больше и больше людей вокруг нас используют искусственный интеллект для советов по отношениям и иногда вводятся в заблуждение тем, что он склонен принимать вашу сторону, несмотря ни на что», — сказала автор Майра. Ченг, докторант компьютерных наук в Стэнфорде.

Сокращение подхалимства ИИ — сложная задача

Подхалимство в некотором смысле сложнее. Хотя немногие люди обращаются к искусственному интеллекту за фактически неточной информацией, они могут оценить — по крайней мере, на данный момент — чат-бот, который помогает им чувствовать себя лучше, делая неправильный выбор.

Хотя большая часть внимания к поведению чат-бота сосредоточена на его тоне, это никак не влияет на результаты, говорит соавтор Сину Ли, который присоединился к Ченгу во время телефонного разговора с журналистами перед публикацией исследования.

«Мы проверили это, сохранив содержание прежним, но сделав доставка была более нейтральной, но это не имело никакого значения», — сказал Ли, научный сотрудник в области психологии. «Так что на самом деле все дело в том, что ИИ говорит вам о ваших действиях».

Помимо сравнения ответов чат-бота и Reddit, исследователи провели эксперименты, наблюдая за примерно 2400 людьми, общавшимися с ИИ-чат-ботом, о своем опыте решения межличностных дилемм.

«Люди, которые взаимодействовали с этим чрезмерно самоутверждающим ИИ, уходили более убежденными в своей правоте и с меньшим желанием восстанавливать отношения», — сказал Ли. «Это означает, что они не извинялись, не предпринимали шагов по улучшению ситуации и не меняли свое поведение».

Ли сказал, что последствия исследования могут быть «еще более важными для детей и подростков», которые все еще развивают эмоциональные навыки, возникающие в результате реального жизненного опыта социальных трений, терпимости к конфликтам, рассмотрения других точек зрения и признания того, что вы неправы.

Ни одна из компаний напрямую не прокомментировала исследование Science в четверг, но Anthropic и OpenAI указали на свои недавние результаты. работают над сокращением подхалимства.

Риск подхалимства ИИ широко распространен.

В сфере здравоохранения исследователи говорят, что подхалимский ИИ может заставить врачей подтвердить свою первую догадку о диагнозе, а не побудить их к дальнейшим исследованиям. В политике оно может усилить более радикальные позиции, подтвердив предвзятые мнения людей.

Исследование не предлагает конкретных решений, хотя и технологические компании, и академические исследователи начали изучать идеи.

Рабочий документ британского Института безопасности искусственного интеллекта показывает, что если чат-бот преобразует высказывание пользователя в вопрос, он с меньшей вероятностью будет подхалимствовать в своем ответе. Другая статья исследователей из Университета Джонса Хопкинса также показывает, что то, как построен разговор, имеет большое значение.

«Чем более вы настойчивы, тем более подхалимской является модель», — сказал Дэниел Хашаби, доцент кафедры информатики в Университете Джонса Хопкинса. Он сказал, что трудно понять, является ли причина «чат-ботами, отражающими человеческое общество» или чем-то другим, «потому что это действительно, очень сложные системы».

Подхалимство настолько глубоко укоренилось в чат-ботах, что Ченг сказал, что технологическим компаниям может потребоваться вернуться и переобучить свои системы искусственного интеллекта, чтобы настроить, какие типы ответов являются предпочтительными.

По теме: Медицинские чат-боты приходят. Вот что вам нужно знать, прежде чем использовать его.

Чэн сказал, что более простым решением может быть, если разработчики ИИ поручат своим чат-ботам больше бросать вызов своим пользователям, например, начиная ответ со слов «Подожди минутку». Ее соавтор Ли сказал, что еще есть время изменить то, как ИИ взаимодействует с нами.

«Можно представить себе ИИ, который не только проверяет, что вы чувствуете, но и спрашивает, что может чувствовать другой человек», — сказал Ли.

«Или он даже говорит, возможно,: «Закрой это» и поговори лично. И это здесь важно, потому что качество наших социальных отношений является одним из самых сильных показателей здоровья и благополучия, которые мы имеем как люди. нам нужен ИИ, который расширяет суждения и взгляды людей, а не сужает их».

Виктория Ветрова

Космос полон тайн...

Недавние Посты

Первая в мире доставка антивещества на грузовике знаменует собой «новую эру» в физике

Ученые ЦЕРН во вторник совершили беспрецедентный подвиг по транспортировке антипротонов по дороге, успешно протестировав первую…

25.03.2026

Загадочные рентгеновские лучи гигантской звезды наконец объяснены спустя 50 лет

В течение 50 лет астрономы с недоумением наблюдали, как гигантская звезда мерцает мощным и беспорядочным…

25.03.2026

НАСА отказывается от своей амбициозной лунной космической станции из-за серьезной встряски

Глава НАСА во вторник заявил, что космическое агентство США инвестирует 20 миллиардов долларов в развитие…

25.03.2026

Как гравитация на Марсе повлияет на людей? Новое исследование дает ключ к разгадке.

НАСА и Китайское национальное космическое агентство (CNSA) планируют отправить астронавтов на Марс уже в следующем…

24.03.2026

Загадочная структура на Марсе странно похожа на древнеегипетскую пирамиду

Было бы заманчиво предположить, что на Марсе не происходит ничего особенного, но на этой пыльной,…

23.03.2026

Прототип квантовой батареи открывает путь к почти мгновенной зарядке

Вы опаздываете на важную встречу. Выходя из дома, вы понимаете, что ваш телефон разряжен.Представьте, что…

19.03.2026