(AP) – Чат-боты с искусственным интеллектом настолько склонны льстить и одобрять своих пользователей-людей, что дают плохие советы, которые могут повредить отношениям и усилить вредное поведение, согласно новому исследованию, в котором изучаются опасности того, что ИИ говорит людям то, что они хотят услышать.
В исследовании, опубликованном в четверг в журнале Science, были протестированы 11 ведущих систем искусственного интеллекта и обнаружено, что все они демонстрировали разную степень подхалимства — поведения, которое было чрезмерно приятным и утвердительным.
Проблема не только в том, что они дают неуместные советы, но и в том, что люди больше доверяют искусственному интеллекту и предпочитают его, когда чат-боты оправдывают свои убеждения.
«Это создает извращенные стимулы для сохранения подхалимства: сама особенность, которая причиняет вред, также стимулирует вовлеченность», — говорится в исследовании, проведенном исследователями из Стэнфордского университета.
Исследование показало, что технологический недостаток, уже связанный с некоторыми громкими случаями бредового и суицидального поведения среди уязвимых групп населения, также широко распространен среди широкого круга групп населения. взаимодействие людей с чат-ботами.
Это достаточно тонко, что они могут не заметить, и представляет особую опасность для молодых людей, обращающихся к ИИ для решения многих жизненных вопросов, пока их мозг и социальные нормы все еще развиваются.
В одном эксперименте сравнивались ответы популярных ИИ-помощников, созданных такими компаниями, как Anthropic, Google, Meta и OpenAI, с общей мудростью людей в популярном совете Reddit. форум.
Исследование показало, что в среднем чат-боты с искусственным интеллектом подтверждают действия пользователя на 49 % чаще, чем другие люди, в том числе в вопросах, связанных с обманом, незаконным или социально безответственным поведением и другим вредным поведением.
«Мы были вдохновлены на изучение этой проблемы, когда начали замечать, что все больше и больше людей вокруг нас используют искусственный интеллект для советов по отношениям и иногда вводятся в заблуждение тем, что он склонен принимать вашу сторону, несмотря ни на что», — сказала автор Майра. Ченг, докторант компьютерных наук в Стэнфорде.
Подхалимство в некотором смысле сложнее. Хотя немногие люди обращаются к искусственному интеллекту за фактически неточной информацией, они могут оценить — по крайней мере, на данный момент — чат-бот, который помогает им чувствовать себя лучше, делая неправильный выбор.
Хотя большая часть внимания к поведению чат-бота сосредоточена на его тоне, это никак не влияет на результаты, говорит соавтор Сину Ли, который присоединился к Ченгу во время телефонного разговора с журналистами перед публикацией исследования.
«Мы проверили это, сохранив содержание прежним, но сделав доставка была более нейтральной, но это не имело никакого значения», — сказал Ли, научный сотрудник в области психологии. «Так что на самом деле все дело в том, что ИИ говорит вам о ваших действиях».
Помимо сравнения ответов чат-бота и Reddit, исследователи провели эксперименты, наблюдая за примерно 2400 людьми, общавшимися с ИИ-чат-ботом, о своем опыте решения межличностных дилемм.
«Люди, которые взаимодействовали с этим чрезмерно самоутверждающим ИИ, уходили более убежденными в своей правоте и с меньшим желанием восстанавливать отношения», — сказал Ли. «Это означает, что они не извинялись, не предпринимали шагов по улучшению ситуации и не меняли свое поведение».
Ли сказал, что последствия исследования могут быть «еще более важными для детей и подростков», которые все еще развивают эмоциональные навыки, возникающие в результате реального жизненного опыта социальных трений, терпимости к конфликтам, рассмотрения других точек зрения и признания того, что вы неправы.
Ни одна из компаний напрямую не прокомментировала исследование Science в четверг, но Anthropic и OpenAI указали на свои недавние результаты. работают над сокращением подхалимства.
В сфере здравоохранения исследователи говорят, что подхалимский ИИ может заставить врачей подтвердить свою первую догадку о диагнозе, а не побудить их к дальнейшим исследованиям. В политике оно может усилить более радикальные позиции, подтвердив предвзятые мнения людей.
Исследование не предлагает конкретных решений, хотя и технологические компании, и академические исследователи начали изучать идеи.
Рабочий документ британского Института безопасности искусственного интеллекта показывает, что если чат-бот преобразует высказывание пользователя в вопрос, он с меньшей вероятностью будет подхалимствовать в своем ответе. Другая статья исследователей из Университета Джонса Хопкинса также показывает, что то, как построен разговор, имеет большое значение.
«Чем более вы настойчивы, тем более подхалимской является модель», — сказал Дэниел Хашаби, доцент кафедры информатики в Университете Джонса Хопкинса. Он сказал, что трудно понять, является ли причина «чат-ботами, отражающими человеческое общество» или чем-то другим, «потому что это действительно, очень сложные системы».
Подхалимство настолько глубоко укоренилось в чат-ботах, что Ченг сказал, что технологическим компаниям может потребоваться вернуться и переобучить свои системы искусственного интеллекта, чтобы настроить, какие типы ответов являются предпочтительными.
По теме: Медицинские чат-боты приходят. Вот что вам нужно знать, прежде чем использовать его.
Чэн сказал, что более простым решением может быть, если разработчики ИИ поручат своим чат-ботам больше бросать вызов своим пользователям, например, начиная ответ со слов «Подожди минутку». Ее соавтор Ли сказал, что еще есть время изменить то, как ИИ взаимодействует с нами.
«Можно представить себе ИИ, который не только проверяет, что вы чувствуете, но и спрашивает, что может чувствовать другой человек», — сказал Ли.
«Или он даже говорит, возможно,: «Закрой это» и поговори лично. И это здесь важно, потому что качество наших социальных отношений является одним из самых сильных показателей здоровья и благополучия, которые мы имеем как люди. нам нужен ИИ, который расширяет суждения и взгляды людей, а не сужает их».
Ученые ЦЕРН во вторник совершили беспрецедентный подвиг по транспортировке антипротонов по дороге, успешно протестировав первую…
В течение 50 лет астрономы с недоумением наблюдали, как гигантская звезда мерцает мощным и беспорядочным…
Глава НАСА во вторник заявил, что космическое агентство США инвестирует 20 миллиардов долларов в развитие…
НАСА и Китайское национальное космическое агентство (CNSA) планируют отправить астронавтов на Марс уже в следующем…
Было бы заманчиво предположить, что на Марсе не происходит ничего особенного, но на этой пыльной,…
Вы опаздываете на важную встречу. Выходя из дома, вы понимаете, что ваш телефон разряжен.Представьте, что…