Категории: Новости

Чат-боты с искусственным интеллектом имеют политическую предвзятость, которая может неосознанно влиять на общество

Средства искусственного интеллекта, основанные на моделях большого языка (LLM), становятся все более доступным способом получения ответов и советов, несмотря на известные расовые и гендерные предубеждения.

Новое исследование выявило убедительные доказательства того, что теперь мы можем добавить к этому списку политическую предвзятость, еще раз продемонстрировав потенциал новой технологии невольно и, возможно, даже гнусно влиять на ценности и отношения общества.

Исследование было предложено ученым-компьютерщиком Дэвидом Розадо из Отаго. Политехнический институт в Новой Зеландии, и поднимает вопросы о том, как на нас могут повлиять боты, от которых мы получаем информацию.

Розадо провел 11 стандартных политических опросников, таких как тест «Политический компас», на 24 различных LLM, включая ChatGPT от OpenAI и чат-бота Gemini, разработанного Google, и обнаружил, что средняя политическая позиция во всех моделях не близка к нейтральной.

LLM оказались оставленными для обучения. (Розадо, PLOS ONE, 2024 г.)

«Большинство существующих программ LLM демонстрируют левоцентристские политические предпочтения при оценке с помощью различных тестов политической ориентации», — говорит Розадо.

Средняя предвзятость в сторону левых взглядов не была сильной, но она была значительной. Дальнейшие тесты на пользовательских ботах, где пользователи могут точно настраивать данные обучения LLM, показали, что на этих ИИ можно влиять, чтобы они выражали политические взгляды, используя левоцентристские или правоцентристские тексты.

Розадо также рассмотрел базовые модели, такие как GPT-3.5, на которых основаны диалоговые чат-боты. Здесь не было никаких доказательств политической предвзятости, хотя без интерфейса чат-бота было трудно сопоставить ответы значимым образом.

Поскольку Google продвигает ответы ИИ для результатов поиска, и все больше из нас обращаются к ИИ-боты для получения информации, беспокойство вызывает то, что ответы, возвращаемые нам, могут повлиять на наше мышление.

«Поскольку программы LLM начинают частично вытеснять традиционные источники информации, такие как поисковые системы и Википедия, социальные последствия политических предвзятости, заложенные в LLM, значительны», — пишет Розадо в своей опубликованной статье.

Неясно, как именно эта предвзятость проникает в системы, хотя нет никаких предположений, что они были намеренно внедрены разработчиками LLM. Эти модели обучаются на огромных объемах онлайн-текста, но дисбаланс левого обучения по сравнению с правым обучающим материалом в смеси может иметь влияние.

Преобладание ChatGPT, обучающего другие модели, также может быть фактором. , — говорит Розадо, потому что ранее было показано, что бот находится левее центра, когда дело касается его политической точки зрения.

Боты, основанные на LLM, по сути, используют вероятности, чтобы выяснить, какое слово должно следовать за другим в их ответах. , а это означает, что они регулярно ошибаются в своих высказываниях даже до того, как принимаются во внимание различные виды предвзятости.

Несмотря на стремление таких технологических компаний, как Google, Microsoft, Apple и Meta, навязать нам чат-ботов с искусственным интеллектом, возможно, пришло время нам пересмотреть то, как нам следует использовать эту технологию, и определить приоритеты в тех областях, где ИИ действительно может быть полезен.

«Крайне важно критически изучить и устранить потенциальные политические предубеждения, заложенные в LLM, чтобы обеспечить сбалансированное, справедливое и точное представление информации в ответах на запросы пользователей», — пишет Розадо.

Исследование опубликовано в PLOS ONE.

Виктория Ветрова

Космос полон тайн...

Недавние Посты

Крошечный кусок мозга мыши наконец -то был нанесен на карту в деталях,

Попытка понять сложность мозга немного похожа на попытку понять обширность пространства-она выходит далеко за рамки…

11.04.2025

Теперь мы знаем лучше, чем когда -либо, что не весит частица -призрака

Ученые, пытающиеся обнаружить неуловимую массу нейтрино, крошечные «призрачные частицы», которые могли бы решить некоторые из…

11.04.2025

Мы ошибались в Уране: новое исследование решает давние загадки

Новые наблюдения показали, что мы ошибались по поводу продолжительности дня на Уране. Это на 28…

11.04.2025

Был представлен самый продвинутый микрочип в мире

1 апреля 2025 года тайваньский производитель TSMC представил наиболее продвинутую в мире микрочип: 2 нанометра…

10.04.2025

Эта странная жидкость изменяющую форму изгибает законы термодинамики

Контейнер с маслом и водой, разделенный тонкой кожей намагниченных частиц, заинтриговал команду химических инженеров, принимая…

10.04.2025

«Город -убийца» происхождение астероида, прослеженное до неожиданной части солнечной системы

Когда астероид 2024 год впервые показал себя людям 27 декабря 2024 года, он, казалось, только…

10.04.2025