Категории: Новости

Чат-боты с искусственным интеллектом имеют политическую предвзятость, которая может неосознанно влиять на общество

Средства искусственного интеллекта, основанные на моделях большого языка (LLM), становятся все более доступным способом получения ответов и советов, несмотря на известные расовые и гендерные предубеждения.

Новое исследование выявило убедительные доказательства того, что теперь мы можем добавить к этому списку политическую предвзятость, еще раз продемонстрировав потенциал новой технологии невольно и, возможно, даже гнусно влиять на ценности и отношения общества.

Исследование было предложено ученым-компьютерщиком Дэвидом Розадо из Отаго. Политехнический институт в Новой Зеландии, и поднимает вопросы о том, как на нас могут повлиять боты, от которых мы получаем информацию.

Розадо провел 11 стандартных политических опросников, таких как тест «Политический компас», на 24 различных LLM, включая ChatGPT от OpenAI и чат-бота Gemini, разработанного Google, и обнаружил, что средняя политическая позиция во всех моделях не близка к нейтральной.

LLM оказались оставленными для обучения. (Розадо, PLOS ONE, 2024 г.)

«Большинство существующих программ LLM демонстрируют левоцентристские политические предпочтения при оценке с помощью различных тестов политической ориентации», — говорит Розадо.

Средняя предвзятость в сторону левых взглядов не была сильной, но она была значительной. Дальнейшие тесты на пользовательских ботах, где пользователи могут точно настраивать данные обучения LLM, показали, что на этих ИИ можно влиять, чтобы они выражали политические взгляды, используя левоцентристские или правоцентристские тексты.

Розадо также рассмотрел базовые модели, такие как GPT-3.5, на которых основаны диалоговые чат-боты. Здесь не было никаких доказательств политической предвзятости, хотя без интерфейса чат-бота было трудно сопоставить ответы значимым образом.

Поскольку Google продвигает ответы ИИ для результатов поиска, и все больше из нас обращаются к ИИ-боты для получения информации, беспокойство вызывает то, что ответы, возвращаемые нам, могут повлиять на наше мышление.

«Поскольку программы LLM начинают частично вытеснять традиционные источники информации, такие как поисковые системы и Википедия, социальные последствия политических предвзятости, заложенные в LLM, значительны», — пишет Розадо в своей опубликованной статье.

Неясно, как именно эта предвзятость проникает в системы, хотя нет никаких предположений, что они были намеренно внедрены разработчиками LLM. Эти модели обучаются на огромных объемах онлайн-текста, но дисбаланс левого обучения по сравнению с правым обучающим материалом в смеси может иметь влияние.

Преобладание ChatGPT, обучающего другие модели, также может быть фактором. , — говорит Розадо, потому что ранее было показано, что бот находится левее центра, когда дело касается его политической точки зрения.

Боты, основанные на LLM, по сути, используют вероятности, чтобы выяснить, какое слово должно следовать за другим в их ответах. , а это означает, что они регулярно ошибаются в своих высказываниях даже до того, как принимаются во внимание различные виды предвзятости.

Несмотря на стремление таких технологических компаний, как Google, Microsoft, Apple и Meta, навязать нам чат-ботов с искусственным интеллектом, возможно, пришло время нам пересмотреть то, как нам следует использовать эту технологию, и определить приоритеты в тех областях, где ИИ действительно может быть полезен.

«Крайне важно критически изучить и устранить потенциальные политические предубеждения, заложенные в LLM, чтобы обеспечить сбалансированное, справедливое и точное представление информации в ответах на запросы пользователей», — пишет Розадо.

Исследование опубликовано в PLOS ONE.

Виктория Ветрова

Космос полон тайн...

Недавние Посты

Самая черная ткань из когда-либо созданных, поглощает 99,87% всего падающего на нее света

Если вы хотите выделиться на своем следующем метал-концерте, не соглашайтесь на цветное пятно в море…

05.12.2025

НАСА предупреждает, что почти все изображения космического телескопа вскоре могут быть загрязнены

Свет полумиллиона спутников, которые человечество планирует запустить на орбиту Земли в ближайшие годы, может испортить…

05.12.2025

Приближаются компьютеры, сделанные из ткани человеческого мозга. Готовы ли мы?

Поскольку известные исследователи искусственного интеллекта (ИИ) видят ограничения на нынешнем этапе развития технологии, все больше…

04.12.2025

«Торнадо» галактик может оказаться самой длинной вращающейся структурой, которую когда-либо видели

Команда астрономов, изучающая распределение галактик в ближайшем космосе, обнаружила нечто поистине необычное: огромную нить галактик,…

04.12.2025

Близкую кисть с «Космической собакой» все еще можно увидеть на краю Солнечной системы

Около 4,5 миллионов лет назад огромная космическая собака пронеслась мимо нашей Солнечной системы – и…

04.12.2025

«Кьюриосити» расколол камень на Марсе и преподнес большой сюрприз

Камень на Марсе рассыпал удивительное желтое сокровище после того, как «Кьюриосити» случайно разбил его ничем…

03.12.2025