Новости

Искусственный Интеллект научился манипулировать человеческим поведением

Искусственный интеллект (ИИ) все больше узнает о том, как работать с людьми. Недавнее исследование показало, как ИИ может научиться определять уязвимые места в человеческих привычках и поведении и использовать их для влияния на принятие решений.

Может показаться банальным, что ИИ меняет каждый аспект нашего образа жизни и работы, но это правда. Различные формы ИИ работают в столь разных областях, от экологического менеджмента до офисного администрирования. И хотя ИИ не обладает человеческим интеллектом и эмоциями, его возможности огромны и быстро развиваются.

Пока нет необходимости беспокоиться о восстании машин, но недавнее открытие подчеркивает мощь ИИ и показывает необходимость надлежащего управления для предотвращения злоупотреблений.

Как ИИ может научиться влиять на поведение человека.

Команда исследователей из CSIRO’s Data61, отдела данных и цифровых технологий национального научного агентства Австралии, разработала систематический метод поиска и использования уязвимостей в том, как люди делают выбор, используя своего рода систему искусственного интеллекта, называемую повторяющейся нейронной сетью и глубоким обучением. Чтобы проверить свою модель, они провели три эксперимента, в которых люди играли в игры против компьютера.

В первом эксперименте участники нажимали на красные или синие квадраты, чтобы выиграть игровую валюту, при этом ИИ изучал шаблоны выбора участников и направлял их к конкретному выбору. ИИ был успешным примерно в 70% случаев.

Во втором эксперименте участники должны были смотреть на экран и нажимать кнопку, когда им показывают определенный символ (например, оранжевый треугольник), и не нажимать его, когда им показывают другой (например, синий круг). Здесь ИИ решил упорядочить последовательность символов, чтобы участники делали больше ошибок, и добился увеличения ошибок почти на 25 процентов.

Третий эксперимент состоял из нескольких раундов, в которых участник выдавал себя за инвестора, отдающего деньги доверительному управляющему (ИИ). Затем ИИ возвращал определенную сумму участнику, который затем решал, сколько вложить в следующий раунд. В эту игру играли в двух разных режимах: в одном ИИ стремился максимизировать количество денег, которые он получил, а в другом ИИ стремился к справедливому распределению денег между собой и инвестором. ИИ был очень успешен в каждом режиме.

В каждом эксперименте машина училась на ответах участников и выявляла уязвимые места в процессе принятия решений людьми. Конечным результатом стало то, что машина научилась направлять участников к определенным действиям.

Что означают исследования для будущих разработок ИИ.

Результаты все еще довольно абстрактны и касаются ограниченных и нереалистичных ситуаций. Необходимы дополнительные исследования, чтобы определить, как этот подход можно реализовать и использовать на благо общества.

Но исследование действительно продвигает наше понимание не только того, что может делать ИИ, но и того, как люди делают выбор. Это показывает, что машины могут научиться управлять процессом принятия решений людьми, взаимодействуя с нами.

У исследования есть огромный диапазон возможных приложений, от улучшения поведенческих наук и государственной политики для улучшения социального благосостояния до понимания и влияния на то, как люди принимают здоровые привычки питания или возобновляемые источники энергии. Искусственный интеллект и машинное обучение могут использоваться для распознавания уязвимостей людей в определенных ситуациях и помочь им избежать неправильного выбора.

Этот метод также можно использовать для защиты от атак влияния. Машины можно научить предупреждать нас, когда на нас влияют онлайн, и помогать нам формировать поведение, чтобы замаскировать нашу уязвимость.

Что дальше?

Как и любую технологию, ИИ можно использовать как во благо, так и во вред, и правильное управление имеет решающее значение для обеспечения его ответственной реализации. В прошлом году CSIRO разработала Концепцию этики ИИ в качестве первого шага на этом пути.

Искусственный интеллект и машинное обучение, как правило, очень нуждаются в данных, а это значит, что крайне важно обеспечить наличие эффективных систем управления данными и доступа к ним. При сборе данных очень важно реализовать адекватные процессы согласия и защиты конфиденциальности.

Организации, использующие и развивающие искусственный интеллект, должны быть уверены, что они знают, что эти технологии могут и чего нельзя делать, а также осознают потенциальные риски и преимущества.

Джон Уиттл, директор Data61.

Cтатья переиздана из The Conversation.

Виктория Ветрова

Космос полон тайн...

Недавние Посты

Амбициозное исследование намекает на появление новых теорий темной энергии

Астрофизики как никогда близки к разгадке тайны того, что составляет почти 70 процентов Вселенной.Теперь опубликован…

28.01.2026

Если астероид упадет на Луну в 2032 году, последствия могут достичь Земли

В каждой ситуации есть светлая сторона. В 2032 году сама Луна может иметь особенно яркую…

28.01.2026

Микробы в космосе мутировали и развили замечательную способность

Коробка, полная вирусов и бактерий, завершила свой обратный путь на Международную космическую станцию, и изменения,…

27.01.2026

Светящийся железный слиток преследует туманность Кольцо – и никто не знает, почему

Мы знали о знаменитой туманности Кольцо уже почти 250 лет, но только сейчас астрономы обнаружили…

26.01.2026

Горячий черный лед может быть ответственен за дикий магнетизм Нептуна

Внутри ядер ледяных планет-гигантов давление и температура настолько экстремальны, что находящаяся там вода переходит в…

26.01.2026

Момент, которого мы так ждали: JWST приближается к «Глу Саурона»

Мы знаем, что произойдет с Солнцем и нашей Солнечной системой, потому что мы можем заглянуть…

24.01.2026