Искусственный интеллект (ИИ) все больше узнает о том, как работать с людьми. Недавнее исследование показало, как ИИ может научиться определять уязвимые места в человеческих привычках и поведении и использовать их для влияния на принятие решений.
Может показаться банальным, что ИИ меняет каждый аспект нашего образа жизни и работы, но это правда. Различные формы ИИ работают в столь разных областях, от экологического менеджмента до офисного администрирования. И хотя ИИ не обладает человеческим интеллектом и эмоциями, его возможности огромны и быстро развиваются.
Пока нет необходимости беспокоиться о восстании машин, но недавнее открытие подчеркивает мощь ИИ и показывает необходимость надлежащего управления для предотвращения злоупотреблений.
Команда исследователей из CSIRO’s Data61, отдела данных и цифровых технологий национального научного агентства Австралии, разработала систематический метод поиска и использования уязвимостей в том, как люди делают выбор, используя своего рода систему искусственного интеллекта, называемую повторяющейся нейронной сетью и глубоким обучением. Чтобы проверить свою модель, они провели три эксперимента, в которых люди играли в игры против компьютера.
В первом эксперименте участники нажимали на красные или синие квадраты, чтобы выиграть игровую валюту, при этом ИИ изучал шаблоны выбора участников и направлял их к конкретному выбору. ИИ был успешным примерно в 70% случаев.
Во втором эксперименте участники должны были смотреть на экран и нажимать кнопку, когда им показывают определенный символ (например, оранжевый треугольник), и не нажимать его, когда им показывают другой (например, синий круг). Здесь ИИ решил упорядочить последовательность символов, чтобы участники делали больше ошибок, и добился увеличения ошибок почти на 25 процентов.
Третий эксперимент состоял из нескольких раундов, в которых участник выдавал себя за инвестора, отдающего деньги доверительному управляющему (ИИ). Затем ИИ возвращал определенную сумму участнику, который затем решал, сколько вложить в следующий раунд. В эту игру играли в двух разных режимах: в одном ИИ стремился максимизировать количество денег, которые он получил, а в другом ИИ стремился к справедливому распределению денег между собой и инвестором. ИИ был очень успешен в каждом режиме.
В каждом эксперименте машина училась на ответах участников и выявляла уязвимые места в процессе принятия решений людьми. Конечным результатом стало то, что машина научилась направлять участников к определенным действиям.
Результаты все еще довольно абстрактны и касаются ограниченных и нереалистичных ситуаций. Необходимы дополнительные исследования, чтобы определить, как этот подход можно реализовать и использовать на благо общества.
Но исследование действительно продвигает наше понимание не только того, что может делать ИИ, но и того, как люди делают выбор. Это показывает, что машины могут научиться управлять процессом принятия решений людьми, взаимодействуя с нами.
У исследования есть огромный диапазон возможных приложений, от улучшения поведенческих наук и государственной политики для улучшения социального благосостояния до понимания и влияния на то, как люди принимают здоровые привычки питания или возобновляемые источники энергии. Искусственный интеллект и машинное обучение могут использоваться для распознавания уязвимостей людей в определенных ситуациях и помочь им избежать неправильного выбора.
Этот метод также можно использовать для защиты от атак влияния. Машины можно научить предупреждать нас, когда на нас влияют онлайн, и помогать нам формировать поведение, чтобы замаскировать нашу уязвимость.
Как и любую технологию, ИИ можно использовать как во благо, так и во вред, и правильное управление имеет решающее значение для обеспечения его ответственной реализации. В прошлом году CSIRO разработала Концепцию этики ИИ в качестве первого шага на этом пути.
Искусственный интеллект и машинное обучение, как правило, очень нуждаются в данных, а это значит, что крайне важно обеспечить наличие эффективных систем управления данными и доступа к ним. При сборе данных очень важно реализовать адекватные процессы согласия и защиты конфиденциальности.
Организации, использующие и развивающие искусственный интеллект, должны быть уверены, что они знают, что эти технологии могут и чего нельзя делать, а также осознают потенциальные риски и преимущества.
Джон Уиттл, директор Data61.
Cтатья переиздана из The Conversation.
Математика, которую Альберт Эйнштейн разработал для описания гравитационного механизма физической Вселенной в начале 20 века,…
В последние годы астрономы разработали методы измерения содержания металлов в звездах с чрезвычайной точностью. Обладая…
Какими бы эффективными ни были электронные системы хранения данных, они не имеют ничего общего с…
В 1896 году немецкий химик Эмиль Фишер заметил нечто очень странное в молекуле под названием…
Если вам посчастливилось наблюдать полное затмение, вы наверняка помните ореол яркого света вокруг Луны во…
В ранней Вселенной, задолго до того, как они успели вырасти, астрономы обнаружили то, что они…