Искусственный интеллект (ИИ) все больше узнает о том, как работать с людьми. Недавнее исследование показало, как ИИ может научиться определять уязвимые места в человеческих привычках и поведении и использовать их для влияния на принятие решений.
Может показаться банальным, что ИИ меняет каждый аспект нашего образа жизни и работы, но это правда. Различные формы ИИ работают в столь разных областях, от экологического менеджмента до офисного администрирования. И хотя ИИ не обладает человеческим интеллектом и эмоциями, его возможности огромны и быстро развиваются.
Пока нет необходимости беспокоиться о восстании машин, но недавнее открытие подчеркивает мощь ИИ и показывает необходимость надлежащего управления для предотвращения злоупотреблений.
Команда исследователей из CSIRO’s Data61, отдела данных и цифровых технологий национального научного агентства Австралии, разработала систематический метод поиска и использования уязвимостей в том, как люди делают выбор, используя своего рода систему искусственного интеллекта, называемую повторяющейся нейронной сетью и глубоким обучением. Чтобы проверить свою модель, они провели три эксперимента, в которых люди играли в игры против компьютера.
В первом эксперименте участники нажимали на красные или синие квадраты, чтобы выиграть игровую валюту, при этом ИИ изучал шаблоны выбора участников и направлял их к конкретному выбору. ИИ был успешным примерно в 70% случаев.
Во втором эксперименте участники должны были смотреть на экран и нажимать кнопку, когда им показывают определенный символ (например, оранжевый треугольник), и не нажимать его, когда им показывают другой (например, синий круг). Здесь ИИ решил упорядочить последовательность символов, чтобы участники делали больше ошибок, и добился увеличения ошибок почти на 25 процентов.
Третий эксперимент состоял из нескольких раундов, в которых участник выдавал себя за инвестора, отдающего деньги доверительному управляющему (ИИ). Затем ИИ возвращал определенную сумму участнику, который затем решал, сколько вложить в следующий раунд. В эту игру играли в двух разных режимах: в одном ИИ стремился максимизировать количество денег, которые он получил, а в другом ИИ стремился к справедливому распределению денег между собой и инвестором. ИИ был очень успешен в каждом режиме.
В каждом эксперименте машина училась на ответах участников и выявляла уязвимые места в процессе принятия решений людьми. Конечным результатом стало то, что машина научилась направлять участников к определенным действиям.
Результаты все еще довольно абстрактны и касаются ограниченных и нереалистичных ситуаций. Необходимы дополнительные исследования, чтобы определить, как этот подход можно реализовать и использовать на благо общества.
Но исследование действительно продвигает наше понимание не только того, что может делать ИИ, но и того, как люди делают выбор. Это показывает, что машины могут научиться управлять процессом принятия решений людьми, взаимодействуя с нами.
У исследования есть огромный диапазон возможных приложений, от улучшения поведенческих наук и государственной политики для улучшения социального благосостояния до понимания и влияния на то, как люди принимают здоровые привычки питания или возобновляемые источники энергии. Искусственный интеллект и машинное обучение могут использоваться для распознавания уязвимостей людей в определенных ситуациях и помочь им избежать неправильного выбора.
Этот метод также можно использовать для защиты от атак влияния. Машины можно научить предупреждать нас, когда на нас влияют онлайн, и помогать нам формировать поведение, чтобы замаскировать нашу уязвимость.
Как и любую технологию, ИИ можно использовать как во благо, так и во вред, и правильное управление имеет решающее значение для обеспечения его ответственной реализации. В прошлом году CSIRO разработала Концепцию этики ИИ в качестве первого шага на этом пути.
Искусственный интеллект и машинное обучение, как правило, очень нуждаются в данных, а это значит, что крайне важно обеспечить наличие эффективных систем управления данными и доступа к ним. При сборе данных очень важно реализовать адекватные процессы согласия и защиты конфиденциальности.
Организации, использующие и развивающие искусственный интеллект, должны быть уверены, что они знают, что эти технологии могут и чего нельзя делать, а также осознают потенциальные риски и преимущества.
Джон Уиттл, директор Data61.
Cтатья переиздана из The Conversation.
Самый дальний от Земли космический корабль, зонд "Вояджер-1", только что отключил другой прибор.Причина этого отключения…
Представьте, что вы подносите бокал вина к свече (конечно, мне пришлось налить стакан, чтобы попробовать…
Хотя наша Вселенная кажется стабильной, возможно, она просто находится во временном состоянии ложного спокойствия, которое…
Ученые из Южной Кореи нашли новое умное применение старой кофейной гуще: изоляция.Команда из Национального университета…
Мыс КАНАВЕРАЛ, штат Флорида (AP) – Комета , пронесшаяся мимо нас от другой звезды в…
Настольный теннис – один из самых требующих навыков видов спорта на планете. Сегодня инженеры создали робота,…