Искусственный интеллект (ИИ) все больше узнает о том, как работать с людьми. Недавнее исследование показало, как ИИ может научиться определять уязвимые места в человеческих привычках и поведении и использовать их для влияния на принятие решений.
Может показаться банальным, что ИИ меняет каждый аспект нашего образа жизни и работы, но это правда. Различные формы ИИ работают в столь разных областях, от экологического менеджмента до офисного администрирования. И хотя ИИ не обладает человеческим интеллектом и эмоциями, его возможности огромны и быстро развиваются.
Пока нет необходимости беспокоиться о восстании машин, но недавнее открытие подчеркивает мощь ИИ и показывает необходимость надлежащего управления для предотвращения злоупотреблений.
Команда исследователей из CSIRO’s Data61, отдела данных и цифровых технологий национального научного агентства Австралии, разработала систематический метод поиска и использования уязвимостей в том, как люди делают выбор, используя своего рода систему искусственного интеллекта, называемую повторяющейся нейронной сетью и глубоким обучением. Чтобы проверить свою модель, они провели три эксперимента, в которых люди играли в игры против компьютера.
В первом эксперименте участники нажимали на красные или синие квадраты, чтобы выиграть игровую валюту, при этом ИИ изучал шаблоны выбора участников и направлял их к конкретному выбору. ИИ был успешным примерно в 70% случаев.
Во втором эксперименте участники должны были смотреть на экран и нажимать кнопку, когда им показывают определенный символ (например, оранжевый треугольник), и не нажимать его, когда им показывают другой (например, синий круг). Здесь ИИ решил упорядочить последовательность символов, чтобы участники делали больше ошибок, и добился увеличения ошибок почти на 25 процентов.
Третий эксперимент состоял из нескольких раундов, в которых участник выдавал себя за инвестора, отдающего деньги доверительному управляющему (ИИ). Затем ИИ возвращал определенную сумму участнику, который затем решал, сколько вложить в следующий раунд. В эту игру играли в двух разных режимах: в одном ИИ стремился максимизировать количество денег, которые он получил, а в другом ИИ стремился к справедливому распределению денег между собой и инвестором. ИИ был очень успешен в каждом режиме.
В каждом эксперименте машина училась на ответах участников и выявляла уязвимые места в процессе принятия решений людьми. Конечным результатом стало то, что машина научилась направлять участников к определенным действиям.
Результаты все еще довольно абстрактны и касаются ограниченных и нереалистичных ситуаций. Необходимы дополнительные исследования, чтобы определить, как этот подход можно реализовать и использовать на благо общества.
Но исследование действительно продвигает наше понимание не только того, что может делать ИИ, но и того, как люди делают выбор. Это показывает, что машины могут научиться управлять процессом принятия решений людьми, взаимодействуя с нами.
У исследования есть огромный диапазон возможных приложений, от улучшения поведенческих наук и государственной политики для улучшения социального благосостояния до понимания и влияния на то, как люди принимают здоровые привычки питания или возобновляемые источники энергии. Искусственный интеллект и машинное обучение могут использоваться для распознавания уязвимостей людей в определенных ситуациях и помочь им избежать неправильного выбора.
Этот метод также можно использовать для защиты от атак влияния. Машины можно научить предупреждать нас, когда на нас влияют онлайн, и помогать нам формировать поведение, чтобы замаскировать нашу уязвимость.
Как и любую технологию, ИИ можно использовать как во благо, так и во вред, и правильное управление имеет решающее значение для обеспечения его ответственной реализации. В прошлом году CSIRO разработала Концепцию этики ИИ в качестве первого шага на этом пути.
Искусственный интеллект и машинное обучение, как правило, очень нуждаются в данных, а это значит, что крайне важно обеспечить наличие эффективных систем управления данными и доступа к ним. При сборе данных очень важно реализовать адекватные процессы согласия и защиты конфиденциальности.
Организации, использующие и развивающие искусственный интеллект, должны быть уверены, что они знают, что эти технологии могут и чего нельзя делать, а также осознают потенциальные риски и преимущества.
Джон Уиттл, директор Data61.
Cтатья переиздана из The Conversation.
Пара верхних кварков была обнаружена в детрите, распыляющемся из-за столкновения двух атомов свинца. Обнаружение укрепляет…
Amazon готовится запустить свою первую полную партию спутников Project Kuiper на следующей неделе, отмечая решающую…
Квантовая машина использовала запутанные кубиты для создания числа, сертифицированного как по-настоящему случайное впервые, демонстрируя удобную…
материя и антивещество должны были полностью уничтожить друг друга назад, оставив вселенную очень пустое место.…
Еще раз, Марс подарил нам пример чего -то, что, кажется, в изобилии: чрезвычайно необычные и…
Одним из распространенных заблуждений о черных дырах является то, что они поглощают не только значение,…