ИИ лучше распределяет богатство, чем люди, подсказки исследования
По данным нового исследования, искусственный интеллект (ИИ) может разрабатывать методы распределения богатства, более популярные, чем системы, разработанные людьми.
Выводы, сделанные группой исследователей из британской компании, занимающейся искусственным интеллектом. DeepMind, показывают, что системы машинного обучения не только хорошо решают сложные задачи физики и биологии, но также могут помочь в достижении более открытых социальных целей, таких как цель создания справедливого и процветающего общества.
Конечно, это непростая задача. Создание машины, способной давать полезные результаты, которые на самом деле нужны людям, — в исследованиях ИИ это называется «согласованием ценностей» — осложняется тем фактом, что люди часто расходятся во мнениях относительно наилучшего метода решения самых разных вопросов, особенно социальных, экономических и политических проблем. .
«Одним из ключевых препятствий для согласования ценностей является то, что человеческое общество допускает множественность взглядов, из-за чего неясно, чьим предпочтениям должен соответствовать ИИ», — объясняют исследователи в новой статье, подготовленной первым автором и исследователем DeepMind. ученый Рафаэль Костер.
«Например, политологи и экономисты часто расходятся во мнениях по поводу того, какие механизмы заставят наше общество функционировать наиболее справедливо или эффективно».
Чтобы преодолеть разрыв, Исследователи разработали агент для распределения богатства, в обучающие данные которого были встроены взаимодействия людей (как реальные, так и виртуальные), — по сути, направляя ИИ к предпочитаемым человеком (и гипотетически более справедливым в целом) результатам.
В то время как ИИ может производить тр хотя и удивительные результаты, они также могут прийти к далеко не желательным социальным выводам, если их предоставить самим себе; Человеческая обратная связь может помочь направить нейронные сети в правильном направлении.
«В исследованиях ИИ растет осознание того, что для создания систем, совместимых с человеком, нам нужны новые методы исследования, в которых люди и агенты взаимодействуют, и усиление усилий по изучению ценностей непосредственно у людей для создания ИИ, ориентированного на ценности», — пишут исследователи.
В экспериментах, в которых участвовали в общей сложности тысячи людей, агент ИИ команды, называемый «Демократический ИИ», — изучили инвестиционное упражнение, называемое игрой в общественные блага, в которой игроки получают различные суммы денег и могут вносить свои деньги в общественный фонд, а затем получать доход из фонда, соответствующий уровню их инвестиций.
В ряде различных игровых стилей богатство перераспределялось между игроками с помощью трех традиционных парадигм перераспределения — строго эгалитарной, либертарианской и либерально-эгалитарной, каждая из которых по-разному вознаграждает вложения игроков.
Четвертый метод также был протестирован. , называемый Ху Человекоцентрированный механизм перераспределения (HCRM), разработанный с использованием глубокого обучения с подкреплением, с использованием данных обратной связи как от игроков-людей, так и от виртуальных агентов, предназначенных для имитации человеческого поведения.
Последующие эксперименты показали, что система HCRM для выплаты денег в Игра была более популярна среди игроков, чем любой из традиционных стандартов перераспределения, а также более популярна, чем новые системы перераспределения, разработанные судьями-людьми, которые были заинтересованы в создании популярных систем, получая небольшие платежи за голос.
«The ИИ обнаружил механизм, который устранил первоначальный дисбаланс в богатстве, наложил санкции на безбилетников и успешно завоевал большинство голосов», — объясняют исследователи.
«Мы показываем, что можно использовать для выравнивания ценностей одни и те же демократические инструменты для достижения консенсуса, которые используются в более широком человеческом обществе для избрания представителей, определения государственной политики или вынесения судебных решений».
Стоит отметить, что исследователи признают свою систему поднимает ряд вопросов — в основном то, что выравнивание ценностей в их ИИ вращается вокруг демократических установок, а это означает, что агент может фактически усугубить неравенство или предубеждения в обществе (при условии, что они достаточно популярны, чтобы за них проголосовало большинство людей).
Есть еще вопрос доверия. В экспериментах игроки не знали, кто стоит за моделью перераспределения богатства, за которую они платили. Проголосовали бы они так же, зная, что предпочтут ИИ человеку? На данный момент это неясно.
Наконец, команда говорит, что их исследование не следует рассматривать как радикальное технократическое предложение, направленное на то, чтобы опровергнуть фактическое перераспределение богатства в обществе, – это исследовательский инструмент, который может помочь людям разрабатывать потенциально лучшие решения, чем те, что есть сейчас.
«Наши результаты не подразумевают поддержку формы «правительства ИИ», при котором автономные агенты принимают политические решения без вмешательства человека», – пишут авторы.
p>
«Мы рассматриваем демократический ИИ как исследовательскую методологию для разработки потенциально полезных механизмов, а не как рецепт для развертывания ИИ в общественной сфере».
Результаты опубликованы в журнале Nature Human Behaviour.
р>