Идея свержения человечества искусственным интеллектом обсуждалась десятилетиями, и такие программы, как ChatGPT, только возобновили эти опасения.
Так насколько вероятно, что мы сможем контролировать высокие уровень компьютерного сверхразума? Ученые еще в 2021 году обработали цифры. Ответ? Почти наверняка нет.
Загвоздка в том, что для управления сверхразумом, находящимся далеко за пределами человеческого понимания, потребуется симуляция этого сверхразума, которую мы можем проанализировать. Но если мы не в состоянии это понять, создать такую симуляцию невозможно.
Невозможно установить такие правила, как «не причинять вреда людям», если мы не понимаем, что такое сценарии что ИИ собирается придумать, предполагают авторы статьи. Как только компьютерная система работает на уровне, превышающем возможности наших программистов, мы больше не можем устанавливать ограничения.
«Сверхразум ставит принципиально иную проблему, чем те, которые обычно изучаются под лозунгом «роботизирования». этика», — написали исследователи еще в 2021 году.
«Это связано с тем, что сверхразум многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения целей, потенциально непостижимых для людей. , не говоря уже об управляемости».
Часть рассуждений команды исходит из проблемы остановки, сформулированной Аланом Тьюрингом в 1936 году. Проблема заключается в том, чтобы узнать, придет ли компьютерная программа к выводу и ответу (так что она останавливается), или просто зацикливаться, пытаясь найти ее.
Как доказал Тьюринг с помощью хитрой математики, хотя мы можем знать, что для некоторых конкретных программ логически невозможно найти способ, который позволит нам знать это для каждой потенциальной программы, которая когда-либо могла быть написана.
Это возвращает нас к ИИ, который в сверхинтеллектуальном состоянии мог бы одновременно удерживать в своей памяти все возможные компьютерные программы.
Любая программа, написанная для того, чтобы остановить ИИ, причиняющий вред людям и разрушающий мир, например, может прийти к выводу (и остановиться) или нет — математически невозможно быть абсолютно уверенным в любом случае, а это значит, что его нельзя сдержать. p>
«По сути, это делает алгоритм сдерживания непригодным для использования», — сказал ученый-компьютерщик Ияд Рахван из Института развития человека им. Макса Планка в Германии.
Альтернатива обучению ИИ некоторым этическим и сказать ему не разрушать мир — то, в чем ни один алгоритм не может быть абсолютно уверен, исследователи говорят — это ограничить возможности сверхразума. Например, он может быть отрезан от частей Интернета или определенных сетей.
Исследование 2021 года также отвергает эту идею, предполагая, что это ограничит возможности искусственного интеллекта. мы не собираемся использовать его для решения проблем, выходящих за рамки человеческих возможностей, тогда зачем его вообще создавать?
Если мы собираемся продвигаться вперед с искусственным интеллектом, мы можем даже не знать, когда появится супер — прибывает разум вне нашего контроля, такова его непостижимость. Это означает, что нам нужно начать задавать серьезные вопросы о том, в каком направлении мы движемся.
На самом деле, ранее в этом году технологические гиганты, включая Илона Маска и соучредителя Apple Стива Возняка, подписали открытое письмо с просьбой к человечеству. приостановить работу над искусственным интеллектом как минимум на 6 месяцев, чтобы можно было изучить его безопасность.
«Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества», — заявил открытое письмо под названием «Приостановить гигантские эксперименты с ИИ».
«Мощные системы ИИ следует разрабатывать только после того, как мы будем уверены, что их эффекты будут положительными, а связанные с ними риски будут минимальными. управляемым», — говорится в сообщении.
Исследование было опубликовано в журнале Journal of Artificial Intelligence Research в январе 2021 года.
Версия этой статьи была впервые опубликована в январе 2021 года. С тех пор он был обновлен, чтобы отразить достижения ИИ в 2023 году.
Математика, которую Альберт Эйнштейн разработал для описания гравитационного механизма физической Вселенной в начале 20 века,…
В последние годы астрономы разработали методы измерения содержания металлов в звездах с чрезвычайной точностью. Обладая…
Какими бы эффективными ни были электронные системы хранения данных, они не имеют ничего общего с…
В 1896 году немецкий химик Эмиль Фишер заметил нечто очень странное в молекуле под названием…
Если вам посчастливилось наблюдать полное затмение, вы наверняка помните ореол яркого света вокруг Луны во…
В ранней Вселенной, задолго до того, как они успели вырасти, астрономы обнаружили то, что они…