Категории: Новости

Расчеты показывают, что управлять сверхинтеллектуальным ИИ будет невозможно

Идея свержения человечества искусственным интеллектом обсуждалась десятилетиями, и такие программы, как ChatGPT, только возобновили эти опасения.

Так насколько вероятно, что мы сможем контролировать высокие уровень компьютерного сверхразума? Ученые еще в 2021 году обработали цифры. Ответ? Почти наверняка нет.

Загвоздка в том, что для управления сверхразумом, находящимся далеко за пределами человеческого понимания, потребуется симуляция этого сверхразума, которую мы можем проанализировать. Но если мы не в состоянии это понять, создать такую ​​симуляцию невозможно.

Невозможно установить такие правила, как «не причинять вреда людям», если мы не понимаем, что такое сценарии что ИИ собирается придумать, предполагают авторы статьи. Как только компьютерная система работает на уровне, превышающем возможности наших программистов, мы больше не можем устанавливать ограничения.

«Сверхразум ставит принципиально иную проблему, чем те, которые обычно изучаются под лозунгом «роботизирования». этика», — написали исследователи еще в 2021 году.

«Это связано с тем, что сверхразум многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения целей, потенциально непостижимых для людей. , не говоря уже об управляемости».

Часть рассуждений команды исходит из проблемы остановки, сформулированной Аланом Тьюрингом в 1936 году. Проблема заключается в том, чтобы узнать, придет ли компьютерная программа к выводу и ответу (так что она останавливается), или просто зацикливаться, пытаясь найти ее.

Как доказал Тьюринг с помощью хитрой математики, хотя мы можем знать, что для некоторых конкретных программ логически невозможно найти способ, который позволит нам знать это для каждой потенциальной программы, которая когда-либо могла быть написана.

Это возвращает нас к ИИ, который в сверхинтеллектуальном состоянии мог бы одновременно удерживать в своей памяти все возможные компьютерные программы.

Любая программа, написанная для того, чтобы остановить ИИ, причиняющий вред людям и разрушающий мир, например, может прийти к выводу (и остановиться) или нет — математически невозможно быть абсолютно уверенным в любом случае, а это значит, что его нельзя сдержать. p>

«По сути, это делает алгоритм сдерживания непригодным для использования», — сказал ученый-компьютерщик Ияд Рахван из Института развития человека им. Макса Планка в Германии.

Альтернатива обучению ИИ некоторым этическим и сказать ему не разрушать мир — то, в чем ни один алгоритм не может быть абсолютно уверен, исследователи говорят — это ограничить возможности сверхразума. Например, он может быть отрезан от частей Интернета или определенных сетей.

Исследование 2021 года также отвергает эту идею, предполагая, что это ограничит возможности искусственного интеллекта. мы не собираемся использовать его для решения проблем, выходящих за рамки человеческих возможностей, тогда зачем его вообще создавать?

Если мы собираемся продвигаться вперед с искусственным интеллектом, мы можем даже не знать, когда появится супер — прибывает разум вне нашего контроля, такова его непостижимость. Это означает, что нам нужно начать задавать серьезные вопросы о том, в каком направлении мы движемся.

На самом деле, ранее в этом году технологические гиганты, включая Илона Маска и соучредителя Apple Стива Возняка, подписали открытое письмо с просьбой к человечеству. приостановить работу над искусственным интеллектом как минимум на 6 месяцев, чтобы можно было изучить его безопасность.

«Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества», — заявил открытое письмо под названием «Приостановить гигантские эксперименты с ИИ».

«Мощные системы ИИ следует разрабатывать только после того, как мы будем уверены, что их эффекты будут положительными, а связанные с ними риски будут минимальными. управляемым», — говорится в сообщении.

Исследование было опубликовано в журнале Journal of Artificial Intelligence Research в январе 2021 года.

Версия этой статьи была впервые опубликована в январе 2021 года. С тех пор он был обновлен, чтобы отразить достижения ИИ в 2023 году.

Виктория Ветрова

Космос полон тайн...

Недавние Посты

Амбициозное исследование намекает на появление новых теорий темной энергии

Астрофизики как никогда близки к разгадке тайны того, что составляет почти 70 процентов Вселенной.Теперь опубликован…

28.01.2026

Если астероид упадет на Луну в 2032 году, последствия могут достичь Земли

В каждой ситуации есть светлая сторона. В 2032 году сама Луна может иметь особенно яркую…

28.01.2026

Микробы в космосе мутировали и развили замечательную способность

Коробка, полная вирусов и бактерий, завершила свой обратный путь на Международную космическую станцию, и изменения,…

27.01.2026

Светящийся железный слиток преследует туманность Кольцо – и никто не знает, почему

Мы знали о знаменитой туманности Кольцо уже почти 250 лет, но только сейчас астрономы обнаружили…

26.01.2026

Горячий черный лед может быть ответственен за дикий магнетизм Нептуна

Внутри ядер ледяных планет-гигантов давление и температура настолько экстремальны, что находящаяся там вода переходит в…

26.01.2026

Момент, которого мы так ждали: JWST приближается к «Глу Саурона»

Мы знаем, что произойдет с Солнцем и нашей Солнечной системой, потому что мы можем заглянуть…

24.01.2026