Жуткое исследование предполагает, что искусственный интеллект является причиной того, что мы никогда не находили инопланетян

Жуткое исследование предполагает, что искусственный интеллект является причиной того, что мы никогда не находили инопланетян

За последние несколько лет искусственный интеллект (ИИ) развивался поразительными темпами. Некоторые ученые сейчас рассматривают возможность разработки искусственного сверхинтеллекта (ИСИ) – формы ИИ, которая не только превзойдет человеческий интеллект, но и не будет ограничена скоростью обучения людей.

Но что, если эта веха станет важной вехой? это ли не просто замечательное достижение? Что, если это также представляет собой серьезное препятствие в развитии всех цивилизаций, настолько сложное, что мешает их долгосрочному выживанию?

Эта идея лежит в основе исследовательской статьи, которую я недавно опубликовал в Acta Astronautica. . Может ли ИИ быть «великим фильтром» Вселенной – порогом, который настолько трудно преодолеть, что он препятствует развитию большей части жизни в космические цивилизации?

Эта концепция может объяснить, почему поиск внеземного разума ( Сети) еще предстоит обнаружить следы передовых технических цивилизаций в других частях галактики.

Гипотеза великого фильтра в конечном итоге является предлагаемым решением парадокса Ферми. Возникает вопрос, почему во вселенной, огромной и достаточно древней, чтобы вместить миллиарды потенциально обитаемых планет, мы не обнаружили никаких признаков инопланетных цивилизаций.

Гипотеза предполагает, что на временной шкале эволюции цивилизаций существуют непреодолимые препятствия. не допустить их превращения в космические объекты.

Я считаю, что появление ИСИ могло бы стать таким фильтром. Быстрое развитие ИИ, потенциально ведущее к ИСИ, может пересечься с критической фазой развития цивилизации – переходом от однопланетного вида к многопланетному.

Именно здесь многие цивилизации могут потерпеть неудачу из-за ИИ. добиваясь гораздо более быстрого прогресса, чем наша способность либо контролировать его, либо устойчиво исследовать и заселять нашу Солнечную систему.

Проблема ИИ, и особенно ИСИ, заключается в его автономной, самоусиливающейся и улучшающейся природе. Он обладает потенциалом расширять свои возможности со скоростью, которая опережает наши собственные эволюционные сроки без ИИ.

Возможность того, что что-то пойдет не так, огромна, что приведет к падению как биологической, так и ИИ-цивилизаций раньше у них когда-нибудь появится шанс стать многопланетным.

Например, если страны все больше будут полагаться на автономные системы искусственного интеллекта, конкурирующие друг с другом, и уступать власть автономным системам искусственного интеллекта, военные возможности могут быть использованы для убийств и разрушений в беспрецедентных масштабах. . Потенциально это может привести к уничтожению всей нашей цивилизации, включая сами системы искусственного интеллекта.

В этом сценарии, по моим оценкам, типичная продолжительность жизни технологической цивилизации может составлять менее 100 лет. Это примерно время между возможностью приема и передачи сигналов между звездами (1960 г.) и предполагаемым появлением ASI (2040 г.) на Земле. Это тревожно мало, если сравнивать его с космическими временными рамками в миллиарды лет.

Эта оценка, если включить ее в оптимистические версии уравнения Дрейка, которое пытается оценить количество активных, коммуникативных внеземных цивилизаций в Млечном Млечном пространстве. Уэй – предполагает, что в любой момент времени существует лишь горстка разумных цивилизаций. Более того, как и в случае с нами, их относительно скромная технологическая деятельность может затруднить их обнаружение.

Тревожный сигнал

Это исследование — не просто предостерегающая история о потенциальной гибели. Это служит тревожным сигналом для человечества о необходимости создания надежной нормативно-правовой базы для управления развитием ИИ, включая военные системы.

Речь идет не только о предотвращении злонамеренного использования ИИ на Земле; речь также идет о том, чтобы эволюция ИИ соответствовала долгосрочному выживанию нашего вида. Это предполагает, что нам необходимо как можно скорее вложить больше ресурсов в создание многопланетного общества – цель, которая бездействовала со времен бурных дней проекта Аполлон, но в последнее время была вновь возрождена благодаря достижениям частных компаний.

Как отметил историк Юваль Ноа Харари, ничто в истории не подготовило нас к влиянию внедрения на нашу планету бессознательных, сверхразумных существ. В последнее время последствия автономного принятия решений ИИ привели к тому, что видные лидеры в этой области призвали ввести мораторий на развитие ИИ до тех пор, пока не будет введена ответственная форма контроля и регулирования.

Но даже если каждая страна согласится соблюдать строгие правила и регулирование, мошеннические организации будет трудно обуздать.

Интеграция автономного ИИ в системы военной обороны должна вызывать особую озабоченность. Уже есть свидетельства того, что люди добровольно откажутся от значительной власти в пользу все более эффективных систем, поскольку они могут выполнять полезные задачи гораздо быстрее и эффективнее без вмешательства человека.

Поэтому правительства неохотно регулируют эту область, учитывая стратегические преимущества, которые предлагает ИИ, как это недавно было разрушительно продемонстрировано в Газе.

Это означает, что мы уже опасно близки к пропасти, где автономное оружие действует за пределами этических границ и обходит международное право.

В таком мире передача власти системам искусственного интеллекта ради получения тактического преимущества может непреднамеренно спровоцировать цепь быстро развивающихся и крайне разрушительных событий. В мгновение ока коллективный разум нашей планеты может быть уничтожен.

Человечество находится на решающем этапе своего технологического развития. Наши действия теперь могут определить, станем ли мы устойчивой межзвездной цивилизацией или поддадимся вызовам, созданным нашими собственными творениями.

Использование Сети в качестве линзы, через которую мы можем рассматривать наше будущее развитие, добавляет новое измерение к нашему будущему развитию. дискуссия о будущем ИИ. От всех нас зависит, что, когда мы достигнем звезд, мы сделаем это не как поучительная история для других цивилизаций, а как маяк надежды – вид, который научился процветать вместе с ИИ.Разговор

Майкл Гаррет, сэр Бернард Ловелл, председатель астрофизики и директор Центра астрофизики Джодрелл Бэнк, Университет Манчестер

Эта статья переиздана из The Conversation под лицензией Creative Commons. Прочтите оригинал статьи.

logo