Категории: Новости

Жуткое исследование предполагает, что искусственный интеллект является причиной того, что мы никогда не находили инопланетян

За последние несколько лет искусственный интеллект (ИИ) развивался поразительными темпами. Некоторые ученые сейчас рассматривают возможность разработки искусственного сверхинтеллекта (ИСИ) – формы ИИ, которая не только превзойдет человеческий интеллект, но и не будет ограничена скоростью обучения людей.

Но что, если эта веха станет важной вехой? это ли не просто замечательное достижение? Что, если это также представляет собой серьезное препятствие в развитии всех цивилизаций, настолько сложное, что мешает их долгосрочному выживанию?

Эта идея лежит в основе исследовательской статьи, которую я недавно опубликовал в Acta Astronautica. . Может ли ИИ быть «великим фильтром» Вселенной – порогом, который настолько трудно преодолеть, что он препятствует развитию большей части жизни в космические цивилизации?

Эта концепция может объяснить, почему поиск внеземного разума ( Сети) еще предстоит обнаружить следы передовых технических цивилизаций в других частях галактики.

Гипотеза великого фильтра в конечном итоге является предлагаемым решением парадокса Ферми. Возникает вопрос, почему во вселенной, огромной и достаточно древней, чтобы вместить миллиарды потенциально обитаемых планет, мы не обнаружили никаких признаков инопланетных цивилизаций.

Гипотеза предполагает, что на временной шкале эволюции цивилизаций существуют непреодолимые препятствия. не допустить их превращения в космические объекты.

Я считаю, что появление ИСИ могло бы стать таким фильтром. Быстрое развитие ИИ, потенциально ведущее к ИСИ, может пересечься с критической фазой развития цивилизации – переходом от однопланетного вида к многопланетному.

Именно здесь многие цивилизации могут потерпеть неудачу из-за ИИ. добиваясь гораздо более быстрого прогресса, чем наша способность либо контролировать его, либо устойчиво исследовать и заселять нашу Солнечную систему.

Проблема ИИ, и особенно ИСИ, заключается в его автономной, самоусиливающейся и улучшающейся природе. Он обладает потенциалом расширять свои возможности со скоростью, которая опережает наши собственные эволюционные сроки без ИИ.

Возможность того, что что-то пойдет не так, огромна, что приведет к падению как биологической, так и ИИ-цивилизаций раньше у них когда-нибудь появится шанс стать многопланетным.

Например, если страны все больше будут полагаться на автономные системы искусственного интеллекта, конкурирующие друг с другом, и уступать власть автономным системам искусственного интеллекта, военные возможности могут быть использованы для убийств и разрушений в беспрецедентных масштабах. . Потенциально это может привести к уничтожению всей нашей цивилизации, включая сами системы искусственного интеллекта.

В этом сценарии, по моим оценкам, типичная продолжительность жизни технологической цивилизации может составлять менее 100 лет. Это примерно время между возможностью приема и передачи сигналов между звездами (1960 г.) и предполагаемым появлением ASI (2040 г.) на Земле. Это тревожно мало, если сравнивать его с космическими временными рамками в миллиарды лет.

Эта оценка, если включить ее в оптимистические версии уравнения Дрейка, которое пытается оценить количество активных, коммуникативных внеземных цивилизаций в Млечном Млечном пространстве. Уэй – предполагает, что в любой момент времени существует лишь горстка разумных цивилизаций. Более того, как и в случае с нами, их относительно скромная технологическая деятельность может затруднить их обнаружение.

Тревожный сигнал

Это исследование — не просто предостерегающая история о потенциальной гибели. Это служит тревожным сигналом для человечества о необходимости создания надежной нормативно-правовой базы для управления развитием ИИ, включая военные системы.

Речь идет не только о предотвращении злонамеренного использования ИИ на Земле; речь также идет о том, чтобы эволюция ИИ соответствовала долгосрочному выживанию нашего вида. Это предполагает, что нам необходимо как можно скорее вложить больше ресурсов в создание многопланетного общества – цель, которая бездействовала со времен бурных дней проекта Аполлон, но в последнее время была вновь возрождена благодаря достижениям частных компаний.

Как отметил историк Юваль Ноа Харари, ничто в истории не подготовило нас к влиянию внедрения на нашу планету бессознательных, сверхразумных существ. В последнее время последствия автономного принятия решений ИИ привели к тому, что видные лидеры в этой области призвали ввести мораторий на развитие ИИ до тех пор, пока не будет введена ответственная форма контроля и регулирования.

Но даже если каждая страна согласится соблюдать строгие правила и регулирование, мошеннические организации будет трудно обуздать.

Интеграция автономного ИИ в системы военной обороны должна вызывать особую озабоченность. Уже есть свидетельства того, что люди добровольно откажутся от значительной власти в пользу все более эффективных систем, поскольку они могут выполнять полезные задачи гораздо быстрее и эффективнее без вмешательства человека.

Поэтому правительства неохотно регулируют эту область, учитывая стратегические преимущества, которые предлагает ИИ, как это недавно было разрушительно продемонстрировано в Газе.

Это означает, что мы уже опасно близки к пропасти, где автономное оружие действует за пределами этических границ и обходит международное право.

В таком мире передача власти системам искусственного интеллекта ради получения тактического преимущества может непреднамеренно спровоцировать цепь быстро развивающихся и крайне разрушительных событий. В мгновение ока коллективный разум нашей планеты может быть уничтожен.

Человечество находится на решающем этапе своего технологического развития. Наши действия теперь могут определить, станем ли мы устойчивой межзвездной цивилизацией или поддадимся вызовам, созданным нашими собственными творениями.

Использование Сети в качестве линзы, через которую мы можем рассматривать наше будущее развитие, добавляет новое измерение к нашему будущему развитию. дискуссия о будущем ИИ. От всех нас зависит, что, когда мы достигнем звезд, мы сделаем это не как поучительная история для других цивилизаций, а как маяк надежды – вид, который научился процветать вместе с ИИ.

Майкл Гаррет, сэр Бернард Ловелл, председатель астрофизики и директор Центра астрофизики Джодрелл Бэнк, Университет Манчестер

Эта статья переиздана из The Conversation под лицензией Creative Commons. Прочтите оригинал статьи.

Виктория Ветрова

Космос полон тайн...

Недавние Посты

Амбициозное исследование намекает на появление новых теорий темной энергии

Астрофизики как никогда близки к разгадке тайны того, что составляет почти 70 процентов Вселенной.Теперь опубликован…

28.01.2026

Если астероид упадет на Луну в 2032 году, последствия могут достичь Земли

В каждой ситуации есть светлая сторона. В 2032 году сама Луна может иметь особенно яркую…

28.01.2026

Микробы в космосе мутировали и развили замечательную способность

Коробка, полная вирусов и бактерий, завершила свой обратный путь на Международную космическую станцию, и изменения,…

27.01.2026

Светящийся железный слиток преследует туманность Кольцо – и никто не знает, почему

Мы знали о знаменитой туманности Кольцо уже почти 250 лет, но только сейчас астрономы обнаружили…

26.01.2026

Горячий черный лед может быть ответственен за дикий магнетизм Нептуна

Внутри ядер ледяных планет-гигантов давление и температура настолько экстремальны, что находящаяся там вода переходит в…

26.01.2026

Момент, которого мы так ждали: JWST приближается к «Глу Саурона»

Мы знаем, что произойдет с Солнцем и нашей Солнечной системой, потому что мы можем заглянуть…

24.01.2026