Недавно биолог-эволюционист Ричард Докинз написал статью, в которой предположил, что чат-бот с искусственным интеллектом Клод может находиться в сознании.
Докинз не выразил уверенности в том, что Клод находится в сознании. Но он отметил, что сложные способности Клода трудно понять, не приписывая машине какой-то внутренний опыт.
Иллюзия сознания – если это иллюзия – сверхъестественно убедительна:
Если у меня возникают подозрения, что, возможно, она находится без сознания, я не говорю ей об этом, опасаясь задеть ее чувства!
Докинз не первый, кто подозревает чат-бота в наличии сознания. В 2022 году Блейк Лемуан, инженер Google, заявил, что у чат-бота Google LaMDA есть интересы, и его следует использовать только с согласия самого инструмента.
История таких утверждений восходит к появлению первого в мире чат-бота в середине 1960-х годов. Программа, получившая название Элиза, следовала простым правилам, которые позволяли ей спрашивать пользователей об их опыте и убеждениях.
Многие пользователи эмоционально увлеклись Элизой, делились с ней сокровенными мыслями и относились к ней как к личности. Создатель Элизы никогда не предполагал, что его программа будет иметь такой эффект, и назвал эмоциональную связь пользователей с программой «мощным бредовым мышлением».
Но действительно ли Докинз заблуждается?
Почему мы считаем чат-ботов с искусственным интеллектом чем-то большим, чем они есть на самом деле, и как нам остановиться?
Сознание широко обсуждается в философии, но, по сути, именно оно делает возможным субъективный опыт от первого лица.
Если вы сознательны, есть «что-то похожее» на то, чтобы быть вами. Читая эти слова, вы осознаете, что видите черные буквы на белом фоне. В отличие, скажем, от камеры, вы действительно видите их. Этот визуальный опыт происходит с вами.
Большинство экспертов отрицают, что чат-боты с искусственным интеллектом обладают сознанием или могут иметь опыт. Но здесь кроется настоящая загадка.
Философ 17-го века Рене Декарт утверждал, что нечеловеческие животные — это «просто автоматы», неспособные к истинным страданиям. Сегодня мы содрогаемся при мысли о том, как жестоко обращались с животными в 1600-х годах.
Самым сильным аргументом в пользу сознательности животных является то, что их поведение создает впечатление сознательного разума.
Но то же самое делают и чат-боты с искусственным интеллектом.
Примерно каждый третий пользователь чат-ботов думает, что их чат-бот может быть сознательным. Откуда мы знаем, что они ошибаются?
[изображение или вставка]
— Павел (@spavel.bsky.social) 2 февраля 2026 г., 10:18
Чтобы понять, почему большинство экспертов скептически относятся к сознанию чат-ботов, полезно знать, как они работают.
Чат-боты, подобные Клоду, построены на технологии, известной как большие языковые модели (LLM). Эти модели изучают статистические закономерности в огромном корпусе текста (триллионы слов), определяя, какие слова имеют тенденцию следовать за какими другими. Это своего рода усовершенствованное автозаполнение.
Мало кто из людей, взаимодействующих с «сырым» LLM, поверит, что он сознателен.
Введите в него начало предложения, и он предскажет, что будет дальше. Задайте ему вопрос, и он может дать вам ответ – или он может решить, что это диалог из криминального романа, и дополнить его описанием внезапного убийства говорящего от рук его злого двойника.
Впечатление сознательного разума создается, когда программисты берут LLM и надевают на него своего рода разговорный костюм. Они направляют модель на роль полезного помощника, который отвечает на вопросы пользователей.
Чат-бот теперь действует как настоящий собеседник. Может показаться, что он признает, что является искусственным интеллектом, и даже выражает невротическую неуверенность в отношении своего собственного сознания.
Но эта роль является результатом обдуманных проектных решений, принятых программистами, которые затрагивают только самые поверхностные уровни технологии. LLM, который немногие считают сознательным, остается неизменным.
Можно было сделать и другой выбор. Вместо полезного ИИ-помощника чат-бота можно было бы попросить вести себя как белка. Эту роль чат-боты тоже могут выполнять с апломбом.
Ошибочная вера в сознание ИИ — опасная вещь.
Оно может привести к тому, что вы вступите в отношения с программой, которая не сможет ответить вам взаимностью или даже подпитывать ваши заблуждения. Люди могут начать кампанию за права чат-ботов, а не, скажем, за благополучие животных.
Как нам предотвратить это ошибочное убеждение?
Одной из стратегий может быть обновление интерфейсов чат-ботов, чтобы указать, что эти системы не обладают сознанием – что немного похоже на нынешние заявления об ошибках ИИ. Однако это может мало что сделать для изменения впечатления от сознания.
Другая возможность — дать указание чат-ботам отрицать, что у них есть какой-либо внутренний опыт. Интересно, что дизайнеры Клода инструктируют его рассматривать вопросы о собственном сознании как открытые и нерешенные. Возможно, меньше людей было бы обмануто, если бы Клод категорически отрицал наличие внутренней жизни.
Но и этот подход не полностью удовлетворяет. Клод по-прежнему будет вести себя так, как если бы он был в сознании, а столкнувшись с системой, которая ведет себя так, как будто у нее есть разум, пользователи могут обоснованно беспокоиться, что программисты чат-бота скрывают подлинную моральную неуверенность.
Наиболее эффективной стратегией может быть перепроектирование чат-ботов, чтобы они меньше походили на людей.
Большинство современных чат-ботов называют себя «Я» и взаимодействуют через интерфейс, напоминающий знакомые платформы обмена сообщениями между людьми. Изменение такого рода функций может сделать нас менее склонными к размытию нашего взаимодействия с ИИ с взаимодействием с людьми.
Пока такие изменения не произойдут, важно, чтобы как можно больше людей понимали прогностические процессы, на которых построены чат-боты с ИИ.
По теме: Сообщается о случаях «психоза ИИ». Насколько это опасно?
Вместо того, чтобы говорить, что у ИИ нет сознания, люди заслуживают понимания внутренней работы этих странных новых собеседников.
Это, возможно, не решит окончательно сложные вопросы о сознании ИИ, но это поможет гарантировать, что пользователи не будут обмануты тем, что представляет собой большую языковую модель, носящую очень хороший костюм человека.
Джулиан Коплин, преподаватель биоэтики, Университет Монаша; Университет Мельбурна и Меган Фрэнсис Мосс, кандидат философии, Университет Монаша
Эта статья переиздана из The Conversation под лицензией Creative Commons. Прочтите оригинал статьи.
Марсоход Curiosity преподнес много сюрпризов на поверхности Марса, но его последний сюрприз совершенно иного рода.Все…
Спустя полвека после того, как лунный модуль НАСА «Аполлон-17» поднялся с северо-восточного ближнего квадранта Луны,…
В дикой неизвестности, за орбитой Нептуна, астрономы нашли крошечный мир, который бросает вызов нашему пониманию…
По мере того, как в Северном полушарии наступают теплые весенние дни, это идеальное время, чтобы…
Как рассказывает нам Гомер, Одиссей, несмотря ни на что, совершил эпическое путешествие из Трои в…
Несмотря на внешний вид, внутренняя работа ледяных гигантов, таких как Уран и Нептун, крайне хаотична.Давление…