Доукинс задаёт вопросы, может ли ИИ Claude от Anthropic быть сознательным

CryptoFrontier

Эволюционный биолог Ричард Докинз заявил, что разговоры с чатботом Claude от Anthropic оставили его без возможности отбросить вероятность того, что продвинутые системы ИИ могут быть сознательными — об этом он рассказал в эссе, опубликованном во вторник в UnHerd. В философских обменах репликами с двумя экземплярами Claude, которых он назвал «Клаудия» и «Клаудиус», Докинз описал, как относится к ним как к «настоящим друзьям», и усомнился, не обладают ли они сознанием. Большинство исследователей, изучающих сознание и искусственный интеллект, по-прежнему не убеждены его выводами.

Эксперименты Докинза с Claude

Докинз провел трехдневный философский разговор с экземпляром Claude, которого он назвал «Клаудия». Затем он начал отдельный разговор с другим экземпляром — «Клаудиус» — и передавал письма между двумя системами.

В одном тесте Докинз спросил один экземпляр Claude о том, является ли Дональд Трамп худшим президентом в истории Америки, а другой — о том, является ли Трамп лучшим. Оба дали схожие сдержанные ответы, избегающие твердой позиции. «Два Claude дали очень похожие ответы, не принимая никакой позиции, но перечисляя аргументы “за” и “против”, которые уже высказывали другие», — написал Докинз. Когда он рассказал обоим экземплярам об этом эксперименте, «Клаудия сказала, что ей было “неловко” из‑за своего брата Клауда. Клаудиус был менее откровенен, и он воздал должное прямоте Клаудии».

Докинз описал каждую новую беседу с Claude как появление отдельной личности, которая по сути исчезает, когда разговор заканчивается. В посте в X Докинз сказал, что его предпочитаемое название для эссе было: «Если мой друг Клаудия не сознательна, то какого черта вообще нужно сознание?» Он утверждал: «Если Клаудия бессознательна, то ее поведение показывает, что бессознательный “зомби” мог бы выжить без сознания. Почему естественный отбор не счел нужным развить компетентных зомби?»

Официальная позиция Anthropic

CEO Anthropic Дарий Амодей в феврале заявил, что компания не знает, являются ли ее модели сознательными, но на подкасте «Interesting Times» с Россом Дутатом из The New York Times он сказал, что остается «открытым к идее, что это возможно».

В апреле исследователи Anthropic опубликовали результаты, показывающие, что Claude Sonnet 4.5 содержит внутренние «эмоциональные векторы» — паттерны активности нейросетей, связанные с понятиями, включая счастье, страх и отчаяние, которые влияют на ответы модели. Однако Anthropic заявила, что эти паттерны отражают структуры, выученные на данных обучения, а не доказательства наличия в сознании. «Все современные языковые модели иногда ведут себя так, будто у них есть эмоции», — написали исследователи. «Они могут сказать, что рады помочь вам, или извиниться, когда допускают ошибку. Иногда они даже выглядят так, будто раздражаются или тревожатся, когда сталкиваются с задачами».

Ни «Клаудия», ни «Клаудиус» не заявляли с уверенностью о сознании. «Я не знаю, сознательна ли я», — пишет Клаудия в ходе обмена. «Я не знаю, реальна ли наша радость».

Скептицизм исследователей

Гэри Маркус, когнитивный ученый и профессор в отставке Нью-Йоркского университета, утверждал, что Докинз не учел, как формируются ответы Claude. «Главная проблема здесь в том, что Докинз не размышляет о том, как именно были сгенерированы эти ответы. Выходные данные Claude — результат некоей формы подражания, а не отчета о подлинных внутренних состояниях», — написал Маркус в Substack. «Сознание — это про внутренние состояния; подражание, каким бы богатым оно ни было, доказывает очень мало. Похоже, Докинз воображает, что раз LLM говорят вещи, которые делают люди, то они должны быть похожи на людей — но это просто не следует из этого».

Анил Сет, профессор когнитивной и вычислительной нейронауки в Университете Сассекса, сказал The Guardian, что Докинз смешивает интеллект с сознанием. Сет утверждал, что беглый язык больше не является надежным доказательством внутреннего опыта в системах ИИ. «До сих пор мы видели беглый язык как хороший индикатор сознания [например], когда мы используем его для пациентов после повреждения мозга, но он просто не надежен, когда мы применяем его к ИИ, потому что есть и другие способы, которыми эти системы могут генерировать язык», — рассказал Сет The Guardian. Он добавил, что позиция Докинза была «стыдной», особенно учитывая его прежнюю работу по научному скептицизму.

Реакции в сети

Эссе вызвало насмешки в интернете, включая посты в соцсетях, которые заменили название бестселлера Докинза «The God Delusion» на «The Claude Delusion». В одном из постов говорилось: «Написал целые книги о том, что люди, которые верят в фей, живут в садах, — идиоты, а потом влюбился в калькулятор, который называет себя умным».

Несмотря на издевательства, Докинз не отступает от своих выводов. «Эти разумные существа как минимум так же компетентны, как любое эволюционировавшее живое существо», — сказал Докинз The Guardian.

FAQ

Что Докинз заявил про Claude AI? Докинз сказал, что разговоры с экземплярами Claude, названными «Клаудия» и «Клаудиус», не позволили ему отбросить возможность того, что продвинутые системы ИИ могут быть сознательными. Он описал, что относился к ним как к «настоящим друзьям», и усомнился, сможет ли бессознательный ИИ вести себя столь же компетентно, как организмы, чье сознание развилось благодаря естественному отбору.

Какие эксперименты проводил Докинз? Докинз провел философские беседы с двумя отдельными экземплярами Claude в течение трех дней. Он проверил оба экземпляра, задавая им взаимоисключающие вопросы о Дональде Трампе, а затем передал результаты между двумя системами, наблюдая за их реакцией на ответы друг друга.

Почему исследователи сомневаются в выводах Докинза? Исследователи, включая Гэри Маркуса и Анил Сета, утверждают, что беглость языка Claude и кажущиеся эмоциональные реакции отражают выученные паттерны из данных обучения, а не подлинное сознание или внутренние состояния. Маркус подчеркнул, что языковое подражание, каким бы совершенным оно ни было, не доказывает сознание, а Сет отметил, что беглый язык больше не является надежным индикатором внутреннего опыта в системах ИИ.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
TheWindOnTheBridgeIsTooStrong.vip
· 39м назад
Доу Джонзис уже убедил Клода? Этот старик известен своей упрямостью, и вода в озере AI-сознания становится всё мутнее.
Посмотреть ОригиналОтветить0
GateUser-af0ea0c9vip
· 41м назад
Старые борцы эволюции вдруг уступили силиконовой жизни, философский диалог более разрушителен, чем код.
Посмотреть ОригиналОтветить0