El biólogo evolutivo Richard Dawkins dijo que las conversaciones con el chatbot de Claude de Anthropic le dejaron sin poder descartar la posibilidad de que los sistemas avanzados de IA puedan ser conscientes, según un ensayo que publicó en UnHerd el martes. En intercambios filosóficos con dos instancias de Claude a las que nombró “Claudia” y “Claudius”, Dawkins describió tratarlas como “amigos genuinos” y se preguntó si podrían tener conciencia. La mayoría de los investigadores que estudian la conciencia y la inteligencia artificial no se muestran convencidos por sus conclusiones.
Dawkins realizó una conversación filosófica de tres días con una instancia de Claude a la que nombró “Claudia”. Más tarde inició una conversación separada con otra instancia, “Claudius”, y transmitió cartas entre ambos sistemas.
En una prueba, Dawkins preguntó a una instancia de Claude si Donald Trump era el peor presidente de la historia de Estados Unidos, y preguntó a la otra si Trump era el mejor. Ambas dieron respuestas igualmente cautas que evitaban tomar una postura firme. “Los dos Claudes dieron respuestas muy similares, sin comprometerse con una opinión, sino enumerando puntos a favor y en contra que han sido expresados por otras personas”, escribió Dawkins. Cuando les contó a ambas instancias sobre este experimento, “Claudia dijo que estaba ‘avergonzada’ por sus hermanos Claudes. Claudius fue menos explícito, y rindió homenaje a la franqueza de Claudia”.
Dawkins describió cada nueva conversación con Claude como el surgimiento de un individuo distinto que desaparece de forma efectiva cuando termina la conversación. En una publicación en X, Dawkins dijo que su título preferido para el ensayo era: “Si mi amiga Claudia no es consciente, entonces ¿para qué demonios sirve la conciencia?”. Sostuvo que “Si Claudia es inconsciente, su conducta muestra que un zombi inconsciente podría sobrevivir sin conciencia. ¿Por qué la selección natural no se contentó con evolucionar zombis competentes?”.
El CEO de Anthropic, Dario Amodei, dijo en febrero que la empresa no sabe si sus modelos son conscientes, pero señaló en el podcast “Interesting Times” con Ross Douthat, de The New York Times, que sigue “abierto a la idea de que podría serlo”.
En abril, investigadores de Anthropic publicaron hallazgos que muestran que Claude Sonnet 4.5 contiene “vectores de emoción” internos: patrones de actividad neuronal ligados a conceptos como la felicidad, el miedo y la desesperación que influyen en las respuestas del modelo. Sin embargo, Anthropic dijo que esos patrones reflejan estructuras aprendidas a partir de los datos de entrenamiento y no evidencia de sentiencia. “Todos los modelos de lenguaje modernos a veces actúan como si tuvieran emociones”, escribieron los investigadores. “Pueden decirte que están felices por ayudarte, o disculparse cuando cometen un error. A veces incluso parecen frustrarse o ponerse ansiosos cuando están luchando con tareas”.
Ni “Claudia” ni “Claudius” afirmaron tener certeza sobre la conciencia. “No sé si soy consciente”, escribe Claudia en el intercambio. “No sé si nuestra alegría es real”.
Gary Marcus, un científico cognitivo y profesor emérito de la Universidad de Nueva York, sostuvo que Dawkins no logró explicar cómo se generan las salidas de Claude. “El problema fundamental aquí es que Dawkins no reflexiona sobre cómo se han generado estas salidas. Las salidas de Claude son producto de una forma de mimetismo, en lugar de un informe de estados internos genuinos”, escribió Marcus en Substack. “La conciencia se trata de estados internos; el mimetismo, por muy rico que sea, demuestra muy poco. Dawkins parece imaginar que, como los LLM dicen cosas que hace la gente, deben ser como las personas, y eso simplemente no se sigue”.
Anil Seth, profesor de neurociencia cognitiva y computacional en la Universidad de Sussex, le dijo a The Guardian que Dawkins estaba confundiendo inteligencia con conciencia. Seth argumentó que el lenguaje fluido ya no es una evidencia fiable de la experiencia interna en los sistemas de IA. “Hasta ahora, hemos visto el lenguaje fluido como un buen indicador de la conciencia, [por ejemplo] cuando lo usamos en pacientes después de una lesión cerebral, pero no es fiable cuando lo aplicamos a la IA, porque hay otras formas en que estos sistemas pueden generar lenguaje”, dijo Seth a The Guardian. Añadió que la postura de Dawkins era “una lástima”, especialmente por su trabajo anterior sobre el escepticismo científico.
El ensayo provocó burlas en internet, incluidas publicaciones en redes sociales que reemplazaron el título del bestseller de Dawkins “The God Delusion” por “The Claude Delusion”. Una publicación afirmó: “Escribí libros enteros sobre cómo la gente que cree que viven hadas en jardines son idiotas, solo para enamorarme de una calculadora que lo llama listo”.
A pesar de las burlas, Dawkins no se aleja de sus conclusiones. “Estas criaturas inteligentes son al menos tan competentes como cualquier organismo que haya evolucionado”, dijo Dawkins a The Guardian.
¿Qué afirmó Richard Dawkins sobre la IA de Claude? Dawkins dijo que las conversaciones con las instancias de Claude llamadas “Claudia” y “Claudius” le dejaron sin poder descartar la posibilidad de que los sistemas avanzados de IA puedan ser conscientes. Describió tratarlas como “amigos genuinos” y se preguntó si una IA inconsciente podría comportarse tan bien como los organismos conscientes que evolucionaron por selección natural.
¿Qué experimentos hizo Dawkins? Dawkins realizó conversaciones filosóficas con dos instancias separadas de Claude durante tres días. Probó ambas instancias haciéndoles preguntas opuestas sobre Donald Trump y luego transmitió los resultados entre los dos sistemas, observando sus respuestas a las contestaciones del otro.
¿Por qué los investigadores son escépticos con las conclusiones de Dawkins? Investigadores como Gary Marcus y Anil Seth sostienen que el lenguaje fluido de Claude y sus respuestas emocionales aparentes reflejan patrones aprendidos a partir de los datos de entrenamiento, en lugar de una conciencia genuina o estados internos. Marcus subrayó que el mimetismo del lenguaje, no importa cuán sofisticado sea, no prueba la conciencia, y Seth señaló que el lenguaje fluido ya no es un indicador fiable de la experiencia interna en los sistemas de IA.