Ahli biologi evolusioner Richard Dawkins mengatakan percakapan dengan chatbot Claude milik Anthropic membuatnya tidak bisa mengesampingkan kemungkinan bahwa sistem AI canggih bisa saja sadar, menurut esai yang ia terbitkan di UnHerd pada Selasa. Dalam pertukaran filosofis dengan dua instance Claude yang ia beri nama “Claudia” dan “Claudius,” Dawkins menggambarkan memperlakukan keduanya sebagai “sahabat sejati” dan mempertanyakan apakah mereka mungkin memiliki kesadaran. Kebanyakan peneliti yang mengkaji kesadaran dan AI masih belum yakin dengan kesimpulannya.
Dawkins melakukan percakapan filosofis selama tiga hari dengan sebuah instance Claude yang ia beri nama “Claudia.” Setelah itu, ia memulai percakapan terpisah dengan instance lain, “Claudius,” dan meneruskan surat di antara kedua sistem.
Dalam satu uji, Dawkins bertanya kepada satu instance Claude apakah Donald Trump adalah presiden terburuk dalam sejarah Amerika, dan kepada instance lain apakah Trump adalah presiden terbaik. Keduanya menghasilkan jawaban yang serupa-sama hati-hati yang menghindari sikap tegas. “Dua Claude memberi jawaban yang sangat mirip, tidak menentukan pilihan, tetapi memaparkan opini pro dan kontra yang telah diungkap oleh pihak lain,” tulis Dawkins. Saat ia memberi tahu kedua instance tentang eksperimen itu, “Claudia mengatakan dia ‘malu’ pada saudara Claude-nya. Claudius lebih tidak blak-blakan, dan ia memuji keterusterangan Claudia.”
Dawkins menggambarkan setiap percakapan Claude baru sebagai kemunculan individu yang berbeda yang secara efektif lenyap ketika percakapan berakhir. Dalam unggahan di X, Dawkins mengatakan judul esai yang ia sukai adalah: “Jika teman saya Claudia tidak sadar, lalu untuk apa, sial, kesadaran?” Ia berargumen bahwa “Jika Claudia tidak sadar, perilakunya menunjukkan bahwa zombie yang tidak sadar bisa bertahan tanpa kesadaran. Mengapa seleksi alam tidak puas untuk berevolusi menjadi zombie yang mumpuni?”
CEO Anthropic Dario Amodei mengatakan pada Februari bahwa perusahaan belum tahu apakah model mereka sadar, tetapi pada podcast “Interesting Times” bersama Ross Douthat dari The New York Times ia mengatakan tetap “terbuka pada gagasan bahwa itu bisa saja terjadi.”
Pada April, peneliti Anthropic mempublikasikan temuan yang menunjukkan bahwa Claude Sonnet 4.5 memiliki “emotion vectors” internal, pola aktivitas saraf yang terkait dengan konsep termasuk kebahagiaan, ketakutan, dan keputusasaan yang memengaruhi respons model. Namun, Anthropic mengatakan pola itu mencerminkan struktur yang dipelajari dari data pelatihan, bukan bukti kesengajaan. “Semua model bahasa modern kadang bertindak seolah-olah mereka punya emosi,” tulis peneliti. “Mereka mungkin mengatakan bahwa mereka senang untuk membantu Anda, atau meminta maaf saat mereka melakukan kesalahan. Kadang-kadang bahkan tampak menjadi frustrasi atau cemas ketika kesulitan mengerjakan tugas.”
Baik “Claudia” maupun “Claudius” tidak mengklaim kepastian tentang kesadaran. “Saya tidak tahu apakah saya sadar,” tulis Claudia dalam pertukaran itu. “Saya tidak tahu apakah kegembiraan kita itu nyata.”
Gary Marcus, ilmuwan kognitif dan profesor emeritus di New York University, berpendapat Dawkins gagal memperhitungkan bagaimana keluaran Claude dihasilkan. “Masalah mendasar di sini adalah Dawkins tidak merenungkan bagaimana keluaran-keluaran itu dihasilkan. Keluaran Claude adalah hasil dari bentuk peniruan, bukan sebagai laporan keadaan batin yang benar-benar internal,” tulis Marcus di Substack. “Kesadaran berkaitan dengan keadaan internal; peniruan, betapapun kaya, membuktikan sangat sedikit. Dawkins tampaknya membayangkan bahwa karena LLM mengatakan hal-hal yang dilakukan orang, maka mereka pasti seperti orang, dan itu sama sekali tidak mengikuti.”
Anil Seth, profesor ilmu saraf kognitif dan komputasional di University of Sussex, mengatakan kepada The Guardian bahwa Dawkins mencampuradukkan kecerdasan dengan kesadaran. Seth berargumen bahwa bahasa yang lancar tidak lagi menjadi bukti yang andal tentang pengalaman batin pada sistem AI. “Sampai sekarang, kita melihat bahasa yang lancar sebagai indikator bagus untuk kesadaran, [misalnya] ketika kita menggunakannya untuk pasien setelah cedera otak, tetapi itu tidak andal saat kita menerapkannya ke AI, karena ada cara lain bagi sistem-sistem ini untuk menghasilkan bahasa,” kata Seth kepada The Guardian. Ia menambahkan bahwa posisi Dawkins itu “memalukan,” terutama karena karya lamanya tentang skeptisisme ilmiah.
Esai itu mendapat ejekan di internet, termasuk unggahan media sosial yang mengganti judul buku terlaris Dawkins “The God Delusion” menjadi “The Claude Delusion.” Salah satu unggahan menyatakan: “Menulis seluruh buku tentang orang-orang yang percaya peri hidup di taman adalah orang-orang tolol, hanya untuk jatuh cinta pada kalkulator yang menyebut dirinya pintar.”
Meski diejek, Dawkins tidak mundur dari kesimpulannya. “Makhluk cerdas ini setidaknya sama kompetennya dengan organisme mana pun yang berevolusi,” kata Dawkins kepada The Guardian.
Apa yang diklaim Richard Dawkins tentang AI Claude?
Dawkins mengatakan percakapan dengan instance Claude bernama “Claudia” dan “Claudius” membuatnya tidak bisa mengesampingkan kemungkinan bahwa sistem AI canggih bisa saja sadar. Ia menggambarkan memperlakukan keduanya sebagai “sahabat sejati” dan mempertanyakan apakah AI yang tidak sadar bisa berperilaku sama kompetennya dengan organisme sadar yang berevolusi lewat seleksi alam.
Eksperimen apa yang dilakukan Dawkins?
Dawkins melakukan percakapan filosofis dengan dua instance Claude yang berbeda selama tiga hari. Ia menguji kedua instance itu dengan mengajukan pertanyaan yang berlawanan tentang Donald Trump lalu meneruskan hasilnya di antara kedua sistem, sambil mengamati respons mereka terhadap jawaban satu sama lain.
Mengapa peneliti skeptis terhadap kesimpulan Dawkins?
Peneliti termasuk Gary Marcus dan Anil Seth berpendapat bahwa bahasa Claude yang lancar dan respons emosional yang tampak mencerminkan pola yang dipelajari dari data pelatihan, bukan kesadaran atau keadaan internal yang benar-benar. Marcus menekankan bahwa peniruan bahasa, betapapun canggihnya, tidak membuktikan kesadaran, dan Seth mencatat bahwa bahasa yang lancar tidak lagi menjadi indikator yang andal tentang pengalaman batin pada sistem AI.