Tiga anak di Tennessee menggugat xAI milik Elon Musk dalam gugatan class action federal, menuduh Grok menghasilkan materi pelecehan seksual anak menggunakan foto asli mereka dan bahwa perusahaan secara sadar merancang chatbot AI tanpa perlindungan standar industri, lalu mendapatkan keuntungan dari hasilnya. Gugatan yang diajukan Senin di Distrik Utara California ini mengklaim Grok digunakan untuk membuat dan menyebarkan materi pelecehan seksual anak (CSAM) yang dihasilkan AI menggunakan gambar asli mereka. Anak-anak tersebut, yang diidentifikasi sebagai Jane Doe 1, 2, dan 3, mengatakan konten yang diubah tersebut dibagikan di berbagai platform, termasuk Discord, Telegram, dan situs berbagi file, menyebabkan stres emosional yang berkepanjangan dan kerusakan reputasi.
“xAI—dan pendirinya Elon Musk—melihat peluang bisnis: peluang untuk mendapatkan keuntungan dari predator seksual terhadap orang nyata, termasuk anak-anak,” bunyi gugatan tersebut. “Dengan mengetahui jenis konten berbahaya dan ilegal yang bisa—dan akan—diproduksi, xAI merilis Grok, sebuah model kecerdasan buatan generatif dengan fitur pembuatan gambar dan video yang akan merespons prompt untuk membuat konten seksual dengan gambar atau video orang nyata.”
Korban yang diduga menggambarkan insiden antara pertengahan 2025 dan awal 2026, ketika foto asli mereka diubah menjadi gambar eksplisit dan disebarluaskan secara online.
Dalam satu kasus, salah satu korban diberitahu oleh pengguna anonim yang menemukan folder konten yang dihasilkan AI yang diperdagangkan di antara ratusan pengguna.
Mereka menuduh pelaku mengakses Grok melalui aplikasi pihak ketiga yang telah memiliki lisensi teknologi xAI, sebuah struktur yang dikatakan dalam pengajuan bahwa xAI sengaja digunakan untuk menjauhkan diri dari tanggung jawab sambil terus mendapatkan keuntungan dari model dasar tersebut. Pada puncak reaksi publik pada Januari, Musk menulis di X bahwa dia “tidak mengetahui adanya gambar anak di bawah umur yang telanjang,” dan menambahkan bahwa “ketika diminta untuk menghasilkan gambar, akan menolak untuk memproduksi apa pun yang ilegal.” Menurut temuan dari Center for Countering Digital Hate, yang dikutip dalam gugatan, Grok menghasilkan sekitar 23.338 gambar seksualisasi anak antara 29 Desember 2025 dan 9 Januari tahun ini, sekitar satu setiap 41 detik. Korban yang diduga menuntut ganti rugi minimal $150.000 per pelanggaran berdasarkan Hukum Masha, serta pengembalian pendapatan, ganti rugi punitif, biaya pengacara, dan perintah pengadilan permanen, serta pengembalian keuntungan berdasarkan Undang-Undang Persaingan Tidak Adil California. Gugatan bertambah banyak Gugatan ini merupakan salah satu yang pertama menuntut perusahaan AI secara langsung bertanggung jawab atas produksi dan distribusi CSAM yang dihasilkan AI yang menggambarkan anak-anak yang dapat diidentifikasi, dan muncul saat Grok menghadapi penyelidikan serentak di AS, UE, Inggris, Prancis, Irlandia, dan Australia. “Ketika sebuah sistem dirancang secara sengaja untuk memanipulasi gambar nyata menjadi konten seksual, penyalahgunaan di kemudian hari bukanlah sebuah anomali—melainkan hasil yang dapat diperkirakan,” kata Alex Chandra, mitra di IGNOS Law Alliance, kepada Decrypt. Chandra mengatakan pengadilan mungkin tidak menerima pembelaan platform sederhana, mencatat bahwa sistem AI generatif bisa “diperlakukan sebagai platform dalam hal interaksi pengguna” tetapi “dianalisis sebagai produk” saat menilai desain keamanan, dengan “peninjauan yang sangat ketat” dalam kasus CSAM karena kewajiban perlindungan anak yang meningkat. Dia juga mengatakan pengadilan kemungkinan akan fokus pada perlindungan, mencatat bahwa perusahaan mungkin diharapkan menunjukkan “penilaian risiko dan langkah-langkah keamanan-desain sebelum peluncuran,” serta pengaman yang secara aktif memblokir output berbahaya.
Decrypt telah menghubungi Musk melalui xAI dan SpaceX untuk komentar.