Akankah Kecerdasan Buatan Menyelamatkan Umat Manusia—Ataukah Mengakhiri Mereka?

Decrypt

Singkatnya

  • Sebuah panel daring menampilkan perbedaan mendalam antara transhumanis dan teknolog tentang AGI.
  • Penulis Eliezer Yudkowsky memperingatkan bahwa sistem AI “kotak hitam” saat ini membuat kepunahan menjadi hasil yang tak terhindarkan.
  • Max More berpendapat bahwa menunda AGI bisa mengorbankan peluang terbaik umat manusia untuk mengalahkan penuaan dan mencegah bencana jangka panjang.

Perbedaan tajam tentang masa depan kecerdasan buatan berlangsung minggu ini saat empat teknolog dan transhumanis terkemuka berdebat apakah membangun kecerdasan umum buatan, atau AGI, akan menyelamatkan umat manusia atau menghancurkannya. Panel yang diselenggarakan oleh organisasi nirlaba Humanity+ mempertemukan salah satu “Doomers” AI yang paling vokal, Eliezer Yudkowsky, yang menyerukan penutupan pengembangan AI canggih, bersama filsuf dan futuris Max More, ilmuwan saraf komputasi Anders Sandberg, dan Presiden Emeritus Humanity+ Natasha Vita‑More. Diskusi mereka mengungkapkan ketidaksepakatan mendasar tentang apakah AGI dapat disesuaikan dengan kelangsungan hidup manusia atau apakah penciptaannya akan membuat kepunahan tak terhindarkan. Masalah “kotak hitam”

Yudkowsky memperingatkan bahwa sistem AI modern pada dasarnya tidak aman karena proses pengambilan keputusan internal mereka tidak dapat sepenuhnya dipahami atau dikendalikan. “Segala sesuatu yang kotak hitam kemungkinan akan berakhir dengan masalah yang sangat mirip dengan teknologi saat ini,” peringat Yudkowsky. Dia berpendapat bahwa umat manusia perlu bergerak “sangat, sangat jauh dari paradigma saat ini” sebelum AI canggih dapat dikembangkan dengan aman.  Kecerdasan buatan umum mengacu pada bentuk AI yang dapat bernalar dan belajar di berbagai tugas, bukan yang dibangun untuk satu pekerjaan seperti pembuatan teks, gambar, atau video. AGI sering dikaitkan dengan gagasan singularitas teknologi, karena mencapai tingkat kecerdasan tersebut dapat memungkinkan mesin untuk meningkatkan diri mereka sendiri lebih cepat daripada manusia dapat mengikuti. Yudkowsky menunjuk pada analogi “maximizer penjepit kertas” yang dipopulerkan oleh filsuf Nick Bostrom untuk menggambarkan risiko. Eksperimen pemikiran ini menampilkan AI hipotetis yang mengubah semua materi yang tersedia menjadi penjepit kertas, memperkuat obsesinya terhadap satu tujuan dengan mengorbankan umat manusia. Menambahkan lebih banyak tujuan, kata Yudkowsky, tidak akan secara berarti meningkatkan keamanan.

Mengacu pada judul buku terbarunya tentang AI, “Jika Ada yang Membangunnya, Semua Orang Mati,” dia berkata, “Judul kami bukan seperti mungkin bisa membunuhmu,” kata Yudkowsky. “Judul kami adalah, jika ada yang membangunnya, semua orang mati.” Namun More menantang premis bahwa kehati-hatian ekstrem menawarkan hasil yang paling aman. Dia berpendapat bahwa AGI bisa memberikan peluang terbaik umat manusia untuk mengatasi penuaan dan penyakit. “Yang paling penting bagi saya, adalah AGI bisa membantu kita mencegah punahnya setiap orang yang hidup karena penuaan,” kata More. “Kita semua sedang sekarat. Kita menuju bencana, satu per satu.” Dia memperingatkan bahwa pembatasan yang berlebihan bisa mendorong pemerintah menuju kontrol otoriter sebagai satu-satunya cara untuk menghentikan pengembangan AI di seluruh dunia. Sandberg menempatkan dirinya di antara kedua kubu, menggambarkan dirinya sebagai “lebih optimis” sambil tetap lebih berhati-hati daripada para optimis transhumanis. Dia menceritakan pengalaman pribadinya di mana dia hampir menggunakan model bahasa besar untuk membantu merancang senjata biologis, sebuah episode yang dia gambarkan sebagai “menakutkan.” “Kita mencapai titik di mana memperkuat aktor jahat juga akan menyebabkan kekacauan besar,” kata Sandberg. Namun, dia berpendapat bahwa keamanan parsial atau “perkiraan” bisa dicapai. Dia menolak gagasan bahwa keamanan harus sempurna agar bermakna, menyarankan bahwa manusia setidaknya bisa menyepakati nilai-nilai minimal seperti bertahan hidup. “Jadi jika Anda menuntut keamanan sempurna, Anda tidak akan mendapatkannya. Dan itu terdengar sangat buruk dari sudut pandang itu,” katanya. “Di sisi lain, saya rasa kita sebenarnya bisa memiliki keamanan perkiraan. Itu cukup baik.” Skeptisisme terhadap penyesuaian Vita-More mengkritik perdebatan penyesuaian yang lebih luas sendiri, berpendapat bahwa konsep tersebut mengasumsikan tingkat konsensus yang tidak ada bahkan di antara kolaborator jangka panjang. “Gagasan penyesuaian adalah skema Pollyanna,” katanya. “Itu tidak akan pernah selaras. Maksud saya, bahkan di sini, kita semua orang baik. Kita sudah saling mengenal selama puluhan tahun, dan kita tidak selaras.”

Dia menggambarkan klaim Yudkowsky bahwa AGI akan secara tak terelakkan membunuh semua orang sebagai “pemikiran absolutis” yang tidak memberi ruang untuk hasil lain. “Saya punya masalah dengan pernyataan umum bahwa semua orang mati,” katanya. “Menghadapi ini sebagai futuris dan pemikir pragmatis, itu tidak meninggalkan konsekuensi, alternatif, atau skenario lain. Itu hanya pernyataan kasar, dan saya bertanya-tanya apakah itu mencerminkan semacam pemikiran absolutis.” Diskusi ini termasuk perdebatan tentang apakah integrasi yang lebih dekat antara manusia dan mesin dapat mengurangi risiko yang ditimbulkan oleh AGI—sesuatu yang pernah diusulkan oleh CEO Tesla Elon Musk. Yudkowsky menolak gagasan bergabung dengan AI, membandingkannya dengan “berusaha bergabung dengan oven pemanggang roti Anda.” Sandberg dan Vita-More berpendapat bahwa, seiring kemampuan sistem AI meningkat, manusia perlu mengintegrasi atau bergabung lebih dekat dengan mereka untuk lebih mampu menghadapi dunia pas-AGI. “Seluruh diskusi ini adalah pemeriksaan realitas tentang siapa kita sebagai makhluk manusia,” kata Vita-More.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar