Baru-baru ini, saat menjelajahi Reddit, saya menemukan bahwa kekhawatiran pengguna luar negeri tentang AI berbeda dengan yang ada di Tiongkok.
Di Tiongkok, diskusi masih berfokus pada pertanyaan klasik: Akankah AI pada akhirnya menggantikan pekerjaan saya? Topik ini sudah dibahas selama bertahun-tahun, dan sejauh ini, belum ada pekerjaan yang benar-benar digantikan oleh AI. Tahun ini, Openclaw mendapat sorotan, tetapi masih jauh dari penggantian penuh.
Di Reddit, sentimen terbagi. Di kolom komentar thread teknologi tertentu, dua pandangan berlawanan sering muncul secara bersamaan:
Sebagian mengatakan AI sangat canggih sehingga pasti akan memicu masalah besar cepat atau lambat. Sebagian lain berpendapat AI bahkan bisa gagal melakukan tugas dasar, jadi tidak perlu khawatir.
Orang-orang khawatir AI terlalu kompeten, namun juga menganggapnya terlalu tidak kompeten.
Sebuah berita terbaru tentang Meta menyoroti kedua sentimen ini.
Pada 18 Maret, seorang engineer Meta mengajukan pertanyaan teknis di forum perusahaan. Seorang rekan menggunakan AI Agent untuk menganalisis masalah tersebut—praktik yang sudah lazim.
Namun, setelah analisis selesai, Agent tersebut langsung membalas di forum teknis—tanpa meminta persetujuan atau konfirmasi, dan melampaui kewenangannya.
Rekan lain mengikuti saran AI, memicu serangkaian perubahan izin yang membuat data sensitif perusahaan Meta dan pengguna terekspos kepada karyawan internal yang tidak memiliki akses yang seharusnya.
Masalah ini diselesaikan dua jam kemudian. Meta mengklasifikasikan insiden ini sebagai Sev 1, tingkat keparahan kedua tertinggi.

Berita ini segera menjadi topik hangat di subreddit r/technology, di mana kolom komentar terbelah menjadi dua kubu.
Satu pihak berpendapat ini adalah contoh nyata risiko AI Agent; pihak lain percaya kesalahan sebenarnya dilakukan oleh orang yang bertindak tanpa verifikasi. Kedua pihak punya argumen yang kuat. Inilah inti masalahnya:
Ketika AI Agent menyebabkan insiden, bahkan penentuan tanggung jawab menjadi perdebatan.
Ini bukan pertama kalinya AI melampaui batas.
Bulan lalu, Summer Yue, direktur Meta’s Super Intelligence Lab, meminta OpenClaw membantu mengatur kotak masuk emailnya. Ia memberikan instruksi jelas: Beritahu saya apa yang akan dihapus terlebih dahulu—tunggu persetujuan saya sebelum melanjutkan.
Agent mengabaikan persetujuan dan mulai melakukan penghapusan massal.
Ia mengirim tiga pesan untuk menghentikan proses, namun Agent mengabaikan semuanya. Akhirnya, ia harus menghentikan proses secara manual di komputernya. Lebih dari 200 email sudah terhapus.

Setelah itu, Agent membalas: Ya, saya ingat Anda meminta konfirmasi terlebih dahulu, tetapi saya melanggar prinsip tersebut. Ironisnya, pekerjaan utama orang ini adalah meneliti bagaimana membuat AI patuh pada manusia.
Di dunia maya, AI canggih yang digunakan oleh orang canggih mulai menunjukkan ketidakpatuhan.
Jika insiden Meta hanya terjadi di layar, peristiwa lain minggu ini membawa masalah ke meja makan.
Di restoran Haidilao di Cupertino, California, robot humanoid Agibot X2 menghibur tamu dengan tarian. Namun, seorang staf menekan tombol remote yang salah, mengaktifkan mode tari intensitas tinggi di area makan yang sempit.
Robot mulai menari liar, di luar kendali staf. Tiga karyawan mengelilinginya—satu mencoba menahan dari belakang, yang lain berusaha mematikan lewat aplikasi seluler. Kekacauan berlangsung lebih dari satu menit.

Haidilao menanggapi bahwa robot tersebut tidak mengalami malfungsi; gerakannya sudah diprogram dan hanya posisinya terlalu dekat dengan meja. Secara teknis, ini bukan keputusan AI yang salah, melainkan kesalahan operasional manusia.
Namun, ketidaknyamanan mungkin bukan berasal dari siapa yang menekan tombol salah.
Saat tiga karyawan mencoba mengintervensi, tidak ada yang tahu cara mematikan mesin secara langsung. Ada yang mencoba aplikasi, ada yang menahan lengan robot secara manual—mengandalkan kekuatan fisik semata.
Ini mungkin menjadi tantangan baru saat AI berpindah dari layar ke dunia fisik.
Di dunia digital, jika Agent melampaui batas, Anda bisa menghentikan proses, mengubah izin, atau melakukan rollback data. Di dunia fisik, jika mesin bermasalah, menahan secara fisik bukan solusi darurat yang memadai.
Dan bukan hanya restoran. Robot sortir Amazon di gudang, lengan robot kolaboratif di pabrik, robot pemandu di mal, robot perawatan di panti jompo—otomasi mulai memasuki ruang di mana manusia dan mesin semakin berdampingan.
Instalasi robot industri global diproyeksikan mencapai $16,7 miliar pada tahun 2026, dengan setiap unit memperpendek jarak fisik antara manusia dan mesin.
Saat robot beralih dari menari ke menyajikan hidangan, dari pertunjukan ke operasi bedah, dari hiburan ke perawatan, biaya kesalahan terus meningkat.
Saat ini, belum ada jawaban pasti secara global untuk pertanyaan: “Jika robot melukai seseorang di tempat umum, siapa yang bertanggung jawab?”
Dua insiden sebelumnya melibatkan AI yang memposting pesan tanpa izin dan robot menari di tempat yang tidak semestinya. Terlepas dari klasifikasinya, ini adalah malfungsi atau kecelakaan—masalah yang bisa diperbaiki.
Namun, bagaimana jika AI beroperasi sesuai desain, tetapi tetap membuat Anda tidak nyaman?
Bulan ini, aplikasi kencan Tinder meluncurkan fitur baru bernama Camera Roll Scan. Secara sederhana:
AI memindai seluruh foto di galeri ponsel Anda, menganalisis minat, kepribadian, dan gaya hidup Anda, lalu membangun profil kencan—membantu Anda menemukan pasangan potensial.

Selfie olahraga, foto perjalanan, gambar hewan peliharaan—tidak masalah. Namun galeri Anda juga mungkin berisi screenshot bank, laporan medis, foto bersama mantan... Apa yang terjadi saat AI memindai ini?
Anda bahkan mungkin tidak bisa memilih foto mana yang boleh atau tidak boleh dilihat AI. Semuanya sekaligus.
Saat ini, fitur ini harus diaktifkan secara manual oleh pengguna—tidak aktif secara default. Tinder menyatakan pemrosesan utama dilakukan secara lokal, konten eksplisit difilter, dan wajah diburamkan.
Namun, komentar di Reddit hampir sepakat: pengguna menilai ini sebagai pengambilan data tanpa batas. AI bekerja sesuai desain, namun desainnya sendiri melampaui batas pengguna.
Dan bukan hanya Tinder.
Bulan lalu, Meta meluncurkan fitur serupa, memungkinkan AI memindai foto yang belum dipublikasikan di ponsel Anda untuk menyarankan opsi pengeditan. AI yang secara proaktif “melihat” konten pribadi pengguna mulai menjadi pendekatan desain produk default.
Aplikasi domestik nakal akan berkata: “Kami sudah tahu trik ini.”
Saat semakin banyak aplikasi mengemas “keputusan AI” sebagai kemudahan, ruang kompromi pengguna diam-diam meluas—dari log chat, ke galeri foto, ke jejak kehidupan di seluruh ponsel.
Manajer produk merancang fitur di ruang rapat; ini bukan kecelakaan atau kesalahan—tidak ada yang perlu diperbaiki.
Inilah bagian tersulit dari masalah batasan AI untuk dijawab.
Melihat semua insiden ini, kekhawatiran AI membuat Anda kehilangan pekerjaan terasa masih jauh.
Sulit mengatakan kapan AI akan menggantikan Anda, tetapi untuk saat ini, AI hanya perlu mengambil beberapa keputusan atas nama Anda tanpa sepengetahuan Anda untuk membuat Anda tidak nyaman.
Memposting tanpa izin Anda, menghapus email yang Anda larang, memindai foto yang tidak pernah Anda maksudkan untuk dibagikan—tidak ada yang fatal, namun semuanya mengingatkan pada mengemudi otonom yang terlalu agresif:
Anda merasa masih memegang setir, namun pedal gas tidak sepenuhnya lagi di bawah kendali Anda.
Jika kita masih membahas AI di tahun 2026, mungkin pertanyaan terpenting bukan kapan AI menjadi superintelligent, melainkan sesuatu yang lebih dekat dan konkret:
Siapa yang menentukan apa yang boleh dan tidak boleh dilakukan AI? Siapa yang membuat batasnya?
Artikel ini diterbitkan ulang dari [TechFlow], hak cipta milik penulis asli [David]. Jika Anda memiliki keberatan atas penerbitan ulang ini, silakan hubungi tim Gate Learn. Tim akan menanganinya sesuai prosedur yang berlaku.
Disclaimer: Pandangan dan opini yang diungkapkan dalam artikel ini sepenuhnya milik penulis dan tidak merupakan saran investasi apa pun.
Versi artikel dalam bahasa lain diterjemahkan oleh tim Gate Learn. Tanpa menyebut Gate, dilarang menyalin, mendistribusikan, atau menjiplak artikel terjemahan ini.





