OpenAI mengumumkan akuisisi platform keamanan AI Promptfoo, mengintegrasikan teknologinya ke dalam platform Frontier, untuk menyediakan pengujian red team otomatis dan perlindungan kerentanan dalam penerapan AI Agent oleh perusahaan.
(Latar belakang: Sam Altman kejam? Baru saja diblokir oleh Pentagon, Anthropic berbalik mendukung OpenAI memenangkan kontrak Departemen Pertahanan AS)
(Keterangan tambahan: The Wall Street Journal mengungkapkan: Trump menargetkan Iran dan Hamedani menggunakan Claude AI, sementara OpenAI mengambil alih sistem Pentagon secara menyeluruh)
OpenAI mengumumkan pada hari kemarin (9) bahwa mereka telah mengakuisisi platform keamanan AI Promptfoo, sebuah perusahaan startup yang didirikan pada tahun 2024 dan mengkhususkan diri dalam pengujian kerentanan dan latihan red team untuk model bahasa besar (LLM), sebuah bentuk pengujian pertahanan keamanan yang meniru perilaku hacker nyata.
Seiring AI berkembang dari sekadar chatbot menjadi “rekan kerja AI” yang memiliki hak eksekusi, bagaimana mencegah agen-agen ini dari jailbreak atau menyebarkan data sensitif secara tidak sengaja, menjadi tantangan utama dalam penerapan skala besar oleh perusahaan.
Berdasarkan pengumuman resmi OpenAI, teknologi Promptfoo akan diintegrasikan secara mendalam ke dalam platform perusahaan terbaru, OpenAI Frontier, yang diluncurkan pada Februari 2026, untuk mendukung perusahaan yang membangun agen di atas Frontier:
Menurut pengumuman tersebut, saat ini alat sumber terbuka Promptfoo telah digunakan oleh lebih dari 25% perusahaan dalam daftar Fortune 500, dengan 350.000 pengguna pengembang. Tim yang hanya terdiri dari 23 orang ini pernah mendapatkan pendanaan sebesar 23 juta dolar AS, dan setelah putaran pendanaan terakhir pada Juli 2025, valuasinya mencapai 86 juta dolar AS.
Pendiri Promptfoo, Ian Webster dan Michael D’Angelo, akan memimpin seluruh tim untuk bergabung dengan OpenAI.
Secara sederhana, AI Agent saat ini secara bertahap bertransformasi dari “mahasiswa yang mencari data” menjadi “asisten yang memegang cap dan menjalankan tugas”.
Perubahan ini mengubah risiko dari sekadar kebocoran informasi menjadi kehilangan kendali atas tindakan. Ketika kita memberi AI otonomi untuk menjalankan tugas, yang paling berbahaya bukan lagi kesalahan bicara, tetapi bias dalam memahami niat, atau disesatkan oleh hacker melalui instruksi tersembunyi, sehingga melakukan tindakan yang salah seperti transfer uang secara tidak sah atau penghapusan file penting secara irreversible.
Dalam lingkungan di mana beberapa AI bekerja sama, kesalahan logika satu agen lebih berpotensi memicu reaksi berantai yang bencana.
Oleh karena itu, inti keamanan di era Agent bukan lagi memblokir informasi, melainkan “mengawasi perilaku”. Kita harus mengelola AI layaknya karyawan, dengan menetapkan batasan hak akses yang jelas dan mekanisme verifikasi. Hanya dengan membuat tindakan AI dapat diaudit setiap saat dan hak aksesnya dikontrol secara tepat, kemampuan otomatisasi yang kuat ini tidak akan berbalik menjadi pintu belakang yang paling sulit dipertahankan oleh perusahaan.