OpenAI оголосила про придбання платформи безпеки штучного інтелекту Promptfoo, інтегруючи її технології у платформу Frontier для автоматизованого тестування на проникнення та захисту від вразливостей при розгортанні AI-агентів у бізнесі.
(Попередній контекст: Сам Альтман — підлий? Щойно підтримав Anthropic, який був заблокований Пентагоном, і тепер закликає OpenAI отримати контракт з Міноборони США)
(Додатковий фон: Wall Street Journal повідомляє: Трамп використовував Claude AI для визначення цілей у Ірані, а OpenAI повністю контролює системи Пентагону)
OpenAI 9 числа оголосила про придбання платформи безпеки штучного інтелекту Promptfoo, яка заснована у 2024 році і спеціалізується на тестуванні вразливостей великих мовних моделей (LLM) та тренуваннях червоних команд (імітація реальних хакерських атак для захисту).
Зі зростанням ролі AI від простих чат-ботів до «співробітників з правами виконання», питання запобігання зломам агентів або передачі конфіденційних даних стає ключовим викликом для масштабного впровадження.
Згідно з офіційним оголошенням OpenAI, технології Promptfoo будуть глибоко інтегровані у платформу OpenAI Frontier, запущену у лютому 2026 року, щоб підтримувати компанії у створенні агентів:
Згідно з оголошенням, понад 25% компаній з Fortune 500 вже використовують відкритий інструментарій Promptfoo, а кількість користувачів-розробників перевищує 350 тисяч. Команда з 23 осіб отримала 23 мільйони доларів інвестицій і після останнього раунду у липні 2025 року оцінюється у 86 мільйонів доларів.
Засновники Promptfoo, Іан Вебстер і Майкл Д’Анджело, очолять приєднання всієї команди до OpenAI.
Проще кажучи, AI-агенти вже поступово перетворюються з «студентів, що шукають інформацію» у «особистих помічників, що діють за вашим печаткою».
Такий перехід підвищує ризики з витоку інформації до неконтрольованих дій. Коли ми надаємо AI автономію виконувати завдання, найнебезпечніше вже не помилки у висловлюваннях, а зсув у розумінні намірів або введення хакерами прихованих команд, що може призвести до неправильних переказів, видалення важливих файлів і незворотних наслідків.
У середовищі, де кілька AI співпрацюють, логічна помилка одного агента може спричинити ланцюгову реакцію катастрофічних наслідків.
Тому безпека епохи агентів полягає не у блокуванні інформації, а у «моніторингу поведінки». Потрібно, як керівник, встановлювати чіткі межі дозволів і механізми перевірки для AI. Лише зробивши дії AI прозорими і контрольованими, ми зможемо запобігти тому, щоб ця потужна автоматизація стала найслабшим місцем у захисті компанії.