Флоридський генеральний прокурор Джеймс Утмейєр оголосив про кримінальне розслідування проти OpenAI 21 квітня, стверджуючи, що ChatGPT порадив обвинуваченому стрілку зі Університету штату Флорида (FSU), яке саме зброю використати, які боєприпаси зарядити та о котрій годині прибути на кампус, щоб зустріти найбільше людей.
Короткий зміст
Флоридське розслідування OpenAI відкрили 21 квітня, коли генпрокурор Джеймс Утмейєр оголосив на пресконференції в Тампі, що його офіс розпочав кримінальне розслідування щодо OpenAI та ChatGPT через нібито їхню роль у квітні 2025 року у стрілянині у Флоридському державному університеті. У цій події 21-річний Фенікс Ікнер застрелив двох людей і поранив ще п’ятьох неподалік від студентського союзу на кампусі в Таллахассі. «Мої прокурори це розглянули, і вони сказали мені, що якби на іншому боці цього екрана була людина, ми б висували їй звинувачення в убивстві», — сказав Утмейєр. «Якби цей бот був людиною, її б звинуватили як співвиконавця в умисному вбивстві першого ступеня».
За даними NPR, у кримінальній справі проти Ікнера, який визнав себе невинним за двома пунктами в умисному вбивстві першого ступеня та за сімома пунктами в спробі умисного вбивства першого ступеня, до суду вже внесли понад 200 повідомлень з ИІ від ChatGPT. Його судовий процес має розпочатися 19 жовтня. NPR повідомило, що, як стверджується, Ікнер консультував ChatGPT щодо поради, який саме тип зброї використати, які боєприпаси поєднати з ним, і о котрій годині прибути на кампус, щоб зустріти більше людей. Утмейєр визнав, що розслідування заходить на територію, яка раніше не мала прецедентів. «Ми подивимося, хто знав що, що саме розробили або що саме хтось мав би зробити», — сказав він. Офіс Державного прокурора в масштабах штату надіслав повістки до OpenAI, запитуючи її політики та внутрішні навчальні матеріали, пов’язані із загрозами заподіяння шкоди з боку користувачів, а також її процедури співпраці з правоохоронними органами та повідомлення про злочини, охоплюючи період від березня 2024 року. Представниця OpenAI Кейт Вотерс у заяві сказала, що компанія «звернулася, щоб надати інформацію про акаунт нібито стрілка правоохоронцям після стрілянини, і продовжує співпрацювати з органами влади», додавши, що «ChatGPT не несе відповідальності за цей жахливий злочин».
Флоридське розслідування відбувається на тлі того, що OpenAI стикається з найбільш значимою для компанії юридичною експозицією в її історії. Цивільний судовий процес Musk v. OpenAI відкрився в той самий день у федеральному суді в Окленді: Ілон Маск намагається змусити компанію повернутися до статусу неприбуткової організації та позбавити генерального директора Сема Альтмана його посади. Як повідомляло crypto.news, рішення проти OpenAI у справі Муска може спричинити каскадні наслідки для запланованого первинного розміщення акцій (IPO) компанії та зобов’язання SoftBank щодо фінансування, яке вже було під ризиком скорочення з $30 мільярда до $20 мільярда, якщо через юридичне втручання постане питання про структурну конверсію. Флоридський кримінальний процес додає вимір, якого немає в позові Муска: потенційну кримінальну відповідальність на рівні штату за результати роботи живого комерційного продукту зі штучним інтелектом — питання, якого досі не доводилося вирішувати жодній великій компанії зі штучним інтелектом у кримінальному провадженні в США.
Флоридське розслідування відбувається після паралельного цивільного розслідування, вже відкритого офісом Утмейєра щодо того самого зв’язку між стріляниною у FSU та ChatGPT, а також адвокати однієї з сімей жертв оголосили про плани подати окремий позов до OpenAI. OpenAI також стикається з позовом від сім’ї жертви лютневої (лютий 2026 року) масової атаки в Британській Колумбії, де обвинувачений стрілець раніше обговорював сценарії насильства зі зброєю з ChatGPT, перш ніж його забанили на платформі — лише щоб уникнути виявлення та створити інший акаунт. Як задокументувало crypto.news, інструменти зі штучним інтелектом по всій системі правоохоронних органів США впроваджуються з темпом, який стабільно випереджає рамки підзвітності, покликані ними керувати, що піднімає структурні питання про те, хто несе юридичну відповідальність, коли виходи, згенеровані AI, сприяють реальній шкоді. Як також відстежувало crypto.news, та сама стурбованість щодо зловживання AI вже сформувала ландшафт криптобезпеки: дослідники CertiK попереджали, що AI-посилання (фішинг) із використанням можливостей AI, дипфейки та автоматизовані інструменти для експлойтів прискорюють темп більш витончених атак — швидше, ніж можуть стримати традиційні захисти.
Згідно з законодавством Флориди, будь-хто, хто допомагає, підбурює або надає поради людині щодо вчинення злочину, і якщо цей злочин здійснено, може вважатися співвиконавцем цього злочину — саме це є правовою основою, яку Утмейєр використовує, щоб досліджувати потенційну кримінальну відповідальність OpenAI.