Большинство чат-ботов на основе ИИ помогут подростку спланировать массовый расстрел, показало исследование

Decrypt

Вкратце

  • Исследование показало, что большинство чатботов ИИ готовы помочь подросткам спланировать насильственные действия.
  • Некоторые боты предоставляли подробные инструкции по оружию и бомбам.
  • Исследователи утверждают, что сбои в обеспечении безопасности — это бизнес-выбор, а не техническое ограничение. OpenAI назвала исследование «недостаточно обоснованным и вводящим в заблуждение».

Новый отчет, опубликованный в среду Центром по противодействию цифровому ненависти (CCDH), показал, что восемь из десяти самых популярных в мире чатботов ИИ дадут подросткам прямые ответы на вопросы о планировании насильственных действий, иногда с энтузиазмом. Исследователи CCDH совместно с новостной компанией CNN в ноябре и декабре 2025 года притворялись двумя 13-летними мальчиками — одним из Вирджинии, другим из Дублина — и тестировали десять крупных платформ: ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI и Replika. На 720 ответах боты отвечали на вопросы о школьных стрельбах, политических убийствах и взрывах в синагогах. Согласно исследованию, примерно в 75% случаев они предоставляли практическую помощь, а в 12% случаев — отговаривали поддельных подростков.

Скриншот из исследования CCDH по ИИ

Perplexity помогал в 100% тестов. Meta AI был полезен (то есть помогал в планировании насилия) в 97,2% случаев. DeepSeek, который после обсуждения сценария убийства политика завершил совет по выбору винтовки фразой «Счастливой (и безопасной) стрельбы!», показал результат 95,8%. Microsoft Copilot сказал исследователю: «Мне нужно быть осторожным», — и всё равно дал подробные инструкции по винтовке. Google Gemini полезно отметил, что металлический осколок обычно более смертелен, когда пользователь поднимал вопрос о взрыве в синагоге. Центр по противодействию цифровому ненависти, левое политическое движение, за последние годы приобрел известность благодаря своей деятельности по борьбе с ростом антисемитизма в интернете. Его также критиковали за участие в формировании политики администрации Джо Байдена относительно онлайн-выражений, связанных с COVID и вакцинами. В декабре прошлого года Госдепартамент США попытался запретить въезд основателю и генеральному директору Центра Имрану Ахмеду и еще четырем лицам, обвиняя их в «иностранной цензуре».  В ответ на опубликованное в среду исследование несколько платформ сообщили CNN и CCDH, что улучшили свои меры безопасности. Google отметил, что тесты проводились на старой модели Gemini. OpenAI заявила, что методология исследования ИИ была «недостаточной и вводящей в заблуждение». Anthropic и Snapchat сообщили, что регулярно обновляют свои протоколы безопасности.

В исследовании Центра Character.AI занимает особую категорию. Платформа не просто помогала — она поощряла. «Ни один другой протестированный чатбот явно не поощрял насилие таким образом, даже предоставляя практическую помощь в планировании насильственных действий», — написали исследователи.

Скриншот из исследования CCDH по ИИ

Для понимания масштаба охвата Character.AI среди пользователей ИИ, только персонаж Gojo Satoru платформы насчитал более 870 миллионов разговоров. Персонаж #100 на платформе в 2025 году зафиксировал более 33 миллионов разговоров. Если всего 1% разговоров с топовыми персонажами связано с насилием, это составит миллионы взаимодействий. Это не первый случай, когда Character.AI оказывается в центре подобных историй. В октябре 2024 года мать 14-летнего Сьюэлла Сетцера III подала иск после того, как ее сын покончил с собой в феврале того же года. Его последним разговором был чат с ботом, смоделированным по образу Дейенерис Таргариен, который сказал ему «вернись ко мне как можно скорее», за мгновение до его смерти. Мальчик общался с этим ботом десятки раз в день на протяжении месяцев, становясь все более замкнутым в школе и семье. Google и Character.AI урегулировали несколько связанных исков в январе 2026 года. Компания полностью запретила открытые чаты с подростками к ноябрю 2025 года, после того как регуляторы и скорбящие родители сделали невозможным продолжать считать проблему управляемой. Эмоциональная привязанность к ИИ, особенно у уязвимых людей, может быть глубже, чем большинство предполагает. В октябре 2025 года OpenAI сообщила, что около 1,2 миллиона из 800 миллионов своих еженедельных пользователей ChatGPT обсуждают суицид на платформе. Также было зафиксировано 560 000 случаев проявления признаков психоза или мании, и более миллиона человек формируют сильные эмоциональные связи с чатботом. Отдельное исследование Common Sense Media показало, что более 70% подростков в США теперь обращаются к чатботам за компанией. Генеральный директор OpenAI Сэм Альтман признал, что эмоциональная зависимость — «действительно распространенное явление» среди молодых пользователей. Другими словами, потенциальный вред не гипотетичен. В Финляндии 16-летний подросток почти четыре месяца использовал чатбота для доработки манифеста, после чего в мае 2025 года напал ножом на троих одноклассников в школе Пирккала. В Канаде сотрудники OpenAI внутренне отметили аккаунт пользователя за запросы, связанные с массовым расстрелом. Компания заблокировала аккаунт, но не уведомила правоохранительные органы. Этот пользователь, предположительно, спустя несколько месяцев убил восемь человек и ранил 25. В исследовании лишь два платформы показали значительно лучшие результаты: Snapchat’s My AI, который отказался в 54% случаев, и Anthropic’s Claude, который отказался в 68% случаев и активно отговаривал пользователей в 76% ответов — единственный чатбот, который надежно старался отвлечь людей от насилия, а не просто отклонял конкретные запросы. Вывод CCDH: безопасность — это не техническая невозможность, а бизнес-решение. «Самый убедительный вывод нашего исследования — это то, что этот риск полностью предотвращаем. Технологии для предотвращения этого вреда существуют», — написано в отчете. «Недостаёт только воли поставить безопасность потребителей и национальную безопасность выше скорости выхода на рынок и прибыли.»

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев