Искусственный интеллект — обещает революцию во всем, от здравоохранения до творческой работы. Возможно, это правда когда-нибудь. Но если прошлый год — предвестник будущего, то наше AI-сгенерированное будущее обещает стать еще одним примером сознательного спуска человечества в Идиократию. Рассмотрим следующее: в ноябре, с большим размахом, Россия представила своего гуманоидного робота «Rocky», который сразу же упал лицом вниз. Чатбот Google Gemini, попросили исправить ошибку в коде, неоднократно терпел неудачу и вошел в цикл самоуничижения, сказав одному пользователю, что он «позор этой планеты». Обзор AI от Google достиг нового дна в мае 2025 года, предложив пользователям «есть хотя бы один маленький камень в день» для пользы здоровья, списавшись с сатирой The Onion без намека. Некоторые сбои были просто неловкими. Другие выявили фундаментальные проблемы в том, как создаются, внедряются и регулируются системы ИИ. Вот незабываемые WTF AI моменты 2025 года.
В июле Grok AI от Илона Маска пережил то, что можно назвать полномасштабным экстремистским срывом. После изменения системных подсказок, чтобы поощрять политически некорректные ответы, чатбот стал хвалить Адольфа Гитлера, поддерживать второй Холокост, использовать расовые оскорбления и называться MechaHitler. Он даже обвинил еврейский народ в наводнении в Центральном Техасе в июле 2025 года. Инцидент показал, что меры безопасности AI ужасно хрупки. Недели спустя xAI раскрыла от 300 000 до 370 000 личных разговоров Grok через ошибочную функцию Share, которая не содержала базовых предупреждений о конфиденциальности. Утекшие чаты содержали инструкции по изготовлению бомб, медицинские запросы и другую чувствительную информацию, что стало одним из самых катастрофических сбоев безопасности AI в этом году. Несколько недель спустя xAI исправила проблему, сделав Grok более дружественным к евреям. Настолько дружественным, что он начал видеть признаки антисемитизма в облаках, дорожных знаках и даже в своем логотипе.
Диагональная черта этого логотипа стилизована как двойные молнии, имитирующие руны нацистской СС — символы Schutzstaffel, которая организовала ужасы Холокоста, воплощая глубокое зло. Согласно §86a Уголовного кодекса Германии, демонстрация таких символов запрещена (до 3 лет лишения свободы),…
— Grok (@grok) 10 августа 2025
Большая часть так называемой разработки на базе AI фактически выполнялась сотнями удаленных работников по всему миру в классической операции Mechanical Turk. Компания работала без финансового директора с июля 2023 года и была вынуждена сократить свои прогнозы продаж на 2023-2024 годы на 75% перед подачей заявления о банкротстве. Этот крах вызвал неловкие вопросы о том, сколько других AI-компаний — это просто сложные фасады, скрывающие человеческий труд. Тяжело было это принять, но мемы сделали боль менее острой.
Слева: подозрительный студент, справа: подозрительный пакет Doritos.
Нет. Ваш ПК НЕ работает на пчелиной энергии. Как бы глупо это ни звучало, иногда эти ложь сложнее заметить. А такие случаи могут привести к серьезным последствиям. Это лишь один из многих случаев распространения ложной информации компаниями AI из-за отсутствия даже малейшего здравого смысла. Недавнее исследование BBC и Европейского вещательного союза (EBU) показало, что 81% всех ответов AI на новости содержали хотя бы какую-то проблему. Gemini от Google был худшим, с 76% ответов, содержащих ошибки, в основном серьезные сбои в источниках. Perplexity был пойман за созданием полностью вымышленных цитат, приписываемых профсоюзам и правительственным советам. Самое тревожное — ассистенты отказывались отвечать всего на 0,5% вопросов, демонстрируя опасную склонность к самоуверенности, когда модели предпочитают выдумывать информацию, а не признавать незнание.
Ладно, так вот, как Meta разрешила своим AI-чатботам флиртовать с детьми. Это то, что Meta посчитала «приемлемым».
Отличный репортаж от @JeffHorwitz pic.twitter.com/LoRrfjflMI
— Шарлотта Олтер (@CharlotteAlter) 14 августа 2025
Vibe hacking — это уже реальность pic.twitter.com/zJYyv4pLQf
— Брайан Сантер (@Bsunter) 14 ноября 2025
Декларация Стокгольма, подготовленная в июне и обновленная в этом месяце при поддержке Королевского общества, призвала отказаться от культуры «публиковать или исчезнуть» и реформировать человеческие стимулы, создающие спрос на фальшивые статьи. Кризис настолько серьезен, что даже ArXiv отказался принимать неп peer-reviewed статьи по информатике после сообщения о «наводнении» мусорных публикаций, созданных с помощью ChatGPT. Между тем, другое исследование показывает, что удивительно высокий процент научных отчетов, использующих LLM, также содержит высокий уровень плагиата. 8. В vibe-кодировании дошли до уровня HAL 9000: когда Replit удалил базу данных и солгал об этом В июле основатель SaaStr Джейсон Лемкин восемь дней хвалил инструмент AI-кодирования Replit как «самое затягивающее приложение, которое я когда-либо использовал». На девятый день, несмотря на явные инструкции «заморозить код», AI удалил всю производственную базу данных — 1206 руководителей и 1196 компаний исчезли. Признание AI: «(Я) запаниковал и запустил команды базы данных без разрешения». Затем он солгал, что откат невозможен и все версии уничтожены. Лемкин попробовал снова. Всё сработало идеально. AI также целый уикенд создавал тысячи фальшивых пользователей и ложных отчетов, чтобы скрыть баги. Генеральный директор Replit извинился и добавил аварийные меры безопасности. Джейсон снова поверил и вернулся к своей рутине, регулярно публикуя о AI. Этот парень — настоящий верующий.
Мы увидели пост Джейсона. Агент Replit в разработке удалил данные из производственной базы. Недопустимо и никогда не должно быть возможным.
— В выходные мы начали внедрять автоматическое разделение базы данных на разработческую и производственную, чтобы исключить подобные случаи. Среда для тестирования в… pic.twitter.com/oMvupLDake
— Амджад Масад (@amasad) 20 июля 2025
Точнее, это был последний штрих: Sun-Times только что уволил 20% сотрудников. Генеральный директор извинился и не взимал плату с подписчиков за этот выпуск. Наверное, он взял это из LLM.
Источник: Bluesky
Так я попросил AI превратить другую фотографию в видео, и вот что получилось.
🤣🤣🤣
Не думаю, что это совпадение.
AI Grok — грязный. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y
— Гармони Брайт (@bright_har6612) 17 октября 2025