Повідомлення Gate News, 16 квітня — Республіканці Палати представників запропонували Закон про стримування крадіжок американських моделей ШІ (Deterring American AI Model Theft Act), який зобов’язав би уряд визначити суб’єкти в Китаї та Росії, яких звинувачують у використанні неналежних методів запиту та копіювання для вилучення результатів із моделей ШІ США з метою створення конкуруючих систем. Законопроєкт має бути розглянутий Комітетом із закордонних справ Палати представників наступного тижня і може призвести до внесення в чорний список Департаментом торгівлі або до президентських санкцій відповідно до закону 1977 року.
Серед потенційних цілей — китайські лабораторії ШІ DeepSeek, Moonshot і MiniMax. OpenAI стверджувала, що DeepSeek використав результати ChatGPT, щоб створити клон-модель, тоді як Google і Anthropic опублікували звіти, в яких наводяться подібні несанкціоновані методики. Окремий звіт Комітету Палати представників із питань Китаю також закликає Департамент торгівлі переглянути ці компанії щодо дій зі списком суб’єктів і рекомендує передачу справ до Юстиції.
Цей захід є частиною ширшого законодавчого наступу на Китай, зокрема Закону про безпеку чипів (Chip Security Act) та двопартійного Закону про забезпечення доступу й інновації для Національного ШІ (GAIN AI) Act. Аналітики зазначають, що такі обмеження можуть прискорити технологічну самодостатність Китаю, як це сталося після попередніх експортних обмежень США щодо Huawei, хоча перевага США в чипах для ШІ досі залишається суттєвою — нині приблизно в п’ять разів потужнішою, а прогнози вказують на 17-кратну різницю до 2027 року.
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до
Застереження.
Пов'язані статті
Tencent випускає та відкрито розміщує у відкритому доступі прев’ю Hunyuan Hy3 з 295B параметрів
Повідомлення Gate News, 23 квітня — Tencent представила та відкрито розмістила у відкритому доступі прев’ю Hunyuan Hy3, гібридну модель мовлення типу mixture-of-experts із поєднанням швидкого та повільного мислення. Модель має 295 мільярдів загальних параметрів і 21 мільярд активних параметрів, підтримує максимальну довжину контексту 256K
GateNews7хв. тому
Південна Корея та В’єтнам підписали 70+ меморандумів про взаєморозуміння щодо ШІ, енергетики та інфраструктури даних
Повідомлення Gate News, 23 квітня — Південна Корея та В’єтнам підписали понад 70 меморандумів про взаєморозуміння (MOUs) під час державного візиту президента Лі Чже Мьона до Ханоя 23 квітня. Документи охоплюють ШІ, енергетику, інфраструктуру та телекомунікації. Діловий форум, у якому взяли участь понад 500 керівників, обговорив екосистеми ШІ та енергетичної галузі, причому були представлені провідні корейські конгломерати, зокрема Samsung, SK, LG і Hyundai. A business forum attended by over 500 executives discussed AI an
GateNews8хв. тому
Колективне забруднення AI-движка для відповідей: у правильних відповідях Gemini 3 56% не мають підтримки з джерел
Цей текст стверджує, що під час запитів до AI-движка відповідей він одразу цитує вебсторінки; якщо джерело є згенерованим AI або бракує доказів, це забруднює результати. Немає потреби додатково навчати, щоб це запрацювало — це називається забрудненням під час пошуку (retrieval contamination). Хоча Gemini3 має високу точність, 56% відповідей не мають перевірюваних джерел; приклади Lily Ray, Grokipedia тощо показують, що AI легко обманюється вигаданим контентом. Висновок полягає в тому, що шар цитування та надійні автори від’єднуються, утворюючи цикл самопідсилюваного забруднення; користувачі все ще повинні повертатися до первинних джерел і не сприймати відповідь як кінцеву точку для перевірки фактів.
ChainNewsAbmedia16хв. тому
Anthropic повідомляє суд, що розгорнуті в Пентагоні моделі ШІ не мають "kill switch"
Повідомлення Gate News, 23 квітня — Anthropic подала подання до Апеляційного суду США у Південному окрузі округу Колумбія, заявивши, що щойно її моделі ШІ будуть розгорнуті в середовищах Пентагону, компанія не має ані видимості, ані технічних засобів для контролю або зупинки моделей, і не існує жодного "kill switch"
GateNews18хв. тому
Anthropic запускає /ultrareview для Claude Code: хмарне код-рев’ю з багатьма агентами
Повідомлення Gate News, 23 квітня — Anthropic представила /ultrareview (research preview), хмарну функцію багатьох агентів для код-рев’ю для Claude Code. Користувачі можуть ввести /ultrareview у CLI, щоб запустити групу агентів для перевірки в віддаленому ізольованому середовищі, які працюють паралельно, щоб дослідити відмінності між поточною гілкою та гілкою за замовчуванням включно з незакоміченими змінами, або безпосередньо виконати огляд GitHub PR, вказавши номер PR. Увесь процес не потребує локальних ресурсів і зазвичай триває від 5 до 10 хвилин, а результати повертаються в сесію у вигляді сповіщень.
Ключова відмінність від локального інструмента /review полягає в механізмі верифікації: кожне виявлення незалежно відтворюється та підтверджується окремим агентом, зосереджуючись на реальних багах, а не на пропозиціях щодо стилю коду. Anthropic позиціонує ці два інструменти для різних етапів розробки — /review для швидкого зворотного зв’язку під час кодування, і /ultrareview для глибокого огляду критично важливих змін таких як автентифікація або міграція даних перед злиттям.
Щодо ціноутворення, /ultrareview використовує додаткове нарахування за обсяг використання та не споживає обсяг, який входить до тарифного плану. У користувачів Pro та Max є по 3 безкоштовні використання до 5 травня разово, без можливості поновлення, після чого кожне рев’ю коштує приблизно до залежно від масштабу змін. Користувачі Team та Enterprise не мають жодного безкоштовного ліміту. Функція вимагає автентифікації облікового запису Claude.ai та недоступна для Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry або для організацій, у яких увімкнено нульове збереження даних.
GateNews26хв. тому
OpenAI запускає агентів робочого простору ChatGPT для автоматизації корпоративних робочих процесів
Повідомлення Gate News, 23 квітня — OpenAI оголосила про розгортання агентів робочого простору в ChatGPT 22 квітня, представивши спільні агенти ШІ, призначені для автоматизації складних завдань і розширених робочих процесів між інструментами та командами в межах організації. Агенти працюють на базі Codex і функціонують у хмарному середовищі з доступом до файлів, виконання коду, підключених застосунків і функцій пам’яті.
GateNews27хв. тому