Anthropic звинувачує китайські лабораторії штучного інтелекту у копіюванні моделей, ставлячи під загрозу Nvidia (NVDA) та американський контроль за чіпами
Anthropic звинуватив три провідні китайські лабораторії штучного інтелекту у проведенні так званих «промислових дистиляційних атак» на свої моделі. Це додало новий рівень до технологічного конфлікту між США та Китаєм. Обвинувачення Anthropic також з’явилися на тлі заяви високопосадовця адміністрації Трампа про те, що китайський розробник R1, компанія DeepSeek, міг навчати свою наступну модель ШІ на чипах Nvidia Blackwell у порушення політичних обмежень.
Знижка 50% на TipRanks Premium
Відкрийте доступ до даних рівня хедж-фондів та потужних інвестиційних інструментів для більш розумних та точних рішень
Будьте попереду ринку з останніми новинами та аналізами і максимізуйте потенціал свого портфеля
Anthropic, стартап із Сан-Франциско, який створив інструмент кодування Claude, заявив, що DeepSeek, Moonshot і MiniMax (HK:0100) використовували фальшиві акаунти для витягання даних із їхньої системи. Компанія повідомила, що виявила 24 000 шахрайських акаунтів, які здійснили понад 16 мільйонів обмінів із Claude. Вона стверджує, що ці обміни використовувалися для «тренування та покращення власних моделей».
Дистиляція — поширений метод у штучному інтелекті. Це означає навчання меншої моделі на відповідях більш просунутої. Це дозволяє компанії копіювати частину продуктивності топової системи без великих витрат на чипи та енергію. Однак Anthropic стверджує, що у цьому випадку ця практика перейшла межу.
«Атаки дистиляції підривають ці контролі, дозволяючи іноземним лабораторіям… закрити конкурентну перевагу, яку мають експортні обмеження», — заявила компанія.
Чому це важливо для контролю за чипами
Ключовий момент — час. США ввели обмеження на експорт передових чипів до Китаю, зокрема високорівневих продуктів Nvidia NVDA +0.91% ▲. Ці обмеження спрямовані на уповільнення прогресу Китаю у сфері передового ШІ. В результаті китайські лабораторії змушені шукати інші шляхи для підтримки розвитку. Деякі навчили моделі за кордоном. Інші покладаються на старіші чипи. І тепер дистиляція опинилася в центрі уваги.
Якщо китайські компанії зможуть використовувати результати моделей із США для навчання своїх систем, це може зменшити вплив обмежень на чипи. Простими словами, навіть якщо Китай не може купити найкращі чипи, він все одно може навчатися на моделях, створених із цими чипами.
Цей ризик уже піднімався раніше. Минулого року OpenAI повідомила, що виявила ознаки дистиляції, пов’язаної з моделлю ChatGPT. Нещодавно вона заявила комітету Палати представників США, що майбутня модель DeepSeek слід розглядати у контексті зусиль «запозичити можливості, розроблені OpenAI та іншими передовими лабораторіями США».
Безпека та вплив на ринок
Anthropic також висловила занепокоєння щодо безпеки. Вона заявила, що моделі, «створені шляхом нелегальної дистиляції», «малоймовірно зберігають» заходи безпеки, які запобігають зловживанням, наприклад, біотехнологічними загрозами або кіберзлочинністю. Іншими словами, скопійовані моделі можуть не мати тих самих захисних механізмів.
Однак у цій історії є кілька аспектів. По-перше, вона підкреслює, що ключові передові чипи Nvidia залишаються у центрі гонки ШІ. По-друге, вона натякає, що компанії з ШІ можуть посилити контроль доступу до своїх систем і більш ретельно слідкувати за їх використанням. По-третє, вона підвищує ймовірність нових дій США, якщо чиновники вирішать, що дистиляція послаблює експортну політику.
Ми використали інструмент порівняння TipRanks, щоб порівняти відомі публічно торговані компанії, які використовують чат-боти, схожі на ChatGPT, Grok і Claude. Це чудовий інструмент для отримання ширшого уявлення про кожну акцію та індустрію ШІ в цілому.
Застереження та розкриття інформації. Повідомляйте про проблему
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Anthropic звинувачує китайські лабораторії штучного інтелекту у копіюванні моделей, ставлячи під загрозу Nvidia (NVDA) та американський контроль за чіпами
Anthropic звинуватив три провідні китайські лабораторії штучного інтелекту у проведенні так званих «промислових дистиляційних атак» на свої моделі. Це додало новий рівень до технологічного конфлікту між США та Китаєм. Обвинувачення Anthropic також з’явилися на тлі заяви високопосадовця адміністрації Трампа про те, що китайський розробник R1, компанія DeepSeek, міг навчати свою наступну модель ШІ на чипах Nvidia Blackwell у порушення політичних обмежень.
Знижка 50% на TipRanks Premium
Відкрийте доступ до даних рівня хедж-фондів та потужних інвестиційних інструментів для більш розумних та точних рішень
Будьте попереду ринку з останніми новинами та аналізами і максимізуйте потенціал свого портфеля
Anthropic, стартап із Сан-Франциско, який створив інструмент кодування Claude, заявив, що DeepSeek, Moonshot і MiniMax (HK:0100) використовували фальшиві акаунти для витягання даних із їхньої системи. Компанія повідомила, що виявила 24 000 шахрайських акаунтів, які здійснили понад 16 мільйонів обмінів із Claude. Вона стверджує, що ці обміни використовувалися для «тренування та покращення власних моделей».
Дистиляція — поширений метод у штучному інтелекті. Це означає навчання меншої моделі на відповідях більш просунутої. Це дозволяє компанії копіювати частину продуктивності топової системи без великих витрат на чипи та енергію. Однак Anthropic стверджує, що у цьому випадку ця практика перейшла межу.
«Атаки дистиляції підривають ці контролі, дозволяючи іноземним лабораторіям… закрити конкурентну перевагу, яку мають експортні обмеження», — заявила компанія.
Чому це важливо для контролю за чипами
Ключовий момент — час. США ввели обмеження на експорт передових чипів до Китаю, зокрема високорівневих продуктів Nvidia NVDA +0.91% ▲. Ці обмеження спрямовані на уповільнення прогресу Китаю у сфері передового ШІ. В результаті китайські лабораторії змушені шукати інші шляхи для підтримки розвитку. Деякі навчили моделі за кордоном. Інші покладаються на старіші чипи. І тепер дистиляція опинилася в центрі уваги.
Якщо китайські компанії зможуть використовувати результати моделей із США для навчання своїх систем, це може зменшити вплив обмежень на чипи. Простими словами, навіть якщо Китай не може купити найкращі чипи, він все одно може навчатися на моделях, створених із цими чипами.
Цей ризик уже піднімався раніше. Минулого року OpenAI повідомила, що виявила ознаки дистиляції, пов’язаної з моделлю ChatGPT. Нещодавно вона заявила комітету Палати представників США, що майбутня модель DeepSeek слід розглядати у контексті зусиль «запозичити можливості, розроблені OpenAI та іншими передовими лабораторіями США».
Безпека та вплив на ринок
Anthropic також висловила занепокоєння щодо безпеки. Вона заявила, що моделі, «створені шляхом нелегальної дистиляції», «малоймовірно зберігають» заходи безпеки, які запобігають зловживанням, наприклад, біотехнологічними загрозами або кіберзлочинністю. Іншими словами, скопійовані моделі можуть не мати тих самих захисних механізмів.
Однак у цій історії є кілька аспектів. По-перше, вона підкреслює, що ключові передові чипи Nvidia залишаються у центрі гонки ШІ. По-друге, вона натякає, що компанії з ШІ можуть посилити контроль доступу до своїх систем і більш ретельно слідкувати за їх використанням. По-третє, вона підвищує ймовірність нових дій США, якщо чиновники вирішать, що дистиляція послаблює експортну політику.
Ми використали інструмент порівняння TipRanks, щоб порівняти відомі публічно торговані компанії, які використовують чат-боти, схожі на ChatGPT, Grok і Claude. Це чудовий інструмент для отримання ширшого уявлення про кожну акцію та індустрію ШІ в цілому.
Застереження та розкриття інформації. Повідомляйте про проблему