Gate News повідомляє, 12 березня, WIRED з’ясував із фінансових документів SEC компанії NVIDIA за 2025 рік, що компанія планує інвестувати 26 мільярдів доларів протягом наступних п’яти років у створення відкритих моделей штучного інтелекту з відкритим ваговим коефіцієнтом, що підтверджено керівництвом. Віце-президент з досліджень глибокого навчання NVIDIA Браян Катанцаро зазначив: «Допомога розвитку екосистеми відповідає нашим інтересам. Ми — американська компанія, але співпрацюємо з компаніями по всьому світу, щоб зробити екосистему різноманітною та сильною в усьому світі.»
Основна причина цього кроку NVIDIA — реагування на перевагу відкритих моделей у Китаї. Наразі майже всі найкращі відкриті моделі з ваговим коефіцієнтом походять із Китаю, включаючи DeepSeek, Alibaba Qwen, Moonshot AI, Z.ai, MiniMax та інші. Багато закордонних стартапів і дослідників вже створюють застосунки на базі цих китайських моделей. У галузі ходять чутки, що DeepSeek незабаром випустить нову модель, повністю навчану на чипах Huawei, що у разі підтвердження доведе, що «можна створювати топові моделі без NVIDIA».
У той же день NVIDIA представила свою найпотужнішу відкриту модель з ваговим коефіцієнтом Nemotron 3 Super, з 128 мільярдами параметрів, що відповідає найбільшій версії GPT-OSS від OpenAI. Компанія заявила, що ця модель отримала 37 балів у AI Index (загальний рейтинг за 10 базовими тестами), перевищуючи GPT-OSS із 33, але поступаючись кільком китайським моделям. Також NVIDIA повідомила, що Nemotron 3 Super посідає перше місце у PinchBench — новому тесті для оцінки здатності моделі керувати OpenClaw. Крім того, компанія завершила попереднє навчання моделі з 550 мільярдами параметрів. Глава дослідницького інституту Allen AI, Натан Ламберт, заявив, що він є «відданим фанатом Nemotron» і закликав уряд США також фінансувати відкриті моделі.