Tin tức Gate News, ngày 12 tháng 3, WIRED phát hiện trong tài liệu tài chính SEC năm 2025 của NVIDIA rằng công ty dự định đầu tư 26 tỷ USD trong năm năm tới để xây dựng các mô hình AI mở trọng số và đã được các lãnh đạo xác nhận. Phó chủ tịch nghiên cứu học sâu của NVIDIA, Bryan Catanzaro, cho biết: “Giúp hệ sinh thái phát triển phù hợp lợi ích của chúng tôi. Chúng tôi là một công ty Mỹ, nhưng hợp tác với các công ty trên toàn cầu để hệ sinh thái đa dạng và mạnh mẽ ở mọi nơi phù hợp lợi ích của chúng tôi.”
Động lực chính của NVIDIA là để đối phó với lợi thế dẫn đầu của các mô hình mã nguồn mở của Trung Quốc. Hiện tại, hầu hết các mô hình trọng số mở xuất sắc nhất toàn cầu đều đến từ Trung Quốc, bao gồm DeepSeek, Qwen của Alibaba, Moonshot AI, Z.ai, MiniMax, v.v., nhiều công ty khởi nghiệp và nhà nghiên cứu nước ngoài đã xây dựng ứng dụng dựa trên các mô hình Trung Quốc này. Tin đồn trong ngành cho biết DeepSeek sắp phát hành mô hình mới hoàn toàn được huấn luyện trên chip Huawei, nếu đúng sẽ chứng minh rằng “không cần NVIDIA vẫn có thể huấn luyện mô hình hàng đầu.”
Cùng ngày, NVIDIA công bố mô hình trọng số mở mạnh nhất từ trước đến nay là Nemotron 3 Super, với 1280 tỷ tham số, tương đương phiên bản lớn nhất của GPT-OSS của OpenAI. Công ty cho biết mô hình này đạt điểm 37 trong Chỉ số AI (đánh giá tổng hợp qua 10 bài kiểm tra tiêu chuẩn), cao hơn GPT-OSS với 33, nhưng thấp hơn một số mô hình Trung Quốc. NVIDIA cũng cho biết Nemotron 3 Super đứng đầu trong PinchBench (chuẩn mới đánh giá khả năng kiểm soát của mô hình đối với OpenClaw). Ngoài ra, công ty đã hoàn thành tiền huấn luyện cho một mô hình 550 tỷ tham số. Nathan Lambert, trưởng dự án ATOM của Viện Nghiên cứu Trí tuệ Nhân tạo Allen, cho biết ông là “người hâm mộ trung thành của Nemotron” và kêu gọi chính phủ Mỹ cũng nên tài trợ cho các mô hình mã nguồn mở.