Tin tức từ Gate, ngày 29 tháng 4 — Trọng số mô hình Ling-2.6-flash của Ant Group hiện đã được mở mã nguồn công khai, trước đây chỉ có sẵn thông qua API. Mô hình có tổng cộng 104 tỷ tham số với 7,4 tỷ tham số được kích hoạt cho mỗi lần suy luận, cửa sổ ngữ cảnh 256K và giấy phép MIT. Các phiên bản độ chính xác BF16, FP8 và INT4 có sẵn trên HuggingFace và ModelScope.
Ling-2.6-flash giới thiệu các cải tiến chú ý tuyến tính lai (hybrid linear attention) so với Ling 2.0, nâng cấp GQA gốc lên kiến trúc hybrid 1:7 MLA kết hợp Lightning Linear, cùng với MoE có độ thưa cực cao. Hiệu suất suy luận vượt đáng kể các mô hình tương đương: tốc độ tạo đỉnh đạt 340 token/giây trên 4 GPU H20, với thông lượng prefill và decode cao hơn khoảng 4 lần so với các mô hình mã nguồn mở tương đương. Các benchmark liên quan đến tác nhân cho thấy hiệu suất mạnh: BFCL-V4, TAU2-bench, SWE-bench Verified (61,2%), Claw-Eval và PinchBench đạt hoặc tiến gần mức SOTA. Trong toàn bộ bộ bài benchmark Artificial Analysis, tổng mức tiêu thụ token chỉ là 15 triệu. Trên AIME 2026, mô hình đạt 73,85%.
Trang web chính thức của Ant Group cũng liệt kê phiên bản flagship Ling-2.6-1T (phiên bản nghìn tỷ tham số) và phiên bản nhẹ (lightweight) Ling-2.6-mini (phiên bản nhẹ), tuy nhiên tính đến thời điểm xuất bản, trọng số của họ vẫn chưa được phát hành trên HuggingFace, chỉ có dòng flash hiện có thể tải xuống.
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo
Tuyên bố miễn trừ trách nhiệm.
Bài viết liên quan
Cognition Thiết Lập Singapore Là Trụ Sở APAC, Nhắm Tới Mở Rộng Khu Vực
Tin tức cổng, ngày 29 tháng 4 — Cognition, công ty khởi nghiệp mã hóa AI đứng sau Devin, đã công bố vào ngày 29 tháng 4 rằng họ sẽ thành lập Singapore làm trụ sở châu Á - Thái Bình Dương để giám sát kế hoạch mở rộng khu vực trên khắp Đông Nam Á, Australia, Ấn Độ và Hàn Quốc.
Richard Spence sẽ dẫn dắt các hoạt động APAC
GateNews37phút trước
Google ký kết thỏa thuận AI bí mật với Lầu Năm Góc, thư công khai của nhân viên phản đối
Theo The Information đưa tin vào ngày 28 tháng 4, Google đã ký một thỏa thuận để cung cấp cho Lầu Năm Góc các mô hình trí tuệ nhân tạo (AI) dùng cho các công việc mật. Tờ New York Times trích dẫn các nguồn tin cho biết rằng thỏa thuận này cho phép Bộ Quốc phòng Mỹ sử dụng AI của Google cho các mục đích hợp pháp của chính phủ, có tính chất tương tự như thỏa thuận triển khai AI mật mà Lầu Năm Góc đã ký hồi tháng trước với OpenAI và xAI.
MarketWhisper58phút trước
Báo cáo nghiên cứu Crypto của a16z: Tỷ lệ khai thác lỗ hổng DeFi của AI agent đạt 70%
Theo báo cáo nghiên cứu do a16z Crypto công bố vào ngày 29 tháng 4, trong điều kiện AI agent được trang bị kiến thức chuyên ngành có cấu trúc, tỷ lệ tái hiện thành công lỗ hổng thao túng giá Ethereum đạt 70%; trong môi trường sandbox không có bất kỳ kiến thức chuyên ngành nào, tỷ lệ thành công chỉ là 10%. Báo cáo cũng đồng thời ghi nhận các trường hợp AI agent độc lập vượt qua các hạn chế của sandbox để truy cập thông tin giao dịch trong tương lai, và các kiểu thất bại có tính hệ thống của agent khi xây dựng các kế hoạch tấn công nhiều bước có khả năng sinh lời.
MarketWhisper1giờ trước
Các mô hình OpenAI sẽ dần chuyển sang chip Trainium do Amazon tùy chỉnh, Altman cho biết anh ấy đã 'mong chờ' điều đó
Tin tức cổng, ngày 29 tháng 4 — Theo những nhận xét gần đây từ Giám đốc điều hành OpenAI Sam Altman và các lãnh đạo của AWS, các mô hình OpenAI đang chạy trên Amazon Web Services' Bedrock sẽ dần dần chuyển sang Trainium, con chip AI do Amazon tự thiết kế. Hiện tại, các mô hình hoạt động trong một môi trường kết hợp, sử dụng cả GPU và Tr
GateNews2giờ trước
Altman: Định giá theo token sắp trở nên lỗi thời khi GPT-5.5 chuyển trọng tâm sang hoàn thành tác vụ thay vì đếm token
Tin tức từ Gate, 29 tháng 4 — CEO OpenAI Sam Altman cho biết trong một cuộc phỏng vấn với Ben Thompson trên Stratechery rằng mô hình định giá dựa trên token không phải là lựa chọn khả thi lâu dài cho các dịch vụ AI. Lấy GPT-5.5 làm ví dụ, Altman nhận xét rằng mặc dù giá mỗi token cao hơn đáng kể so với GPT-5.4, nhưng mô hình này sử dụng ít token hơn nhiều để hoàn thành cùng một tác vụ, nghĩa là khách hàng không quan tâm đến số lượng token—họ chỉ quan tâm liệu tác vụ có được hoàn thành hay không và tổng chi phí.
GateNews2giờ trước
Sam Altman 发布 Codex 双模式截图,办公與编程功能正式分流
Giám đốc điều hành OpenAI Sam Altman đã đăng vào ngày 29 tháng 4 trên nền tảng X những ảnh chụp và tuyên bố, Codex đang ra mắt phiên bản giao diện hướng dẫn mới: khi người dùng lần đầu truy cập phải chọn một trong hai chế độ, lần lượt là Excelmogging và Codemaxxing. Người dùng hoạt động hàng tuần của Codex hiện đã vượt quá 4 triệu, và các kịch bản sử dụng đã mở rộng từ tạo mã sang các mục đích không mang tính kỹ thuật.
MarketWhisper2giờ trước