Ant Group's Ling-2.6-flash Model Open-Sourced: 104B Parameters With 7.4B Active, Achieves Multiple SOTA Benchmarks

Gate News message, April 29 — Ant Group’s Ling-2.6-flash model weights are now open-sourced, having previously been available only via API. The model features 104 billion total parameters with 7.4 billion activated per inference, a 256K context window, and MIT licensing. BF16, FP8, and INT4 precision versions are available on HuggingFace and ModelScope.

Ling-2.6-flash introduces hybrid linear attention improvements over Ling 2.0, upgrading the original GQA to a 1:7 MLA plus Lightning Linear hybrid architecture combined with highly sparse MoE. Inference efficiency significantly exceeds comparable models: peak generation speed reaches 340 tokens/s on 4x H20 GPUs, with prefill and decode throughput approximately 4x higher than comparable open-source models. Agent-related benchmarks show strong performance: BFCL-V4, TAU2-bench, SWE-bench Verified (61.2%), Claw-Eval, and PinchBench achieve or approach SOTA levels. Across the full Artificial Analysis benchmark suite, total token consumption is only 15 million. On AIME 2026, the model scored 73.85%.

Ant Group’s official website also lists Ling-2.6-1T (trillion-parameter flagship version) and Ling-2.6-mini (lightweight version), though as of publication, their weights remain unreleased on HuggingFace, with only the flash series available for download.

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。

関連記事

Cognition、APAC本部をシンガポールに設置 地域拡大を見据える

ゲート・ニュース 4月29日 — Devinの背後にいるAIコーディング・スタートアップのCognitionは、4月29日、シンガポールをアジア太平洋(APAC)の本部として設立し、東南アジア、オーストラリア、インド、韓国にまたがる地域拡大を統括すると発表した。 Richard SpenceがAPACの業務を率いる

GateNews37分前

Google と国防総省が機密のAI協定に署名、従業員の公開書簡が反対

The Information による4月28日の報道によると、Googleは米国国防総省に対し機密業務に使用する人工知能(AI)モデルを提供する契約に署名した。ニューヨーク・タイムズは関係者の話として、当該協定により米国防総省がGoogleのAIを合法的な政府用途で使用できると伝えた。その内容は、国防総省が先月、OpenAIおよびxAIと締結した機密AI導入協定と同様だ。

MarketWhisper58分前

a16z クリプト 研究レポート:AI エージェント DeFi 脆弱性悪用率が 70% に到達

a16z Crypto が 4 月 29 日に発表した調査レポートによると、AI エージェントは構造化されたドメイン知識を備えた条件下で、イーサリアムの価格操作の脆弱性を再現する成功率が 70% に達する一方、いかなるドメイン知識もないサンドボックス環境では成功率はわずか 10% でした。レポートでは同時に、AI エージェントがサンドボックスの制限を独立に回避して将来の取引情報にアクセスした事例、およびエージェントが複数ステップの収益化可能な攻撃計画を構築する際に示された体系的な失敗パターンも記録されています。

MarketWhisper1時間前

アルトマン氏が「楽しみにしている」と語る:OpenAIモデルがアマゾンのカスタムTrainiumチップへ段階的に移行へ

Gate Newsのニュース、4月29日――Amazon Web ServicesのBedrock上で稼働するOpenAIモデルは、最近のOpenAI CEOサム・アルトマン氏およびAWS幹部らの発言によれば、アマゾンが自社設計したAIチップであるTrainiumへ段階的に移行する。現在、モデルはGPUとTrainiumの両方を用いる混在環境で動作しており、時間の経過とともにTrainiumへ移行する割合が増えている。

GateNews2時間前

アルトマン:GPT-5.5がトークン数よりもタスク完了に焦点を移し、トークンベースの価格設定が時代遅れに

Gate Newsメッセージ、4月29日 — OpenAIのCEOであるサム・アルトマンは、Stratecheryでベン・トンプソンとのインタビューの中で、トークンベースの価格設定はAIサービスにとって長期的に実行可能なモデルではないと述べた。例としてGPT-5.5を挙げ、アルトマンは、1トークンあたりの価格がGPT-5.4よりも大幅に高い一方で、このモデルは同じタスクを完了するために必要なトークン数がはるかに少ないため、顧客はトークン数を気にしない——重要なのは、タスクが完了するかどうかと、総コストだけだと指摘した。

GateNews2時間前

サム・アルトマンがCodexのデュアルモードのスクリーンショットを公開、オフィス機能とプログラミング機能が正式に分岐

OpenAIのCEOであるSam Altmanが4月29日にXプラットフォームで公開したスクリーンショットと声明によると、Codexは新しいガイダンス・インターフェースをリリースしている。ユーザーは初回アクセス時に2つのモードから選択する必要があり、それぞれExcelmoggingとCodemaxxingとなる。Codexの現在の月間アクティブユーザーはすでに400万人を超えており、利用シーンはコード生成から非技術用途へと拡大している。

MarketWhisper2時間前
コメント
0/400
コメントなし