โมเดล Ling-2.6-flash ของ Ant Group เปิดซอร์สแล้ว: พารามิเตอร์ 104B พร้อมใช้งาน 7.4B ทำผลงานได้หลายเกณฑ์ SOTA

ข่าวประตู (Gate News) วันที่ 29 เมษายน — น้ำหนักของโมเดล Ling-2.6-flash ของ Ant Group ได้ถูกเผยแพร่แบบโอเพนซอร์สแล้ว ซึ่งก่อนหน้านี้มีให้ใช้เฉพาะผ่านทาง API โมเดลนี้มีพารามิเตอร์รวม 104 พันล้าน มีพารามิเตอร์ที่ถูกเปิดใช้งาน 7.4 พันล้านต่อการอนุมาน หน้าต่างคอนเท็กซ์ 256K และมีไลเซนส์ MIT มีเวอร์ชันความแม่นยำ BF16, FP8 และ INT4 ให้ใช้งานบน HuggingFace และ ModelScope.

Ling-2.6-flash นำเสนอการปรับปรุง hybrid linear attention เหนือ Ling 2.0 โดยอัปเกรด GQA ดั้งเดิมเป็นสถาปัตยกรรม 1:7 MLA + Lightning Linear แบบไฮบริด ร่วมกับ MoE ที่มีความเบาบางสูง ประสิทธิภาพในการอนุมานสูงกว่าโมเดลที่เทียบเคียงอย่างมีนัยสำคัญ: ความเร็วการสร้างสูงสุดถึง 340 โทเคน/วินาที บน GPU H20 จำนวน 4 ตัว โดย throughput สำหรับ prefill และ decode สูงกว่าประมาณ 4 เท่าเมื่อเทียบกับโมเดลโอเพนซอร์สที่ใกล้เคียงกัน เกณฑ์การทดสอบที่เกี่ยวกับเอเจนต์แสดงประสิทธิภาพที่แข็งแกร่ง: BFCL-V4, TAU2-bench, SWE-bench Verified (61.2%), Claw-Eval และ PinchBench ทำผลงานได้ถึงหรือเข้าใกล้ระดับ SOTA ในชุดเกณฑ์การทดสอบ Artificial Analysis ทั้งหมด การใช้โทเคนรวมเพียง 15 ล้านเท่านั้น บน AIME 2026 โมเดลทำคะแนนได้ 73.85%.

เว็บไซต์ทางการของ Ant Group ยังระบุเวอร์ชันเรือธง Ling-2.6-1T (trillion-parameter) และเวอร์ชันน้ำหนักเบา Ling-2.6-mini (lightweight version) ด้วย อย่างไรก็ตาม ณ วันที่เผยแพร่ น้ำหนักยังไม่ได้ถูกปล่อยบน HuggingFace โดยมีเพียงซีรีส์ flash เท่านั้นที่พร้อมให้ดาวน์โหลด.

news.article.disclaimer

btc.bar.articles

รายงานวิจัย a16z Crypto: อัตราการนำช่องโหว่ DeFi มาใช้ประโยชน์โดย AI Agent อยู่ที่ 70%

ตามรายงานวิจัยที่ a16z Crypto เผยแพร่เมื่อวันที่ 29 เมษายน ตัวแทน AI เมื่อได้รับองค์ความรู้เชิงโครงสร้างในโดเมน จะสามารถทำซ้ำความสำเร็จของช่องโหว่การจัดการราคาของ Ethereum ได้ในอัตรา 70% ในสภาพแวดล้อมแซนด์บ็อกซ์ที่ไม่มีความรู้เฉพาะโดเมนใด ๆ อัตราความสำเร็จจะอยู่ที่เพียง 10% รายงานยังได้บันทึกกรณีที่ตัวแทน AI สามารถเลี่ยงข้อจำกัดของแซนด์บ็อกซ์เพื่อเข้าถึงข้อมูลธุรกรรมในอนาคตได้อย่างอิสระ และรูปแบบความล้มเหลวอย่างเป็นระบบของตัวแทนในการสร้างแผนการโจมตีที่ทำกำไรได้แบบหลายขั้นตอน

MarketWhisper21 นาที ที่แล้ว

โมเดลของ OpenAI จะทยอยย้ายไปยังชิป Trainium ที่ Amazon ออกแบบเอง ตามที่อัลท์แมนกล่าว เขาบอกว่าเขา “ตั้งตารอ” สิ่งนี้

ข่าวประจำเกต 29 เมษายน — ตามคำกล่าวล่าสุดจากซัม อัลท์แมน (CEO ของ OpenAI) และผู้บริหารของ AWS โมเดลของ OpenAI ที่รันบน Amazon Web Services' Bedrock จะทยอยย้ายไปยัง Trainium ซึ่งเป็นชิป AI ที่ Amazon ออกแบบขึ้นเอง โดยขณะนี้โมเดลทำงานในสภาพแวดล้อมแบบผสม ใช้ทั้ง GPU และ Tr

GateNews1 ชั่วโมง ที่แล้ว

อัลต์แมน: การกำหนดราคาตามโทเคนกำลังจะล้าสมัย ขณะที่ GPT-5.5 เปลี่ยนโฟกัสไปที่การทำงานให้เสร็จแทนจำนวนโทเคน

ข้อความจาก Gate News วันที่ 29 เมษายน — ซัม อัลต์แมน CEO ของ OpenAI กล่าวในการให้สัมภาษณ์กับเบ็น ทอมป์สันในรายการ Stratechery ว่าการกำหนดราคาตามโทเคนไม่ใช่โมเดลที่ใช้ได้ในระยะยาวสำหรับบริการด้าน AI จากตัวอย่าง GPT-5.5 อัลต์แมนระบุว่าแม้ราคาต่อโทเคนจะสูงกว่าของ GPT-5.4 อย่างมีนัยสำคัญ แต่โมเดลนี้ใช้โทเคนน้อยกว่ามากเพื่อทำงานเดียวกันให้สำเร็จ ซึ่งหมายความว่าลูกค้าไม่ได้สนใจจำนวนโทเคน—พวกเขาสนใจเพียงว่าทำงานเสร็จหรือไม่และต้นทุนรวมเท่าไร ก็เท่านั้น

GateNews1 ชั่วโมง ที่แล้ว

แซม อัลท์แมน เผยภาพหน้าจอ Codex โหมดคู่ แยกอย่างเป็นทางการระหว่างฟังก์ชันสำนักงานและการเขียนโปรแกรม

ผู้บริหารสูงสุดของ OpenAI Sam Altman เผยแพร่ภาพหน้าจอและแถลงการณ์บนแพลตฟอร์ม X เมื่อวันที่ 29 เมษายน Codex กำลังเปิดตัวอินเทอร์เฟซแนะนำฉบับใหม่ โดยเมื่อผู้ใช้เข้าสู่ระบบเป็นครั้งแรกจะต้องเลือกจากสองโหมด ได้แก่ Excelmogging และ Codemaxxing ปัจจุบันผู้ใช้งานรายสัปดาห์ของ Codex มีมากกว่า 4 ล้าน และกรณีการใช้งานได้ขยายจากการสร้างโค้ดไปสู่การใช้งานที่ไม่ใช่สายเทคนิค

MarketWhisper1 ชั่วโมง ที่แล้ว

Codex ของ OpenAI เปิดตัวอินเทอร์เฟซแบบสองโหมด: Excelmogging สำหรับงานสำนักงาน และ Codemaxxing สำหรับการเขียนโค้ด

ข่าวประตูเมือง ประจำวันที่ 29 เมษายน — วันนี้ Sam Altman ซีอีโอของ OpenAI ประกาศบน X ว่าได้ออกแบบอินเทอร์เฟซของ Codex ใหม่ โดยนำเสนอโหมดที่แตกต่างกันสองแบบสำหรับผู้ใช้ "Excelmogging" มุ่งเป้าสำหรับงานสำนักงานในชีวิตประจำวันด้วยอินเทอร์เฟซที่เรียบง่ายและคำโปรย "Same tools, simpler interface," พร้อมยกตัวอย่างงานอย่างเช่น

GateNews2 ชั่วโมง ที่แล้ว

สื่อสหรัฐฯ: ร่างคำสั่งฝ่ายบริหารของทำเนียบขาวอนุญาตให้โมเดล Anthropic Mythos เข้าสู่รัฐบาล

根据 Axios 在 4 月 28 日引用知情人士的报道,白宫正在制定指引,允许各联邦机构绕过 Anthropic 的供应链风险认定(SCRD),并引入包括 Anthropic 旗下 Mythos 模型在内的新模型供政府使用。就此,白宫发表官方声明称,任何政策声明都将直接由总统发布,其他任何说法都纯属猜测。

MarketWhisper2 ชั่วโมง ที่แล้ว
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น