🔥 Gate 廣場活動:#发帖赢代币NIGHT 🔥
發佈任意與 NIGHT 相關內容即可參與!
觀點分享、行情分析、參與體驗、投研筆記通通都算有效參與。
📅 啟用時間:2025/12/10 16:00 - 12/21 24:00(UTC+8)
📌 參與方式
1️⃣ 在 Gate 廣場發帖(文字 / 圖文 / 分析 / 觀點均可)
2️⃣ 帖子需添加話題 #发帖赢代币NIGHT 或 #PostToWinNIGHT
🏆 獎勵設置(總計 1,000 NIGHT)
🥇 Top 1:200 NIGHT
🥈 Top 4:100 NIGHT / 人
🥉 Top 10:40 NIGHT / 人
📄 注意事項
內容需原創,不得抄襲或灌水
獲獎者需完成 Gate 廣場身份認證
Gate 對活動擁有最終解釋權
位元組跳動和USTC聯合提出了DocPedia,一個大型多模式文檔模型
位元組跳動與中國科學技術大學聯合開發的多模態文檔模型DocPedia成功突破解析度極限,達到2560×2560的高解析度,而LLaVA、MiniGPT-4等業界先進的多模態大型模型則以336×336的解析度處理圖像,無法解析高解析度文檔圖像。 其結果是,研究團隊採用了一種新的方法來解決現有模型在解析高解析度文檔圖像方面的缺點。
據說DocPedia不僅可以準確識別圖像資訊,還可以調用知識庫根據使用者需求回答問題,展示了理解高解析度多模態文檔的能力。