DeepSeek V4-Flash 登上 Ollama Cloud、美國主機:Claude Code、OpenClaw 一鍵串接

本地 AI 模型運行工具 Ollama 於 4/24 在 X 平台公開宣布,將中國 AI 新創 DeepSeek 前一日釋出的 V4-Flash 模型納入 Ollama Cloud 服務。推論主機位於美國,並提供三組一鍵指令讓開發者直接把 V4-Flash 接到 Claude Code、OpenClaw 與 Hermes 等主流 AI 程式開發工作流中。

deepseek-v4-flash 现在可在 Ollama 的云端使用!托管在美国。使用 Claude Code 试试:ollama launch claude –model deepseek-v4-flash:cloud 使用 OpenClaw 试试:ollama launch openclaw –model deepseek-v4-flash:cloud 使用 Hermes 试试:ollama launch hermes…

— ollama (@ollama) 2026 年 4 月 24 日

DeepSeek V4 预览:两款尺寸、1M 上下文

根据 DeepSeek 官方 API 文档 4/24 发布公告,DeepSeek-V4 Preview 分两款尺寸同步开源发布:

型号 总参数 活跃参数 定位 DeepSeek-V4-Pro 1.6 兆 490 亿 目标对标闭源旗舰 DeepSeek-V4-Flash 2,840 亿 130 亿 快速、高效、低成本

两款均采用 Mixture-of-Experts(MoE)架构,原生支持 100 万 tokens 长上下文。DeepSeek 在公告中宣告:“1M 上下文现在是所有 DeepSeek 官方服务的默认值。”

架构创新:DSA 稀疏注意力+Token-wise 压缩

V4 系列核心的架构改进包含:

Token-wise 压缩搭配 DSA(DeepSeek Sparse Attention)——针对超长上下文下的推理运算与 KV 缓存内存大幅削减成本

相较 V3.2,V4-Pro 在 100 万 tokens 上下文场景下,每个 token 推理仅需 27% 的 FLOPs、KV cache 仅需 10%

支持 Thinking 与 Non-Thinking 双模式切换,对应不同任务的深度推理需求

API 层面同时兼容 OpenAI ChatCompletions 与 Anthropic APIs 规格,降低既有 Claude/GPT 客户端的迁移成本。

Ollama Cloud 的三组一键启动指令

Ollama 官方模型页以模型标识符 deepseek-v4-flash:cloud 提供云端推理服务,开发者可用以下三组指令直接把 V4-Flash 串到既有 AI 程式开发工作流:

工作流 指令 Claude Code ollama launch claude --model deepseek-v4-flash:cloud OpenClaw ollama launch openclaw --model deepseek-v4-flash:cloud Hermes ollama launch hermes

值得留意的是“美国主机”这个信号。对企业与欧美开发者而言,使用中国开源模型时最大疑虑是数据回传中国;Ollama 选择把 V4-Flash 的推理层放在美国,意味着 prompt 与程式码内容不离开美国司法管辖,降低合规与数据主权层面的摩擦。

为什么这件事对 AI 产业重要

把 DeepSeek V4-Flash、Ollama Cloud、Claude Code 三个原本各自独立的生态接起来,产生三层意义:

成本路线:V4-Flash 的 130 亿活跃参数远小于 GPT-5.5(输入 5 美元、输出 30 美元/百万 tokens)与 Claude Opus 4.7 等旗舰,对于中小型代理任务、批次摘要、测试自动化等用途,单位成本有望显著下降

地缘风险的中介层:Ollama 作为美国注册的中介推理层,让中国原生模型的企业用户得以绕开“资料直接送 DeepSeek 北京服务器”的疑虑,是开源模型在国际扩散的实务解法

开发者即刻切换:Claude Code 与 OpenClaw 的用户可在命令列一行切模型,不必改 prompt 结构或 IDE 设置,对于“多模型回归测试”“成本敏感的批次任务”使用场景是真正的生产力释放

与先前 DeepSeek 新闻的联动

这次 V4 发布与 Ollama Cloud 快速整合,发生在 DeepSeek 正在洽谈首轮外部融资、估值 200 亿美元的背景下。V4 是 DeepSeek 公司资本化过程中的关键产品证明;以开源策略+国际主机合作伙伴快速扩散,则是其在建立开发者生态垄断前的速度战。对 OpenAI 与 Anthropic 而言,一个可以在 Claude Code 内部一行切换的开源替代模型,是 agent 工作流主导权争夺的新变量。

这篇文章 DeepSeek V4-Flash 登上 Ollama Cloud、美国主机:Claude Code、OpenClaw 一键串接 最早出现在 鏈新聞 ABMedia。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明

相关文章

Google 加码 400 亿美元投资 Anthropic:先付 100 亿、再依业绩释放 300 亿,配 5GW TPU 算力

Alphabet 向 Anthropic 追加 400 亿美元,分两阶段:首笔 100 亿美元现金注入、估值 3,800 亿美元;剩余 300 亿美元在业绩达标后分阶段释放。Google Cloud 在五年内提供 5 GW TPU 计算资源;同期 Amazon 也宣布最高 250 亿美元投资,显示 Anthropic 的算力与资本支持同步增强。

鏈新聞abmedia12 分钟前

SpaceX、OpenAI 和 Anthropic 的 IPO 可能吸引超 $240 Billion 的资金,或将影响加密市场流动性

Gate News 消息,4 月 25 日——根据市场报道,SpaceX 预计将于 6 月上市,融资目标将超过沙特阿美创下的纪录 $29 billion IPO;与此同时,OpenAI 和 Anthropic 计划在 2026 年下半年上市。这三家公司预计将

GateNews1小时前

DeepSeek-V4 预览版发布:100 万上下文窗口,华为 DCS AI 解决方案提供全面支持

Gate News 消息,4月25日——DeepSeek-V4 预览版本已正式发布并开源,提供了扩展到 100 万 tokens 的上下文窗口,并引入带有压缩算法的 KV Cache 滑动窗口,以降低注意力计算复杂度并缓解内存带宽压力。新的模型显著增强了智能体能力,并在长序列推理与复杂任务处理方面展现出更高的效率与稳定性,尽管它也带来了新的基础设施挑战。

GateNews1小时前

GPU 短缺回归:微软、亚马逊收紧供给;AI 初创公司面临 32% 的涨价与年终排队

Gate News 信息,4月25日——随着主要云服务提供商(包括微软和亚马逊)将算力集中给内部团队以及像 OpenAI 和 Anthropic 这样的重大客户,GPU 短缺再次浮现;这导致较小的 AI 初创公司面临价格上涨、等待时间延长以及更严格的合同条款等影响。

GateNews3小时前

英伟达在 Blackwell 基础设施上向全体员工部署 OpenAI Codex AI 代理

Gate News 消息,4 月 25 日——据首席执行官 Jensen Huang 和 OpenAI 首席执行官 Sam Altman 的内部沟通内容,英伟达已在一次成功试点后(约有 10,000 名员工参与),将由 GPT-5.5 驱动的 OpenAI Codex——一款 AI 代理——部署到其全体员工中。 Codex 的设计用于协助

GateNews4小时前

美国国务院警告深度求索AI模型蒸馏

据路透社报道,美国国务院于4月24日向全球的外交和领事机构发布了一份电报,警告外国政府中国试图通过蒸馏复制美国的AI系统。该电报

Crypto Frontier4小时前
评论
0/400
暂无评论