Ollama 成为 OpenClaw 官方模型提供商,支持云端与本地模型混合调用

Gate News 消息,3 月 16 日,本地大模型运行工具 Ollama 今日宣布正式成为 OpenClaw 的官方模型提供商。用户执行 openclaw onboard --auth-choice ollama 命令即可完成接入,所有 Ollama 模型将与 OpenClaw 实现无缝协作。Ollama 此次接入提供 Cloud + Local 混合模式,用户可同时使用 Ollama 云端托管的模型和本地运行的模型。OpenClaw 的引导向导会自动检测本地已安装的 Ollama 模型,并通过 Ollama 原生 API 支持流式传输和工具调用。OpenClaw 创始人 Peter Steinberger 参与了此次集成的审核工作。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论