Ollama 成為 OpenClaw 官方模型提供商,支持雲端與本地模型混合調用

Gate News 消息,3 月 16 日,本地大模型運行工具 Ollama 今日宣布正式成為 OpenClaw 的官方模型提供商。用戶執行 openclaw onboard --auth-choice ollama 命令即可完成接入,所有 Ollama 模型將與 OpenClaw 實現無縫協作。Ollama 此次接入提供 Cloud + Local 混合模式,用戶可同時使用 Ollama 雲端托管的模型和本地運行的模型。OpenClaw 的引導向導會自動檢測本地已安裝的 Ollama 模型,並通過 Ollama 原生 API 支持流式傳輸和工具調用。OpenClaw 創始人 Peter Steinberger 參與了此次集成的審核工作。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言