Gate News notícia, 16 de março, a ferramenta de execução de grandes modelos locais Ollama anunciou hoje que se tornou oficialmente fornecedora de modelos da OpenClaw. Os usuários podem completar a integração executando o comando openclaw onboard --auth-choice ollama, e todos os modelos Ollama irão colaborar de forma transparente com o OpenClaw. A integração do Ollama oferece um modo híbrido Cloud + Local, permitindo aos usuários usar simultaneamente modelos hospedados na nuvem Ollama e modelos executados localmente. O assistente do OpenClaw detecta automaticamente os modelos Ollama instalados localmente e suporta streaming e chamadas de ferramentas via API nativa do Ollama. Peter Steinberger, fundador do OpenClaw, participou da revisão desta integração.