Ollama se convierte en proveedor oficial de modelos de OpenClaw, admitiendo llamadas híbridas de modelos en la nube y locales

Gate News informa que, el 16 de marzo, la herramienta local para ejecutar grandes modelos Ollama anunció oficialmente que se convierte en proveedor oficial de modelos para OpenClaw. Los usuarios pueden completar la integración ejecutando el comando openclaw onboard --auth-choice ollama, y todos los modelos de Ollama funcionarán de manera integrada y sin problemas con OpenClaw. En esta integración, Ollama ofrece un modo híbrido Cloud + Local, permitiendo a los usuarios utilizar simultáneamente modelos alojados en la nube por Ollama y modelos que se ejecutan localmente. La guía de OpenClaw detectará automáticamente los modelos de Ollama instalados localmente y soportará transmisión en streaming y llamadas a herramientas mediante la API nativa de Ollama. El fundador de OpenClaw, Peter Steinberger, participó en la revisión de esta integración.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios