el mito de que python "maneja la memoria por ti" es la razón por la cual tus agentes se quedan sin memoria (OOM) a las 4 horas de tiempo de actividad


ejecuté 24 multi-agentes en paralelo el mes pasado, consumiendo 10 veces más tokens que una sola sesión sin obtener ninguna salida útil
el verdadero problema no eran los tokens, sino la memoria que nadie estaba supervisando
python usa conteo de referencias más un recolector de basura cíclico. suena bien hasta que cargas arrays de numpy a través de extensiones en C que no decrementan las referencias correctamente. esos objetos NUNCA se recolectan. simplemente permanecen allí, creciendo, en silencio
cada 100 tokens de contexto que procesa tu agente de larga duración, eso es otra asignación de tensor que podría no liberarse. multiplícalo por 24 sesiones concurrentes y estás filtrando 400MB/h en un buen día
> simplemente añade más RAM
sí, eso cuesta $30k/mes en computación para compensar algo que tracemalloc habría detectado en 10 minutos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado