Bit ByteDance se ha asociado con la Universidad de Zhejiang para lanzar Vista-LLaMA, un modelo de lenguaje multimodal de gran tamaño diseñado para la comprensión de contenido de video y capaz de generar descripciones de video de alta calidad. A través de un innovador procesamiento visual y verbal de tokens, Vista-LLaMA resuelve el problema de las “alucinaciones” en el contenido de video.
Vista-LLaMA sobresale en múltiples pruebas de preguntas y respuestas de video abierto, especialmente en las pruebas NExT-QA y MSRVTT-QA. Logró una tasa de precisión del 60,7 % en la prueba NExT-QA de disparo cero y del 60,5 % en la prueba MSRVTT-QA, superando todos los métodos SOTA actuales. Estos resultados demuestran la eficiencia y precisión de Vista-LLaMA en la comprensión del contenido de video y la generación de descripciones.