En el desarrollo de modelos de IA, entrenar grandes modelos de lenguaje ha requerido históricamente hardware costoso y recursos en la nube, lo que ha concentrado esta tecnología en unas pocas instituciones principales.
(Fuente: Tether)
El lanzamiento de QVAC Fabric por parte de Tether presenta un nuevo marco de ajuste fino LoRA diseñado para BitNet (un modelo de lenguaje grande de 1 bit). Este avance reduce de forma significativa los requisitos de computación y memoria, permitiendo que usuarios habituales participen en el entrenamiento de modelos de IA.
Una ventaja clave de QVAC Fabric es su amplia compatibilidad con hardware. El framework funciona en una extensa gama de dispositivos, como:
Ordenadores portátiles
GPU para consumidores (Intel, AMD, Apple Silicon)
Teléfonos inteligentes (incluidas varias GPU móviles)
Esto implica que los modelos de IA dejan de estar restringidos a centros de datos o hardware especializado: ahora pueden entrenarse y ejecutarse directamente en dispositivos de uso diario.
Una de las funciones más destacadas de esta tecnología es la posibilidad de ajustar modelos en dispositivos móviles.
Por ejemplo:
En un Samsung S25 (GPU Adreno), un modelo de 125 millones de parámetros puede ajustarse en unos 10 minutos
En el mismo dispositivo, un modelo de 1 000 millones de parámetros tarda aproximadamente 1 hora y 18 minutos
En un iPhone 16, un modelo de 1 000 millones de parámetros requiere cerca de 1 hora y 45 minutos
El equipo incluso ha logrado ejecutar modelos de hasta 13 000 millones de parámetros en un smartphone, lo que evidencia el rápido avance de las capacidades de IA en hardware móvil.
Frente a los modelos convencionales, la arquitectura BitNet muestra ventajas claras en rendimiento y eficiencia de recursos:
Las velocidades de inferencia en GPU móviles son de 2 a 11 veces superiores a las de CPU
Gestiona cargas de trabajo que antes requerían centros de datos
Reduce el uso de VRAM hasta en torno a un 77,8 % respecto a modelos de 16 bits
Ofrece mayor capacidad operativa, permitiendo modelos más grandes y aplicaciones personalizadas
Estas mejoras facilitan mucho el despliegue de aplicaciones de IA en dispositivos periféricos.
El entrenamiento de IA tradicional dependía en gran medida del hardware NVIDIA y de los servicios en la nube. QVAC Fabric elimina esta dependencia al posibilitar el ajuste fino LoRA de LLM de 1 bit en hardware no NVIDIA (incluyendo AMD, Intel, Apple Silicon y GPU móviles como Adreno y Mali). Este cambio reduce los costes y promueve un desarrollo de IA más descentralizado.
Otro beneficio esencial de QVAC Fabric es su apoyo a la privacidad de los datos y el aprendizaje distribuido:
El entrenamiento de modelos puede realizarse localmente, sin necesidad de subir datos sensibles
Facilita el aprendizaje federado
Disminuye la dependencia de infraestructuras centralizadas
Estas características señalan un camino más seguro y escalable para el futuro ecosistema de IA.
Paolo Ardoino afirma que la IA será clave en la sociedad futura, y que su progreso no debe estar en manos de unos pocos propietarios de recursos. Subraya que una dependencia excesiva de arquitecturas centralizadas para el entrenamiento de IA no solo limita la innovación, sino que también pone en riesgo la estabilidad global del ecosistema. Permitir que la IA funcione en dispositivos personales es, por tanto, un paso esencial hacia una adopción más amplia.
QVAC Fabric de Tether es mucho más que una innovación tecnológica: supone una posible transformación en los modelos de desarrollo de IA. Al reducir las barreras de hardware y reforzar la capacidad multiplataforma, los grandes modelos de lenguaje están dejando atrás los centros de datos para llegar a los dispositivos de uso cotidiano. A medida que estas tecnologías avanzan, la IA está preparada para pasar de recursos centralizados a un futuro más abierto, descentralizado y accesible.





