Foresight News : le laboratoire d’IA distribuée Gradient a publié Echo-2, un cadre d’apprentissage par renforcement distribué, visant à briser les barrières d’efficacité dans la recherche et l’entraînement en IA. Ce cadre décore la séparation entre Learner et Actor au niveau de l’architecture, dans le but de réduire les coûts de post-entraînement des grands modèles. Selon les données officielles, ce cadre peut réduire le coût de post-entraînement d’un modèle 30B de 4500 dollars à 425 dollars.
Echo-2 utilise la technologie de séparation stockage-calcul pour un entraînement asynchrone (Async RL), supportant le déchargement de la puissance de sampling vers des instances de GPU instables et des GPU hétérogènes basés sur Parallax. Ce cadre, associé à des techniques telles que la tolérance à l’obsolescence limitée, la planification tolérante aux erreurs d’instance et le protocole de communication Lattica développé en interne, améliore l’efficacité de l’entraînement tout en maintenant la précision du modèle.
De plus, Gradient prévoit de lancer la plateforme RLaaS (Renforcement par Apprentissage en tant que Service) Logits, qui est actuellement ouverte aux réservations pour les étudiants et chercheurs.