LangChain définit l'architecture du système d'agents pour le développement de l'IA

Timothy Morano

11 mars 2026 04:56

Le nouveau cadre de LangChain décompose la manière dont les agents exploitent les modèles d’IA bruts pour en faire des systèmes prêts pour la production via des systèmes de fichiers, des sandbox et la gestion de la mémoire.

LangChain a publié une analyse technique complète de l’architecture des agents, codifiant la couche d’infrastructure qui transforme les modèles de langage bruts en moteurs de travail autonomes. Le cadre, rédigé par Vivek Trivedy le 11 mars 2026, intervient alors que l’ingénierie des harness devient un différenciateur clé dans la performance des agents IA.

L’idée centrale est trompeusement simple : Agent = Modèle + Harness. Tout ce qui n’est pas le modèle lui-même — prompts système, exécution d’outils, logique d’orchestration, hooks middleware — relève de la responsabilité du harness. Les modèles bruts ne peuvent pas maintenir d’état entre les interactions, exécuter du code ou accéder à des connaissances en temps réel. Le harness comble ces lacunes.

Pourquoi cela importe pour les développeurs

Les données du tableau de classement Terminal Bench 2.0 de LangChain révèlent quelque chose d’contre-intuitif. Opus 4.6 d’Anthropic, exécuté dans Claude Code, obtient des scores nettement plus faibles que le même modèle fonctionnant avec des harness tiers optimisés. La société affirme avoir amélioré son agent de codage, passant du Top 30 au Top 5 sur le benchmark, en ne changeant que le harness — pas le modèle sous-jacent.

C’est un signal important pour les équipes investissant massivement dans la sélection de modèles tout en négligeant l’infrastructure.

La pile technique

Le cadre identifie plusieurs primitives fondamentales du harness :

Systèmes de fichiers servent de couche de base. Ils offrent un stockage durable, permettent la persistance du travail entre les sessions, et créent des surfaces de collaboration naturelles pour les architectures multi-agents. L’intégration avec Git ajoute la gestion des versions, la possibilité de revenir en arrière et la création de branches d’expérimentation.

Sandboxes résolvent le problème de sécurité lié à l’exécution du code généré par l’agent. Plutôt que d’exécuter localement, les harness se connectent à des environnements isolés pour l’exécution du code, l’installation des dépendances et l’accomplissement des tâches. L’isolation réseau et la liste blanche des commandes ajoutent des garde-fous supplémentaires.

Mémoire et recherche traitent des limitations de connaissance. Des standards comme AGENTS.md sont injectés dans le contexte au démarrage de l’agent, permettant une forme d’apprentissage continu où les agents stockent durablement les connaissances d’une session à l’autre. La recherche web et des outils comme Context7 donnent accès à des informations au-delà des coupures d’entraînement.

Lutter contre la dégradation du contexte

Le cadre aborde le problème de la dégradation du contexte — la détérioration du raisonnement du modèle à mesure que la fenêtre de contexte se remplit — via plusieurs mécanismes. La compaction résume intelligemment et décharge le contenu lorsque les fenêtres approchent de leur capacité. La décharge des appels d’outils réduit le bruit des sorties volumineuses en ne conservant que les tokens de début et de fin, tout en stockant les résultats complets dans le système de fichiers. Les compétences mettent en œuvre une divulgation progressive, chargeant les descriptions d’outils uniquement lorsque cela est nécessaire, plutôt que de surcharger le contexte au démarrage.

Exécution à long terme

Pour un travail autonome complexe s’étendant sur plusieurs fenêtres de contexte, LangChain évoque le modèle Ralph Loop. Ce hook au niveau du harness intercepte les tentatives de sortie du modèle et réinjecte l’invite d’origine dans une fenêtre de contexte propre, forçant la continuation jusqu’à l’atteinte des objectifs. Combiné à la persistance de l’état dans le système de fichiers, cela permet aux agents de maintenir la cohérence sur des tâches prolongées.

La boucle de rétroaction de formation

Des produits comme Claude Code et Codex sont désormais entraînés après coup avec des harness en boucle, créant un couplage étroit entre les capacités du modèle et la conception du harness. Cela a des effets secondaires — le guide de prompting Codex-5.3 indique que modifier la logique des outils pour l’édition de fichiers dégrade la performance, suggérant un surapprentissage à des configurations spécifiques de harness.

LangChain applique cette recherche à sa bibliothèque deepagents, explorant l’orchestration de centaines d’agents parallèles sur des bases de code partagées, l’auto-analyse des traces pour détecter les modes de défaillance au niveau du harness, et l’assemblage dynamique d’outils en temps réel. À mesure que les modèles s’améliorent en planification et en auto-vérification, certaines fonctionnalités du harness pourraient être intégrées dans les capacités de base. Mais la société soutient qu’une infrastructure bien conçue restera précieuse, quelle que soit l’intelligence du modèle sous-jacent.

Source de l’image : Shutterstock

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler