Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
LangChain définit l'architecture du système d'agents pour le développement de l'IA
Timothy Morano
11 mars 2026 04:56
Le nouveau cadre de LangChain décompose la manière dont les agents exploitent les modèles d’IA bruts pour en faire des systèmes prêts pour la production via des systèmes de fichiers, des sandbox et la gestion de la mémoire.
LangChain a publié une analyse technique complète de l’architecture des agents, codifiant la couche d’infrastructure qui transforme les modèles de langage bruts en moteurs de travail autonomes. Le cadre, rédigé par Vivek Trivedy le 11 mars 2026, intervient alors que l’ingénierie des harness devient un différenciateur clé dans la performance des agents IA.
L’idée centrale est trompeusement simple : Agent = Modèle + Harness. Tout ce qui n’est pas le modèle lui-même — prompts système, exécution d’outils, logique d’orchestration, hooks middleware — relève de la responsabilité du harness. Les modèles bruts ne peuvent pas maintenir d’état entre les interactions, exécuter du code ou accéder à des connaissances en temps réel. Le harness comble ces lacunes.
Pourquoi cela importe pour les développeurs
Les données du tableau de classement Terminal Bench 2.0 de LangChain révèlent quelque chose d’contre-intuitif. Opus 4.6 d’Anthropic, exécuté dans Claude Code, obtient des scores nettement plus faibles que le même modèle fonctionnant avec des harness tiers optimisés. La société affirme avoir amélioré son agent de codage, passant du Top 30 au Top 5 sur le benchmark, en ne changeant que le harness — pas le modèle sous-jacent.
C’est un signal important pour les équipes investissant massivement dans la sélection de modèles tout en négligeant l’infrastructure.
La pile technique
Le cadre identifie plusieurs primitives fondamentales du harness :
Systèmes de fichiers servent de couche de base. Ils offrent un stockage durable, permettent la persistance du travail entre les sessions, et créent des surfaces de collaboration naturelles pour les architectures multi-agents. L’intégration avec Git ajoute la gestion des versions, la possibilité de revenir en arrière et la création de branches d’expérimentation.
Sandboxes résolvent le problème de sécurité lié à l’exécution du code généré par l’agent. Plutôt que d’exécuter localement, les harness se connectent à des environnements isolés pour l’exécution du code, l’installation des dépendances et l’accomplissement des tâches. L’isolation réseau et la liste blanche des commandes ajoutent des garde-fous supplémentaires.
Mémoire et recherche traitent des limitations de connaissance. Des standards comme AGENTS.md sont injectés dans le contexte au démarrage de l’agent, permettant une forme d’apprentissage continu où les agents stockent durablement les connaissances d’une session à l’autre. La recherche web et des outils comme Context7 donnent accès à des informations au-delà des coupures d’entraînement.
Lutter contre la dégradation du contexte
Le cadre aborde le problème de la dégradation du contexte — la détérioration du raisonnement du modèle à mesure que la fenêtre de contexte se remplit — via plusieurs mécanismes. La compaction résume intelligemment et décharge le contenu lorsque les fenêtres approchent de leur capacité. La décharge des appels d’outils réduit le bruit des sorties volumineuses en ne conservant que les tokens de début et de fin, tout en stockant les résultats complets dans le système de fichiers. Les compétences mettent en œuvre une divulgation progressive, chargeant les descriptions d’outils uniquement lorsque cela est nécessaire, plutôt que de surcharger le contexte au démarrage.
Exécution à long terme
Pour un travail autonome complexe s’étendant sur plusieurs fenêtres de contexte, LangChain évoque le modèle Ralph Loop. Ce hook au niveau du harness intercepte les tentatives de sortie du modèle et réinjecte l’invite d’origine dans une fenêtre de contexte propre, forçant la continuation jusqu’à l’atteinte des objectifs. Combiné à la persistance de l’état dans le système de fichiers, cela permet aux agents de maintenir la cohérence sur des tâches prolongées.
La boucle de rétroaction de formation
Des produits comme Claude Code et Codex sont désormais entraînés après coup avec des harness en boucle, créant un couplage étroit entre les capacités du modèle et la conception du harness. Cela a des effets secondaires — le guide de prompting Codex-5.3 indique que modifier la logique des outils pour l’édition de fichiers dégrade la performance, suggérant un surapprentissage à des configurations spécifiques de harness.
LangChain applique cette recherche à sa bibliothèque deepagents, explorant l’orchestration de centaines d’agents parallèles sur des bases de code partagées, l’auto-analyse des traces pour détecter les modes de défaillance au niveau du harness, et l’assemblage dynamique d’outils en temps réel. À mesure que les modèles s’améliorent en planification et en auto-vérification, certaines fonctionnalités du harness pourraient être intégrées dans les capacités de base. Mais la société soutient qu’une infrastructure bien conçue restera précieuse, quelle que soit l’intelligence du modèle sous-jacent.
Source de l’image : Shutterstock