Amazon Web Services fait des mouvements importants pour démocratiser l’adoption de l’IA générative. Lors de sa conférence annuelle re:Invent, AWS a annoncé une mise à jour majeure de Amazon Bedrock—sa plateforme de modèles fondamentaux gérés—introduisant plus de 100 nouveaux modèles accessibles, une optimisation avancée de l’inférence, et de puissantes capacités de traitement de données conçues pour aider les entreprises à accélérer le déploiement de l’IA.
L’explosion des modèles : accès à plus de 100 modèles fondamentaux
La gamme de modèles disponibles s’élargit considérablement. Au-delà des modèles fondamentaux Amazon Nova d’AWS, l’écosystème inclut désormais des contributions de laboratoires d’IA de premier plan. Le modèle Ray 2 de Luma AI apporte des capacités de génération vidéo en environnement de production, permettant aux utilisateurs de créer du contenu vidéo de haute qualité à partir de texte et d’images avec une physique réaliste et un comportement cohérent des personnages. Cela ouvre des possibilités pour les équipes marketing, architectes et designers souhaitant prototyper rapidement des concepts visuels.
Les équipes axées sur le code ont désormais accès aux modèles malibu et point de poolside via Amazon Bedrock, des outils spécifiquement conçus pour des tâches d’ingénierie logicielle telles que la génération de code, les tests et la documentation. Ces modèles peuvent être ajustés sur des bases de code d’entreprise, permettant aux sociétés de créer des assistants IA adaptés à leurs pratiques et standards de développement spécifiques.
Stable Diffusion 3.5 Large de Stability AI rejoint la plateforme pour les flux de travail de génération d’images. Le modèle supporte divers styles artistiques et accélère la création d’art conceptuel pour des industries allant du jeu vidéo au commerce de détail.
Au-delà de ces ajouts phares, le Marketplace Amazon Bedrock recense désormais plus de 100 modèles—y compris des options spécialisées pour la finance (Writer’s Palmyra-Fin), la traduction (Upstage’s Solar Pro), et la recherche biologique (EvolutionaryScale’s ESM3). Les clients sélectionnent le modèle correspondant à leur cas d’usage, configurent l’infrastructure via AWS, et déploient via des API unifiées avec une gouvernance et une sécurité intégrées.
Inférence plus intelligente : mise en cache des prompts et routage dynamique
À mesure que les modèles passent en production, les coûts d’inférence et la latence deviennent des contraintes critiques. Deux fonctionnalités y répondent directement.
Mise en cache des prompts permet de stocker en toute sécurité les contenus fréquemment réutilisés, réduisant ainsi la charge de traitement. Les premiers résultats montrent des améliorations significatives : l’assistant IA Acrobat de Adobe a connu une réduction de 72 % du temps de réponse lors de la mise en cache des prompts sur Amazon Bedrock. Les réductions de coûts peuvent atteindre 90 % pour les modèles supportés, tandis que la latence diminue jusqu’à 85 %.
Routage intelligent des prompts gère la complexité des requêtes de manière dynamique. Le système analyse les prompts entrants à l’aide de techniques avancées de correspondance et oriente chaque requête vers le modèle optimal au sein d’une famille. Les requêtes simples sont dirigées vers des modèles plus petits et moins coûteux ; les questions complexes vers des modèles plus grands. Résultat : jusqu’à 30 % de réduction des coûts tout en maintenant la qualité des réponses. Argo Labs, une société d’IA vocale, utilise cette approche pour gérer les demandes des clients dans les restaurants—dirigeant les questions simples oui/non vers des modèles légers tout en réservant la puissance de calcul pour des demandes plus nuancées sur les menus et la disponibilité.
Exploitation des données : requêtes structurées et graphes de connaissances
Les bases de connaissances Amazon Bedrock supportent désormais la récupération de données structurées directement. Au lieu de convertir des bases de données d’entreprise en texte non structuré, les clients peuvent interroger des données structurées en langage naturel, le système traduisant les requêtes en SQL exécuté contre des entrepôts de données et des lacs de données. Octus, une plateforme d’intelligence de crédit, prévoit d’utiliser cette fonctionnalité pour permettre aux utilisateurs finaux d’explorer de manière conversationnelle des données de crédit structurées, transformant des mois de travail d’intégration en quelques jours de configuration.
Les capacités de graphes de connaissances (GraphRAG) permettent aux entreprises de modéliser automatiquement les relations au sein de leurs données. BMW Group prévoit d’implémenter cela pour son assistant de données interne (MAIA), utilisant des bases de données de graphes pour maintenir des relations contextuelles entre les actifs de données et améliorer en continu la pertinence des réponses en fonction des usages réels.
Pipeline de données automatisé : du non structuré au structuré
Un nouveau service Amazon Bedrock Data Automation transforme automatiquement documents, images, audio et vidéo en formats structurés. Les banques traitant des documents de prêt, les compagnies d’assurance analysant des réclamations, et les équipes de gestion de contenus numériques peuvent désormais extraire, normaliser et structurer des données à grande échelle sans effort manuel.
L’automatisation inclut une notation de confiance intégrée et fonde les sorties sur le matériel source pour réduire les risques d’hallucination. Symbeo l’utilise pour automatiser la gestion des comptes fournisseurs—extraction plus rapide des données à partir de réclamations d’assurance et de factures médicales. Tenovos l’utilise pour la recherche sémantique, avec une augmentation de plus de 50 % de la réutilisation de contenu.
Dynamique d’adoption
La base installée reflète le succès de la stratégie. Amazon Bedrock sert désormais des dizaines de milliers de clients—en croissance de 4,7x année après année. Adobe, BMW Group, Zendesk, Argo Labs, et d’autres adoptent déjà ces nouvelles capacités, ce qui indique une confiance dans la maturité et la direction de la plateforme.
Disponibilité et déploiement
Amazon Bedrock Marketplace est disponible immédiatement. La mise en cache des prompts, le routage intelligent, les améliorations des bases de connaissances (données structurées et GraphRAG), ainsi que l’automatisation des données sont en aperçu. Les modèles de Luma AI, poolside, et Stability AI arriveront bientôt.
Les actualités de Bedrock illustrent la stratégie plus large d’AWS : réduire les frictions pour les entreprises construisant des applications IA en gérant automatiquement l’infrastructure, la sélection des modèles et l’optimisation des coûts. Pour les équipes de développement, cela se traduit par un prototypage plus rapide, des coûts d’expérimentation réduits, et une transition plus facile du proof-of-concept au déploiement en production.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Nouveautés d'Amazon Bedrock : plus de 100 modèles, une inférence plus intelligente et une intégration des données d'entreprise
Amazon Web Services fait des mouvements importants pour démocratiser l’adoption de l’IA générative. Lors de sa conférence annuelle re:Invent, AWS a annoncé une mise à jour majeure de Amazon Bedrock—sa plateforme de modèles fondamentaux gérés—introduisant plus de 100 nouveaux modèles accessibles, une optimisation avancée de l’inférence, et de puissantes capacités de traitement de données conçues pour aider les entreprises à accélérer le déploiement de l’IA.
L’explosion des modèles : accès à plus de 100 modèles fondamentaux
La gamme de modèles disponibles s’élargit considérablement. Au-delà des modèles fondamentaux Amazon Nova d’AWS, l’écosystème inclut désormais des contributions de laboratoires d’IA de premier plan. Le modèle Ray 2 de Luma AI apporte des capacités de génération vidéo en environnement de production, permettant aux utilisateurs de créer du contenu vidéo de haute qualité à partir de texte et d’images avec une physique réaliste et un comportement cohérent des personnages. Cela ouvre des possibilités pour les équipes marketing, architectes et designers souhaitant prototyper rapidement des concepts visuels.
Les équipes axées sur le code ont désormais accès aux modèles malibu et point de poolside via Amazon Bedrock, des outils spécifiquement conçus pour des tâches d’ingénierie logicielle telles que la génération de code, les tests et la documentation. Ces modèles peuvent être ajustés sur des bases de code d’entreprise, permettant aux sociétés de créer des assistants IA adaptés à leurs pratiques et standards de développement spécifiques.
Stable Diffusion 3.5 Large de Stability AI rejoint la plateforme pour les flux de travail de génération d’images. Le modèle supporte divers styles artistiques et accélère la création d’art conceptuel pour des industries allant du jeu vidéo au commerce de détail.
Au-delà de ces ajouts phares, le Marketplace Amazon Bedrock recense désormais plus de 100 modèles—y compris des options spécialisées pour la finance (Writer’s Palmyra-Fin), la traduction (Upstage’s Solar Pro), et la recherche biologique (EvolutionaryScale’s ESM3). Les clients sélectionnent le modèle correspondant à leur cas d’usage, configurent l’infrastructure via AWS, et déploient via des API unifiées avec une gouvernance et une sécurité intégrées.
Inférence plus intelligente : mise en cache des prompts et routage dynamique
À mesure que les modèles passent en production, les coûts d’inférence et la latence deviennent des contraintes critiques. Deux fonctionnalités y répondent directement.
Mise en cache des prompts permet de stocker en toute sécurité les contenus fréquemment réutilisés, réduisant ainsi la charge de traitement. Les premiers résultats montrent des améliorations significatives : l’assistant IA Acrobat de Adobe a connu une réduction de 72 % du temps de réponse lors de la mise en cache des prompts sur Amazon Bedrock. Les réductions de coûts peuvent atteindre 90 % pour les modèles supportés, tandis que la latence diminue jusqu’à 85 %.
Routage intelligent des prompts gère la complexité des requêtes de manière dynamique. Le système analyse les prompts entrants à l’aide de techniques avancées de correspondance et oriente chaque requête vers le modèle optimal au sein d’une famille. Les requêtes simples sont dirigées vers des modèles plus petits et moins coûteux ; les questions complexes vers des modèles plus grands. Résultat : jusqu’à 30 % de réduction des coûts tout en maintenant la qualité des réponses. Argo Labs, une société d’IA vocale, utilise cette approche pour gérer les demandes des clients dans les restaurants—dirigeant les questions simples oui/non vers des modèles légers tout en réservant la puissance de calcul pour des demandes plus nuancées sur les menus et la disponibilité.
Exploitation des données : requêtes structurées et graphes de connaissances
Les bases de connaissances Amazon Bedrock supportent désormais la récupération de données structurées directement. Au lieu de convertir des bases de données d’entreprise en texte non structuré, les clients peuvent interroger des données structurées en langage naturel, le système traduisant les requêtes en SQL exécuté contre des entrepôts de données et des lacs de données. Octus, une plateforme d’intelligence de crédit, prévoit d’utiliser cette fonctionnalité pour permettre aux utilisateurs finaux d’explorer de manière conversationnelle des données de crédit structurées, transformant des mois de travail d’intégration en quelques jours de configuration.
Les capacités de graphes de connaissances (GraphRAG) permettent aux entreprises de modéliser automatiquement les relations au sein de leurs données. BMW Group prévoit d’implémenter cela pour son assistant de données interne (MAIA), utilisant des bases de données de graphes pour maintenir des relations contextuelles entre les actifs de données et améliorer en continu la pertinence des réponses en fonction des usages réels.
Pipeline de données automatisé : du non structuré au structuré
Un nouveau service Amazon Bedrock Data Automation transforme automatiquement documents, images, audio et vidéo en formats structurés. Les banques traitant des documents de prêt, les compagnies d’assurance analysant des réclamations, et les équipes de gestion de contenus numériques peuvent désormais extraire, normaliser et structurer des données à grande échelle sans effort manuel.
L’automatisation inclut une notation de confiance intégrée et fonde les sorties sur le matériel source pour réduire les risques d’hallucination. Symbeo l’utilise pour automatiser la gestion des comptes fournisseurs—extraction plus rapide des données à partir de réclamations d’assurance et de factures médicales. Tenovos l’utilise pour la recherche sémantique, avec une augmentation de plus de 50 % de la réutilisation de contenu.
Dynamique d’adoption
La base installée reflète le succès de la stratégie. Amazon Bedrock sert désormais des dizaines de milliers de clients—en croissance de 4,7x année après année. Adobe, BMW Group, Zendesk, Argo Labs, et d’autres adoptent déjà ces nouvelles capacités, ce qui indique une confiance dans la maturité et la direction de la plateforme.
Disponibilité et déploiement
Amazon Bedrock Marketplace est disponible immédiatement. La mise en cache des prompts, le routage intelligent, les améliorations des bases de connaissances (données structurées et GraphRAG), ainsi que l’automatisation des données sont en aperçu. Les modèles de Luma AI, poolside, et Stability AI arriveront bientôt.
Les actualités de Bedrock illustrent la stratégie plus large d’AWS : réduire les frictions pour les entreprises construisant des applications IA en gérant automatiquement l’infrastructure, la sélection des modèles et l’optimisation des coûts. Pour les équipes de développement, cela se traduit par un prototypage plus rapide, des coûts d’expérimentation réduits, et une transition plus facile du proof-of-concept au déploiement en production.