Amazon Web Services está haciendo movimientos significativos para democratizar la adopción de IA generativa. En su conferencia anual re:Invent, AWS anunció una actualización importante de Amazon Bedrock—su plataforma gestionada de modelos base—que introduce más de 100 modelos accesibles nuevos, optimización avanzada de inferencia y potentes capacidades de procesamiento de datos diseñadas para ayudar a las empresas a acelerar el despliegue de IA.
La Explosión de Modelos: Acceso a más de 100 Modelos Base
La variedad de modelos disponibles se está expandiendo dramáticamente. Más allá de los propios modelos base Amazon Nova de AWS, el ecosistema ahora incluye contribuciones de laboratorios de IA líderes. El modelo Ray 2 de Luma AI trae capacidades de generación de video a entornos de producción, permitiendo a los usuarios crear contenido de video de alta calidad a partir de texto e imágenes con física realista y comportamiento coherente de personajes. Esto abre posibilidades para equipos de marketing, arquitectos y diseñadores que buscan prototipar conceptos visuales rápidamente.
Los equipos enfocados en código ahora tienen acceso a los modelos malibu y point de poolside a través de Amazon Bedrock, herramientas diseñadas específicamente para tareas de ingeniería de software como generación de código, pruebas y documentación. Estos modelos pueden ajustarse finamente en bases de código empresariales, permitiendo a las empresas construir asistentes de IA adaptados a sus prácticas y estándares de desarrollo específicos.
Stable Diffusion 3.5 Large de Stability AI se une a la plataforma para flujos de trabajo de generación de imágenes. El modelo soporta diversos estilos artísticos y acelera la creación de arte conceptual para industrias desde juegos hasta retail.
Más allá de estas incorporaciones insignia, el Marketplace de Amazon Bedrock ahora catalogan más de 100 modelos—incluyendo opciones especializadas para finanzas (Writer’s Palmyra-Fin), traducción (Upstage’s Solar Pro), e investigación biológica (EvolutionaryScale’s ESM3). Los clientes seleccionan el modelo que coincide con su caso de uso, configuran la infraestructura a través de AWS y despliegan mediante APIs unificadas con gobernanza y seguridad integradas.
Inferencia más inteligente: Caché de prompts y enrutamiento dinámico
A medida que los modelos escalan a producción, los costos de inferencia y la latencia se convierten en restricciones críticas. Dos capacidades abordan esto directamente.
Caché de prompts permite que contenido reutilizado frecuentemente se almacene en caché de forma segura, reduciendo la carga de procesamiento. Los resultados preliminares muestran mejoras significativas: el Asistente de IA Acrobat de Adobe experimentó una reducción del 72% en el tiempo de respuesta al cachear prompts en Amazon Bedrock. Las reducciones de costos pueden alcanzar hasta el 90% para modelos soportados, mientras que la latencia disminuye hasta en un 85%.
Enrutamiento inteligente de prompts maneja la complejidad de las solicitudes de forma dinámica. El sistema analiza los prompts entrantes usando técnicas avanzadas de coincidencia y dirige cada uno al modelo óptimo dentro de una familia. Las consultas simples van a modelos más pequeños y económicos; las preguntas complejas se dirigen a modelos más grandes. El resultado: hasta un 30% de reducción de costos manteniendo la calidad de respuesta. Argo Labs, una empresa de IA de voz, usa este enfoque para gestionar consultas de clientes en restaurantes—dirigiendo preguntas simples de sí/no a modelos ligeros, reservando la computación para consultas más matizadas sobre menús y disponibilidad.
Aprovechamiento de datos: Consultas estructuradas y grafos de conocimiento
Las Bases de Conocimiento de Amazon Bedrock ahora soportan recuperación de datos estructurados directamente. En lugar de convertir bases de datos empresariales en texto no estructurado, los clientes pueden consultar datos estructurados usando lenguaje natural, con el sistema traduciendo las consultas en SQL ejecutadas contra almacenes de datos y lagos de datos. Octus, una plataforma de inteligencia crediticia, planea usar esto para que los usuarios finales exploren datos crediticios estructurados de forma conversacional, transformando meses de trabajo de integración en días de configuración.
Las capacidades de grafos de conocimiento (GraphRAG) permiten a las empresas modelar relaciones dentro de sus datos automáticamente. BMW Group planea implementar esto para su asistente de datos interno (MAIA), usando bases de datos de grafos para mantener relaciones contextuales entre activos de datos y mejorar continuamente la relevancia de las respuestas según los patrones de uso reales.
Canalización de datos automatizada: De no estructurado a estructurado
Un nuevo servicio de Amazon Bedrock Data Automation transforma documentos, imágenes, audio y video en formatos estructurados—de forma automática. Los bancos que procesan documentos de préstamos, las aseguradoras que analizan reclamaciones y los equipos de activos digitales que gestionan repositorios de contenido ahora pueden extraer, normalizar y estructurar datos a gran escala sin esfuerzo manual.
La automatización incluye puntuación de confianza incorporada y fundamenta las salidas en el material fuente para reducir riesgos de alucinaciones. Symbeo usa esto para automatización de cuentas por pagar—extrayendo datos de reclamaciones de seguros y facturas médicas más rápidamente. Tenovos lo usa para búsqueda semántica, reportando aumentos del 50%+ en reutilización de contenido.
Impulso en la adopción
La base instalada refleja el éxito de la estrategia. Amazon Bedrock ahora atiende a decenas de miles de clientes—creciendo 4.7x año tras año. Adobe, BMW Group, Zendesk, Argo Labs y otros ya están adoptando estas nuevas capacidades, lo que indica confianza en la madurez y dirección de la plataforma.
Disponibilidad y despliegue
El Marketplace de Amazon Bedrock está disponible de inmediato. Caché de prompts, Enrutamiento inteligente de prompts, mejoras en Bases de Conocimiento (datos estructurados y GraphRAG), y Data Automation están en vista previa. Los modelos de Luma AI, poolside y Stability AI llegarán pronto.
Las novedades de Bedrock reflejan la estrategia más amplia de AWS: reducir la fricción para que las empresas construyan aplicaciones de IA gestionando automáticamente infraestructura, selección de modelos y optimización de costos. Para los equipos de desarrollo, esto se traduce en prototipado más rápido, menores costos de experimentación y una transición más sencilla de prueba de concepto a despliegue en producción.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Novedades en Amazon Bedrock: más de 100 modelos, inferencia más inteligente e integración de datos empresariales
Amazon Web Services está haciendo movimientos significativos para democratizar la adopción de IA generativa. En su conferencia anual re:Invent, AWS anunció una actualización importante de Amazon Bedrock—su plataforma gestionada de modelos base—que introduce más de 100 modelos accesibles nuevos, optimización avanzada de inferencia y potentes capacidades de procesamiento de datos diseñadas para ayudar a las empresas a acelerar el despliegue de IA.
La Explosión de Modelos: Acceso a más de 100 Modelos Base
La variedad de modelos disponibles se está expandiendo dramáticamente. Más allá de los propios modelos base Amazon Nova de AWS, el ecosistema ahora incluye contribuciones de laboratorios de IA líderes. El modelo Ray 2 de Luma AI trae capacidades de generación de video a entornos de producción, permitiendo a los usuarios crear contenido de video de alta calidad a partir de texto e imágenes con física realista y comportamiento coherente de personajes. Esto abre posibilidades para equipos de marketing, arquitectos y diseñadores que buscan prototipar conceptos visuales rápidamente.
Los equipos enfocados en código ahora tienen acceso a los modelos malibu y point de poolside a través de Amazon Bedrock, herramientas diseñadas específicamente para tareas de ingeniería de software como generación de código, pruebas y documentación. Estos modelos pueden ajustarse finamente en bases de código empresariales, permitiendo a las empresas construir asistentes de IA adaptados a sus prácticas y estándares de desarrollo específicos.
Stable Diffusion 3.5 Large de Stability AI se une a la plataforma para flujos de trabajo de generación de imágenes. El modelo soporta diversos estilos artísticos y acelera la creación de arte conceptual para industrias desde juegos hasta retail.
Más allá de estas incorporaciones insignia, el Marketplace de Amazon Bedrock ahora catalogan más de 100 modelos—incluyendo opciones especializadas para finanzas (Writer’s Palmyra-Fin), traducción (Upstage’s Solar Pro), e investigación biológica (EvolutionaryScale’s ESM3). Los clientes seleccionan el modelo que coincide con su caso de uso, configuran la infraestructura a través de AWS y despliegan mediante APIs unificadas con gobernanza y seguridad integradas.
Inferencia más inteligente: Caché de prompts y enrutamiento dinámico
A medida que los modelos escalan a producción, los costos de inferencia y la latencia se convierten en restricciones críticas. Dos capacidades abordan esto directamente.
Caché de prompts permite que contenido reutilizado frecuentemente se almacene en caché de forma segura, reduciendo la carga de procesamiento. Los resultados preliminares muestran mejoras significativas: el Asistente de IA Acrobat de Adobe experimentó una reducción del 72% en el tiempo de respuesta al cachear prompts en Amazon Bedrock. Las reducciones de costos pueden alcanzar hasta el 90% para modelos soportados, mientras que la latencia disminuye hasta en un 85%.
Enrutamiento inteligente de prompts maneja la complejidad de las solicitudes de forma dinámica. El sistema analiza los prompts entrantes usando técnicas avanzadas de coincidencia y dirige cada uno al modelo óptimo dentro de una familia. Las consultas simples van a modelos más pequeños y económicos; las preguntas complejas se dirigen a modelos más grandes. El resultado: hasta un 30% de reducción de costos manteniendo la calidad de respuesta. Argo Labs, una empresa de IA de voz, usa este enfoque para gestionar consultas de clientes en restaurantes—dirigiendo preguntas simples de sí/no a modelos ligeros, reservando la computación para consultas más matizadas sobre menús y disponibilidad.
Aprovechamiento de datos: Consultas estructuradas y grafos de conocimiento
Las Bases de Conocimiento de Amazon Bedrock ahora soportan recuperación de datos estructurados directamente. En lugar de convertir bases de datos empresariales en texto no estructurado, los clientes pueden consultar datos estructurados usando lenguaje natural, con el sistema traduciendo las consultas en SQL ejecutadas contra almacenes de datos y lagos de datos. Octus, una plataforma de inteligencia crediticia, planea usar esto para que los usuarios finales exploren datos crediticios estructurados de forma conversacional, transformando meses de trabajo de integración en días de configuración.
Las capacidades de grafos de conocimiento (GraphRAG) permiten a las empresas modelar relaciones dentro de sus datos automáticamente. BMW Group planea implementar esto para su asistente de datos interno (MAIA), usando bases de datos de grafos para mantener relaciones contextuales entre activos de datos y mejorar continuamente la relevancia de las respuestas según los patrones de uso reales.
Canalización de datos automatizada: De no estructurado a estructurado
Un nuevo servicio de Amazon Bedrock Data Automation transforma documentos, imágenes, audio y video en formatos estructurados—de forma automática. Los bancos que procesan documentos de préstamos, las aseguradoras que analizan reclamaciones y los equipos de activos digitales que gestionan repositorios de contenido ahora pueden extraer, normalizar y estructurar datos a gran escala sin esfuerzo manual.
La automatización incluye puntuación de confianza incorporada y fundamenta las salidas en el material fuente para reducir riesgos de alucinaciones. Symbeo usa esto para automatización de cuentas por pagar—extrayendo datos de reclamaciones de seguros y facturas médicas más rápidamente. Tenovos lo usa para búsqueda semántica, reportando aumentos del 50%+ en reutilización de contenido.
Impulso en la adopción
La base instalada refleja el éxito de la estrategia. Amazon Bedrock ahora atiende a decenas de miles de clientes—creciendo 4.7x año tras año. Adobe, BMW Group, Zendesk, Argo Labs y otros ya están adoptando estas nuevas capacidades, lo que indica confianza en la madurez y dirección de la plataforma.
Disponibilidad y despliegue
El Marketplace de Amazon Bedrock está disponible de inmediato. Caché de prompts, Enrutamiento inteligente de prompts, mejoras en Bases de Conocimiento (datos estructurados y GraphRAG), y Data Automation están en vista previa. Los modelos de Luma AI, poolside y Stability AI llegarán pronto.
Las novedades de Bedrock reflejan la estrategia más amplia de AWS: reducir la fricción para que las empresas construyan aplicaciones de IA gestionando automáticamente infraestructura, selección de modelos y optimización de costos. Para los equipos de desarrollo, esto se traduce en prototipado más rápido, menores costos de experimentación y una transición más sencilla de prueba de concepto a despliegue en producción.