Amazon Web Services робить значущі кроки до демократизації впровадження генеративного ШІ. На щорічній конференції re:Invent AWS оголосила про масштабне оновлення Amazon Bedrock — платформи керованих базових моделей — представивши понад 100 нових доступних моделей, передові оптимізації для інференції та потужні можливості обробки даних, спрямовані на прискорення розгортання ШІ для підприємств.
Вибух моделей: доступ до понад 100 базових моделей
Діапазон доступних моделей стрімко розширюється. Окрім власних базових моделей Amazon Nova від AWS, екосистема тепер включає внески провідних лабораторій ШІ. Модель Ray 2 від Luma AI додає можливості генерації відео у виробничі середовища, дозволяючи користувачам створювати високоякісний відеоконтент з тексту та зображень із реалістичною фізикою та послідовною поведінкою персонажів. Це відкриває можливості для маркетингових команд, архітекторів і дизайнерів, які прагнуть швидко прототипувати візуальні концепції.
Команди, що зосереджені на коді, тепер мають доступ до моделей malibu та point від poolside через Amazon Bedrock, інструментів, спеціально розроблених для завдань програмної інженерії, таких як генерація коду, тестування та документація. Ці моделі можна донастроювати на корпоративних кодових базах, дозволяючи компаніям створювати ШІ-помічників, адаптованих до їхніх конкретних практик і стандартів.
Stability AI’s Stable Diffusion 3.5 Large приєднується до платформи для робочих процесів генерації зображень. Модель підтримує різноманітні художні стилі та прискорює створення концепт-арту для галузей від ігор до роздрібної торгівлі.
Крім цих флагманських додатків, Marketplace Amazon Bedrock тепер каталогує понад 100 моделей — включно з спеціалізованими для фінансів (Writer’s Palmyra-Fin), перекладу (Upstage’s Solar Pro) та біологічних досліджень (EvolutionaryScale’s ESM3). Клієнти обирають модель, що відповідає їхньому випадку використання, налаштовують інфраструктуру через AWS і розгортають через єдині API з вбудованим управлінням та безпекою.
Розумніша інференція: кешування запитів і динамічне маршрутування
З розгортанням моделей у виробництво, витрати на інференцію та затримки стають критичними обмеженнями. Два можливості безпосередньо вирішують цю проблему.
Кешування запитів дозволяє безпечно зберігати часто повторюваний контент, зменшуючи навантаження на обробку. Попередні результати показують суттєві покращення: Adobe Acrobat AI Assistant зазнав зменшення часу відповіді на 72% при кешуванні запитів у Amazon Bedrock. Зниження витрат може досягати 90% для підтримуваних моделей, а затримки зменшуються до 85%.
Інтелектуальне маршрутування запитів динамічно обробля складність запитів. Система аналізує вхідні запити за допомогою передових методів співставлення та направляє кожен до оптимальної моделі у сімействі. Простий запит іде до меншої, дешевшої моделі; складні — до більшої. Результат: до 30% зниження витрат при збереженні якості відповіді. Argo Labs, компанія з голосового ШІ, використовує цей підхід для обробки запитів клієнтів ресторанів — спрямовуючи прості питання «так-ні» до легких моделей, залишаючи обчислення для складних меню та доступності.
Використання даних: структуровані запити і графи знань
Бази знань Amazon Bedrock тепер підтримують безпосередній доступ до структурованих даних. Замість перетворення корпоративних баз даних у неструктурований текст, клієнти можуть запитувати структуровані дані за допомогою природної мови, а система переводить запити у SQL, що виконується проти сховищ даних і озер даних. Octus, платформа кредитної аналітики, планує використовувати це для дозволу кінцевим користувачам досліджувати структуровані кредитні дані у розмовній формі, перетворюючи місяці інтеграційної роботи у кілька днів налаштувань.
Можливості графів знань (GraphRAG) дозволяють підприємствам автоматично моделювати взаємовідносини у своїх даних. BMW Group планує впровадити це для внутрішнього помічника (MAIA), використовуючи графові бази даних для підтримки контекстуальних зв’язків між активами даних і постійного покращення релевантності відповідей на основі реального використання.
Автоматизований потік даних: від неструктурованих до структурованих
Новий сервіс Amazon Bedrock Data Automation автоматично перетворює документи, зображення, аудіо та відео у структуровані формати. Банки, що обробляють кредитні документи, страхові компанії, що аналізують претензії, та команди цифрових активів, що керують контентом, тепер можуть витягати, нормалізувати та структурувати дані у масштабі без ручної праці.
Автоматизація включає вбудоване оцінювання впевненості та підкріплює вихідні дані джерельним матеріалом для зменшення ризиків галюцинацій. Symbeo використовує це для автоматизації обробки рахунків — швидше витягує дані з страхових претензій і медичних рахунків. Tenovos застосовує це для семантичного пошуку, що дає понад 50% зростання повторного використання контенту.
Моментум впровадження
Встановлена база відображає успіх стратегії. Amazon Bedrock тепер обслуговує десятки тисяч клієнтів — зростаючи у 4.7 разів у рік. Adobe, BMW Group, Zendesk, Argo Labs та інші вже впроваджують ці нові можливості, що свідчить про довіру до зрілості платформи та її напрямку.
Доступність і запуск
Marketplace Amazon Bedrock доступний одразу. Кешування запитів, інтелектуальне маршрутування запитів, покращення баз знань (структуровані дані і GraphRAG), а також автоматизація даних наразі у попередньому перегляді. Моделі Luma AI, poolside і Stability AI незабаром з’являться.
Новини Bedrock відображають ширшу стратегію AWS: зменшити бар’єри для підприємств у створенні ШІ-додатків, автоматично обробляючи інфраструктуру, вибір моделей і оптимізацію витрат. Для команд розробників це означає швидше прототипування, менші витрати на експерименти та легший перехід від концепту до виробництва.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Що нового в Amazon Bedrock: понад 100 моделей, розумніше виведення та інтеграція корпоративних даних
Amazon Web Services робить значущі кроки до демократизації впровадження генеративного ШІ. На щорічній конференції re:Invent AWS оголосила про масштабне оновлення Amazon Bedrock — платформи керованих базових моделей — представивши понад 100 нових доступних моделей, передові оптимізації для інференції та потужні можливості обробки даних, спрямовані на прискорення розгортання ШІ для підприємств.
Вибух моделей: доступ до понад 100 базових моделей
Діапазон доступних моделей стрімко розширюється. Окрім власних базових моделей Amazon Nova від AWS, екосистема тепер включає внески провідних лабораторій ШІ. Модель Ray 2 від Luma AI додає можливості генерації відео у виробничі середовища, дозволяючи користувачам створювати високоякісний відеоконтент з тексту та зображень із реалістичною фізикою та послідовною поведінкою персонажів. Це відкриває можливості для маркетингових команд, архітекторів і дизайнерів, які прагнуть швидко прототипувати візуальні концепції.
Команди, що зосереджені на коді, тепер мають доступ до моделей malibu та point від poolside через Amazon Bedrock, інструментів, спеціально розроблених для завдань програмної інженерії, таких як генерація коду, тестування та документація. Ці моделі можна донастроювати на корпоративних кодових базах, дозволяючи компаніям створювати ШІ-помічників, адаптованих до їхніх конкретних практик і стандартів.
Stability AI’s Stable Diffusion 3.5 Large приєднується до платформи для робочих процесів генерації зображень. Модель підтримує різноманітні художні стилі та прискорює створення концепт-арту для галузей від ігор до роздрібної торгівлі.
Крім цих флагманських додатків, Marketplace Amazon Bedrock тепер каталогує понад 100 моделей — включно з спеціалізованими для фінансів (Writer’s Palmyra-Fin), перекладу (Upstage’s Solar Pro) та біологічних досліджень (EvolutionaryScale’s ESM3). Клієнти обирають модель, що відповідає їхньому випадку використання, налаштовують інфраструктуру через AWS і розгортають через єдині API з вбудованим управлінням та безпекою.
Розумніша інференція: кешування запитів і динамічне маршрутування
З розгортанням моделей у виробництво, витрати на інференцію та затримки стають критичними обмеженнями. Два можливості безпосередньо вирішують цю проблему.
Кешування запитів дозволяє безпечно зберігати часто повторюваний контент, зменшуючи навантаження на обробку. Попередні результати показують суттєві покращення: Adobe Acrobat AI Assistant зазнав зменшення часу відповіді на 72% при кешуванні запитів у Amazon Bedrock. Зниження витрат може досягати 90% для підтримуваних моделей, а затримки зменшуються до 85%.
Інтелектуальне маршрутування запитів динамічно обробля складність запитів. Система аналізує вхідні запити за допомогою передових методів співставлення та направляє кожен до оптимальної моделі у сімействі. Простий запит іде до меншої, дешевшої моделі; складні — до більшої. Результат: до 30% зниження витрат при збереженні якості відповіді. Argo Labs, компанія з голосового ШІ, використовує цей підхід для обробки запитів клієнтів ресторанів — спрямовуючи прості питання «так-ні» до легких моделей, залишаючи обчислення для складних меню та доступності.
Використання даних: структуровані запити і графи знань
Бази знань Amazon Bedrock тепер підтримують безпосередній доступ до структурованих даних. Замість перетворення корпоративних баз даних у неструктурований текст, клієнти можуть запитувати структуровані дані за допомогою природної мови, а система переводить запити у SQL, що виконується проти сховищ даних і озер даних. Octus, платформа кредитної аналітики, планує використовувати це для дозволу кінцевим користувачам досліджувати структуровані кредитні дані у розмовній формі, перетворюючи місяці інтеграційної роботи у кілька днів налаштувань.
Можливості графів знань (GraphRAG) дозволяють підприємствам автоматично моделювати взаємовідносини у своїх даних. BMW Group планує впровадити це для внутрішнього помічника (MAIA), використовуючи графові бази даних для підтримки контекстуальних зв’язків між активами даних і постійного покращення релевантності відповідей на основі реального використання.
Автоматизований потік даних: від неструктурованих до структурованих
Новий сервіс Amazon Bedrock Data Automation автоматично перетворює документи, зображення, аудіо та відео у структуровані формати. Банки, що обробляють кредитні документи, страхові компанії, що аналізують претензії, та команди цифрових активів, що керують контентом, тепер можуть витягати, нормалізувати та структурувати дані у масштабі без ручної праці.
Автоматизація включає вбудоване оцінювання впевненості та підкріплює вихідні дані джерельним матеріалом для зменшення ризиків галюцинацій. Symbeo використовує це для автоматизації обробки рахунків — швидше витягує дані з страхових претензій і медичних рахунків. Tenovos застосовує це для семантичного пошуку, що дає понад 50% зростання повторного використання контенту.
Моментум впровадження
Встановлена база відображає успіх стратегії. Amazon Bedrock тепер обслуговує десятки тисяч клієнтів — зростаючи у 4.7 разів у рік. Adobe, BMW Group, Zendesk, Argo Labs та інші вже впроваджують ці нові можливості, що свідчить про довіру до зрілості платформи та її напрямку.
Доступність і запуск
Marketplace Amazon Bedrock доступний одразу. Кешування запитів, інтелектуальне маршрутування запитів, покращення баз знань (структуровані дані і GraphRAG), а також автоматизація даних наразі у попередньому перегляді. Моделі Luma AI, poolside і Stability AI незабаром з’являться.
Новини Bedrock відображають ширшу стратегію AWS: зменшити бар’єри для підприємств у створенні ШІ-додатків, автоматично обробляючи інфраструктуру, вибір моделей і оптимізацію витрат. Для команд розробників це означає швидше прототипування, менші витрати на експерименти та легший перехід від концепту до виробництва.