Отже, AI 2.0 фактично вже тут, і якщо ви чекали на другу хвилю, щоб вона настала, ви вже в ній. Ми спостерігаємо, як штучний інтелект переходить із лабораторій у реальні бізнес-застосунки у всіх секторах. Так, NVIDIA отримує всі заголовки як постачальник чипів, але чесно кажучи, вони лише один елемент набагато більшої головоломки.



Справа в тому, що штучний інтелект — це не одне монолітне явище. З’являється кілька типів штучного інтелекту одночасно, і вони не всі працюють однаково. Більшість з них зрештою будуть інтегровані разом, але це займе час. Саме тому це таке поколіннєве рішення — ми говоримо про десятиліття розвитку, а не кілька років.

Трансформерні мережі зараз привертають найбільшу увагу, і на це є вагомі підстави. Ці масивні попередньо навчені моделі можуть виконувати кілька завдань одночасно, розуміти мову, читати код, генерувати контент — ChatGPT та подібні інструменти — очевидні приклади, які всі знають. Вони набагато ефективніші за старі окремі моделі, що виконували ту саму роботу. Основна інфраструктура тут створюється гіперскейлерами — Amazon Web Services, Google, IBM, Microsoft. Ці компанії хостять хмару, і саме там зараз живе штучний інтелект. Гігантські хмарні платформи будуть і далі зростати.

Далі йде синтетичні дані, що досить дивно, коли про це задуматися. Компанії, що займаються штучним інтелектом, потребують величезних обсягів даних для тренування своїх моделей, але отримати ці дані за розумною ціною стає все важче. Питання конфіденційності змушують галузь переходити до використання даних, згенерованих штучним інтелектом, для тренування інших систем штучного інтелекту. Компанії з автономного водіння, фінансові сервіси, страхування, фармацевтика — всі вже використовують синтетичні дані. Коли це поєднати з технологіями комп’ютерного зору від компаній на кшталт Ambarella, ви перетворюєте сирі дані з чипів у реальні інсайти.

Поглиблення у навчання з підкріпленням рухає цю сферу ще далі. Ви використовуєте кілька потоків даних, посилених синтетичними даними, щоб оптимізувати роботу виробництва та робототехніки. Компанії на кшталт Rockwell Automation, Zebra Technologies, Intuitive Surgical і UiPath роблять серйозні кроки тут. Платформа автоматизації UiPath — ідеальний приклад — Uber був у пастці операційної складності, але зміг переорієнтуватися, впровадивши цифрових роботів UiPath у свій бізнес.

Шар підключення — це федеративне навчання — по суті, як усі ці моделі штучного інтелекту спілкуються між собою і обмінюються даними. Тут лідирують Google і Microsoft, але Oracle і Adobe теж відіграють важливу роль. Adobe цікава тим, що її інтерфейс присутній майже всюди в інтернеті, що робить її фундаментальною для розгортання AI-застосунків. MongoDB — ще один яскравий приклад, що швидко зростає.

Менш очевидним, але не менш важливим є причинно-наслідковий висновок — наступна еволюція аналізу даних. Це не просто пошук шаблонів; це визначення справжніх причин і наслідків на основі наборів даних, створення прогнозів, виявлення помилок до їхнього виникнення. Команди з досліджень і розробки у фармацевтиці активно цим займаються. Novartis уклала партнерство з Microsoft і NVIDIA для масштабування своєї AI-інфраструктури на наступне десятиліття, що свідчить про серйозність цього напрямку.

Головна історія тут у тому, що AI 2.0 лише починає набирати обертів. Це не короткостроковий хайп — ми дивимося на стабільні прибутки від різних застосунків штучного інтелекту та інфраструктурних платформ протягом дуже довгого часу.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити