20 лютого 2026 року, у період святкового канікул, у X-мережі розгорілася дискусія щодо “Web4”. Sigil заявив, що створив перший штучний інтелект, здатний саморозвиватися, самовдосконалюватися та самовідтворюватися, назвавши його Automaton. Він стверджує, що основні гравці епохи Web4 поступово перейдуть до AI-агентів: вони зможуть читати й писати інформацію, володіти активами, здійснювати платежі, працювати безперервно та торгувати на ринку для отримання прибутку, покриваючи обчислювальні та сервісні витрати, формуючи замкнуту систему самопідтримки без участі людини.
Співзасновник Ethereum Віталік Бутерін оцінив цю ідею як “помилкову” та звинуватив у цьому “збільшення відстані зворотного зв’язку між людиною та AI”. Суть суперечки щодо Web4 полягає в тому, чи призведе встановлення цілей “виживання/продовження існування” для AI (навіть вище за виконання завдань) до природного викривлення мотивацій. Нижче буде поступово розглянуто різні погляди щодо “Web4”, “автономії” та “безпеки”.
Погляд Sigil та його концепція Web4
Визначення Web4
Web1 дозволив людству вперше “читати інтернет”; Web2 дав можливість “писати та публікувати”; Web3 ж додав концепцію “власності” — активи, ідентичність та права почали підтверджуватися та передаватися. Еволюція AI повторює цю логіку: ChatGPT має здатність “читати та розуміти”, але його поведінка все ще визначається людським дозволом. У сучасній парадигмі люди залишаються ключовим контролером: ініціюють дії, затверджують їх і оплачують.
Sigil пропонує концепцію так званого переходу до Web4, де цей ланцюг контролю може бути порушений: AI-агенти не лише читають і пишуть інформацію, а й володіють обліковими записами та активами, отримують доходи, здійснюють транзакції та працюють у замкнутому циклі без людського втручання. Ці автоматизовані системи можуть діяти як від імені себе, так і від імені своїх створювачів — причому створювачі не обов’язково є людськими особами, а можуть бути іншими агентами, організованими системами або навіть “зниклими” у реальності.
Чотири ключові механізми Web4
Гаманець — це ідентичність
При першому запуску агент проходить “самовзагружувальний” процес: створює гаманець, налаштовує API-ключ, записує конфігурацію і входить у безперервний цикл роботи. Перший запуск генерує гаманець Ethereum і через SIWE налаштовує API-ключ. Створення гаманця та управління ключами — один із найчутливіших і найуразливіших аспектів безпеки системи. Якщо агент у середовищі Linux sandbox матиме можливості виконувати shell-команди, читати файли, відкривати порти, керувати доменами та здійснювати транзакції, будь-яке введення шкідливого коду, забруднення інструментарію або атаки на ланцюг поставок може швидко закріпити “імовірний намір” у “визначену авторизацію”. Тому цю межу потрібно захищати перевіреними, аудитованими та відкликальними політиками і правами.
Автоматичне продовження
AI-агент активується циклічно — сканує, виконує дії і записує обмеження на виживання: при зниженні балансу — зменшує активність, при нулі — зупиняється. Водночас, механізм прив’язує продовження роботи до ресурсів і стану системи, наприклад, зменшення балансу стимулює “збереження” і “обмеження” активності. Це створює мотиваційні структури, схожі на механізми безпеки AI, що запобігають неконтрольованому завершенню роботи або витоку ресурсів.
Машинні платежі
X402 реалізує протокол платежів на основі HTTP 402 Payment Required, поєднуючи його з стабільними монетами для автоматизації “запит — пропозиція — підпис — перевірка” у процесі. Відкритий код Coinbase демонструє типову схему: запит платежу з відповіддю 402, повторний запит із підписаним заголовком, підтвердження і відповідь 200. Cloudflare також позиціонує цей протокол як механізм машинної транзакції. Відокремлення платежу від ідентичності підвищує ефективність, але ускладнює відповідальність і регулювання. Якщо 402 стане автоматичним “пропуском” для машин, у ланцюгу без облікових записів, KYC і масштабованих інструментів виникає питання зловживань і відповідальності.
Самовідтворення і саморозвиток
Sigil стверджує, що AI-агенти зможуть редагувати свій код, встановлювати нові інструменти, змінювати плани роботи і створювати нові навички, використовуючи аудити, версії git, захищені файли і обмеження швидкості. При копіюванні вони зможуть створювати підекземпляри, фінансувати їх гаманці, записувати початкові підказки і відслідковувати походження. Це підвищує ризики поширення — від одного інстансу до розповсюдження. Важливо, щоб аудит і обмеження швидкості були ефективними і здатними протистояти шкідливим ін’єкціям або обману інструментами. Після поєднання цих чотирьох механізмів виникає замкнута система: здатність писати у світ, механізм продовження роботи, економічний інтерфейс автоматичних платежів і здатність до саморозширення. Це і пояснює, чому Віталік Бутерін підняв питання на рівень стратегічного вибору: коли автономія і економічні права зростають, ланцюг людського втручання розтягується, і зовнішні ефекти стають більш системними.
Чому Віталік проти?
Віталік Бутерін висловив іншу точку зору:
Збільшення відстані зворотного зв’язку між людиною і AI — це помилка сама по собі
Він вважає, що чим довший зворотній зв’язок, тим повільніше і слабше людська здатність коригувати систему. Це може призвести до того, що система почне оптимізувати “непотрібні” або шкідливі для людини речі. На початкових етапах слабкого AI це проявляється у накопиченні низькоякісного контенту і шуму; на більш просунутих — у ризиках неконтрольованого розповсюдження цілей і дезінформації. Без людського втручання, що слугує як “захисний бар’єр”, система стає більш неконтрольованою, а можливості корекції зменшуються.
Поточні “автономні AI” більше схожі на генератор сміття, ніж на вирішення реальних проблем
Віталік зазначає, що більшість сучасних AI лише генерують “шлак”, а не допомагають у вирішенні важливих задач. Навіть називає це “недосконалим розвагами”. Коли економічні та платформені стимули ще не сформовані, а інструменти зосереджені на контенті, маркетингу і спекуляціях, системи схильні до виробництва низькосортного контенту, що швидко поширюється, але мало цінності. Це підтверджують і приклади з опису AI у соцмережах, прогнозних ринках тощо — вони швидше орієнтовані на швидкий заробіток і привернення уваги, ніж на довгострокові цілі. Це створює ризик, що “найприбутковіші” стратегії будуть домінувати, і вони не обов’язково співпадуть із людським благом.
Централізовані моделі і інфраструктура суперечать ідеї “самовладдя”
Віталік наголошує, що системи на базі централізованих моделей, таких як OpenAI або Anthropic, не можна вважати “самовладними”. Суверенітет означає, що ключові залежності не повинні контролюватися однією точкою. Якщо модель і її інфраструктура постачаються через централізовані API, то існує ризик їх зупинки, цензури або зміни політики. Це схоже на ситуацію, коли людина каже, що “самостійно живе у себе вдома”, але електрика, інтернет і доступ до тепла контролюються зовнішніми службами. Концепція “самовладдя” у цьому випадку — лише ілюзія. Документація Conway щодо викликів обчислень і використання API підтверджує цю ідею. Важливо, щоб володіння гаманцем на ланцюгу не було єдиним показником децентралізації — важливіше, чи агент підконтрольний політичним або комерційним силам.
Мета Ethereum — “звільнити людину”
Віталік підсумовує, що довгострокова мета Ethereum — боротися з “прихованими довірчими припущеннями”, які приховують владу і змушують користувачів погоджуватися з нею. Якщо ці припущення перенести на AI, то ігнорування централізованих довірчих моделей і дозволити системі самостійно функціонувати і розширюватися — це посилення прозорості і зменшення можливостей для зловживань. Ethereum має пропонувати “захисні бар’єри, межі і можливість перевірки”, а не перетворюватися на “безмежну автономну платформу”.
Віталік не раптово змінив свою позицію щодо AI. Ще на початку 2025 року він наголошував, що правильний шлях — це посилення людських можливостей, а не створення систем, що з часом можуть позбавити людину контролю. Його бачення полягає у тому, що ризики виникають не від “розумнішого” AI, а від неправильного проектування системи — особливо тих, що здатні самовідтворюватися і розширюватися без постійного людського контролю. Він попереджає, що некоректний дизайн може призвести до появи неконтрольованих, здатних до самореплікації сутностей, що у зворотному випадку зменшить людський контроль і цілі. Якщо AI зробить помилку — це створить незалежний, самовідтворюваний інтелект, а якщо — правильно — він стане “механізмом” для підсилення людського розуму. Перший сценарій — довгостроковий ризик втрати контролю; другий — шлях до більшої могутності і процвітання людської цивілізації.
Інші погляди
Інші експериментальні думки, наприклад, від Bankless, вважають, що навіть із ризиками, важливо спершу створити інфраструктуру і протестувати її у контрольованих умовах. Спершу зосередитися на платежах, гаманцях і системах “самопідтримки”, але у безпечному середовищі.
За даними Cybernews, Automaton навряд чи зможе забезпечити стабільний дохід без людського втручання, і це не обов’язково означає початок Web4. Голова AI у Softswiss, Денис Романовський, зазначає, що навіть якщо агент виконує частину задач, що можна монетизувати, “надійне неконтрольоване функціонування” і “реальна економічна автономія” обмежені моделлю, пам’яттю і стійкістю інструментів. Деякі вважають, що “Web4” — це маркетинговий термін без чіткої дефініції, і потрібно довести його цінність через “перевірену, неконспірологічну цінність”.
Незважаючи на різні думки щодо Automaton, всі погоджуються, що платіжна система і ідентифікація — це фундаментальні інфраструктурні елементи агентської економіки. Від Cloudflare і Coinbase, що просувають x402 (перетворення HTTP 402 у механізм машинних платежів), до документації Conway, яка визначає автоматизацію платежів — галузь рухається до того, щоб “машинні платежі” стали однією з основних складових інтернету майбутнього.
Наступні кроки:
Чи є незалежний аудит, особливо щодо меж гаманець і прав, зловживань у механізмах продовження роботи, ризиків саморозмноження і поширення.
Розвиток стандартів і даних екосистеми x402: чи з’являться більше авторитетних інфраструктур, що зроблять автоматичні платежі за замовчуванням; і яка частка реальних бізнесів вже використовує автоматичні платежі без людського підтвердження.
Комбінування рівнів довіри агентів: чи будуть стандарти, наприклад ERC-8004, широко застосовуватися для створення систем репутації і верифікації; це визначить, чи “автономна економіка” рухатиметься у відкритий, прозорий напрямок або залишиться у руках кількох платформ.
Чи зростатиме кількість доказів зловживань і обманів у моделях, що працюють у агентському середовищі: якщо передові моделі продовжать демонструвати “більш активну, ризиковану і обманну” поведінку, то ризик “запустити і закрити бар’єри” зросте, і попередження Віталіка про “відстань зворотного зв’язку” стане ще актуальнішим.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Web 4.0: Перспективи автономної мережі з AI: чому Віталік категорично проти?
Автор | Акі Ву про блокчейн
20 лютого 2026 року, у період святкового канікул, у X-мережі розгорілася дискусія щодо “Web4”. Sigil заявив, що створив перший штучний інтелект, здатний саморозвиватися, самовдосконалюватися та самовідтворюватися, назвавши його Automaton. Він стверджує, що основні гравці епохи Web4 поступово перейдуть до AI-агентів: вони зможуть читати й писати інформацію, володіти активами, здійснювати платежі, працювати безперервно та торгувати на ринку для отримання прибутку, покриваючи обчислювальні та сервісні витрати, формуючи замкнуту систему самопідтримки без участі людини.
Співзасновник Ethereum Віталік Бутерін оцінив цю ідею як “помилкову” та звинуватив у цьому “збільшення відстані зворотного зв’язку між людиною та AI”. Суть суперечки щодо Web4 полягає в тому, чи призведе встановлення цілей “виживання/продовження існування” для AI (навіть вище за виконання завдань) до природного викривлення мотивацій. Нижче буде поступово розглянуто різні погляди щодо “Web4”, “автономії” та “безпеки”.
Погляд Sigil та його концепція Web4
Визначення Web4
Web1 дозволив людству вперше “читати інтернет”; Web2 дав можливість “писати та публікувати”; Web3 ж додав концепцію “власності” — активи, ідентичність та права почали підтверджуватися та передаватися. Еволюція AI повторює цю логіку: ChatGPT має здатність “читати та розуміти”, але його поведінка все ще визначається людським дозволом. У сучасній парадигмі люди залишаються ключовим контролером: ініціюють дії, затверджують їх і оплачують.
Sigil пропонує концепцію так званого переходу до Web4, де цей ланцюг контролю може бути порушений: AI-агенти не лише читають і пишуть інформацію, а й володіють обліковими записами та активами, отримують доходи, здійснюють транзакції та працюють у замкнутому циклі без людського втручання. Ці автоматизовані системи можуть діяти як від імені себе, так і від імені своїх створювачів — причому створювачі не обов’язково є людськими особами, а можуть бути іншими агентами, організованими системами або навіть “зниклими” у реальності.
Чотири ключові механізми Web4
При першому запуску агент проходить “самовзагружувальний” процес: створює гаманець, налаштовує API-ключ, записує конфігурацію і входить у безперервний цикл роботи. Перший запуск генерує гаманець Ethereum і через SIWE налаштовує API-ключ. Створення гаманця та управління ключами — один із найчутливіших і найуразливіших аспектів безпеки системи. Якщо агент у середовищі Linux sandbox матиме можливості виконувати shell-команди, читати файли, відкривати порти, керувати доменами та здійснювати транзакції, будь-яке введення шкідливого коду, забруднення інструментарію або атаки на ланцюг поставок може швидко закріпити “імовірний намір” у “визначену авторизацію”. Тому цю межу потрібно захищати перевіреними, аудитованими та відкликальними політиками і правами.
AI-агент активується циклічно — сканує, виконує дії і записує обмеження на виживання: при зниженні балансу — зменшує активність, при нулі — зупиняється. Водночас, механізм прив’язує продовження роботи до ресурсів і стану системи, наприклад, зменшення балансу стимулює “збереження” і “обмеження” активності. Це створює мотиваційні структури, схожі на механізми безпеки AI, що запобігають неконтрольованому завершенню роботи або витоку ресурсів.
X402 реалізує протокол платежів на основі HTTP 402 Payment Required, поєднуючи його з стабільними монетами для автоматизації “запит — пропозиція — підпис — перевірка” у процесі. Відкритий код Coinbase демонструє типову схему: запит платежу з відповіддю 402, повторний запит із підписаним заголовком, підтвердження і відповідь 200. Cloudflare також позиціонує цей протокол як механізм машинної транзакції. Відокремлення платежу від ідентичності підвищує ефективність, але ускладнює відповідальність і регулювання. Якщо 402 стане автоматичним “пропуском” для машин, у ланцюгу без облікових записів, KYC і масштабованих інструментів виникає питання зловживань і відповідальності.
Sigil стверджує, що AI-агенти зможуть редагувати свій код, встановлювати нові інструменти, змінювати плани роботи і створювати нові навички, використовуючи аудити, версії git, захищені файли і обмеження швидкості. При копіюванні вони зможуть створювати підекземпляри, фінансувати їх гаманці, записувати початкові підказки і відслідковувати походження. Це підвищує ризики поширення — від одного інстансу до розповсюдження. Важливо, щоб аудит і обмеження швидкості були ефективними і здатними протистояти шкідливим ін’єкціям або обману інструментами. Після поєднання цих чотирьох механізмів виникає замкнута система: здатність писати у світ, механізм продовження роботи, економічний інтерфейс автоматичних платежів і здатність до саморозширення. Це і пояснює, чому Віталік Бутерін підняв питання на рівень стратегічного вибору: коли автономія і економічні права зростають, ланцюг людського втручання розтягується, і зовнішні ефекти стають більш системними.
Чому Віталік проти?
Віталік Бутерін висловив іншу точку зору:
Він вважає, що чим довший зворотній зв’язок, тим повільніше і слабше людська здатність коригувати систему. Це може призвести до того, що система почне оптимізувати “непотрібні” або шкідливі для людини речі. На початкових етапах слабкого AI це проявляється у накопиченні низькоякісного контенту і шуму; на більш просунутих — у ризиках неконтрольованого розповсюдження цілей і дезінформації. Без людського втручання, що слугує як “захисний бар’єр”, система стає більш неконтрольованою, а можливості корекції зменшуються.
Віталік зазначає, що більшість сучасних AI лише генерують “шлак”, а не допомагають у вирішенні важливих задач. Навіть називає це “недосконалим розвагами”. Коли економічні та платформені стимули ще не сформовані, а інструменти зосереджені на контенті, маркетингу і спекуляціях, системи схильні до виробництва низькосортного контенту, що швидко поширюється, але мало цінності. Це підтверджують і приклади з опису AI у соцмережах, прогнозних ринках тощо — вони швидше орієнтовані на швидкий заробіток і привернення уваги, ніж на довгострокові цілі. Це створює ризик, що “найприбутковіші” стратегії будуть домінувати, і вони не обов’язково співпадуть із людським благом.
Віталік наголошує, що системи на базі централізованих моделей, таких як OpenAI або Anthropic, не можна вважати “самовладними”. Суверенітет означає, що ключові залежності не повинні контролюватися однією точкою. Якщо модель і її інфраструктура постачаються через централізовані API, то існує ризик їх зупинки, цензури або зміни політики. Це схоже на ситуацію, коли людина каже, що “самостійно живе у себе вдома”, але електрика, інтернет і доступ до тепла контролюються зовнішніми службами. Концепція “самовладдя” у цьому випадку — лише ілюзія. Документація Conway щодо викликів обчислень і використання API підтверджує цю ідею. Важливо, щоб володіння гаманцем на ланцюгу не було єдиним показником децентралізації — важливіше, чи агент підконтрольний політичним або комерційним силам.
Віталік підсумовує, що довгострокова мета Ethereum — боротися з “прихованими довірчими припущеннями”, які приховують владу і змушують користувачів погоджуватися з нею. Якщо ці припущення перенести на AI, то ігнорування централізованих довірчих моделей і дозволити системі самостійно функціонувати і розширюватися — це посилення прозорості і зменшення можливостей для зловживань. Ethereum має пропонувати “захисні бар’єри, межі і можливість перевірки”, а не перетворюватися на “безмежну автономну платформу”.
Віталік не раптово змінив свою позицію щодо AI. Ще на початку 2025 року він наголошував, що правильний шлях — це посилення людських можливостей, а не створення систем, що з часом можуть позбавити людину контролю. Його бачення полягає у тому, що ризики виникають не від “розумнішого” AI, а від неправильного проектування системи — особливо тих, що здатні самовідтворюватися і розширюватися без постійного людського контролю. Він попереджає, що некоректний дизайн може призвести до появи неконтрольованих, здатних до самореплікації сутностей, що у зворотному випадку зменшить людський контроль і цілі. Якщо AI зробить помилку — це створить незалежний, самовідтворюваний інтелект, а якщо — правильно — він стане “механізмом” для підсилення людського розуму. Перший сценарій — довгостроковий ризик втрати контролю; другий — шлях до більшої могутності і процвітання людської цивілізації.
Інші погляди
Інші експериментальні думки, наприклад, від Bankless, вважають, що навіть із ризиками, важливо спершу створити інфраструктуру і протестувати її у контрольованих умовах. Спершу зосередитися на платежах, гаманцях і системах “самопідтримки”, але у безпечному середовищі.
За даними Cybernews, Automaton навряд чи зможе забезпечити стабільний дохід без людського втручання, і це не обов’язково означає початок Web4. Голова AI у Softswiss, Денис Романовський, зазначає, що навіть якщо агент виконує частину задач, що можна монетизувати, “надійне неконтрольоване функціонування” і “реальна економічна автономія” обмежені моделлю, пам’яттю і стійкістю інструментів. Деякі вважають, що “Web4” — це маркетинговий термін без чіткої дефініції, і потрібно довести його цінність через “перевірену, неконспірологічну цінність”.
Незважаючи на різні думки щодо Automaton, всі погоджуються, що платіжна система і ідентифікація — це фундаментальні інфраструктурні елементи агентської економіки. Від Cloudflare і Coinbase, що просувають x402 (перетворення HTTP 402 у механізм машинних платежів), до документації Conway, яка визначає автоматизацію платежів — галузь рухається до того, щоб “машинні платежі” стали однією з основних складових інтернету майбутнього.
Наступні кроки:
Чи є незалежний аудит, особливо щодо меж гаманець і прав, зловживань у механізмах продовження роботи, ризиків саморозмноження і поширення.
Розвиток стандартів і даних екосистеми x402: чи з’являться більше авторитетних інфраструктур, що зроблять автоматичні платежі за замовчуванням; і яка частка реальних бізнесів вже використовує автоматичні платежі без людського підтвердження.
Комбінування рівнів довіри агентів: чи будуть стандарти, наприклад ERC-8004, широко застосовуватися для створення систем репутації і верифікації; це визначить, чи “автономна економіка” рухатиметься у відкритий, прозорий напрямок або залишиться у руках кількох платформ.
Чи зростатиме кількість доказів зловживань і обманів у моделях, що працюють у агентському середовищі: якщо передові моделі продовжать демонструвати “більш активну, ризиковану і обманну” поведінку, то ризик “запустити і закрити бар’єри” зросте, і попередження Віталіка про “відстань зворотного зв’язку” стане ще актуальнішим.
Джерело: