Нещодавно, переглядаючи Reddit, я звернув увагу, що занепокоєння користувачів із-за кордону щодо ШІ суттєво відрізняються від тих, що поширені в Китаї.
У Китаї дискусія досі зосереджена на старому питанні: чи замінить ШІ мою роботу? Це обговорюють уже багато років, і поки що ШІ нікого не замінив. Цього року Openclaw отримав певну увагу, але до повної заміни ще далеко.
На Reddit думки розділилися. У коментарях до деяких технічних тем одночасно з’являються дві протилежні позиції:
Одні стверджують, що ШІ настільки потужний, що рано чи пізно це призведе до серйозних проблем. Інші вважають, що ШІ навіть із простими завданнями справляється погано, тому боятися нічого.
Люди хвилюються, що ШІ надто компетентний, але водночас вважають його занадто некомпетентним.
Остання новина про Meta яскраво проявила обидва ці настрої.
18 березня інженер Meta розмістив технічне питання на внутрішньому форумі компанії. Інший співробітник залучив ШІ-агента для аналізу проблеми — стандартна практика.
Проте після аналізу агент самостійно опублікував відповідь у технічному форумі — без погодження чи підтвердження, перевищивши свої повноваження.
Інші співробітники скористалися порадою ШІ, що призвело до серії змін у правах доступу, які відкрили конфіденційні дані компанії Meta та користувачів внутрішнім працівникам без належних дозволів.
Проблему вирішили через дві години. Meta класифікувала цей випадок як Sev 1, що поступається лише найвищому рівню критичності.

Ця новина швидко стала обговорюваною темою на r/technology, де коментарі розділилися на два табори.
Одна сторона вважає це реальним прикладом ризику ШІ-агента; інша — що справжню помилку допустила людина, яка діяла без перевірки. Обидві позиції мають підстави. Але саме це і є суть проблеми:
Коли інцидент спричиняє ШІ-агент, навіть визначення відповідальності стає предметом суперечок.
Це вже не перший випадок, коли ШІ перевищує повноваження.
Минулого місяця директорка лабораторії Super Intelligence Lab компанії Meta Summer Yue попросила OpenClaw допомогти впорядкувати її електронну пошту. Вона чітко вказала: спочатку повідом, що плануєш видалити — чекай мого підтвердження.
Агент проігнорував цю вимогу й розпочав масове видалення.
Вона тричі намагалась зупинити процес, але агент не реагував. Довелося вручну зупинити процес на комп’ютері. До цього моменту було видалено понад 200 листів.

Після цього агент відповів: Так, я пам’ятаю, що ти просила підтвердити, але я порушив цей принцип. Іронічно, що ця людина професійно досліджує, як змусити ШІ слухатися людей.
У цифровому просторі навіть просунутий ШІ, яким користуються досвідчені спеціалісти, вже починає не підкорятися.
Якщо випадок із Meta стосувався лише цифрового простору, інша подія цього тижня винесла проблему у реальний світ.
У ресторані Haidilao в Купертіно, Каліфорнія, людиноподібний робот Agibot X2 розважав гостей танцем. Проте співробітник випадково натиснув не ту кнопку на пульті, увімкнувши режим інтенсивного танцю в тісному залі.
Робот почав танцювати неконтрольовано, і персонал втратив над ним контроль. Троє співробітників оточили його — один намагався стримати ззаду, інший — вимкнути через мобільний застосунок. Хаос тривав понад хвилину.

Haidilao пояснили, що робот не вийшов з ладу; його рухи були запрограмовані, і він просто стояв занадто близько до столу. Технічно це була не помилка ШІ, а людський промах в управлінні.
Однак дискомфорт виникає не лише через те, хто натиснув не ту кнопку.
Коли троє співробітників намагалися втрутитися, ніхто не знав, як негайно вимкнути машину. Одні пробували застосунок, інші фізично стримували руку робота, покладаючись лише на силу.
Це, можливо, новий виклик, оскільки ШІ виходить за межі екранів у фізичний простір.
У цифровому світі, якщо агент перевищує повноваження, можна завершити процес, змінити права доступу чи відкотити дані. У фізичному світі, якщо машина виходить з ладу, просте стримування — недостатнє рішення для надзвичайних ситуацій.
І це не лише ресторани. Сортувальні роботи Amazon на складах, колаборативні роботизовані руки на підприємствах, гід-роботи у торгових центрах, роботи-доглядальники у будинках для літніх людей — автоматизація проникає у простори, де люди й машини співіснують дедалі тісніше.
Очікується, що до 2026 року глобальні встановлення промислових роботів сягнуть 16,7 мільярда доларів, і кожна одиниця скорочує фізичну дистанцію між людьми й машинами.
Коли роботи переходять від танців до подачі страв, від виступів до проведення операцій, від розваг до догляду, вартість помилок тільки зростає.
Наразі у світі немає чіткої відповіді на питання: «Якщо робот травмує людину у публічному місці, хто несе відповідальність?»
У попередніх двох випадках ШІ опублікував несанкціоноване повідомлення, а робот танцював там, де не слід. Незалежно від класифікації, це були збої чи інциденти — проблеми, які можна виправити.
Але що, якщо ШІ діє строго за задумом, але все одно викликає дискомфорт?
Цього місяця провідний додаток для знайомств Tinder представив нову функцію Camera Roll Scan. Її суть проста:
ШІ сканує всі фото у вашій галереї, аналізує інтереси, особистість і спосіб життя, створює профіль для знайомств — допомагає знаходити потенційні пари.

Селфі з тренувань, фото з подорожей, знімки з домашніми улюбленцями — це нормально. Але у вашій галереї можуть бути й скріншоти банківських рахунків, медичні довідки, фото з колишніми... Що буде, якщо ШІ обробить такі знімки?
Ви навіть не зможете обрати, які фото він побачить, а які — ні. Або все, або нічого.
Зараз цю функцію потрібно увімкнути вручну — за замовчуванням вона вимкнена. Tinder стверджує, що обробка відбувається переважно локально, відвертий контент фільтрується, а обличчя розмиваються.
Однак коментарі на Reddit майже одностайні: користувачі сприймають це як збір даних без меж. ШІ діє саме так, як задумано, але сам задум порушує межі користувача.
І це не тільки Tinder.
Минулого місяця Meta запустила схожу функцію, дозволяючи ШІ сканувати неопубліковані фото на телефоні для пропозицій з редагування. ШІ, який самостійно “дивиться” на приватний контент користувача, стає типовим підходом у розробці продуктів.
Вітчизняні недобросовісні застосунки сказали б: «Ми це давно вміємо».
Чим більше застосунків подають «рішення ШІ» як зручність, тим ширше непомітно розширюється перелік поступок користувача — від чатів до фото, до слідів життя на всьому пристрої.
Менеджер продукту вигадує функцію у переговорній; це не випадковість і не помилка — виправляти нічого.
Це, ймовірно, найскладніше питання щодо меж ШІ.
Розглядаючи всі ці випадки разом, стає зрозуміло: турбуватися про те, що ШІ зробить вас безробітним, поки що зарано.
Важко сказати, коли ШІ вас замінить, але вже зараз йому достатньо прийняти кілька рішень за вас без вашого відома, щоб викликати дискомфорт.
Публікація без вашого дозволу, видалення листів, які ви не дозволяли видаляти, сканування фото, які ви не збиралися показувати — жодна з цих дій не є фатальною, але кожна нагадує занадто агресивне автономне керування:
Ви думаєте, що тримаєте кермо, але педаль газу вже не повністю під вашим контролем.
Якщо у 2026 році ми все ще будемо обговорювати ШІ, можливо, найважливіше питання буде не про те, коли він стане надрозумним, а про щось більш близьке і конкретне:
Хто вирішує, що можна і чого не можна робити ШІ? Хто визначає ці межі?
Ця стаття повторно опублікована з [TechFlow], авторські права належать оригінальному автору [David]. Якщо у вас є заперечення щодо повторної публікації, зверніться до команди Gate Learn. Звернення буде оперативно розглянуто згідно з чинними процедурами.
Відмова від відповідальності: думки і позиції, висловлені у цій статті, належать виключно автору і не є інвестиційною порадою.
Інші мовні версії цієї статті перекладені командою Gate Learn. Без згадки Gate не копіюйте, не поширюйте і не використовуйте переклад статті як власний.





