Гендиректор Giza Ренс Корзай підкреслює, що етичні питання у розробці AI-агентів повинні бути «архітектурно забезпечені». Він виступає за вбудований контроль користувача та «захист-за-дизайном», щоб мінімізувати регуляторні обтяження.
«Архітектурно забезпечена» безпека користувача
Швидкий розвиток штучного інтелекту призвів до створення все більш вдосконалених агентів штучного інтелекту, здатних виконувати складні завдання в різних секторах. Однак, по мірі того, як ці агенти стають більш потужними та автономними, з’являються побоювання щодо етичних врахувань та потенційних ризиків.
Для вирішення цих питань Ренс Корзай, генеральний директор Giza та ветеран промисловості, виступає за надання переваги безпеці та суверенітету користувачів, які, за його словами, повинні бути «неприпустимими» та «архітектурно забезпеченими». Корзай стверджує, що етичні принципи повинні перетворюватися на конкретні інженерні вимоги, формуючи кожний аспект проектування AI-агентів.
У письмових відповідях на запитання від Bitcoin.com News, Корзай також підкреслив необхідність повного контролю користувача. Цей контроль, додав він, повинен бути вбудований в архітектуру агента, забезпечуючи користувачам повний нагляд та авторитет. На відміну від систем, які покладаються на делегований контроль, етичні штучні інтелектуальні агенти повинні працювати через фреймворки дозволів, які можуть бути негайно відкликані, - сказав Корзай.
Для генерального директора Giza основне повідомлення очевидне: Етичні врахування повинні бути вбудовані в основну архітектуру систем штучного інтелекту, а не додаватися як післядумка.
«У DeFi, де на кону фінансові активи користувачів, етичні розгляди повинні бути вбудовані в базову архітектуру систем штучного інтелекту, а не додаватися як вторинний елемент», - сказав Корзай.
Ця “спочатку безпека” є важливою для побудови довіри та забезпечення відповідального розвитку штучних інтелектуальних агентів. Звертаючись до ринків децентралізованих фінансів (DeFi), які стали складнішими, Корзай розкрив, що тепер можна впроваджувати штучних інтелектуальних агентів для оптимізації позицій користувачів на провідних протоколах та виконання складних стратегій, при цьому користувачі зберігають повний контроль над коштами.
‘Xenocognitive’ Фінанси
Тим часом генеральний директор стверджує, що ефективний захист користувачів в DeFi випливає з міцного дизайну продукту, а не лише зовнішнього регулювання. Цей підхід «захист-через-дизайн», він сказав, спрямований на створення екосистеми, де безпека є «внутрішньою», що мінімізує необхідність у суворому регулюванні.
Korzay стверджує, що побудова систем зі вбудованою безпекою відповідає інтересам зацікавлених сторін і активно співпрацює з регуляторами для формування майбутніх політик. Увага зосереджена на створенні цінності через добре спроектовані продукти, зроблення відповідності природним результатом, а не перешкодою для інновацій.
Зазирнувши в майбутнє, Корзей сказав, що він передбачає, що до 2030 року “Xenocognitive Finance” буде домінувати, а штучний інтелект виступатиме як основний ринковий інтерфейс, перевищуючи людські пізнавальні межі. Тоді люди будуть встановлювати стратегічні цілі, тоді як штучний інтелект буде відповідати за виконання.
«Крива прийняття не буде лінійною – вона буде експоненціальною. Оскільки ці агенти продемонструють свою здатність постійно виконувати ручні операції, зберігаючи гарантії безпеки, вони стануть способом взаємодії з фінансовими ринками за замовчуванням», – додав генеральний директор.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
AI Агенти в DeFi: Керування користувачем повинно бути 'Неприпустиме,' Попереджує Генеральний директор
Гендиректор Giza Ренс Корзай підкреслює, що етичні питання у розробці AI-агентів повинні бути «архітектурно забезпечені». Він виступає за вбудований контроль користувача та «захист-за-дизайном», щоб мінімізувати регуляторні обтяження.
«Архітектурно забезпечена» безпека користувача
Швидкий розвиток штучного інтелекту призвів до створення все більш вдосконалених агентів штучного інтелекту, здатних виконувати складні завдання в різних секторах. Однак, по мірі того, як ці агенти стають більш потужними та автономними, з’являються побоювання щодо етичних врахувань та потенційних ризиків.
Для вирішення цих питань Ренс Корзай, генеральний директор Giza та ветеран промисловості, виступає за надання переваги безпеці та суверенітету користувачів, які, за його словами, повинні бути «неприпустимими» та «архітектурно забезпеченими». Корзай стверджує, що етичні принципи повинні перетворюватися на конкретні інженерні вимоги, формуючи кожний аспект проектування AI-агентів.
У письмових відповідях на запитання від Bitcoin.com News, Корзай також підкреслив необхідність повного контролю користувача. Цей контроль, додав він, повинен бути вбудований в архітектуру агента, забезпечуючи користувачам повний нагляд та авторитет. На відміну від систем, які покладаються на делегований контроль, етичні штучні інтелектуальні агенти повинні працювати через фреймворки дозволів, які можуть бути негайно відкликані, - сказав Корзай.
Для генерального директора Giza основне повідомлення очевидне: Етичні врахування повинні бути вбудовані в основну архітектуру систем штучного інтелекту, а не додаватися як післядумка.
«У DeFi, де на кону фінансові активи користувачів, етичні розгляди повинні бути вбудовані в базову архітектуру систем штучного інтелекту, а не додаватися як вторинний елемент», - сказав Корзай.
Ця “спочатку безпека” є важливою для побудови довіри та забезпечення відповідального розвитку штучних інтелектуальних агентів. Звертаючись до ринків децентралізованих фінансів (DeFi), які стали складнішими, Корзай розкрив, що тепер можна впроваджувати штучних інтелектуальних агентів для оптимізації позицій користувачів на провідних протоколах та виконання складних стратегій, при цьому користувачі зберігають повний контроль над коштами.
‘Xenocognitive’ Фінанси
Тим часом генеральний директор стверджує, що ефективний захист користувачів в DeFi випливає з міцного дизайну продукту, а не лише зовнішнього регулювання. Цей підхід «захист-через-дизайн», він сказав, спрямований на створення екосистеми, де безпека є «внутрішньою», що мінімізує необхідність у суворому регулюванні.
Korzay стверджує, що побудова систем зі вбудованою безпекою відповідає інтересам зацікавлених сторін і активно співпрацює з регуляторами для формування майбутніх політик. Увага зосереджена на створенні цінності через добре спроектовані продукти, зроблення відповідності природним результатом, а не перешкодою для інновацій.
Зазирнувши в майбутнє, Корзей сказав, що він передбачає, що до 2030 року “Xenocognitive Finance” буде домінувати, а штучний інтелект виступатиме як основний ринковий інтерфейс, перевищуючи людські пізнавальні межі. Тоді люди будуть встановлювати стратегічні цілі, тоді як штучний інтелект буде відповідати за виконання.
«Крива прийняття не буде лінійною – вона буде експоненціальною. Оскільки ці агенти продемонструють свою здатність постійно виконувати ручні операції, зберігаючи гарантії безпеки, вони стануть способом взаємодії з фінансовими ринками за замовчуванням», – додав генеральний директор.