**Главный исполнительный директор Giza Ренч Корзай подчеркивает, что этические соображения при разработке AI-агента должны быть “архитектурно обеспечены”. Он выступает за встроенный контроль пользователя и “безопасность по дизайну” для минимизации регуляторных бремен.
Быстрое развитие искусственного интеллекта привело к созданию все более сложных агентов искусственного интеллекта, способных выполнять сложные задачи в различных секторах. Однако по мере увеличения их мощности и автономности возникли опасения относительно этических соображений и потенциальных рисков.
Для решения этих проблем Ренс Корзай, генеральный директор Giza и опытный профессионал отрасли, выступает за приоритизацию безопасности и суверенитета пользователей, что, по его словам, должно быть “неотъемлемым” и “архитектурно обеспеченным”. Корзай утверждает, что этические принципы должны превращаться в конкретные инженерные требования, формируя каждый аспект дизайна искусственного интеллекта.
В письменных ответах на вопросы от Bitcoin.com News Корзай также выделил необходимость полного контроля пользователей. Этот контроль, добавил он, должен быть встроен в архитектуру агента, обеспечивая пользователям полный контроль и власть. В отличие от систем, основанных на делегированном контроле, этические искусственные интеллект-агенты должны работать через разрешения, которые могут быть мгновенно отозваны, сказал Корзай.
Для главного исполнительного директора Giza главное сообщение ясно: Этические соображения должны быть заложены в фундаментальную архитектуру систем искусственного интеллекта, а не добавлены как послеходовое умозаключение.
«В DeFi, где на кону финансовые активы пользователей, этические соображения должны быть заложены в основополагающую архитектуру систем искусственного интеллекта, а не добавлены в последующем», - сказал Корзай.
Эта ментальность “сначала безопасность” необходима для построения доверия и обеспечения ответственного развития AI агентов. Обратившись к децентрализованным финансовым рынкам DeFi, которые стали более сложными, Корзай отметил, что теперь возможно развернуть AI агентов для оптимизации позиций пользователей по ведущим протоколам и выполнения сложных стратегий, сохраняя при этом полный контроль над средствами.
Тем временем генеральный директор утверждает, что эффективная защита пользователей в DeFi происходит от прочного дизайна продукта, а не только от внешнего регулирования. Этот подход “безопасность через дизайн”, по его словам, направлен на создание экосистемы, где безопасность “встроена”, что минимизирует необходимость в строгом регулировании.
Korzay утверждает, что построение систем с врожденной безопасностью выравнивает интересы заинтересованных сторон и активно взаимодействует с регуляторами для формирования будущих политик. Основное внимание уделяется созданию ценности через хорошо спроектированные продукты, делая соответствие естественным результатом, а не препятствием для инноваций.
Глядя в будущее, Корзай сказал, что он предвидит, что к 2030 году «Ксенокогнитивная финансовая деятельность» станет доминирующей, при этом искусственный интеллект станет основным рыночным интерфейсом, превосходя пределы человеческого когнитивного мышления. В это время люди будут устанавливать стратегические цели, в то время как искусственный интеллект будет заниматься их выполнением.
“Кривая принятия не будет линейной - она будет экспоненциальной. Поскольку эти агенты продемонстрируют свою способность постоянно превосходить ручные операции, сохраняя гарантии безопасности, они станут стандартным способом взаимодействия с финансовыми рынками”, - добавил генеральный директор.