**Renç Korzay, CEO da Giza, enfatiza que as considerações éticas no desenvolvimento de agentes de IA devem ser “arquiteturalmente impostas”. Ele advoga pelo controle do usuário integrado e “segurança por design” para minimizar as cargas regulatórias.
O rápido avanço da inteligência artificial levou ao desenvolvimento de agentes de IA cada vez mais sofisticados, capazes de realizar tarefas complexas em vários setores. No entanto, à medida que esses agentes se tornam mais poderosos e autônomos, surgem preocupações sobre considerações éticas e riscos potenciais.
Para lidar com essas preocupações, Renç Korzay, CEO da Giza e veterano da indústria, defende a priorização da segurança e soberania do usuário, que ele disse que deve ser “não negociável” e “arquiteturalmente imposta”. Korzay argumenta que as diretrizes éticas devem se traduzir em requisitos de engenharia concretos, moldando todos os aspectos do design do agente de IA.
Nas respostas escritas às perguntas do Bitcoin.com News, Korzay também destacou a necessidade de controlo total por parte do utilizador. Este controlo, acrescentou, deve estar incorporado na arquitetura do agente, garantindo que os utilizadores mantenham total supervisão e autoridade. Ao contrário de sistemas que dependem de controlo delegado, os agentes de IA ética devem operar através de estruturas de permissão que possam ser revogadas instantaneamente, afirmou Korzay.
Para o CEO da Giza, a mensagem central é clara: As considerações éticas devem ser incorporadas na arquitetura fundamental dos sistemas de IA, e não adicionadas como uma ideia posterior.
“No DeFi, onde os ativos financeiros dos usuários estão em jogo, considerações éticas devem ser integradas à arquitetura fundamental dos sistemas de IA, e não adicionadas como reflexão posterior”, disse Korzay.
Esta mentalidade de “segurança em primeiro lugar” é essencial para construir confiança e garantir o desenvolvimento responsável de agentes de IA. Recorrendo aos mercados de finanças descentralizadas (DeFi), que se tornaram mais complexos, Korzay revelou que agora é possível implementar agentes de IA para otimizar as posições dos utilizadores em protocolos líderes e executar estratégias sofisticadas enquanto os utilizadores mantêm o controlo total dos fundos.
Entretanto, o CEO argumenta que a proteção eficaz do usuário no DeFi vem de um design de produto robusto, não apenas da regulamentação externa. Esta abordagem de ‘segurança por design’, disse ele, busca criar um ecossistema onde a segurança é ‘intrínseca’, o que minimiza a necessidade de regulamentação pesada.
Korzay afirma que a construção de sistemas inerentemente seguros alinha os interesses das partes interessadas e envolve proativamente os reguladores para moldar futuras políticas. O foco está em criar valor através de produtos bem concebidos, tornando a conformidade um resultado natural em vez de um obstáculo que sufoca a inovação.
Olhando para o futuro, Korzay disse que prevê que a “Finanças Xenocognitivas” dominarão até 2030, com agentes de IA emergindo como a interface de mercado principal, excedendo os limites cognitivos humanos. Nessa altura, os humanos definirão os objetivos estratégicos enquanto os agentes de IA lidarão com a execução.
“A curva de adoção não será linear - será exponencial. À medida que esses agentes demonstram sua capacidade de superar consistentemente as operações manuais, mantendo garantias de segurança, eles se tornarão a forma padrão de interagir com os mercados financeiros”, acrescentou o CEO.