**Renç Korzay, CEO de Giza, enfatiza que las consideraciones éticas en el desarrollo de agentes de IA deben ser “arquitectónicamente aplicadas”. Aboga por un control de usuario incorporado y “seguridad por diseño” para minimizar las cargas regulatorias.
Seguridad de usuario ‘arquitectónicamente reforzada’
El rápido avance de la inteligencia artificial ha llevado al desarrollo de agentes de IA cada vez más sofisticados, capaces de realizar tareas complejas en varios sectores. Sin embargo, a medida que estos agentes se vuelven más poderosos y autónomos, han surgido preocupaciones sobre consideraciones éticas y posibles riesgos.
Para abordar estas preocupaciones, Renç Korzay, CEO de Giza y un veterano de la industria, aboga por priorizar la seguridad y la soberanía del usuario, lo que, según él, debe ser “innegociable” y “arquitectónicamente aplicado”. Korzay sostiene que las pautas éticas deben traducirse en requisitos de ingeniería concretos, dando forma a cada aspecto del diseño del agente de IA.
En respuestas por escrito a preguntas de Bitcoin.com News, Korzay también destacó la necesidad de un control completo del usuario. Este control, agregó, debe estar incrustado en la arquitectura del agente, asegurando que los usuarios mantengan una supervisión y autoridad total. A diferencia de los sistemas que dependen de un control delegado, los agentes de IA éticos deben operar a través de marcos de permisos que pueden revocarse al instante, dijo Korzay.
Para el CEO de Giza, el mensaje central es claro: las consideraciones éticas deben ser integradas en la arquitectura fundamental de los sistemas de IA, no añadidas como una idea posterior.
“En DeFi, donde los activos financieros de los usuarios están en juego, las consideraciones éticas deben estar integradas en la arquitectura fundamental de los sistemas de IA, no añadidas como una idea posterior”, dijo Korzay.
Esta mentalidad de “seguridad en primer lugar” es esencial para construir confianza y garantizar el desarrollo responsable de los agentes de IA. Al recurrir a los mercados de finanzas descentralizadas (DeFi), que se han vuelto más complejos, Korzay reveló que ahora es posible implementar agentes de IA para optimizar las posiciones de los usuarios en los principales protocolos y ejecutar estrategias sofisticadas mientras los usuarios mantienen el control total de los fondos.
Finanzas ‘Xenocognitivas’
Mientras tanto, el CEO argumenta que la protección efectiva del usuario en DeFi proviene de un diseño de producto sólido, no solo de la regulación externa. Este enfoque de “seguridad por diseño”, dijo, busca crear un ecosistema donde la seguridad sea “intrínseca”, lo que minimiza la necesidad de una regulación autoritaria.
Korzay afirma que la construcción de sistemas inherentemente seguros alinea los intereses de las partes interesadas y se compromete de manera proactiva con los reguladores para dar forma a las políticas futuras. El enfoque está en crear valor a través de productos bien diseñados, haciendo que el cumplimiento sea un resultado natural en lugar de un obstáculo que frene la innovación.
Mirando hacia el futuro, Korzay dijo que prevé que para 2030, la ‘Finanzas Xenocognitivas’ dominarán, con agentes de IA emergiendo como la interfaz de mercado principal, superando los límites cognitivos humanos. En ese momento, los humanos establecerán objetivos estratégicos mientras que los agentes de IA se encargarán de la ejecución.
“La curva de adopción no será lineal, sino exponencial. A medida que estos agentes demuestren su capacidad para superar de forma constante las operaciones manuales manteniendo garantías de seguridad, se convertirán en la forma predeterminada de interactuar con los mercados financieros”, añadió el CEO.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Agentes de IA en DeFi: el control del usuario debe ser 'no negociable', advierte el CEO
**Renç Korzay, CEO de Giza, enfatiza que las consideraciones éticas en el desarrollo de agentes de IA deben ser “arquitectónicamente aplicadas”. Aboga por un control de usuario incorporado y “seguridad por diseño” para minimizar las cargas regulatorias.
Seguridad de usuario ‘arquitectónicamente reforzada’
El rápido avance de la inteligencia artificial ha llevado al desarrollo de agentes de IA cada vez más sofisticados, capaces de realizar tareas complejas en varios sectores. Sin embargo, a medida que estos agentes se vuelven más poderosos y autónomos, han surgido preocupaciones sobre consideraciones éticas y posibles riesgos.
Para abordar estas preocupaciones, Renç Korzay, CEO de Giza y un veterano de la industria, aboga por priorizar la seguridad y la soberanía del usuario, lo que, según él, debe ser “innegociable” y “arquitectónicamente aplicado”. Korzay sostiene que las pautas éticas deben traducirse en requisitos de ingeniería concretos, dando forma a cada aspecto del diseño del agente de IA.
En respuestas por escrito a preguntas de Bitcoin.com News, Korzay también destacó la necesidad de un control completo del usuario. Este control, agregó, debe estar incrustado en la arquitectura del agente, asegurando que los usuarios mantengan una supervisión y autoridad total. A diferencia de los sistemas que dependen de un control delegado, los agentes de IA éticos deben operar a través de marcos de permisos que pueden revocarse al instante, dijo Korzay.
Para el CEO de Giza, el mensaje central es claro: las consideraciones éticas deben ser integradas en la arquitectura fundamental de los sistemas de IA, no añadidas como una idea posterior.
“En DeFi, donde los activos financieros de los usuarios están en juego, las consideraciones éticas deben estar integradas en la arquitectura fundamental de los sistemas de IA, no añadidas como una idea posterior”, dijo Korzay.
Esta mentalidad de “seguridad en primer lugar” es esencial para construir confianza y garantizar el desarrollo responsable de los agentes de IA. Al recurrir a los mercados de finanzas descentralizadas (DeFi), que se han vuelto más complejos, Korzay reveló que ahora es posible implementar agentes de IA para optimizar las posiciones de los usuarios en los principales protocolos y ejecutar estrategias sofisticadas mientras los usuarios mantienen el control total de los fondos.
Finanzas ‘Xenocognitivas’
Mientras tanto, el CEO argumenta que la protección efectiva del usuario en DeFi proviene de un diseño de producto sólido, no solo de la regulación externa. Este enfoque de “seguridad por diseño”, dijo, busca crear un ecosistema donde la seguridad sea “intrínseca”, lo que minimiza la necesidad de una regulación autoritaria.
Korzay afirma que la construcción de sistemas inherentemente seguros alinea los intereses de las partes interesadas y se compromete de manera proactiva con los reguladores para dar forma a las políticas futuras. El enfoque está en crear valor a través de productos bien diseñados, haciendo que el cumplimiento sea un resultado natural en lugar de un obstáculo que frene la innovación.
Mirando hacia el futuro, Korzay dijo que prevé que para 2030, la ‘Finanzas Xenocognitivas’ dominarán, con agentes de IA emergiendo como la interfaz de mercado principal, superando los límites cognitivos humanos. En ese momento, los humanos establecerán objetivos estratégicos mientras que los agentes de IA se encargarán de la ejecución.
“La curva de adopción no será lineal, sino exponencial. A medida que estos agentes demuestren su capacidad para superar de forma constante las operaciones manuales manteniendo garantías de seguridad, se convertirán en la forma predeterminada de interactuar con los mercados financieros”, añadió el CEO.