GizaのCEOであるRenç Korzayは、AIエージェントの開発における倫理的考慮が「建築的に強制されなければならない」と強調しています。彼は組み込み型のユーザーコントロールと「セキュリティ・バイ・デザイン」を提唱し、規制上の負担を最小限に抑えることを主張しています。
人工知能の急速な進化は、さまざまなセクターで複雑なタスクを実行できるようになった、ますます洗練されたAIエージェントの開発につながっています。しかし、これらのエージェントがより強力で自律的になるにつれて、倫理的な考慮事項や潜在的なリスクについての懸念が浮上しています。
これらの懸念に対処するために、業界ベテランであるジザのCEOであるRenç Korzayは、ユーザーのセキュリティと主権を優先し、それが"非交渉可能"であり、"構築上強制される"必要があると主張しています。 Korzayは、倫理的なガイドラインが具体的なエンジニアリング要件に翻訳され、AIエージェント設計のあらゆる側面を形作るべきだと論じています。
Bitcoin.com Newsからの質問に対する書面での回答で、Korzayは完全なユーザー制御の必要性にも言及しました。彼は、この制御がエージェントのアーキテクチャに埋め込まれるべきであり、ユーザーが完全な監督権限を維持できるようにする必要があると付け加えました。委任された制御に依存するシステムとは異なり、倫理的なAIエージェントは、瞬時に取り消すことができる許可フレームワークを通じて運営すべきだとKorzayは述べています。
ギザCEOにとって、核心メッセージは明確です:倫理的な考慮事項はAIシステムの基本的なアーキテクチャに組み込まれなければならず、後付けで追加されてはなりません。
「DeFiでは、ユーザーの財務資産が危機にさらされているため、倫理的な考慮事項はAIシステムの基本的なアーキテクチャに組み込まれなければならず、あと付けではない」とKorzayは述べています。
この「セキュリティ第一」の考え方は、信頼を構築し、AIエージェントの責任ある開発を確実にするために不可欠です。より複雑になってきた分散型金融(DeFi)市場に目を向けると、Korzay氏は、ユーザーが資金の完全な管理を維持しながら、AIエージェントを展開して主要プロトコル全体でのユーザーのポジションを最適化し、高度な戦略を実行することが可能になったことを明らかにしました。
一方、CEOは、DeFiにおける効果的なユーザー保護は、単に外部規制からではなく、堅牢な製品設計からもたらされると主張しています。彼は、この「デザインによるセキュリティ」アプローチは、セキュリティが「固有のもの」である生態系を作り出し、過剰な規制の必要性を最小限に抑えることを目指していると述べました。
Korzayは、構築が本質的に安全なシステムはステークホルダーの利益を一致させ、将来の政策を形作るために積極的に規制当局と関わることを主弞しています。焦点は、よく設計された製品を通じて価値を創造し、コンプライアンスを革新を阻害する障壁ではなく自然な結果とすることにあります。
未来を見据えて、Korzay氏は2030年までに「Xenocognitive Finance」がAIエージェントが主要な市場インターフェースとして台頭し、人間の認知限界を超えることを予見していると述べました。その時、人間は戦略的目標を設定し、AIエージェントが実行を担当するでしょう。
「採用曲線は直線的ではなく、指数関数的になります。これらのエージェントが手動操作を一貫して上回りながらセキュリティ保証を維持する能力を示すにつれて、金融市場とのやり取りのデフォルト方法となるでしょう」とCEOは付け加えました。