AI与加密的隐私未来

robot
摘要生成中

在昨天的文章中,我分享了自己碰到的AI应用对个人隐私可能造成的风险。

造成这种风险的原因是现在AI应用的运行模式所导致的—当终端用户调用AI时,会直接把自己的数据上传到位于云端的AI大模型,然后大模型基于数据进行推理,直接得到用户的行为特征。

这样的数据积累越长久,AI大模型就越能通过算法掌握用户越全面的行为习惯。

这种风险对个人而言是泄露隐私,对公司而言就成了泄露商业秘密。

在去年某一期黄仁勋关于AI的访谈视频中,他就提到过这个风险,并且严格要求他公司的员工在使用AI工具时什么数据必须留存在本地,什么数据可以上传到云端。

不过,那时的我听到这个风险只是当信息听了,只有当我亲身感受到这种风险时才回想起他的警告。

这个问题现在只是刚刚浮现,但很快就会愈演愈烈。

所以我相信,未来越是在AI普及的年代,我们越需要一个终端(或者是手机,或者是眼镜,也或者是其它我们现在还无法想象的形态),它在本地运行经过精简的大模型,在本地对大部分敏感数据进行处理、对简单要求进行推理,只把一些繁重的任务和数据经过“过滤”后才上传到云端让云端的复杂大模型进行处理。这样就避免了云上的大模型直接抓取用户个人的行为特征。

而在加密生态,隐私的处理更是早就被提上了议事日程。

较早的时候,Vitalik就提到过像以太坊这样的公链因为数据和信息的透明公开,妨碍了它在商业领域被大范围使用—因为商业领域的交易双方很多时候为了保护商业秘密不愿意交易信息公开。

前段时间就有商业用户就指出他们现在对大规模使用稳定币是持相当谨慎态度的。因为现在公链上的稳定币账户都是公开的,这就意味着什么人都能看到什么账户持有多少稳定币。一旦账户的身份信息泄露,那什么公司/企业持有多少资金(稳定币)就成透明信息了。

所以无论是AI还是加密生态,隐私问题都是接下来必须要解决的问题。

不过,如果我们仔细比较AI和加密生态在隐私方面的应用,至少现在看起来加密应用是走在前面的—加密生态早就有隐私币(比如门罗、ZCASH等)和混币器了。

但这些隐私应用是极力规避监管的,所以它们多少都被打上了一些负面标签。

真正能让大众和监管接受的隐私应用现在看起来方案比较成熟并且路径比较可行的可能还是基于零知识证明的方案,比如现在实验过的一种方法:

让一个拿到监管牌照的机构作为中介,交易双方都经过这个中介进行交易,但隐去身份和交易信息,只把最后生成的零知识证明放在公链上认证。

这样交易信息保证了隐私,交易双方又避免了犯罪嫌疑。

希望在隐私的保护和交易的合规方面,加密生态中的探索和应用能够借自身的优势为AI应用首先探索出一条新路。

ETH1.75%
ZEC0.3%
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论