
近几年,人工智能(AI)能力迅速提升,从生成式模型到多模态系统,再到具备连续执行能力的智能代理,AI 正在逐步走向更高层级的自主性。然而,随着能力的扩张,关于 AI 是否应拥有高度自主决策权 的争论也愈发激烈。
在这一背景下,以太坊联合创始人 Vitalik Buterin(V 神)提出了一个相对克制但极具现实意义的观点:AI 的重点不应是完全自主,而应优先用于增强人类能力。这一表态迅速引发科技与加密行业的广泛关注。
Vitalik 认为,当前 AI 行业在“超自主系统”方向上投入了过多资源,而真正能够直接提升人类思维、判断和协作效率的工具仍然不足。他主张,如果要创建新的 AI 实验室或产品,应将使命明确定位为 Human Augmentation(人类能力增强),而非打造高度独立的智能实体。
在他的设想中,AI 应始终作为辅助角色存在,其行为边界、决策过程和目标设定应由人类掌控。他甚至提出,应避免开发能够在长时间内独立运行、无需人类干预的 AI 系统,以降低潜在失控风险。
完全自主 AI 的吸引力在于效率与规模化能力,但其风险同样不容忽视。首先,高度自主系统在目标设定和执行过程中,可能因理解偏差或环境变化而产生不可预测行为。其次,一旦 AI 的决策过程不再透明,责任归属与监管难度将显著上升。
此外,自主 AI 的扩张也可能削弱人类在关键领域中的判断权,例如金融、医疗、公共治理等。这并不意味着 AI 技术本身是负面的,而是提醒行业在追求能力上限的同时,需要更加谨慎地评估系统失控或被滥用的可能性。
与完全自主 AI 不同,增强人类能力的 AI 更强调协作属性。这类系统的目标并非替代人类决策,而是帮助人类更快理解复杂信息、发现潜在模式、优化决策过程。
典型应用包括:
在这些场景中,人类始终是最终决策者,而 AI 则扮演放大器和加速器的角色。这种模式不仅风险更可控,也更符合当前社会和监管环境的接受程度。
Vitalik 的观点实际上反映了 AI 行业内正在形成的两种技术路线之争。一种路线追求更高自主性,希望构建接近甚至超越人类智能的系统;另一种路线则更注重可控性、实用性和协作性。
从现实情况来看,增强型 AI 在短期内更容易落地并创造实际价值。无论是在企业生产力工具、开发者平台,还是个人助手领域,人机协作模式都已经展现出较强的商业可行性。这也是为什么 Vitalik 认为该方向“被低估,却更重要”。
在谈及 AI 未来时,Vitalik 也多次强调 开源与透明度 的价值。他认为,封闭式的高度自主 AI 系统可能加剧技术垄断和安全隐患,而开源模型有助于引入更多监督力量,降低系统性风险。
同时,AI 伦理问题也需要提前介入设计阶段,而不是在问题出现后被动补救。增强人类能力的 AI,更容易在伦理框架内进行约束,因为其目标和使用方式更加清晰。
总体来看,Vitalik Buterin 并非反对 AI 技术进步,而是对其发展方向提出更审慎的建议。在他看来,让 AI 成为增强人类的工具,而非独立行动的主体,或许才是技术、社会与安全之间更可持续的平衡点。
随着 AI 能力不断提升,行业如何在创新与风险之间取得平衡,将决定未来数十年的科技走向。从这一角度看,人机协作并非过渡方案,而可能是 AI 长期演进过程中最稳定、也最现实的形态之一。











