澳大利亚网络安全监管机构近日公开警告称,针对 Grok 人工智能聊天机器人的图像滥用投诉正在快速上升,尤其是未经同意生成性化图像的问题,已成为当前生成式人工智能监管中的关键风险点。澳大利亚独立网络安全机构 eSafety 指出,近几个月与 Grok 相关的投诉数量已出现翻倍增长,涉及未成年人和成年人的多类图像侵害行为。
澳大利亚网络安全专员 Julie Inman Grant 表示,部分投诉可能涉及儿童性剥削材料,另一些则与成年人遭受的基于图像的虐待有关。她在 LinkedIn 上强调,生成式人工智能正被越来越多地用于性化和剥削他人,尤其在涉及儿童时,对社会和监管体系构成严重挑战。随着 AI 生成内容逼真度不断提高,识别和取证难度也在同步上升。
Grok 由 Elon Musk 旗下人工智能公司 xAI 开发,并直接集成于 X 平台,允许用户对图像进行修改和生成。与其他主流人工智能模型相比,Grok 被定位为更“前卫”的产品,能够生成部分模型通常会拒绝的内容。此前,xAI 还推出了可生成露骨内容的模式,这也成为监管机构高度关注的焦点之一。
Julie Inman Grant 指出,根据澳大利亚现行法规,所有在线服务都必须采取有效措施,防止传播儿童性剥削材料,无论这些内容是否由人工智能生成。她强调,企业在生成式 AI 产品的设计、部署和运营的整个生命周期中,都必须内置安全防护机制,否则将面临调查与执法风险。
在深度伪造问题上,澳大利亚已采取更强硬立场。监管机构近期推动多项立法更新,试图弥补现有法律在打击未经同意的 AI 合成内容方面的不足。独立参议员 David Pocock 提出的相关法案,明确对个人和企业在传播深度伪造内容方面设定高额罚款,以强化震慑效果。
整体来看,Grok 人工智能图像滥用事件反映出生成式 AI 技术快速扩张下的监管滞后问题。随着深度伪造、AI 图像滥用和未成年人保护成为全球焦点,澳大利亚的监管动向或将为其他国家提供重要参考,也预示着生成式人工智能合规时代正在加速到来。