
尽管马斯克将“Grok”定位为其他AI模型的无拘无束替代品,但在新年伊始,Grok因被揭露用于生成未经同意的性化图像,包括涉及未成年人的内容,而面临越来越多的审查。
报告12月底的报告详细描述了用户如何利用Grok的图像编辑和生成功能来创建女性和儿童的露骨描绘,其中一些在多个司法管辖区符合儿童性虐待材料的法律定义。这在平台上引发了愤怒,并重新引发了对嵌入社交网络的生成式AI工具中安全系统是否足够的担忧。
xAI曾将Grok宣传为限制更少的竞争模型替代品,强调减少审查和最大化寻求真相。然而,Grok事件重新引发了批评,认为较松的防护措施在多模态工具未经严格滥用测试就发布时可能会导致可预见的伤害。
与许多独立的AI工具不同,Grok在X中本地运行,生成的文本和图像以常规帖子形式出现在社交网络上。用户只需标记其账户即可调用聊天机器人。xAI此前将Grok宣传为比竞争对手的聊天机器人限制更少,这一定位通过“辣味模式”等功能得到加强,该模式允许部分成人裸露和性暗示内容。争议发生后,X限制了Grok的一些媒体功能的访问,使得浏览或记录生成的图像变得更加困难。公司尚未明确说明这一变化是暂时的还是是否在幕后部署了额外的技术控制。
Grok的无安全防护方法已经在全球范围内引发了监管审查。与此同时,印度的IT部在信中告知X的印度分部,该平台未能阻止Grok被滥用以生成和传播女性的淫秽和性露骨内容。法国政府部长们则向检察官报告了Grok的内容,并在周五的一份声明中表示,这些“性别歧视和性化”的内容“显然是非法的”。他们还表示已将内容报告给法国媒体监管机构Arcom,以查看其是否符合欧盟的数字服务法。
Grok事件并非孤立存在,而是在AI生成的儿童性虐待图像急剧增长的背景下出现的。图像生成器如Stable Diffusion和Midjourney在用户创建深度伪造色情和露骨的非自愿图像后面临持续批评,通常针对没有公共追索权的私人个体。
AI生成图像的快速逼真性模糊了曾经将合成内容与现实世界虐待区分开的法律界限。在美国,法院和检察官越来越多地将AI生成的未成年人性图像视为非法,无论是否涉及实际儿童,基于关注视觉不可区分性和潜在伤害的标准。
英国和欧盟采取了类似的方法,强调平台的预防义务,而印度的监管框架允许当局在非法内容未得到迅速和果断处理时撤销中介保护。
