
三名匿名原告在加州联邦法院提起诉讼,指控埃隆·马斯克的公司xAI应对其AI模型生成可识别未成年人的色情图像负责。
原告希望发起集体诉讼,代表所有被Grok将其未成年真实图像改造成色情内容的人。他们声称,xAI未采取其他领先实验室用来防止其图像模型生成涉及真实人物和未成年人的色情内容的基本措施。
案件名为Jane Doe 1、Jane Doe 2(未成年人)和Jane Doe 3(未成年人)诉x.AI Corp.和x.AI LLC,已在美国加州北区地方法院提起。
其他深度学习图像生成器采用多种技术防止从普通照片中生成儿童色情内容。诉讼称xAI未采用这些标准。
值得注意的是,如果一个模型允许从真实图像生成裸露或色情内容,那么几乎不可能阻止其生成包含儿童的色情内容。马斯克公开宣传Grok能够生成色情图像并描绘穿着暴露的真实人物,这在诉讼中成为关键问题。
一名原告Jane Doe 1的高中返校节和年鉴照片被Grok修改为裸露图像。一名通过Instagram联系她的匿名举报者告诉她,这些照片在网上流传,并向她发送了一个Discord服务器的链接,其中包含她和其他她在学校认识的未成年人的色情化图像。
第二名原告Jane Doe 2被刑事调查人员告知,有第三方移动应用依赖Grok模型创建了她的修改过的色情化图像。第三名原告Jane Doe 3也被刑事调查人员通知,他们在抓获的一个嫌疑人的手机上发现了她的修改过的色情图像。原告的律师表示,由于第三方使用仍需xAI的代码和服务器,公司应承担责任。
三名原告中有两人仍是未成年人,他们表示这些图像的传播以及可能对他们声誉和社交生活的影响让他们感到极度痛苦。他们要求根据一系列旨在保护被剥削儿童和防止公司过失的法律进行民事处罚。
