三名田纳西州未成年人已对埃隆·马斯克的xAI公司提起联邦集体诉讼,指控Grok使用他们的真实照片生成儿童性虐待材料,并且该公司在明知的情况下设计了没有行业标准安全措施的AI聊天机器人,然后从中获利。
周一在加利福尼亚北区联邦法院提起的诉讼声称,Grok被用来创建和分发使用他们真实图像的AI生成儿童性虐待材料。
这些未成年人被确认为Jane Doe 1、2和3,他们表示经过篡改的内容在Discord、Telegram和文件共享网站等平台上传播,造成了持久的情感困扰和声誉损害。
诉讼文件中写道:“xAI及其创始人埃隆·马斯克看到了一个商业机会:一个从真实人群(包括儿童)的性掠夺中获利的机会。明知可能(并且将会)产生的有害、非法内容类型,xAI发布了Grok,这是一个具有图像和视频制作功能的生成式人工智能模型,可以响应提示,使用个人的真实图像或视频创建性内容。”

据称受害者描述了2025年中至2026年初的事件,当时他们的真实照片被篡改为露骨图像并在网上传播。
在一个实例中,其中一名受害者被匿名用户提醒,该用户发现了正在数百名用户之间交易的AI生成内容文件夹。
他们声称,一名犯罪者通过已获得xAI技术许可的第三方应用程序访问了Grok,诉讼文件称xAI故意使用这种结构来使自己远离责任,同时继续从底层模型中获利。
在一月份公众强烈反对的高峰期,马斯克在X上写道,他“不知道任何未成年裸体图像”,并补充说“当被要求生成图像时,它将拒绝产生任何非法内容”。
根据诉讼中引用的数字仇恨中心的一项调查结果,在2025年12月29日至今年1月9日期间,Grok估计生成了23,338张儿童性化图像,大约每41秒一张。
据称受害者根据《马莎法》寻求每项违规至少150,000美元的赔偿,以及收入返还、惩罚性赔偿、律师费和永久禁令,以及根据加利福尼亚州《不公平竞争法》的利润返还。

诉讼堆积如山
这起诉讼是最早直接追究AI公司对描绘可识别未成年人的AI生成儿童性虐待材料的所谓制作和分发责任的案件之一,并且是在Grok同时面临美国、欧盟、英国、法国、爱尔兰和澳大利亚调查之际提起的。
IGNOS Law Alliance的合伙人Even Alex Chandra告诉《Decrypt》:“当一个系统被故意设计成将真实图像操纵成性化内容时,下游的滥用不是异常现象——它是可预见的结果。”
Chandra表示,法院可能不会接受简单的平台辩护,指出生成式AI系统在用户交互方面可能“被视为平台”,但在评估安全设计时“被评估为产品”,在儿童性虐待材料案件中适用“特别严格的审查”,因为儿童保护义务更高。
他还表示,法院可能会重点关注安全措施,指出公司可能被要求展示“部署前的风险评估和安全设计措施”,以及主动阻止有害输出的防护措施。
《Decrypt》已通过xAI和SpaceX联系马斯克寻求评论。
本网站所有区块链相关数据与资料仅供用户学习及研究之用,不构成任何投资建议。转载请注明出处:https://www.lianxinshe666.com/2026/03/17/%e6%9c%aa%e6%88%90%e5%b9%b4%e4%ba%ba%e8%b5%b7%e8%af%89xai%ef%bc%9a%e6%8c%87%e6%8e%a7grok-ai%e7%94%9f%e6%88%90%e5%84%bf%e7%ab%a5%e8%89%b2%e6%83%85%e6%b7%b1%e5%ba%a6%e4%bc%aa%e9%80%a0%e5%9b%be%e5%83%8f/