Anthropic声称中国AI公司正在复制Claude,这一说法在网上引发了嘲笑和对AI训练实践的审视。

Anthropic指责三家中国AI实验室从其Claude聊天机器人中提取了数百万条响应来训练竞争系统,该公司声称这违反了其服务条款并削弱了美国的出口管制。
在周一发布的一篇博客文章中,Anthropic表示已识别出AI开发商DeepSeek、Moonshot和MiniMax通过模型蒸馏提取Claude能力的”工业规模活动”。该公司声称这些实验室使用大约24,000个欺诈账户生成了超过1600万次交流。
Anthropic的声明在X上引发了怀疑和嘲笑,批评者质疑其立场,考虑到包括Claude在内的主要AI模型是如何训练的,这反映了关于知识产权、版权和合理使用的更广泛持续辩论。
“你在开放的互联网上进行训练,然后当别人向你学习时,你称之为’蒸馏攻击’,”AI基础设施公司IO.Net的联合创始人Tory Green写道。”喜欢宣扬’开放研究’的实验室突然对开放访问哭诉。”
蒸馏是一种AI训练方法,其中较小的模型从较大模型的输出中学习。
在网络安全背景下,它也可以描述模型提取攻击,攻击者使用合法访问系统地查询系统并使用其响应来训练竞争模型。
“这些活动的强度和复杂性正在增长,”Anthropic周一写道。”采取行动的窗口很窄,威胁超出了任何单个公司或地区。解决这个问题将需要行业参与者、政策制定者和全球AI社区之间快速、协调的行动。”

“蒸馏可以是合法的:AI实验室使用它为客户创建更小、更便宜的模型,”Anthropic在单独的X帖子中写道。”但非法蒸馏美国模型的外国实验室可以移除安全防护,将模型能力输入到他们自己的军事、情报和监视系统中。”
6月,Reddit起诉Anthropic,指控其抓取了超过10万条帖子和评论,并使用这些数据来微调Claude。
此案加入了针对OpenAI、Meta和Google的诉讼,涉及未经许可大规模抓取在线内容。
Anthropic表示正在扩大检测范围,加强账户验证,与其他实验室和当局共享情报,并增加安全防护以限制未来的蒸馏尝试。
“但没有公司可以单独解决这个问题,”Anthropic写道。”正如我们上面提到的,这种规模的蒸馏攻击需要AI行业、云服务提供商和政策制定者的协调响应。”
本网站所有区块链相关数据与资料仅供用户学习及研究之用,不构成任何投资建议。转载请注明出处:https://www.lianxinshe666.com/2026/02/24/%e6%89%b9%e8%af%84%e8%80%85%e5%98%b2%e7%ac%91anthropic%e5%85%b3%e4%ba%8e%e4%b8%ad%e5%9b%bdai%e5%ae%9e%e9%aa%8c%e5%ae%a4%e7%aa%83%e5%8f%96%e5%85%b6%e6%95%b0%e6%8d%ae%e7%9a%84%e8%af%b4%e6%b3%95/