美国联邦法官已阻止五角大楼将人工智能公司Anthropic标记为供应链风险,周四裁定政府针对该AI公司的行动违反了其第一修正案和正当程序权利。
美国加州北区地方法院法官Rita Lin在听取双方口头辩论两天后发布了初步禁令,观察人士表示,政府的内部文件记录使得这一案件不可避免。
法官Lin写道:”管辖法规中没有任何内容支持这种奥威尔式的观念,即一家美国公司可能因为表达与政府的分歧而被标记为美国的潜在对手和破坏者。”
根据AR Media Consulting首席执行官、公共事务律师Andrew Rossow的说法,内部记录对政府的案件是致命的,他告诉《Decrypt》,这一指定是”由新闻行为触发,而非安全分析”。
“政府基本上写下了自己的动机,那就是报复,”Rossow说。
争议的核心是2025年7月由战争部首席数字和人工智能办公室授予Anthropic的一份为期两年、价值2亿美元的合同。
双方未能就使用限制达成一致后,将Claude部署到该部门GenAI.Mil平台的谈判破裂。
Anthropic坚持两个条件:Claude不得用于对美国人的大规模监视,也不得用于自主战争的致命用途,认为该模型尚未安全适用于这两种目的。
在2月24日的会议上,战争部长Pete Hegseth告诉Anthropic的代表,如果公司在2月27日前不放弃其限制,该部门将立即将其指定为供应链风险。
Anthropic拒绝遵守。

法律武器化
被指定为”供应链风险”历来保留给外国情报机构、恐怖分子和其他敌对行为者。
在Anthropic之前,这一指定从未应用于国内公司。法官Lin的命令指出,国防承包商在随后几周开始评估并在许多情况下终止了对Anthropic的依赖。
专家认为,政府的姿态可能会产生不可预见的后果。
基础设施公司Gather Beyond创始人、政策策略师Pichapen Prateepavanich告诉《Decrypt》,周四的裁决可能会推动AI公司”在与政府合作时正式制定伦理护栏”。
在某种程度上,该裁决还表明,公司”可以设定明确的使用限制,而不会自动触发惩罚性监管行动”,她说。

但她补充说,这”并没有消除紧张关系”。该裁决限制的是”将这种分歧升级为看起来具有报复性的更广泛排斥或标记的能力”。
然而,Rossow解释说,将公司指定为供应链风险的现行法定权力的应用”因为它拒绝移除安全护栏”,并不是供应链风险法规的延伸,而是对该法律的”武器化”。
“这是白宫每当受到挑战时的持续行为模式的一部分,导致不成比例的、情绪驱动的和有偏见的威胁和政府勒索,”他补充说。
如果政府的”理论”被接受,它将创造一个”危险的”先例,即AI公司可能因为政府不喜欢的政策而被列入黑名单,”在任何伤害发生之前”,在没有正当程序的情况下,以国家安全的名义,Rossow说。
本网站所有区块链相关数据与资料仅供用户学习及研究之用,不构成任何投资建议。转载请注明出处:https://www.lianxinshe666.com/2026/03/27/%e6%b3%95%e5%ae%98%e9%98%bb%e6%ad%a2%e4%ba%94%e8%a7%92%e5%a4%a7%e6%a5%bc%e5%b0%86anthropic%e6%a0%87%e8%ae%b0%e4%b8%ba%e5%9b%bd%e5%ae%b6%e5%ae%89%e5%85%a8%e5%a8%81%e8%83%81/