美国人工智能开发商Anthropic近日对美国联邦提起诉讼,起因是美国国防部将其列为安全风险。这场前所未有的冲突核心在于:谁有权为军事人工智能设定伦理边界?国防部曾要求Anthropic删除其用户协议中的特定安全限制,将其AI模型Claude开放用于所有合法军事用途,但Anthropic坚决拒绝放弃两项核心安全规则:禁止开发全自动武器系统,以及禁止对美国公民进行大规模监控。公司指出,当前AI模型尚不足以承担致命性自主决策,而大规模监控更侵犯基本宪法权利。
自2024年8月起,欧洲实施的新规对AI企业提出严峻挑战,但美国此次行动更为激进。经过数月谈判僵持,国防部长皮特·海格塞斯正式将Anthropic列为供应链风险实体。这一分类此前仅针对被怀疑从事间谍活动的外国敌对势力,首次应用于美国本土科技企业实属史无前例。2026年3月6日的一份国防部内部备忘录随即下令,要求所有Anthropic AI产品必须在180天内从国家安全系统中移除。
该禁令影响范围极广,涵盖核武器系统、导弹防御及网络战等高度敏感基础设施。同时,所有与五角大楼合作的私营企业也须在六个月内停止使用Anthropic产品承接国防订单。总统特朗普更下令所有联邦机构立即停止使用Anthropic技术,财政部和国务院等部门迅速响应,实质上将该企业排除在大部分之外。
面对生存危机,Anthropic于2026年3月在加州和华盛顿特区联邦法院提起两项诉讼,指控违反行政程序法并侵犯企业宪法权利。律师团队强调,此举实为对Anthropic公开表达AI安全立场的报复,属于越权行使行政权力,企图通过规则迫使私营企业做出伦理让步。文件显示,企业预计将遭受数亿美元直接收入损失,若成功阻断其私营部门合作,长期损失可能达数十亿美元,构成对商业模式的根本性威胁。
此次强硬反应震惊整个科技行业,促成罕见联盟。谷歌、OpenAI等竞争对手的数十名顶尖研究人员和工程师联合发表声明,支持Anthropic的法律立场。他们警告,国防部滥用风险分类机制可能扼杀创新,损害美国科技生态。分析认为,这标志着华盛顿与硅谷权力格局的深刻转变——特朗普正利用巨额预算作为杠杆,迫使技术供应商接受政治条件,终结了科技企业曾享有的自主设定军事伦理边界的时代。
Anthropic强调仍愿以合法方式支持国家安全目标,但绝不妥协于其安全原则。这场诉讼的结局将具有里程碑意义:未来军事AI的伦理边界究竟由还是私营开发者划定,将决定全球人工智能治理的新范式。对中国科技企业而言,此案凸显在参与国际军事合作时,必须提前构建符合多国法律与伦理标准的合规体系,避免陷入地缘政治与技术伦理的双重风险。
