因拒绝美军方不受限制地使用其AI模型 美国一科技公司被列入“黑名单”
央视
据彭博社3月6日报道,美国国防部已正式通知美国人工智能企业安特罗匹克(Anthropic)公司,将该公司及其人工智能模型克劳德(Claude)指定为“供应链风险”。这一标签通常用于针对外国对手企业,而安特罗匹克(Anthropic)成为首家被列入该名单的美国科技公司。
彭博社相关报道
一名美国国防部高级官员表示,此次决定源于军方与Anthropic在人工智能使用范围上的分歧。五角大楼认为,军方必须能够在 “所有合法用途”中使用相关技术,而不会接受供应商对关键能力设置限制。如果供应商试图通过限制合法用途来影响军方的指挥体系,就可能危及作战人员安全。根据这一认定,未来为国防部提供服务的承包商将需要证明,他们在项目中没有使用Anthropic的模型。
Claude是Anthropic开发的首个也是目前唯一一个被美国军方用于秘密行动的人工智能模型。但Anthropic为其模型划定了两条红线:确保Claude不会被用于全自动武器系统和在美国国内进行大规模监控。
01
该事件迅速升级为政治争议
目前,美国总统特朗普已指示联邦机构“立即停止”使用Anthropic技术,并公开批评该公司。不过,美国军方至今仍在使用Anthropic的Claude模型支持与伊朗相关的军事行动。
该公司首席执行官达里奥·阿莫代伊(Dario Amodei)则表示,公司将对“供应链风险”的认定提起法律挑战。这也成为一家大型科技企业与美国政府之间罕见的公开对峙。
Anthropic首席执行官达里奥·阿莫代伊
02
人工智能(AI)公司与五角大楼的合作格局正在发生变化
在Anthropic被列入风险名单数小时后,美国企业开放人工智能研究中心(OpenAI)宣布与美国国防部达成新的合作协议,允许其模型在机密网络环境中部署。条款表面包含与Anthropic要求的类似限制,但实际允许"国家安全需要时豁免"。太空探索技术公司下属企业xAI也已同意在类似场景中提供模型。
这一事件正在对AI产业链产生连锁反应。例如,与Anthropic进行军事项目合作的美国帕兰提尔(Palantir)公司一度因市场担忧而出现股价波动。分析师认为,如果Anthropic技术被迫退出军方系统,可能会对相关合作伙伴的短期运营造成影响。
03
Anthropic曾在去年与美国国防部签署一份2亿美元合同,并成为首个将AI模型集成进军方机密网络工作流程的实验室。但随着围绕AI使用边界的争议升级,这一合作关系如今陷入僵局。
近日,美国军方与Anthropic之间因人工智能模型使用范围和条件产生争端。美国国防部施压这家公司,要求其取消模型使用的约束条件。
今年2月底,美国总统特朗普就在其社交媒体账号上发文,批评Anthropic试图以其服务条款“要挟”国防部门,称此举“危及美国士兵和国家安全”。特朗普宣布,已指示所有联邦机构“立即停止”使用Anthropic的技术产品,并设定为期六个月的过渡期。