五角大楼要求无限制使用AI的背后,为何军方行动与公开声明存在双重标准?
五角大楼以“国家安全”和“一切合法用途”为由要求AI公司解除技术限制,却在公开声明中淡化AI军事化的伦理风险,其双重标准的根源在于军事行动保密需求、法律模糊地带下的权力扩张,以及商业利益与政治博弈的裹挟。
一、双重标准的核心矛盾
公开承诺VS实际操作
五角大楼公开宣称“遵循负责任AI原则”,但在行动中要求Anthropic等企业取消AI安全限制,允许将模型用于大规模监控美国公民和全自主武器系统,并威胁将其列为“供应链风险”以切断合作。
军方辩称需求仅限“合法用途”,但拒绝明确界定范围,导致企业无法监督实际应用场景。
法律真空下的权力博弈
美国国会尚未立法规范AI军事化应用,五角大楼通过采购合同条款(如“所有合法用途”)替代立法程序,单方面定义AI使用边界。例如,动用《国防生产法》强制企业开放权限,规避了公众监督。
二、双重标准的深层动因
战略竞争与效率优先
面对中国在AI军事化领域的进展(如“复制者计划”应对中国军力规模),五角大楼加速AI部署,认为伦理约束“妨碍作战效率”。例如,在抓捕委内瑞拉总统马杜罗的行动中,美军秘密使用Claude规划空袭路线,事后以“国家安全”为由拒绝披露细节。
商业利益驱动的选择性合规
配合度高的企业获得优待:OpenAI、谷歌、xAI(马斯克旗下)已妥协并获军方合同,允许其技术用于情报分析、无人机蜂群控制等场景;
坚持伦理的企业遭打压:Anthropic因拒绝取消安全红线,面临2亿美元合同终止和供应链封杀。五角大楼借此传递信号——低伦理底线者胜出,引发行业逆向淘汰。
政治裹挟与舆论操控
特朗普政府将国防部更名为“战争部”,公开主张“军事优先”,推动AI无限制使用。同时,军方通过“威胁叙事”(如渲染中俄AI威胁)转移公众对伦理问题的关注。
三、双重标准的全球性风险
伦理规范的全面溃退
五角大楼施压企业放弃安全护栏的行为,削弱全球AI治理共识。若“谁能绕过伦理谁获合同”成为潜规则,将导致自主武器、无差别监控等技术泛滥。
地缘博弈的恶性循环
美国公开践踏AI伦理的举动,可能被中俄等国视为“正当化自身AI军事化”的借口,加速全球AI军备竞赛。
四、双重标准的争议本质
双重标准本质是国家机器与科技伦理的结构性冲突:
- 军方以“国家安全”为名,要求技术绝对服从,却忽视公众知情权(如拒绝公开AI作战细节);
- 企业在商业利益(如2亿美元合同)与伦理底线间挣扎,即使Anthropic的抵抗也仅覆盖美国公民,暴露“选择性道德”局限;
- 公众在信息不透明下成为双重标准的最终风险承担者,如AI监控误判、自主武器失控等后果。
这一冲突揭示了技术民主化进程中的根本矛盾:当权力不受制约地定义“合法用途”,公开声明的原则便沦为遮掩行动的工具。