OpenAI接手军事合同,AI安全承诺真能兑现吗?
OpenAI与美国军方合作引发的安全承诺兑现争议,核心在于其约束机制的脆弱性与资本意志的优先性。
一、安全承诺的实质漏洞
模糊的约束条款
OpenAI宣称协议包含两项核心原则:禁止国内大规模监控、确保人类对武力使用负责。但实际操作中存在关键漏洞:
“大规模监控”缺乏法律明确定义,难以约束情报机构利用商业数据构建公民画像;
虽强调“人类最终决策”,却未禁止AI参与目标识别等致命性环节,变相支持自主武器开发。
技术约束的失效
与竞争对手Anthropic将安全禁令硬编码至模型底层不同,OpenAI仅依赖合同条款等软性约束。这种设计使军方可通过系统更新绕过限制,而美国最高法院2024年裁决赋予总统“官方行为”豁免权,进一步削弱法律效力。
二、资本压力驱动的妥协
财务诉求压倒伦理
2024年OpenAI删除公司章程中“安全”关键词转向模糊的“造福人类”表述,同年亏损达140亿美元。此次被曝合同价值或达2亿美元,与其近期1100亿美元融资的资本回报需求直接相关。
治理结构失衡
2023年微软130亿美元注资后,资本意志已主导公司走向。董事会改组事件中,坚持非营利原则的成员遭清洗,为军事合作铺平道路。员工联名反对军方合作却被CEO奥尔特曼驳回,称“员工无权指手画脚”。
三、不可控的军事化风险
红线的弹性突破
协议以“符合作战需求”为前提,将解释权移交军方。例如在美以空袭伊朗行动中,AI技术被证实用于8分钟内生成15套打击方案,深度介入杀伤链决策。
地缘竞赛的催化剂
美军方同步推进与北约的AI合作,迫使欧盟酝酿技术去美化、中国加速自主AI研发。这种军备竞赛下,OpenAI的“人类控制”承诺在实战中极易被效率诉求架空。
美国加速AI军事化,所谓“安全”难掩扩张野心
四、信任危机的连锁反应
用户与内部的抵制
协议公布后ChatGPT单日卸载量激增295%,一星评价暴增775%,竞争对手Claude借势登顶多国应用商店。机器人业务负责人卡利诺夫斯基公开辞职,抗议“未经充分讨论触碰红线”。
补救措施的局限性
迫于舆论压力,OpenAI紧急追加“禁止监控公民”等条款,但未改变核心问题:当总统可凭“国家安全”重新定义合法性时,所有书面承诺皆可被合法颠覆。
综上,OpenAI的安全承诺在资本回报需求、法律解释权归属、技术可控性缺失的三重挤压下,恐难实质性兑现。其转向标志着AI伦理防线在强权与资本前的全面溃退,而非技术向善的胜利。