“被操控的冷血战争”来了
来源:中国新闻周刊
谁来“扣动扳机”?
国际社会一直强调,要保证智能化技术在武装冲突中的应用不超出底线,最重要的原则就是“扣动扳机的必须是人,而非机器”。
但人是会异化的。名义上,现今的无人武器不是真正的“致命性自主武器”,只替代人类的前线暴露,不替代击杀决策;AI大模型在军事决策中的参与,只是整合分析数据、给出作战方案建议,方案最终需要人类审批。但事实真的如此吗?
想象你是一名无人机飞手,坐在屏幕前遥控,无人机在数十公里外寻找着可以击杀的合法目标。突然,屏幕上出现了几个模糊的热成像目标,看起来可能是士兵,可能是伤兵,也可能是平民。只能看到这么多信息,你如何判断攻击还是不攻击?
又或者,你是第一视角无人机的飞手,身处距离前线不远的危险区域,随时有被对方渗透小队发现的风险。你高度紧张,戴着VR眼镜,寻找着镜头内任何可移动的物体。终于,你看到了一个疑似逃跑的士兵,立刻冲上去,对方根本无法躲避。撞上前的最后一刻,你才发现他是穿着军装的平民。
好消息是,这些情形在今天的俄乌战场上并不多见。这是因为俄乌冲突以传统的机械化战争开始,历经四年战火后,当前线两侧40公里宽的区域变成无人机统治的危险地带时,早就没有什么平民居住和生活在这里了。但如果下一场战争的开局,就是双方靠着一堆视野有限和成像模糊的无人机大杀四方呢?
更大的问题还是AI大模型辅助军事决策。美国西点军校利伯研究所等人道法机构,近期都出现了相关讨论:当AI处理的数据远远超出人类的认知能力,指挥官如何才算是在审查AI提出的作战建议时“善意评估了可用的战场信息”?如何才算是给足了自己充分的考虑AI建议的时间?
这些问题最终都指向一点:当AI给出了基于大数据的“最优解”之后,决策者是否会放弃自我思考。这样一来,战争将彻底异化:那些按下导弹按钮、驾驶战机、操纵无人机的,依然是人类,但给他们下达指令的其实是AI。
乌克兰“梭鱼”无人艇 图/视觉中国
美以伊战争中已经出现了这种趋势。这是美军决策机制接入大模型后第一次给出大规模战争的作战方案建议。一开始,虽然有情报滞后导致的“误炸”,但空袭至少还集中于军事领导人、军事设施和核设施;之后,空袭开始覆盖伊朗各地的政府、巴斯基民兵组织、警察局;到了4月初,公路、桥梁、铁路等一般基础设施也成为重点目标。
外界并不确知这是不是大模型基于伊朗的战争韧性而给出的分阶段打击建议,连西点军校的学者都在激辩“国家间战争中,平民领导人和国内执法人员是不是军事目标”。显然,这不像是机械化战争时代的“体面”打法。
日常生活中,我们经常会向AI问出关涉社会、心理、情感的没有标准答案的问题。那么,在制定作战方案时,一旦AI被要求“速战速决”,它会如何在宏观上对比总体军事利益和附带平民伤害?如何精确地计算比例原则的上限?到最后,它告诉你,这份方案“不体面”、有争议,但足以规避确定的法律风险,而且最高效,你用还是不用?
对此,学者们给出的建议包括但不限于:定期验证和清理数据,明确各级责任和审批权限,充分培训指挥官了解AI,甚至在AI决策中设定阻断机制来强化区分民用目标,“如果识别出某处是医院,就直接跳过”。
让人感到悲观的是,AI在决策中对“军事必要”和比例原则的极端计算,只会让决策者对附带伤害的“容忍度”越来越高。
发于总第1232期《中国新闻周刊》杂志
杂志标题:谁来“扣动扳机”?
记者:曹然