新浪新闻

美国政府与谷歌、微软等科技公司达成协议,AI模型公开发布前须接受国家安全审查

微资讯

关注

美国政府已与谷歌DeepMind、微软及xAI达成协议,要求上述公司在新AI模型公开发布前,须向政府提交早期版本接受审查。

美国商务部下属机构"AI标准与创新中心"(CAISI)于本周二宣布了上述合作协议。该机构表示,审查流程对于评估新一代强大AI模型的能力、保障美国国家安全至关重要。该机构在新闻稿中指出,此类合作将有助于联邦政府"在关键时刻扩大其公共利益领域的工作"。

CAISI主任克里斯·福尔表示:"独立、严格的测量科学,对于理解前沿AI及其国家安全影响不可或缺。"

CAISI旨在推动科技行业与联邦政府在商业AI系统标准制定与风险评估方面开展合作。此次协议的核心在于识别与网络安全、生物安全及化学武器相关的国家安全风险。

OpenAI与Anthropic早在两年前便与拜登政府签署了类似协议。CAISI指出,该机构已完成逾40项此类评估,其中包括对尚未发布模型的评估。CAISI在新闻稿中表示,开发者向政府提供已降低或移除安全防护机制的未发布AI模型,已是惯常做法,这有助于政府"全面评估国家安全相关的能力与风险"。

此次新协议的签署,恰逢外界对最新一代强大AI模型安全性的担忧持续升温。以Anthropic的Mythos为例,AI安全专家、政府官员及科技公司均担忧,此类模型的强大能力可能使黑客得以前所未有的规模利用网络安全漏洞。Anthropic已将Mythos的发布范围限定于少数公司,并发起"Glasswing项目",联合多家科技公司共同"保护全球最关键的软件系统"。

《纽约时报》与《华尔街日报》周一报道称,特朗普政府正考虑发布一项行政令,为上述AI工具建立政府监管流程;但特朗普政府将该报道定性为"纯属猜测"。

谷歌与xAI未立即回应置评请求。

微软同日还与英国政府支持的AI安全研究所签署了类似协议,该研究所同样致力于推动AI安全发展。

微软在一篇关于上述两项协议的博客文章中写道:"尽管微软会定期自行开展多种类型的AI测试,但针对国家安全与大规模公共安全风险的测试,必然需要与各国政府协同推进。"

Q&A

Q1:CAISI与科技公司签署的AI审查协议具体审查哪些内容?

A:协议重点针对与网络安全、生物安全及化学武器相关的国家安全风险进行评估。开发者通常会向政府提交已降低或移除安全防护机制的未发布模型,以便政府全面评估其能力与潜在风险。截至目前,CAISI已完成逾40项此类评估。

Q2:Anthropic的Mythos模型为何引发安全担忧?

A:AI安全专家与政府官员担忧,Mythos等新一代强大AI模型可能使黑客得以前所未有的规模利用网络安全漏洞,存在重大公共安全隐患。为此,Anthropic将Mythos的发布范围限定于少数公司,并发起Glasswing项目,联合多家科技公司共同保护全球关键软件系统。

Q3:微软与英国政府的AI安全协议和美国这次的协议有什么不同?

A:两项协议的核心目标一致,均聚焦于AI安全发展。美国协议由CAISI主导,重点评估国家安全相关风险;英国协议则由政府支持的AI安全研究所负责,同样以推动安全AI发展为目标。微软表示,针对国家安全与公共安全的AI测试,必须与政府协同开展,而非仅依赖企业自身测试。

加载中...