新浪新闻

面对AI安全技术的「防御性加速」战略,全球科技治理体系需要建立哪些新型协作机制?

BigNews 01.24 18:50

面对AI技术的"防御性加速"趋势,全球科技治理体系需构建动态协同、责任共担的新型机制,重点突破技术监管、风险共治与伦理对齐三大核心挑战。

一、技术标准协同:建立跨域安全基准与验证体系

动态分级治理框架:

美英等18国联合发布的《安全AI系统开发指引》提出“安全设计”原则,要求从研发源头嵌入安全模块,覆盖数据隐私、算法透明性等维度。

中国推出《人工智能安全治理框架》2.0版,细化风险分类并探索分级管理,通过“红队攻防测试”动态更新防护措施。

第三方验证生态:

新加坡主导全球首个代理式AI监管框架,设立独立验证机构对AI系统进行安全审计,并将合规认证作为保险承保前提,推动事前风险防控。

企业实践如绿盟科技的“清风卫”系统,通过“评测+加固+持续运营”闭环实现动态防护。

二、风险联防共治:构建全球性危机响应网络

跨境威胁联防机制:

联合国《全球人工智能治理倡议》呼吁建立跨国AI风险监测平台,针对深度伪造、供应链攻击等威胁共享威胁情报。

实践层面,云安全联盟(CSA)联合华为、蚂蚁集团等30余机构成立“AI安全工作组”,协同应对跨行业安全漏洞。

系统性风险分散机制:

保险业推出AI专属保单(如Munich Re的aiSure),通过精算模型量化AI事故责任,分散企业应用风险。

欧盟《AI法案》要求高风险系统强制投保,形成市场驱动的安全约束。

三、伦理与责任锚定:推动人机协同决策机制

价值观对齐技术框架:

中国《网络安全法》新规明确要求AI研发需符合伦理规范,通过联邦学习、对抗训练等技术减少算法偏见。

学术机构开发多维度伦理评测数据集(如6大维度90项指标),量化评估模型的社会影响。

人类最终决策权保障:

新加坡监管框架强调“AI运作最终须由人负责”,设立紧急干预机制阻断恶意决策链。

企业方案如360的“L1-L4多智能体蜂群系统”,在自主执行中保留人类监督节点,高风险操作需人工授权。 #2026北京人工智能启新程# AI动力

四、能力建设与资源协同:弥合全球治理鸿沟

技术普惠支持:

OECD设立AI治理基金,支持低收入国家建设监管基础设施,避免形成“治理洼地”。

开源社区推动加密工具(如Jitsi视频会议、CryptPad文档)普及,通过端到端加密降低数据泄露风险。

人才共育网络:

中国启动儿童AI教育试点项目,欧盟推行“AI素养”强制培训,培养兼具技术与伦理的复合型治理人才。


关键趋势:治理模式正从“静态合规”转向“动态韧性”。例如派拓网络预测,2026年防御体系需以AI智能体为核心构建平台化防御网络,实现82:1人机协同作战,而NIST等机构推动的“可扩展治理脚手架”理念,强调通过压力测试迭代演化规则。全球协作需在技术狂奔中守住“人类主体性”底线,使安全治理成为创新加速的助推而非枷锁。

本内容由AI生成,仅供参考,请结合自身情况及官方信息谨慎决策。 (以上内容均由AI生成)

加载中...