新浪新闻

人工智能安全治理如何平衡技术创新与全球风险防控?

BigNews 04.14 11:01

人工智能安全治理的核心在于构建“发展不失速、风险不失控”的动态平衡机制,需通过技术内生防护、分级分类监管与全球协同治理三大支柱实现创新激励与风险防控的统一。

一、制度设计:划定创新与安全的动态边界

分级分类监管体系

依据场景风险实施差异化管控:低风险场景(如内部办公AI)简化合规流程,中高风险场景(金融、医疗等)要求嵌入数字水印、伦理审查前置。

中国《网络安全法》新增AI专章,明确支持技术研发,同步建立全生命周期风险监测,对数据泄露等行为最高罚款1000万元。

柔性治理工具创新

推行“监管沙盒”试点,允许企业在安全边界内试错。例如深圳开放20个AI应用场景并配套测试机制,北京设立“前瞻安全基准”覆盖90项伦理指标。

二、技术协同:以创新反哺风险防控

内生性安全技术

部署可解释AI(XAI)、公平性审计模块,量化检测算法偏见与决策逻辑偏差;

应用联邦学习、差分隐私技术,实现数据“可用不可见”,从源头防范隐私泄露。

AI对抗AI的防御体系

安全智能体自动拦截攻击:某能源企业通过红队测试暴露漏洞,部署智能体后防御效率提升10倍;

深度伪造鉴别技术升级,如中科院“一键检测APP”分析视频生理特征矛盾,区块链存证强化溯源能力。

三、全球共治:破解跨境风险与标准割裂

推动国际规则互认

参与制定ISO人工智能伦理标准,倡议成立“世界人工智能合作组织”,推动中美欧三极治理框架互补;

中国牵头《全球人工智能治理倡议》,强调摒弃“小院高墙”,增强发展中国家话语权。

构建风险联防网络

建立跨境数据安全通道:欧盟通过充分性认定平衡数据流通与隐私保护,中国探索跨境数据“负面清单”管理;

共享威胁情报库,例如联合68国建立AI伪造IP黑名单,降低深度伪造诈骗跨国扩散风险。

四、社会韧性:公众参与与企业责任

全民防御能力建设

教育部将AI风险识别纳入义务教育,培养“二次验证”习惯(如要求视频通话对方做指定动作);

开通国家安全举报平台(www.12339.gov.cn),鼓励公众举报AI窃密与深度伪造行为。

企业主体责任强化

核心行业(智慧城市、金融)要求安全投入占比营收5%以上,建立人机协同运营机制——AI处理80%常规威胁,人类专注高风险决策;

开源社区需履行安全审查义务,如OpenClaw类工具强制启用沙箱隔离、敏感操作二次确认。

关键平衡逻辑:全国政协委员周鸿祎提出的“六力模型”(电力→算力→智力→人力→安全力→生产力)揭示本质:安全是发展的前提,需通过技术闭环与制度创新实现动态统一。当前治理已从“事后补丁”转向“出厂即合规”,但深度伪造检测、算法歧视根治等挑战仍需技术、政策与国际协作的持续突破。 (以上内容均由AI生成)

加载中...