当AI助手越过权限红线,数据安全法如何为科技巨头划定边界?
当AI助手以“便利”之名突破权限边界,数据安全法正成为悬在科技巨头头上的达摩克利斯之剑,一场围绕操作权、数据主权与法律红线的博弈已悄然升级。
一、权限越界的核心矛盾
“上帝权限”的滥用风险
AI助手(如豆包手机助手)通过安卓系统的INJECT_EVENTS权限实现跨应用模拟点击,可绕过微信、淘宝等应用的沙箱隔离机制,直接读取聊天记录、验证码等敏感信息。此类系统级权限本为辅助残障人士设计,但被AI用于全局操控时,平台难以区分用户操作与恶意脚本,引发风控拦截(如微信强制下线)。
最小必要原则的挑战
《个人信息保护法》要求数据收集遵循“最小必要”原则,但AI助手为完成跨应用任务,需获取全屏感知、无障碍服务等高危权限,可能超范围抓取用户支付习惯、地理位置等数据。例如,用户一句“点外卖”指令可能触发AI自动比价下单,过程中未经单独授权即读取多款应用数据,涉嫌侵犯用户知情权。
二、数据安全法的规制路径
明确权限分级与双重授权
高风险权限单独弹窗:如全屏截取、模拟点击等操作,需跳出通用隐私协议,单独提示风险并由用户主动确认;
第三方应用同意权:广东标准协会等机构提出,AI代理操作第三方App需同时获得用户和目标平台授权,禁止通过技术手段绕过平台规则(如微信登录核验)。
构建追溯与问责机制
过错推定原则:若因AI越权导致数据泄露或财产损失(如免密支付盗刷),企业需自证已履行风险提示、操作留痕等义务,否则承担赔偿责任;
独立身份标识:为AI代理分配专属数字身份,记录每一步操作日志,确保违规行为可溯源。
数据有边界,系统有禁区
三、科技巨头的责任边界
平台防御权与“自我优待”禁令
超级App(如微信、支付宝)有权以《网络安全法》第21条为依据,对AI模拟点击行为启动风控,阻断非真人操作。但若平台仅允许自家AI助手操作而封禁第三方,则涉嫌滥用市场支配地位,违反《反垄断法》公平竞争原则。
数据本地化与脱敏义务
端侧处理优先:敏感操作(如支付验证)需在设备端完成,禁止上传至云端,减少中间环节泄露风险;
动态脱敏技术:对屏幕内容实时模糊处理,例如自动遮挡身份证号、银行卡号等敏感字段,即使AI读取屏幕也无法捕获完整信息。
四、未来治理方向:动态平衡创新与安全
场景化分级监管
参照欧盟《AI法案》风险分类:
禁止类:实时人脸识别、情绪监控;
高风险类:医疗、金融等领域的AI代理操作需强制安全评估;
有限风险类:跨应用比价等场景需明示AI生成内容来源。
技术合规协同
联邦学习应用:各平台共享模型参数而非原始数据,避免训练数据跨域泄露;
“人类接管”按钮:在支付、授权等关键节点设置强制中断机制,用户可随时终止AI操作。
五、用户自保的关键动作
权限动态管理:关闭非必要的无障碍服务,仅在任务执行时临时开启;
敏感操作隔离:手动完成支付、身份验证,避免AI代理接触银行卡密码等核心信息;
定期审计痕迹:清理AI助手的全局记忆功能,限制跨平台数据同步范围。
结语:数据安全法为AI权限划定的不是创新枷锁,而是失控流量的河道——唯有在用户知情权、平台防御权与技术便利性间找到动态平衡点,才能让AI真正从“隐形操控者”退位为“可信工具”。当前豆包助手下线金融操作功能,正是法律倒逼企业重构权限逻辑的缩影,未来行业或需在“合规即服务”框架下探索授权标准化。 (以上内容均由AI生成)