新浪新闻

当AI助手深度访问个人数据时,用户的隐私安全能否真正得到保障?

BigNews 01.29 19:53

尽管AI助手通过加密传输、端侧处理等技术手段努力保护隐私,但深度访问个人数据时的安全风险仍客观存在,用户需警惕权限滥用、云端漏洞及深度伪造等新型威胁。

一、隐私保护的技术承诺

数据处理原则优化

主流厂商声称采用“数据最小化”机制:用户明确授权后,AI助手仅调用必要权限(如读屏功能),且云端处理时遵循“不存储、不训练”原则,数据传输全程加密。例如豆包助手强调其合规流程通过差分隐私技术脱敏敏感信息。

端侧与隐私计算技术

苹果、华为等厂商优先在设备本地处理数据,避免云端传输。苹果的Private Cloud Compute技术仅在必要时将加密数据发送至云端,处理后立即销毁,而联邦学习、同态加密等技术尝试实现“数据可用不可见”。

二、现实风险与用户质疑

权限滥用致核心漏洞

沙箱机制失效:AI助手通过无障碍权限绕过微信、支付宝等App的隔离机制,直接读取聊天记录、验证码、银行卡信息。

支付安全隐患:免密支付与AI代理结合可能引发盗刷。山东一案例中,用户3小时内被盗刷80868元,因AI模拟点击操作且责任界定模糊。

技术滥用与数据泄露

深度伪造威胁:利用用户照片和5秒音频即可生成逼真假视频,已有企业财务被AI伪造的“领导”骗走2亿港币。

明文存储风险:大模型需明文处理数据,存在后台泄露隐患。如ChatGPT曾发生用户聊天记录互可见的漏洞。

用户控制权弱化

隐形操控问题:AI自动选择外卖平台、跳过比价流程等操作,用户无法知晓决策逻辑。

默认授权陷阱:部分AI工具默认勾选“允许训练数据”,需手动关闭,普通用户易忽略。 国家安全部披露开源AI窃密案

三、多方协同的破局方向

用户主动防护

权限最小化:临时开启麦克风/摄像头,关闭无障碍权限和高风险功能(如免密支付)。

行为验证:对可疑视频通话要求遮挡面部(如遮鼻子),AI换脸对此类动态处理能力较弱。

技术加固与标准制定

端侧智能优先:苹果、鸿蒙系统将AI核心功能置于设备端,减少云端依赖。

安全认证机制:微信、银行App已增设“AI操作检测”,触发时强制退出重试或人工验证。

监管与责任重构

明确权责边界:中国政法大学建议对AI提供方采用“过错推定原则”,发生泄露时由企业自证无责。

行业标准落地:广东禁止AI通过无障碍权限操作第三方App,中国软件行业协会推动“用户可控”标准。

四、未来挑战与反思

当前AI助手的隐私安全仍处于攻防博弈阶段:

- 技术悖论:功能越智能(如跨App操作),所需权限越高,隐私暴露面越大;

- 治理滞后性:深度伪造、合成数据侵权等新型风险缺乏有效追溯手段;

- 用户认知鸿沟:超5.5万条免密支付投诉显示,普通用户对权限风险感知不足。

结论:AI助手的隐私安全需依赖“技术革新+用户警惕+法律约束”三重防线。短期内完全保障仍存挑战,但厂商的隐私承诺(如苹果的差分隐私、豆包的“不存储不训练”)和用户主动防护能显著降低风险。 (以上内容均由AI生成)

加载中...