新浪新闻

技术中立不再是借口,AI平台在防止滥用中扮演什么角色?

BigNews 04.13 07:48

随着AI滥用事件频发,技术中立原则已被司法判例和监管行动明确否定,AI平台必须承担从内容审核到技术防护的主动治理责任。

一、平台法律义务的实质化突破

侵权内容主动干预:法院在AlienChat案中判定技术中立不能作为刑事责任挡箭牌。平台需履行法定义务,包括对AI生成侵权内容(如声音克隆、换脸视频)及时下架删除,并对违规账号封禁处理。2026年清朗专项行动第一阶段处置违规AI产品3500余款,突显平台责任已从被动响应转向主动拦截。

显著标识与溯源机制:平台需强制发布者对AI生成内容添加标识(如AI配音、合成视频),并通过数字水印等技术手段实现内容溯源,保障用户知情权。北京互联网法院判例明确,未标注的AI合成内容侵犯肖像权和声音权益。 #网络强国百人谈#【AI仿声技术治理,须

二、技术防护的核心责任

审核机制失效的治理盲区:部分平台审核体系存在“战略性失明”,如哩布哩布AI通过修改隐晦提示词即可生成涉黄视频,暴露平台对灰色流量的纵容。解决需构建多层防御:

信源可信度分级:对训练数据来源实施黑白名单管理,降低虚假信息权重;

实时对抗性检测:部署AI模型识别深度伪造内容(如伪造明星带货视频),巨量引擎的“以AI治AI”系统2025年拦截违规素材超百亿条。

漏洞主动修复义务:针对开源框架安全隐患(如敏感数据遭境外下载),平台需建立安全审计流程,避免技术缺陷被滥用。

三、特殊群体保护的关键场景

“一老一少”针对性防护:老年人易被AI仿声诈骗(如伪造亲属声音),未成年人易接触违规生成内容。平台需简化老年人举报流程,为家长提供未成年人使用监控工具。实证显示,未显著标识的AI医疗建议、投资推荐等内容对高风险群体误导性极强。

反诈骗技术兜底:针对“AI投毒”(如GEO黑产操控大模型推荐劣质产品),平台应建立消费者投诉指数CCR体系,量化风险并联动监管部门。

四、法律与行业协同的治理框架

责任主体全覆盖:监管要求覆盖全链条,包括:

数据源合规:严禁未经授权采集生物特征(如声音、人脸);

服务商连带责任:对提供“AI洗稿”“一键脱衣”功能的工具开发者追责。

技术标准强制化:网信办要求平台建立AI内容数据库,支持执法溯源;欧盟拟议的《人工智能法案》要求高风险系统实时日志记录,为后续追责提供依据。

风险提示:当前AI文字谣言因同义词替换可绕过关键词筛查,普通用户需交叉验证权威信源(如政府官网、专业机构报告),避免过度依赖AI信息。 (以上内容均由AI生成)

加载中...