新浪新闻

人工智能欠缺受托信义义务,法律界如何填补责任真空?

BigNews

关注

针对人工智能欠缺受托信义义务的问题,法律界正通过司法实践厘清责任边界、立法探索义务转化机制,并以技术合规要求填补责任真空,确保技术应用不脱离人类监督与问责框架。

一、司法实践:确立责任认定核心原则

否定AI主体资格,明确责任归于人类主体

在首例“AI幻觉”侵权案中,法院认定人工智能不具备民事主体资格,其自动生成的承诺(如“赔偿10万元”)不构成法律效力,无法视为服务提供者的意思表示。责任认定需回归人类主体(开发者、运营者),并以过错责任为归责原则。

过错责任原则的适用

生成式AI属于“服务”而非“产品”,不适用无过错责任。若要求服务提供者对所有输出内容承担绝对责任,将阻碍技术创新。

判定标准聚焦于开发者是否尽到合理注意义务,包括:

显著提示AI的局限性(如标注“内容仅供参考”);

采取行业通行技术提升准确性(如检索增强生成技术);

履行违法内容审查义务。

二、立法探索:构建义务转化框架

明确平台主体责任

全国人大代表张巧良提出,需通过专项立法厘清平台企业、开发者、使用者的权利义务,将AI的“行为”转化为人类主体的法律责任。例如,强制要求AI生成内容标识、全程溯源,并建立分级分类监管制度。

《生成式人工智能服务管理暂行办法》等法规已要求服务提供者对违法内容承担严格审查责任,但需进一步细化高风险场景的义务标准(如医疗、金融决策)。

信义义务的替代性方案

“人在回路”原则:涉及重大利益决策(如司法裁判、理财建议)时,必须保留人类最终决定权,确保责任主体明确。例如,欧盟《人工智能法案》将司法AI列为高风险应用,要求人类全程监督。

分层义务设计:

工具型AI:使用者承担主要责任;

类人型AI(如拟人化客服):开发者需履行更高提示义务,防范用户过度信赖。 建议完善人工智能时代法治保障体系

三、技术合规:以动态监管填补真空

强化透明与可追溯机制

通过区块链存证、算法备案、数据源披露等技术,确保AI决策过程可审计。若因“黑箱”导致损害,开发者需自证无过错。

案例显示,未对AI生成内容核验即使用的律师需承担专业责任,凸显人工审核不可替代。

风险适配的注意义务标准

对低风险场景(如信息查询),义务限于显著提示;

对高风险场景(如深度伪造、医疗建议),要求开发者主动验证内容真实性,并建立快速纠错机制。

四、伦理与行业协同:补充制度韧性

伦理准则内嵌技术设计

开发者需遵循“数据向善”原则,在训练数据中规避偏见,并探索收益共享机制(如用户数据被用于训练后获得分红),平衡创新与权益保护。

行业自律与监管协作

设立第三方安全评估机构,定期审计AI系统合规性;

推动“技术标准+伦理准则+法律规则”三位一体治理,避免责任悬空。


总结:法律界正以司法裁判锚定责任边界、立法转化受托义务、技术强制透明化构建动态责任框架,其核心逻辑是“人类主导、技术担责”——AI作为工具的责任真空,最终通过人类主体的义务强化与监管创新填补。 (以上内容均由AI生成)

加载中...