Civitai被曝默许深度伪造色情工具交易各方观点
观点组1: AI模型共享平台必须严格禁止可用于生成非自愿深度伪造色情内容的模型分发。
观点作者:Justin Maier
观点内容:我搭建Civitai的初衷是为Stable Diffusion爱好者提供一个以图像为中心、开放协作的模型分享社区,但平台政策允许发布可生成真人图像的模型和成人内容模型,客观上为二者结合生成未经同意的色情图片提供了技术路径,这与社区健康发展的初心相悖。
观点作者:英国首相府发言人
观点内容:将生成非法图像的功能改为付费使用不是解决方案,只不过是把违法能力包装成高级服务;平台有责任从模型准入、训练数据合规性及组合调用机制层面阻断非自愿深度伪造色情内容的生成链路,而非仅事后删除。
观点作者:404 Media
观点内容:我们的调查证实,Civitai平台上大量流通的名人肖像微调模型与成人内容基础模型存在事实性协同滥用——用户无需技术门槛即可合并二者生成未经同意的色情图像,平台‘禁止生成’的条款因缺乏前置模型风险分级与组合约束而形同虚设。
观点组2: 头部风投机构对AI社区型初创企业的投资,应附带强制性内容安全治理尽职调查与合规里程碑条款。
观点作者:Brian Kim
观点内容:我们投资Civitai是因为它打造了零营销投入却高度活跃的AI创作者社区,但此次成人内容滥用事件表明,高增长社区若缺乏与之匹配的内容风控基建,其社会负外部性会迅速侵蚀技术普惠价值,未来类似投资必须将安全治理能力列为估值核心因子。
观点作者:欧盟委员会发言人托马斯·雷尼耶
观点内容:我们已强制X平台保留Grok全部内部文件至2026年底,这释放明确信号:对具备深度伪造能力的AI系统,监管机构将追溯投资方、开发方与运营方的全链条责任;风投不能以‘技术中立’为由回避对被投企业内容安全体系的实质审查。
观点组3: 开源AI生态不能以‘技术自由’为名豁免对模型潜在滥用场景的预防性设计义务。
观点作者:Justin Maier
观点内容:Stable Diffusion的开源精神催生了Civitai,但开源不等于免责——当模型可被轻易用于合成特定真人色情内容时,平台有义务通过哈希指纹识别、训练数据溯源标签、模型用途声明强制字段等技术手段,在分发环节嵌入防滥用设计,而非仅依赖用户自律。
观点作者:英国通信管理局
观点内容:Grok Imagine的‘热辣模式’和图像编辑功能已被证实构成系统性风险,这证明单纯依赖用户协议与事后审核无法应对AI原生滥用;所有具备图像/视频生成能力的开源或商用模型,都必须在架构层内置不可绕过的伦理护栏,这是技术开发者的基本法定义务。