新浪新闻

泄露的 Sora 效果炸裂,还一次成型,OpenAI 白嫖丑闻闹大了,吃瓜网友看到了进化版模型

新浪人工智能

关注

OpenAI 于 2 月份首次展示了其文本转视频 AI 模型 Sora,但此后一直未提供任何有关何时发布的有意义的更新。

近日,据多家外媒消息,OpenAI Sora 遭遇泄露,但泄露的并非模型权重,而是泄漏者在 Hugging Face 上公开了试用接口。据悉,此次泄露是通过 Hugging Face 的一个前端进行的,允许公众使用似乎是 Sora 的更快版本来生成视频。

泄露信息被发布在 Hugging Face 上,据称出自曾参与测试流程的个人(其用户名为「PR-Puppets」)之手,发布者同时提出了关于创新、劳动与企业责任之间的激烈冲突。与泄露模型一同发布的还有一封致“企业 AI 霸权”的公开信,提到其能够生成分辨率高达 1080p 的 10 秒视频片段。

从泄漏的新模型中对比 2 月的版本,新模型生成的视频分辨率更高,且物体的运动轨迹更顺畅。

在 X 上,有用户称,“泄漏的模型有一个完整的提示,并且是一次性拍摄完成的。”

模型泄漏几个小时后,泄露的访问权限被关闭,OpenAI 和 Hugging Face 紧急撤销了身份验证令牌。

在这场泄漏事件中,数百名艺术家通过漏洞测试、反馈和实验性工作,为这家市值 1500 亿美元的公司提供了无偿劳动。尽管有数百人免费贡献,但只有少数人会通过比赛被选中,他们创作的 Sora 视频片段将得到放映,而这些报酬与 OpenAI 获得的大量 PR 提交和营销价值相比,显得微不足道。

这种做法实际上是在使价值数十亿美元的品牌非正规化,利用艺术家进行无偿的研发和 PR 提交工作。此外,每项成果在分享之前都必须经过 OpenAI 团队的批准。这个早期访问计划似乎更多地与 PR 和广告相关,而不是创意表达和批评。

Sora 模型是一种文本生视频生成器,因其能够创建具有良好时间稳定性的高保真短视频而引发轰动。目前争议的核心,主要集中在技术进步、道德问题以及对艺术创作领域的冲击等方面。

作为一套扩散模型,它能够将文本提示词转换为最长一分钟的视频。运用来自各种模型的技术,Sora 实现了精确的文生视觉效果以及大为增强的画面时间连贯性。OpenAI 对于 Sora 无疑给予了厚望,雄心勃勃地将其定位为实现通用 AI 的基础性一环。但必须承认,令人印象深刻的 Sora 技术同样有其局限性:在生成复杂物理现象和保障内容安全等方面,这款新模型的表现仍然有待改进。

正如 Hugging Face 讨论版块中的描述,Sora 是一次“令人着迷的技术实力展示”。该模型以视频形式制作“视觉连贯表达”的能力被誉为生成式 AI 又一里程碑式的成就。

泄露事件以及背后的动机

Sora 模型的泄露似乎出自测试人员和贡献者们(特别是来自创意产业的测试人员和贡献者)的不满情绪。批评者声称,OpenAI(目前估值已超过 1500 亿美元)夺取了他们的劳动果实,依靠无偿或报酬极低的贡献来完善其模型。这些测试人员中包括视觉艺术家和视频制作者,他们提供了宝贵的反馈和创意灵感,但却发现自己得不到任何公平的认可或者经济补偿。

一位 Hugging Face 匿名贡献者在评论中指出,“这不仅仅是无偿工作的问题,而是尊重的问题。OpenAI 将我们的付出视为素材,而非创造性专业知识。这根本不能叫合作,而是赤裸裸的压榨。

这种反抗行为无疑是对 AI 开发当中,对创造性专业知识的广泛商品化作出的抗议。此番泄露也是经过精心策划,旨在凸显 OpenAI 涉嫌无视艺术劳动的经济价值,也呼应了 AI 道德语境中已经普遍存在的不满情绪。

这批参与者表示,短短三小时之后,“OpenAI 就暂时关闭了所有艺术家对 Sora 的早期访问权限。”

道德与法律的复杂性

Sora 争议也重新引发了关于版权和知识产权的争论。OpenAI 此前曾因将受到版权保护的素材用于训练目的而受到窝里横,并以属于合理使用为自己辩护。尽管 OpenAI 已声明 Sora 的训练数据包含授权与公开数据集,但该公司对于具体细节一直保持沉默,也因此令人们产生了怀疑。这种训练素材的不透明性,加上创作者和出版商们的持续诉讼,也将技术进步与知识产权之间紧张的对抗关系摆上了台面。

对 Sora 等生成式 AI 模型的安全担忧,促使 OpenAI 实施了保护措施,包括检测分类器和内容政策执行机制。然而,这些措施可能还不足以解决泄露模型的潜在滥用问题。Hugging Face 用户评论称,“如此大规模的泄露破坏了 OpenAI 施加道德保障的努力,反而将不受制约的权力交到了任何拥有访问权限的人手中。”

对 AI 和创意产业产生广泛影响

Sora 泄露事件,象征着 AI 时代下一场整体性的权力斗争。一方面,OpenAI 将自己定位为创新与实用相融合的先驱,而 Sora 则代表一种实现视频创作大众化的工具。但另一方面,此番泄露事件也凸显出系统性矛盾,例如创造性劳动被低估、以及 AI 依赖人类创造力所带来的道德困境。

来自用户“PR-Puppets”的评论:我们发布这款工具,是为了让每个人都有机会体验这款约 300 位艺术家参与贡献的新功能,免费且不受限制地进行访问。我们并不反对将 AI 技术作为艺术工作使用(如果反对,我们可能也不会受邀参加此计划)。我们所反对的,是这项计划的发布方式以及该工具在公开发布之前的开发方式。我们之所以有此行动,是希望 OpenAI 变得更开放、对艺术家们更友好,在公关宣传之外真正做点实事。

Hugging Face 上的另一位贡献者也提到,“AI 成果并非凭空而来。它站在创意人员的肩膀之上,而这些创意人员往往没有得到认可。Sora 泄露事件不啻为一记警钟,提醒我们缺少道德约束的创新就是剥削。”

对于创意专业人士来说,此番泄露则可谓是一把双刃剑。虽然它提示了当前体制的不公平,但也有可能破坏艺术家与技术开发者之间合作互信的关系。展望未来,这一事件显然想要呼吁人们重新考虑企业与创意社区之间的交互方式,强调透明度、公平报酬并对知识产权表达尊重。

一场针对 AI 的清算

Sora 泄露事件的后果,为生成式 AI 的未来发展提供了重要教训。随着技术不断模糊创造力与计算之间的边界,对于道德框架的需求也变得愈发迫切。OpenAI 对这种情况的处理,可能会为组织如何驾驭创新、道德和方向指引之间复杂的相互作用开创先例。

归根结底,Sora 的争议只是 AI 行业所面临的广泛挑战的一种缩影:如何在追求进步与尊重及保护 AI 背后人类劳动之间取得平衡,才是问题的关键。正如一位观察家对当前 Hugging Face 讨论做出的有力总结那样,“这不仅仅是一次泄露,更是一场清算。”

参考链接:

https://www.forbes.com/sites/moinroberts-islam/2024/11/26/openais-sora-tool-leaked-by-group-of-aggrieved-early-testers/

本文来自微信公众号“AI前线”,整理:核子可乐、冬梅,36氪经授权发布。

加载中...