不止于代码:AI时代,开源必须扩展到规范与治理
微资讯
开源从来都不仅仅是一种许可模式。相反,这也是一种关于共同努力、共同透明度和共同代理权的哲学。共同的目标是对世界产生影响。在人工智能辅助开发和智能体(Agent)时代,有一种观点认为,AI生成的“垃圾内容”(slop),特别是批量生产并提交的代码,会导致开源项目的衰落。相反,我认为只要我们强调开源在代码提交之外的维度,开源正在迎来前所未有的复兴。
在这个新世界里,开源的哲学、伦理和道德比以往任何时候都更加相关。然而,开源的侧重点需要从原始代码向外延伸:规范文件(Specification Files)和治理文件(Constitution,即“宪法”)正变得越来越重要,与源代码本身同等重要。挑战不在于在开源和人工智能之间做出选择,而在于认识到:开源如今已成为开放技术中基于社区的控制与范围界定机制。
让我进一步展开说明。规范描述了意图和结果,而代码则展示了意图是如何实际实现的。当出现问题时,你仍然需要沿着从规范到实现的路径进行追溯。信任是靠实际行动赢得的,而不是靠推断得出的。因此,例如“应用程序尊重你的隐私”或“智能体绝不会向第三方发送数据”这样的承诺,必须由代码提供支撑,并建立在任何人都可以检查和验证的流水线之上(例如 AquaCotta Constitution)。
治理是对规范文件的补充,它展示了规范是如何被创建、执行和遵守的。它围绕着一个项目的“人的决策”——谁来做最终决定?如果要对某件事进行投票,谁有投票权?他们如何投票?正是这些看似繁琐但至关重要的决策,来自治理过程;当代码贡献变得像编写基础智能体提示一样简单时,治理就成为了如何创建和遵循规范文件的基石。
开放意味着开放,即使对人工智能也是如此。对开源人工智能的主要批评是:代码贡献向所有人开放,而不仅仅是那些拥有深厚技术知识的人。这使得代码之外的开源社区支柱比以往任何时候都更加重要。当任何人都可以创建代码时,用户从根本上成为了贡献者,这意味着他们需要在规范层面拥有发言权。此外,这类新的社区成员需要能够帮助影响和改变治理与规范,就像人工智能出现之前的“常规”贡献者一样。与AI生成的代码一同提交的规范文件,必须像更传统的代码贡献一样,开放供人检查和复制。对实现进行分叉(Fork)并在外部基础设施上运行的能力也依然存在,这使得贡献者能够进一步完善自己的定制、集成和优化。
这就是组织在代码成为商品的时代,保持真正代理权(Agency)的方式。换句话说,规范文件扩大了我们需要保持开放的范围;它们并没有取代开放代码、构建系统和依赖树的需求。未来不是用规范取代开源,而是开源加上开放的规范与开放的治理。
你应该像审查和讨论代码那样,对规范进行版本控制、审查和讨论。你将架构和治理产物作为公共记录的一部分,以便他人学习、重用和改进。这创造了一套更丰富的开源资产。代码仓库不仅包含代码,还包含项目的构成、架构推理过程,以及将AI工具和AI驱动的代码贡献保持在正确轨道上的护栏。
这种门槛的降低再怎么强调也不为过。现在任何人都可以做出贡献,而不仅仅是那些了解项目基于代码的组件的人。领域专家、设计师和运营专家可以在规范层面提出变更,然后由AI智能体协助实施。对于以开源价值观和强大的测试框架(编码在“宪法”中)为引领的社区来说,这推动了高质量软件的创建,同时保持了开源所依赖的透明度、可审查性和可分叉性。
我们确实面临着开源与规范融合成一种双重纯度测试的风险。有些人认为,如果AI编写了大部分代码,那就不是“真正的”开源。这种论点意味着,每行代码的来源比整个系统是否透明、可分叉以及公开治理更加重要。与此同时,反对方则认为,如果我们能从规范中重新生成实现,就不再需要担心许可证和代码的开放性——就好像一部优雅的“宪法”使得对实际运行产物的检查变得可有可无。这两种立场都忽略了问题的核心。如果你关心用户代理权、安全性和长期可持续性——就像所有开源项目一样——你需要开放的代码和开放的构建流水线,这样任何人都可以检查、分叉并强化正在运行的内容。你需要开放的规范和开放的治理,这样任何人都可以了解系统应该做什么、应该如何表现,以及决策是如何随着时间推移做出的。
开放的新“定义”必须将实现、规范和治理视为三个必须交织在一起的关键要素。开放实现意味着源代码、依赖项和构建系统在开源许可证下可用,这样你就可以自行重建、审核并运行该软件。开放规范意味着需求、架构和项目构成得到记录、版本控制并公开,以便他人能够重用、学习并根据自己的需求进行调整。开放治理则是指提出、审查和接纳更改的过程——无论是在规范层面还是在代码层面——都是透明且参与性的。
开源社区的前进道路,既不是退出由规范驱动的AI辅助开发,也不是宣布旧的使命已经过时。它在于领先定义和实践“开放规范、治理与实现在AI优先的世界中应如何共同运作”——并有信心实现比增量自动化更远大的梦想。
正是个人和组织实现更大梦想的能力,使得解决那些过于庞大、奇特或小众、以至于无法支撑起一个完整项目团队的问题成为可能。一个从未提交过一行代码的用户体验设计师,可以突然创造出一个严肃的工具。安全工程师可以端到端地制作出新的威胁狩猎管道原型。架构师可以构建更安全的集成模式的参考实现,然后让他人克隆和扩展它。在每一种情况下,AI都不会取代专业知识;它放大了专业知识。房间里最有价值的人花更少的时间来打磨模板,花更多的时间在意图、约束和权衡上。
然而,关于使用AI工具来实现更大梦想,有一件事需要记住:你并不是唯一能够轻松使用它们的人——你的竞争对手同样可以。也许更重要的是,恶意行为者也拥有它们。
说到前者,梦想更大意味着要比那些企图夺走你生意的人拥有更远大的梦想。这关乎确保你的客户仍然是你的客户,并且你能持续吸引新客户。说到后者,这意味着要考虑到那些会伤害你和你的客户的人同样拥有这些工具。而且,如果有人怀有更大的梦想,那正是那些想要破坏你的系统、欺诈你的客户、操纵你的用户的人。
这就是传统的“开源 = 开放代码”框架开始显得过于单薄的原因之一。如果攻击者可以在暗处不断重组强大的AI工具,那么防御者就需要开放、可检查的检测、响应和治理模式——让任何人都能采用并改进。
曾经将松散的黑客集合转变为现代软件堆栈引擎的开放性,如今可以应用于新的规范和智能体层。这是一条让新型贡献者更容易接触开源的新途径。对于开源而言,这并非一场对抗AI厄运的战斗。相反,作为一个全球社区,我们需要推动AI驱动贡献的积极面向前发展,以确保利大于弊。