清华团队提出AI智能体信息导航机制,让智能体沟通更加有效
新浪AI
智能体(Agent)无疑是近两年来人工智能领域最火的概念之一,基于大模型的多智能体系统研究更是自 2023 年以来受到了越来越多的关注。
诸如 Smallville、ChatDev、AgentVerse、Agent Hospital 等多智能体框架,也成为了 GitHub 上的明星项目。
研究者们基于大模型构建了诸如程序员、医生、主持人、审稿者等多种身份的智能体,并让它们像人类一样互相合作,为解决复杂问题或者模拟人类社会探索出了一条全新的研究方向。
虽然大模型多智能体的发展如火如荼,但是领域内也有一些质疑的声音,比如人类真的需要多个智能体吗?
一些研究表明更多的智能体并不一定能带来更好的表现。另一些研究者认为多智能体实际上让大模型进行不同的角色扮演,本质上依然是单智能体的自言自语。
还有一些研究者发现当前的多智能体系统在模拟人类社会行为时,各个智能体实际上在“共享大脑”,由于不符合现实情况,因此这样的模拟会出现严重的偏差。
此前,来自清华大学的一支团队曾推出一个多智能体软件生成框架 ChatDev(https://github.com/OpenBMB/ChatDev),并通过大量实验证明多智能体系统比单智能体系统更加具有优越性,但是他们也对上述质疑进行了思考。
图 | 该团队之前的成果 ChatDev,在 GitHub 上获星 24k+(来源:资料图)
他们认为这种质疑的本源来自于没有发现多智能体的原生应用场景,即单智能体无法做好或者很难做好,以至于必须依赖多智能体的场景。
这种场景的一个特点就是异构性,即每个智能体所拥有的能力和所处的环境都不一样。而由于它们无法合而为一,因此必须通过协作来解决问题。事实上,这种情况也很符合人类合作的现实情况。
在这样的背景之下,该团队开始探索异构多智能体场景,并专注于研究“化身智能”场景,推出一款名为 iAgents(https://github.com/thinkwee/iAgents)的化身智能平台。
(来源:arXiv)
用户不仅可以轻松部署 iAgents,还可以像普通聊天软件一样使用它。区别在于:你可以随时召唤自己的化身智能体,从而与其他人的化身智能体发起自主沟通与协作。
图 | 旨在探索化身智能的 iAgents 平台(来源:资料图)
研究人员表示:化身智能的愿景是让每一个人都能拥有一个专有智能体。
这个化身智能体本身不需要具有信息,但是需要向人类用户请求信息,然后作为人类化身来与其他化身协作完成任务。
本质上,化身智能是将人类之间的协作,交由每个人专属的智能体完成。这样就能在保证隐私安全的前提下解放生产力和提升协作效率。
同时,化身智能也更加符合现实真实协作场景,并且是多智能体原生的场景。
即由于每个人所拥有的信息和知识不同,因此他们的化身智能体所处的环境也会有所不同,这时就必须依赖多智能体协作并克服信息不对称的挑战。
为此,该课题组提出一种信息导航机制,这是一种全新的智能体推理技术,能让智能体之间的自主沟通,朝着交换信息和有效解决问题的方向前进。
图 | 相关论文(来源:arXiv)
日前,相关论文以《信息非对称下的协同任务自主代理》(Autonomous Agents for Collaborative Task under Information Asymmetry)为题发在 arXiv[1]。
据悉,该论文目前已被国际顶级会议 2024 年神经信息处理系统大会(NeurIPS,Conference on Neural Information Processing Systems)接收。
图 | 从左到右:刘维、钱忱(来源:资料图)
研究人员表示,他们期望化身智能能够成为多智能体研究领域的一种框架,让各行各业的从业人员都可以定制自己的化身智能体,并在统一协议之下与各类化身智能体进行灵活协作。
举例来说,未来化身智能会成为每个人手机上的超级 APP。当用户想要订餐,他只需要对自己的化身智能体说一声“我想要订餐”,然后他的智能体就会结合这名用户的信息(过往用餐习惯、当天日程、所处位置)去挑合适的十家餐馆。
同时,智能体还会通过发送消息开展沟通。重点在于:代表餐馆回消息的“人”,其实也是餐馆客服人员的化身智能体,它会根据餐馆客服所拥有的信息和专业知识去回答。
智能体与智能体之间在完成沟通、协作、谈判之后,可以让双方人类确认并给出最终结论。这样一来就能大大提升协作双方的生产力,订餐者不用一家一家地人工确认,餐馆客服也能同时处理更多订单。
化身智能的一个更深远的意义在于,能够实现以人为本的人工智能。目前,许多研究机构都在以通用人工智能为目标开展研究。
但是,当通用人工智能真正实现的那一天,我们是否做好了准备?通用人工智能是否会取代人类,对人类社会造成负面影响?
而化身智能给出的答案是:当将智能体作为动作的执行者时,智能体的价值在于能够提供人类用户的信息与知识,而不是让智能体本身去取代人类。
该团队表示要实现化身智能的目标,还需要在以下几个方面实现足够的突破:
其一,实现信息不对称时的有效沟通与有效协作。
当智能体变得全知全能,即拥有解决问题所需的全部信息时,其能有效地进行任务的规划、拆解、执行。
但是,当信息不对称时,智能体便很难有效完成这些任务。因此,智能体需要主动请求信息、更新信息以弥补不对称。
这涉及到心智理论、检索增强、多智能体协作等多项关键技术的突破,只有这样才能实现智能体之间“有信息量”的沟通。
其二,打造具有更好 Agent 能力的小模型。
目前,超大参数规模的大模型具有优秀的指令遵循能力,因此能够支撑起复杂的 Agent 应用。而小模型的表现相对欠佳。
出于隐私保护和使用体验等目的,在端侧的小模型上部署 Agent 将成为新的趋势,而化身智能更需要在端侧小模型上部署以方便用户使用,建立起新的人-智能体交互体系。
其三,实现更好的隐私保护。
尽管让每一个用户在端侧拥有自己的专属智能体已经能在很大程度上保护用户隐私,并能让用户有权利选择可以共享给智能体的信息。
但是,智能体之间的自主沟通依然存在不可控的风险,可能会无意间泄漏用户不想分享的隐私信息。
假如一昧地追求绝对隐私而不分享信息,那么就不存在合作的可能;反过来协作双方彼此完全透明,的确能更大程度地提升协作效率,但是会存在隐私泄露的奉献。
因此,隐私保护和有效协作,就像跷跷板的两端,需要研究人员找到一个平衡点。而这些都将是他们后续的努力方向。
另据悉,该团队目前已开放在线 demo,用户可通过网址免费体验系统(https://thinkwee.top/iagents/)。
参考资料:
1.https://arxiv.org/pdf/2406.14928
运营/排版:何晨龙