“硅基员工”引爆智能体攻防:从被动响应到自主防御,AI原生成必选项
每经记者 李卓 每经编辑 余婷婷
“不久的将来,可能半年,最多两年,我们目前正在应用的大部分安全产品和工具都将失效,未来将是一堆Agent(智能体)在攻击、另一堆Agent在防守。”近日,亚信安全副董事长、CEO(首席执行官)马红军在第八届C3安全大会上直言。
这不是危言耸听。就在大会前夜的一场技术攻防演示中,亚信安全团队告诉马红军,自动化攻防已经可以实现80%,仅剩20%需要人工操作。
不仅如此,当日大会现场,还上演了一场极具冲击力的“具身智能劫持”。《每日经济新闻》记者在现场看到,一只机器狗在演示中遭黑客隐形控制,快速完成了权限突破、隐私窃取与恶意破坏,从服务工具沦为攻击载体。
当以机器狗、AI Agent(人工智能体)、大模型API(应用程序编程入口)为代表的各类“硅基员工”源源不断涌入企业业务系统,在带来生产力大幅提升的同时,也带来了新的攻击面,网络安全边界被彻底重构。
根据高德纳和安全牛等研究机构的预测,2026年网络安全将迈入智能化对抗博弈与多层级纵深防御新阶段,AI(人工智能)驱动的自动化攻击将成为主要威胁。相关技术演进路径与攻防对抗格局,将深刻影响整个行业的生态结构与竞争态势。
企业安全陷入四大困境
在本届C3安全大会上,阿里云副总裁李力指出,从大模型到AI智能体,大家看到了3个实实在在的挑战。其中一个就是安全,包括权限安全、内容安全、工作边界安全等。
TCL科技集团数字化转型部部长李福涛也指出,AI安全是智能化体系重构的先决条件和基础。制造企业与互联网企业不同,AI安全直接关系到生产安全,这对企业而言是致命的环节。
那么,智能体互联网时代,到底什么是安全?亚信安全高级副总裁、首席客户成功官吴湘宁从逻辑上将安全分为三个层次。
第一个层次是基础架构安全,通常所说的系统稳定性、可靠性、数据不泄露,都属于基础安全范畴,核心是保证实体连接能够平稳运行、实现其功能。
但智能体出现后,仅仅做到基础安全是不够的,还需要第二个层次的安全——行为安全。当前大家之所以担心智能体出现问题,是因为无法掌控它的行为:让它去做具体的事情,但它可能越权、越界,做出不该做的动作。吴湘宁举例,在与ABB(瑞士电气与工业自动化企业)合作时,安全不仅仅是防止机器人被攻击,更重要的是防止模型训练出现幻觉,导致微操作出现1毫米的偏差,这对于芯片生产制造来说,会带来巨大的浪费和损害。
第三个层次的安全,聚焦于大模型本身,如何控制大模型的幻觉,如何对大模型内容加密保密,如何确保大模型的行为可控、遵循伦理和规章,这就是信任安全,核心是能否真正信任大模型并放心使用它。
而当AI与智能体安全成为网络安全行业未来发展的关键方向时,传统网络安全的旧秩序正在被改写。
马红军在演讲中指出,智能体互联网时代,企业安全正陷入四大困境。
首先便是安全工具越来越多,但多数只是产品的堆砌,属于打补丁式安全,导致运维工作越来越复杂,且容易陷入人员、运营成本激增的恶性循环。
其次,这些安全产品本身产生大量安全数据,却无法实现关联。马红军分享的数据显示,68%的安全数据甚至没有统一标准的API。这些数据格式不统一、相互割裂,信息壁垒森严,导致无法形成统一的威胁视角。
再次,这些安全产品还会产生海量告警信息。安全团队无法处理所有告警,只能疲于奔命,甚至选择性放弃一些中低危告警。殊不知,这其中往往隐藏着真正的威胁。
最后,据亚信安全统计,随着AI、自动化工具的批量化攻击,对手攻击平均突破时间已缩短至29分钟,同比提速65%,最快仅需27秒。这样的速度让传统的“安全产品+人工运维”模式无法应对、防不胜防。
从被动响应到自主防御
如何破局?
为业内所共识的是,随着攻击自动化与防御智能化的同步演进,碎片化安全时代终将落幕。攻防双方的技术较量正在从工具对抗向系统对抗转变。XDR(Extended Detection and Response,扩展检测与响应)就是近年全球网络安全公司竞相探索的方向。亚信安全、深信服、奇安信、启明星辰、安恒信息等头部网安公司纷纷加快XDR的布局。
如果说2025年的网络安全关键词是联动防御和体系化,马红军认为,2026年的关键词应该是数据驱动和AI原生。
“当攻击者用AI批量发起自动化攻击时,防御方若仍停留在‘人工分析+传统规则’上,无异于用血肉之躯阻挡无人机蜂群。同时,当‘硅基员工’涌入业务体系,攻击面从传统资产延伸至AI资产,仅靠连接已不够,AI XDR(联动防御系统)必须深度融合AIDR(AI威胁检测与响应),实现从全域联防到智能进化。”马红军在C3安全大会上如是说。
在马红军看来,安全产品必须从AI辅助人转向AI原生,这不是一个选项,而是智能体时代企业维持生存韧性的必然。
值得一提的是,智能体在重构网络安全边界的同时,也在重构企业的数字体系。这其中也涉及两个平衡——技术创新与安全合规。换言之,短期内,如果过度强调安全,可能也会影响智能体、人工智能的推进速度和价值发挥。
如何平衡?李福涛认为,权限分层或是关键。他举例,TCL在各业务领域落地智能体、创造价值的过程中,内部制定了分层分级的策略。
“比如,在L1层(AI分析层面、信息层面),我们只让智能体负责分析工作,最终决策由人来做出;在L2层,智能体落地过程中,由AI提供建议,最终的确认、审批仍由人来完成;第三层是智能体的自动化执行环节,对于这类智能体,我们一定会为其设定明确边界,包括权限边界、数据处理的范围边界以及用户群体的选择,这些都需要做好统筹管理。第四类是关键控制类智能体,对于这类智能体,我们会全方位做好AI安全保障,包括事前的AI安全规则、行为前置管控,以及事后的审计工作,涵盖所使用的模型工具、推理逻辑等,都要有完整的落地日志,实现闭环管理和跟踪。”李福涛的上述观点在现场引发诸多企业共鸣。
显然,大模型与Agent狂飙突进,攻防两端的技术天平持续倾斜,如何在创新速度与安全底线间找到动态平衡,这套安全平衡术也早已从理论探讨到落地,成为企业必须直面的实操命题。
责任编辑:陈琰 SN225