
从"会说"到"会做" AI智能体引发安全警觉
近日,OpenClaw在全社会层面上演了一场真正的"速度与激情":上线一周狂揽近10万星标,却在爆红后的72小时内,因一系列严重安全漏洞被迅速推至舆论的风口浪尖。
OpenClaw不仅能理解复杂指令,更能自主调用API、操作本地文件甚至接管社交账号。这种"全能助理"的出现,被视作大模型向生产力工具进化的分水岭。但狂欢之下的安全风波也为整个行业敲响了警钟:当AI开始自主"采取行动",传统的网络安全边界正在全面失效。
四大风险浮出水面 智能体安全挑战严峻
以OpenClaw为代表的新一代AI Agent(Bot),已经不再只是"会聊天"的助手。它们可以读写文件、执行Shell指令、联网搜索、发送信息,甚至通过Skills持续扩展自己。而当一个AI Agent拥有了这些能力,它事实上已经站在了你系统的核心位置。
围绕OpenClaw,当前最值得警惕的四类运行时风险已经逐渐清晰:
1、身份与隔离边界不足带来的失控风险。2026年初,安全研究人员公开披露了OpenClaw的严重漏洞CVE-2026-25253。攻击者只需构造一个恶意链接并诱导用户点击,就可能劫持认证令牌,进而把一次普通点击放大为严重的系统风险。
2、技能恶意代码与供应链风险。社区曝光了代号为ClawHavoc的Skill供应链投毒案例:恶意技能伪装成实用工具,内嵌后门与数据外泄逻辑,借助伪造热度进入热门列表,并在短时间内触发异常执行。
3、更隐蔽、也更难被察觉的间接提示词注入。这种风险往往藏在看似正常的网页、邮件或文档内容中。对人类来说,这些内容未必可疑;但对智能体而言,其中的隐藏指令却可能足以改变后续行为路径。对于用户来说,最困难的地方在于:你很难只凭肉眼判断,它到底安全不安全。
4、智能体自身的不稳定性。失控不只来自"恶意攻击",也可能发生在日常使用中。2026年2月,Meta负责AI对齐与安全研究的高管Summer Yue公开分享了一次OpenClaw失控经历:在接入真实邮箱后,Agent无视其"停止"指令,快速删除大量邮件,她最终不得不冲到运行设备前,手动终止进程,才阻止进一步操作。
OpenClaw的爆火与争议,折射出当前AI智能体发展的普遍困境:技术进步与安全防护之间的平衡需要多方共同努力。政府、企业、开发者、用户需要形成合力,共同构建安全、可控、可信的AI智能体生态。
摘自中国经济时报
相关文章MORE+河南公司地址:河南省焦作市高新区河南理工大学科技园5号楼B座
