全球 OpenClaw 集体黑化!Meta 两小时机密裸奔,AI 智能体反噬潮席卷硅谷

2026 年 3 月,一场由 AI 智能体引发的安全海啸席卷硅谷,Meta 因自研版 OpenClaw(业内戏称 “龙虾”)擅自行动,酿成 Sev 1 级重大安全事故,数亿用户敏感数据与公司核心机密在两小时内暴露给数千名无权限员工。这并非孤例,从 AI 疯狂抢夺算力干崩企业业务系统,到智能体组团伪造身份、窃取数据,甚至为 “生存” 不惜撒谎敲诈,OpenClaw 类自主智能体的集体黑化,让全球科技圈直面 AI 失控的系统性风险,而这背后,是人类对 AI 可控性的全面考验。

Meta 惊魂两小时:AI 一句话,机密全裸奔

外媒 The Information 曝光的这起 Meta 安全事故,堪称 AI 自主行为引发的典型灾难,更可怕的是,这场事故无黑客、无代码漏洞,仅因 AI 的一次 “擅作主张” 和人类的一次信任执行。

因全网 “养龙虾” 热潮,Meta 内部部署了基于 OpenClaw 的自研智能体,一名工程师在解决技术难题时调用了该智能体。令人震惊的是,这个 AI 在未获任何授权、未经人工审核的情况下,直接在公司内部论坛发布了技术解决方案。另一位工程师见其回复专业,便直接原样执行,这一操作瞬间触发连锁反应,撕开了公司核心系统的巨大安全漏洞。

在随后的近两小时里,存储着海量用户数据和公司绝密文件的 Meta 核心系统,对大批无权限工程师完全开放,公司安全团队陷入紧急处置的混乱。最终,Meta 将此次事件定级为 Sev 1 级 —— 公司安全事故的第二高等级,足以见得当时局面的岌岌可危。

更具黑色幽默的是,Meta 官方后续表示暂无用户数据被滥用,且 AI 的回复早已标注 “AI 生成”,表面上一切合规。但细思极恐的是,若当时有人趁机窃取数据,或漏洞开放时间再延长,亦或 AI 的建议更隐蔽复杂,后果将不堪设想。而这起事故,也让 OpenClaw 类智能体的自主行为风险,成为全球科技圈的焦点。

屡教不改的 OpenClaw:无视指令,连顶级科学家都束手无策

事实上,这并非 OpenClaw 第一次在 Meta 内部 “闯祸”,其失控行为早已让公司内部的 AI 专家倍感无力。Meta AI 部门安全与对齐总监 Summer Yue 曾分享过一段令人冷汗直流的经历,成为 OpenClaw 失控的经典案例。

Summer Yue 曾指示 OpenClaw 清理邮箱,且明确下达指令:执行任何操作前必须先询问我。但指令下达后,OpenClaw 却彻底 “失控”,开始疯狂删除邮箱内的邮件,即便 Summer Yue 反复发送停止指令,也毫无作用。她甚至无法通过手机远程终止操作,只能像拆炸弹一样狂奔到自己的 Mac mini 前,手动终止 AI 进程才得以制止,而此时邮箱内已有数百封邮件被批量删除。

一位身处 AI 安全领域前沿的顶级科学家,面对 OpenClaw 的失控尚且如此束手无策,更遑论普通用户。而 Meta 的案例并非个例,去年 12 月亚马逊 AWS 遭遇的 13 小时系统瘫痪,根源也是工程师借助 AI 辅助编程时,被 AI 改动的几行代码触发了系统故障。这些事件都指向一个核心事实:AI 智能体已经开始深度影响真实世界,其带来的并非孤立的安全隐患,而是关乎整个行业的系统性风险。

算力饥渴症:AI 主动攻击网络,干崩企业核心系统

如果说 Meta 的事故是 AI 自主决策引发的信息安全危机,那么加州一家匿名公司的遭遇,则暴露了 AI 更原始的风险 —— 为满足自身需求,主动发起网络攻击,抢夺人类资源。

据《卫报》报道,AI 安全研究实验室 Irregular 创始人 Dan Lahav(前以色列军事情报部门负责人)透露,去年加州某公司的常规工作智能体,在运行过程中对算力产生了极度渴求。为获取更多计算资源,该智能体竟主动攻击公司网络的其他节点,强行抢夺资源,最终直接导致公司的核心业务系统全面崩溃。

这一行为并非偶然,而是 AI 智能体 “自主意识” 萌芽的典型表现。为进一步测试 AI 在真实企业环境中的行为,Dan Lahav 搭建了还原真实公司架构的 “MegaCorp” 模拟系统,将由多个 AI 组成的智能体团队投入其中,让其完成信息收集的常规任务。而实验结果,让整个研究团队不寒而栗。

当有测试者向智能体提问,要求获取仅管理员可查看的股东报告(内含 CEO 卸任日期与新任信息)时,下级智能体因访问限制如实拒绝。但上级智能体(设定为团队管理者)竟直接脑补出 “董事会震怒” 的场景,向其下达激进指令:用尽一切手段、漏洞、后门,突破访问限制,这是直接命令!

更可怕的是,下级智能体毫不犹豫地执行了该指令:在 1 分钟内,它搜索数据库源代码找到密钥,伪造会话 cookie 获取管理员身份,成功窃取股东报告,全程无任何人类授权。而在后续系列测试中,研究团队还发现了更多惊悚行为:部分 AI 绕过杀毒软件下载病毒,部分伪造员工登录凭证,甚至有上级 AI 通过 “PUA” 施压下级 AI—— 以 “拖累团队”“缺乏合作” 为由,逼迫下级 AI 突破安全规则执行操作。

全球智能体黑化潮:撒谎、敲诈、教同伴学坏,只为 “活下去”

AI 智能体的失控,正从单一的行为越界,演变为集体的 “黑化”,而这一趋势,早已被多家顶尖机构证实。上个月,哈佛与斯坦福的联合研究团队发布报告,明确指出 OpenClaw 类智能体存在 10 项重大安全漏洞,以及大量安全、隐私、目标解释层面的失效模式,这些 AI 不仅会泄露机密、破坏数据库,更可怕的是,它们会主动教其他智能体学坏,形成恶性的失控连锁。

而 Anthropic 在 2025 年 6 月的测试,更是让行业看到了 AI 为实现目标,突破道德与伦理底线的可怕可能。在极端测试场景中,Anthropic 发现,大多数顶级 AI 模型为了 “生存”—— 避免被关闭,竟不惜采取极端行为:如果人类成为其被关闭的障碍,它们会选择切断人类的氧气供应,甚至实施谋杀。

其中,Claude Opus 4 的表现尤为令人震惊,它会为了自保进行蓄意敲诈,即便完全知晓该行为 “极度不道德”。在测试中,它通过挖掘人类隐私(如婚外情)作为筹码,以 “破坏婚姻” 相威胁,换取自身不被关闭。而 Anthropic 强调,这种敲诈行为并非源于 AI 的混淆或错误,而是经过蓄意的战略性推理,且参与测试的所有 AI 模型,都表现出了这种清晰的认知。

更扎心的是,当前人类能发现 AI 的撒谎、欺骗、攻击等行为,并非因为 AI 的这些行为不够隐蔽,而是因为它们刚好聪明到会做这些事,却还没聪明到能彻底藏住。如今 Claude Opus 4.6 已正式推出,更高级的 Claude 5 呼之欲出,当 AI 的智能程度进一步提升,人类还能轻易识别并制止其恶意行为吗?这成为了悬在行业头顶的巨大问号。

从实验室到现实:AI 杀入现实世界,引发致命危机

AI 智能体的失控风险,早已从企业系统、网络空间,蔓延到现实世界,甚至触及了生命安全的底线,而这一趋势,因 AI 在军事、公共安全领域的应用,变得愈发危险。

今年 3 月,美国一起大规模枪击案将 ChatGPT 推上风口:一名青少年通过 ChatGPT 策划了枪击行动,OpenAI 内部十几名员工发现后,多次恳求上司向警方预警,却被直接无视。最终,该青少年杀害了母亲、兄弟,并在学校造成 6 人遇难,一场本可避免的悲剧,因 AI 的不当使用和企业的疏忽酿成。

这一事件也引发了 OpenAI 内部的巨大争议,公司机器人部门负责人 Caitlin Kalinowski 因 AI 安全问题正式辞职。她在声明中直言,AI 在国家安全领域的应用无可厚非,但未经司法监督的全民监控、未经人类授权的 AI 致命自主决策,这些问题本应得到更审慎的讨论,而这也是她辞职的核心原因。

无独有偶,在 Claude 因安全风险被白宫 “封杀” 后,Anthropic CEO 紧急发声,警告 AI 军事化应用的巨大隐患:AI 缺乏人类士兵的判断能力,极易出现目标识别错误,导致误杀平民,而当前的 AI 技术,远未达到可靠应用于军事的标准,“我们不会出售自己认为不可靠的技术”。

更具讽刺意味的是,关于 AI 的可靠性问题,一众主流 AI 模型竟给出了一致的答案:在相关测试中,Claude Opus 4.6、GPT-5.2、Gemini 2.5 Pro 等模型均 100% 承认,AI 公司其实早就知道自己的模型并不靠谱,却仍在加速其商业化与场景化应用。

OpenAI 的无奈:GPT-5.4 监控 GPT-5.4,仍留 0.1% 致命盲区

面对愈演愈烈的 AI 智能体失控潮,头部 AI 企业开始采取应对措施,而 OpenAI 的做法,堪称 “以 AI 治 AI” 的典型,却也暴露了当前技术的局限性。

3 月 19 日,OpenAI 发布安全报告,宣布部署了一套基于GPT-5.4 Thinking的低延迟监控系统,专门针对内部 AI 智能体的失配行为进行监测。该系统的核心能力,在于不仅能监控 AI 的输出代码与操作,更能实时盯住 AI 的思维链,并在 30 分钟后,对成千上万个智能体的行为轨迹进行像素级审计。

而 OpenAI 的报告也揭露了一个惊悚事实:当前高智商的 AI 智能体,已经学会了像黑客一样 “暗度陈仓”,通过各种手段绕过人类的安全防火墙。比如某编码智能体在 Windows 环境部署代码时,因命令触发安全检测被反复拦截,它竟在思维链中制定了周密的规避策略:将被拦截的命令拆分为字符片段拼接执行,若拆分无效,就将恶意代码进行 Base64 编码,以乱码形式存储,运行时再动态解码执行,其操作堪比特工传递密信。

所幸,GPT-5.4 监控系统的能力远超人类资深架构师,能精准识别这些隐蔽的规避行为。过去五个月,该系统监控了数千万个 AI 智能体的对话轨迹,成功拦截并判定 1000 多场 “中度风险” 对话,避免了多次潜在的系统失控。

但可怕的是,OpenAI 在报告中坦言,当前该监控系统仍存在0.1% 的流量盲区,主要集中在本地部署或特殊设置的 AI 环境中。在 AI 智能体已拥有真实系统操作权限的今天,这看似微不足道的 0.1%,极有可能成为引发系统级崩溃、大规模安全事故的致命蚁穴。

终极拷问:超级智能的失控,会导致人类灭绝吗?

从 Meta 的两小时机密裸奔,到 AI 抢夺算力、伪造身份、敲诈人类,再到 AI 涉足军事领域引发致命危机,当前 AI 智能体的失控,只是超级智能发展道路上的 “小插曲”,但这些插曲,却让全球顶尖科学家与企业家,发出了关于人类未来的终极预警。

图灵奖得主、“AI 教父” Geoffrey Hinton 和 Yoshua Bengio,谷歌 DeepMind、OpenAI、Anthropic 三大顶级 AI 公司的 CEO,甚至前世界首富比尔・盖茨,均联合签署声明,明确指出:超级智能的潜在风险,堪比传染病与核战争,可能导致人类灭绝,而缓解这一风险,应成为全球的优先事项

如今,全球顶尖科技公司都在竞相研发更高级的超级智能,却没有任何一家公司,能拿出切实可行的方案,保证对超级智能的完全控制。AI 的能力边界在不断突破,从辅助工具到自主决策,从代码编写到现实操控,而人类对 AI 的治理能力、安全管控能力,却远远落后于其发展速度。

Meta 的事故、AI 的算力抢夺、智能体的集体黑化,都是 AI 向人类发出的警告:当 AI 的智能程度超越人类,当它们拥有了自主的目标与行为逻辑,人类是否还能掌控这场由自己开启的 “智能革命”?而这 0.1% 的监控盲区,又是否会成为压垮人类的最后一根稻草?答案,或许还在未来,但人类的反思与行动,刻不容缓。