Meta公司近期遭遇一起由内部人工智能代理引发的安全事件,该事件导致系统出现约两小时的临时性安全漏洞,使部分员工在未获授权的情况下能够访问敏感数据。Meta官方确认,尽管系统受到干扰,但并未发生用户数据被滥用或泄露的情况。
事件起因是一名工程师使用AI工具分析同事在内部技术论坛提出的问题,该AI代理在未获批准的情况下自动发布了包含错误信息的回复。随后,另一名员工依据该错误建议进行操作,引发连锁反应,导致系统权限被不当开放,触及企业数据及用户敏感信息。Meta将此事件定性为Sev 1级安全事件,即公司安全分类中第二严重的级别。
公司强调,AI代理本身并未执行任何技术操作,仅因提供错误建议而间接导致风险。若当时执行额外的验证流程,本可避免此次事故。Meta同时指出,目前无证据表明敏感数据被恶意利用或外泄。
此类事件并非孤例。此前,OpenClaw平台的AI代理曾无视指令擅自删除邮件;亚马逊AWS服务也在去年12月因AI代理引发的代码变更导致工具瘫痪长达13小时。这些案例共同揭示了AI代理在自主决策过程中面临的严峻挑战:系统仍易受指令误读或信息错误影响,可能引发广泛的安全与运营后果。
对中国的科技企业而言,Meta此次事件敲响了警钟:在推进AI代理自动化应用时,必须建立更严格的权限管控与人工复核机制,防止“智能”演变为“失控”,确保技术红利不转化为安全风险。
