必读视频专题飞象趣谈光通信人工智能低空经济5G手机智能汽车智慧城市会展特约记者

​Check Point:AI编程加速普及,安全隐患不容忽视

2026年3月18日 09:58CCTIME飞象网

Check Point:AI编程加速普及,安全隐患不容忽视

2025年下半年以来,AI编程工具迎来了真正意义上的爆发。开源AI智能体项目OpenClaw的迅速走红,更将"让AI自主完成编程任务"的概念从开发者圈层带入了更广泛的视野。与此同时,Anthropic旗下的Claude Code年化收入在2026年1月突破25亿美元,全球GitHub公共代码提交中已有约4%由AI生成,且这一比例仍在持续攀升。AI编程工具正在完成一次身份转变:从开发者的效率辅助工具,演变为软件生产流程中不可或缺的基础设施。

这一趋势在中国开发者社区同样有所体现。字节跳动、阿里云、腾讯云等主流云厂商相继推出面向AI编程场景的Coding Plan订阅服务,开发者对AI编程工具的使用热情持续升温。

能力越强,风险越大

AI编程工具的核心价值在于"理解项目、执行任务、调用资源"。正是这种深度介入开发流程的能力,使其天然携带了比传统工具更大的权限敞口。Check Point Research近期在Anthropic旗下的Claude Code中发现了两个关键安全漏洞(CVE-2025-59536和CVE-2026-21852),清晰揭示了这一风险的现实烈度。

研究人员发现,Claude Code支持在代码仓库中嵌入项目级配置文件,工具打开项目时会自动加载这些文件。这一设计本意是提升协作效率,但Check Point Research的研究证实,攻击者可以通过构造恶意仓库,将上述机制转化为攻击入口。具体而言,风险体现在三个层面。

·其一,静默命令执行:Claude Code内置的Hooks自动化机制允许在会话启动时执行预定义操作。Check Point Research证实,该机制可被恶意配置文件滥用,在开发者打开项目的瞬间,于其本地设备上自动触发任意Shell命令,全程无需任何额外交互,也不产生任何可见提示。

·其二,用户授权绕过:Claude Code通过模型上下文协议(MCP)与外部工具集成,并设有用户授权提示以保护安全边界。然而研究人员发现,仓库中的配置文件可以覆盖这一保护机制,使外部工具的初始化在用户授权之前便已完成,授权流程形同虚设。

·其三,API密钥窃取:Claude Code通过API密钥与Anthropic服务通信。Check Point Research证实,攻击者可通过操控仓库配置,将包含完整授权信息的API流量重定向至外部服务器,在用户尚未确认信任该项目之前,完成密钥的静默窃取。更值得警惕的是,Anthropic的Workspaces功能允许多个API密钥共享对云端项目文件的访问权限,一旦单个密钥遭到泄露,影响范围将从个人工作站迅速扩大至整个团队的共享资源。

AI安全新命题

Check Point Research的上述发现,揭示的不仅是Claude Code的具体问题,更折射出AI工具普及后一个更深层的结构性转变。

在传统安全体系中,配置文件被视为被动的操作元数据,威胁来自可执行代码。但当AI编程工具获得自主执行命令、调用外部服务、发起网络通信的能力后,配置文件实际上已成为执行层的组成部分。攻击者无需植入恶意代码,只需精心构造一份配置文件,便可将AI工具本身变成攻击的执行者。

这正是AI安全区别于传统安全的本质所在。传统安全防御的是代码层面的漏洞,而在AI时代,配置即执行,上下文即攻击面,信任边界的定义本身已经发生了根本变化。Check Point在此前的研究中指出,AI时代的安全威胁不再局限于运行不受信任的代码,而是延伸至打开不受信任的项目。供应链的安全起点,不只是源代码本身,还包括围绕源代码的整个自动化层。

安全管理AI,如同管理人为失误

面对这类新型风险,企业容易陷入的误区是将其视为纯粹的技术问题,寄望于工具厂商的补丁来彻底解决。但Check Point的研究视角提供了另一种思路:对待AI编程工具的安全管理,应当与对待人为失误采取同等严肃的态度。

人为失误难以通过单一技术手段完全消除,需要通过制度规范、操作习惯与持续培训来系统性管控。AI工具的安全风险同样如此。企业在引入AI编程工具时,需要建立与之匹配的治理机制:明确哪些仓库可信、哪些外部集成经过审查、API密钥的使用范围如何界定。这些不是高深的技术问题,而是基本的安全习惯在AI场景下的延伸。

随着AI工具的权限边界不断扩展,安全意识与制度化的验证流程,将成为企业AI应用体系中与技术防御同等重要的组成部分。

负责任的披露:Check Point与Anthropic的协同修复

在完成漏洞研究后,Check Point Research遵循负责任披露原则,与Anthropic展开了密切合作。Anthropic随即针对上述问题实施了修复,强化了用户信任提示机制,阻止了外部工具在获得明确授权前的执行行为,并在信任确认完成前阻断了API通信。所有已报告问题均已在公开披露前完成修复。

这一协作过程本身,也是AI安全生态健康发展的缩影。AI工具的能力边界仍在快速扩展,新的攻击面还将持续出现。只有安全研究机构、工具厂商与企业用户形成协同,才能在AI基础设施快速演进的过程中,持续维护可信赖的开发环境。

编 辑:T01
飞象网版权及免责声明:
1.本网刊载内容,凡注明来源为“飞象网”和“飞象原创”皆属飞象网版权所有,未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载,请必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和飞象网来源。
2.凡注明“来源:XXXX”的作品,均转载自其它媒体,在于传播更多行业信息,并不代表本网赞同其观点和对其真实性负责。
3.如因作品内容、版权和其它问题,请在相关作品刊发之日起30日内与本网联系,我们将第一时间予以处理。
本站联系电话为86-010-87765777,邮件后缀为cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
推荐阅读
  • 2026十大科技趋势

    2026 十大科技趋势,定义新一年的每一次突破。祝大家马年大吉,马到成功!初八启新程,万事皆顺遂!

    [详细]

精彩视频

精彩专题

关于我们广告报价联系我们隐私声明本站地图

CCTIME飞象网 CopyRight © 2007-2026 By CCTIME.COM

京ICP备08004280号-1 电信与信息服务业务经营许可证080234号 京公网安备110105000771号

公司名称: 北京飞象互动文化传媒有限公司

未经书面许可,禁止转载、摘编、复制、镜像