一、vLLM 远程代码执行风险
vLLM 是一个高性能的大模型推理框架,广泛用于推理服务、
AI 应用后端与生产级模型部署场景。
1. 风险内容
漏洞源于 Nemotron_Nano_VL_Config 在处理 auto_map 字段时,通过 get_class_from_dynamic_module()无条件获取并实例化远程仓库中的类,实现动态模块解析。然而该过程未正确遵循 trust_remote_code=False 的安全限制,导致攻击者可以构造一个看似正常的前端模型仓库,并在其 config.json 中将 auto_map 指向包含恶意代码的后端仓库。一旦受害者加载前端模型,vLLM 将自动下载并执行后端仓库的任意 Python 代码。该漏洞影响通用加载路径,对模型服务、自动化流水线与开发环境均构成高风险,可导致完全的主机代码执行。
2. 影响范围
vLLM < <0.11.1
3. 修复建议
联系信息中心获取版本更新链接。
二、Open WebUI 任意代码执行风险
Open-WebUI 是一款自托管 AI 聊天界面系统,专为与大型语言模型交互而设计,广泛应用于私有化 AI 服务部署场景,为企业提供安全可控的 AI 交互平台。
1. 风险内容
该漏洞存在于 Open WebUI 的提示词插入功能中,当"InsertPrompt as Rich Text"选项启用时,提示词内容会转换为 HTML 格式并赋值给 DOM 元素的 innerHTML 属性而未进行充分过滤,导致存储型跨站脚本攻击。拥有提示词创建权限的远程攻击者还可以借此利用管理员权限执行任意 Python 代码。
2. 影响范围
3. 修复建议
联系信息中心获取版本更新链接。
三、Apache Tomcat RewriteValve 路径遍历风险
Apache Tomcat 是一个开源的 Web 服务器和 Servlet 容器,广泛用于 Web 应用的部署和运行。
1. 风险内容
该漏洞产生于 Apache Tomcat 的 RewriteValve 组件中,由于URL 规范化与解码操作的执行顺序存在缺陷,导致攻击者能够突破安全路径限制,直接访问受保护的 /WEB-INF/ 或 /META-INF/ 敏感目录。如果同时启用了 PUT 请求或 WebDAV 功能,则攻击者可以上传恶意 JSP 文件并通过路径遍历执行,从而造成远程代码执行。
2. 影响范围
11.0.0-M1 <= Apache Tomcat < 11.0.1 110.1.0-M1 <= Apache Tomcat < 10.0.45
9.0.0-M1 <= Apache Tomcat < 9.0.109
3. 修复建议
联系信息中心获取版本更新链接。