## PR 主要改动总结 ### 1. 主要功能改动 该 PR 重构了 WebGPU 的 BufferManager 创建时机和路由机制,采用延迟创建(lazy creation)策略,并引入 `graph_buffer_mgr_active_` 标志来控制图模式下的 buffer 管理器在 OnRunStart/OnRunEnd 之间的激活状态。 ### 2. 解决的核心问题 修复了图捕获(graph capture)首次重放时的**陈旧缓冲区绑定问题**:当启用图捕获时,捕获的命令持有捕获阶段的 buffer 指针,如果分配器在首次 Replay() 前释放并重用了内存槽位,会导致调度读取过期内存,产生错误的 logits 张量输出,影响模型推理正确性。 ### 3. 对 WebGPU 支持的影响 该修复对 WebGPU 的图捕获优化功能至关重要,特别是在 MatMulNBits MLP/QKV 融合等会改变内存分配模式的场景下,确保了固定形状解码和动态形状推理的正确性。 ### 4. 技术要点 - 重构 `GpuBufferAllocator` 使用 `std::function<const BufferManager&()>` 动态解析活跃的 buffer 管理器 - 新增 `WebGpuContext::WaitForQueueIdle()` 和 `ComputeContextBase::FlushAndWait()` 辅助方法用于 buffer 管理器生命周期管理 - 通过门控机制避免在非图执行期间使用图模式的 buffer 管理器
## PR 主要改动总结 **核心功能:** 为 ONNX Runtime 的 WebGPU 插件式 Execution Provider 添加了完整的 C#/.NET NuGet 打包支持,新增了 `Microsoft.ML.OnnxRuntime.EP.WebGpu` NuGet 包。 **解决的问题:** 填补了 WebGPU EP 在 .NET 生态中的空白,使 C# 开发者能够通过 NuGet 包管理器方便地集成和使用 WebGPU 加速能力,之前只支持 Python。 **技术要点:** - 新增完整的打包基础设施,包括 `.csproj` 项目文件、NuGet 打包脚本 (`pack_nuget.py`) 和 CI/CD 流水线配置 - 提供 `WebGpuEp.cs` 辅助类自动处理跨平台的本地库路径解析和 EP 注册 - 包含测试项目、文档和代码示例,实现了从构建、打包到使用的完整工作流 **对 WebGPU 支持的影响:** 显著扩展了 WebGPU EP 的受众范围和可用性,使其能够在 .NET 应用中无缝部署,推动 WebGPU 在跨语言场景下的采用。
## PR 主要改动总结 **主要功能改动:** 此 PR 将 Foundry 本地打包流程集成到 WebGPU 插件的执行提供程序(EP)打包管道中。 **解决的问题:** 通过在 Azure Pipeline 配置文件中新增 148 行代码(仅删除 4 行),扩展了 WebGPU 插件的打包能力,使其支持 Foundry 工具链的本地打包流程,提升了构建和分发的自动化程度。 **技术要点:** 改动集中在 CI/CD 管道配置层面,修改了 `plugin-webgpu-packaging-stage.yml` 文件,表明这是一个构建基础设施的增强,为 WebGPU 执行提供程序添加了新的打包阶段和步骤。 **影响:** 这将使 ONNX Runtime 的 WebGPU 插件能够通过 Foundry 平台进行更规范的本地打包和部署,改善开发者的集成体验。
## PR 主要改动总结 ### 核心功能 此 PR 为 CUDA 插件式执行提供器(Plugin EP)添加了 Python wheel 打包支持,创建了 `onnxruntime-ep-cuda` Python 包,使 CUDA EP 可以作为独立插件进行分发和安装。 ### 解决的问题 参照 WebGPU 插件 EP 的打包模式(#28226),建立了完整的 CUDA 插件打包流程,包括 Linux 和 Windows x64 平台的 CI/CD 管道,实现了插件化部署,降低了主包体积并提高了灵活性。 ### 与 WebGPU 的关联 虽然 PR 标题提到 WebGPU,但实际内容是**复用 WebGPU 插件 EP 的打包架构和设计模式**,将相同的插件化方案应用到 CUDA EP 上,形成统一的插件打包范式。 ### 技术要点 - 新增了插件定位和注册的辅助 API - 扩展了版本管理以支持 PEP 440 兼容的版本号 - 使用 manylinux CUDA Docker 镜像构建 Linux wheel 包 - 目前仅支持 x64 架构,与现有构建流程保持一致
## PR 主要改动总结 **注意:此 PR 实际上与 WebGPU 无关,而是关于 CoreML EP 的改进** ### 核心改动 为 CoreML EP 添加了对 `com.microsoft:FusedConv` 算子的支持,覆盖 MLProgram 和 NeuralNetwork 两种执行路径。 ### 解决的问题 解决了预优化模型(通过 CPU EP 或 WebGPU 等 EP 优化并保存的模型)在 CoreML EP 上加载时的分区碎片化问题。之前当模型包含 `FusedConv` 节点时,CoreML EP 无法识别这些节点,导致无法有效执行。 ### WebGPU 关联 虽然 PR 针对 CoreML EP,但与 WebGPU 相关:当使用 WebGPU EP 优化模型并保存后,生成的 `FusedConv` 节点现在可以被 CoreML EP 正确处理,改善了跨平台模型部署的兼容性。 ### 技术要点 `FusedConv` 是 Conv+Activation 融合算子,由 ORT 的 `ConvActivationFusion` 优化 pass 生成。此改动主要影响移动端部署和 ORT 格式模型的使用场景,新增 132 行测试代码和 107 行实现代码。
## ONNX Runtime WebGPU PR 改动总结 ### 主要改动 此 PR 将 `gemm-subgroup` 优化扩展到 Conv(卷积)算子,并根据工作组(workgroup)数量动态决定是否启用 gemm-subgroup 优化。 ### 解决的问题 为 WebGPU 后端的卷积操作引入了 subgroup 级别的 GEMM 优化,增强了英特尔硬件上的性能表现,同时添加了基于工作组数量的智能启用机制,避免在不适合的场景下使用该优化。 ### 技术要点 - 修改了 matmul 相关代码,增加工作组数量参数传递(添加参数到函数接口) - 在 conv.cc 中集成了 gemm-subgroup 支持 - 优化决策逻辑更加智能化,根据实际计算规模动态选择是否使用 subgroup 优化 ### 影响范围 代码改动较小(22 行新增,10 行删除),主要集中在英特尔厂商特定的数学运算优化模块,对 WebGPU 的卷积性能有积极影响。
## PR 主要改动总结 ### 核心功能 此 PR 为 ONNX Runtime 的 WebGPU 后端添加了两个专门针对 Qwen3 模型的图融合优化,分别是 **MatMulNBitsMlp** 和 **MatMulNBitsQkv** 融合算子及其对应的 kernel 实现。 ### 解决的问题 - **MatMulNBitsMlp**:将 SwiGLU MLP 块中的 5-7 个独立操作(可选的 LayerNorm + 两个 MatMulNBits 投影 + 可选 bias + Sigmoid/Mul(SiLU) + 逐元素乘法)融合为单次 dispatch,显著减少 GPU 调用开销 - **MatMulNBitsQkv**:将注意力机制中的 4 个操作(可选的 LayerNorm + 三个共享输入的 Q/K/V 投影)融合为单次 dispatch ### WebGPU 支持影响 这两个融合专为 WebGPU 优化,通过减少多次 kernel 调度和中间数据传输,大幅提升 Qwen3 等 Transformer 模型在 WebGPU 上的推理性能,特别是在量化(N-bit)场景下。 ### 技术要点 重构了现有 `MatMulNBits` 的调度逻辑以便新融合 kernel 复用判断条件;新增完整的 op schema、WGSL shader 模板以及对应的图优化和单元测试,共新增约 3800 行代码。
## PR 主要改动总结 **核心改动:** 为 ONNX Runtime WebGPU 实现了基于图标注 ID 的独立缓冲区管理器(per-graph buffer manager),替换原有的全局共享缓冲区管理器。这使得多个使用不同提示词的生成器可以各自拥有隔离的缓冲区缓存。 **解决的问题:** 修复了在启用图捕获(graph capture)时,多个生成器之间可能发生的缓冲区数据污染问题。通过为每个图分配独立的缓冲区管理器,确保不同生成器的执行互不干扰。 **技术要点:** 1. 引入 `per_graph_buffer_mgrs_` 映射表,以图标注 ID 为键存储各自的缓冲区管理器 2. 重构 `GpuBufferAllocator`,将固定的 `const BufferManager&` 改为支持动态路由的指针和 `SetBufferManager()` 方法 3. 新增 `ReleaseGraph` API 贯穿整个调用栈(从 EP 基类到 C API),允许在生成器销毁时释放已捕获的图资源,包括命令、缓冲区管理器和跟踪状态
## ONNX Runtime WebGPU PR 改动总结 ### 主要改动 此 PR 将 `GroupQueryAttention` 算子的 `present_key` 和 `present_value` 输出标记为可选项,并添加了对 Gemma 4 模型的支持。 ### 解决的问题 Gemma 4 模型包含 20 个 KV 共享的解码器层,这些层从源层借用 K/V 缓存而不需要维护自己的 KV cache。将输出改为可选避免了为这些层分配和填充冗余的 KV 张量,减少内存开销和计算浪费。 ### WebGPU 影响 WebGPU 实现已同步更新(`group_query_attention.cc`),添加了对可选 present 输出的验证逻辑,确保 `present_key` 和 `present_value` 要么同时存在要么同时缺失。 ### 技术要点 - 修改了算子 Schema 定义,使用 `OpSchema::Optional` 标记输出 - 在 CPU、CUDA 和 WebGPU 三个后端的内核中都添加了相应的验证逻辑 - 新增了 245 行测试代码以覆盖可选输出场景
## PR 主要改动总结 **主要功能改动:** 针对 WebGPU 的 ReduceMean 算子优化了计算策略选择逻辑。当输出尺寸远大于归约维度大小时,改用朴素归约(naive reduction)方法替代共享内存归约方法。 **解决的问题:** 解决了共享内存归约方法在特定场景下的性能问题。当输出维度较大时,共享归约可能需要对输入进行转置操作,这会带来显著的时间开销,影响整体性能。 **对 WebGPU 支持的影响:** 通过根据数据维度特征智能选择归约算法,提升了 WebGPU 后端在处理大输出尺寸归约操作时的执行效率。 **技术要点:** 代码改动量很小(仅 3 行新增,1 行删除),通过添加条件判断实现算法切换,属于性能优化类改动。