LlamaFactory x MindSpore HyperParallel 社区协作路标
昇思社区 · HyperParallel 超节点并行库 文档版本:v1.0 | 更新日期:2026-03-30 项目愿景 HyperParallel 是 昇思社区 新提出的超节点并行训练架构,致力于简化昇腾超节点编程,释放算力潜能。我们希望协同 LlamaFactory 生态提供易用、高性能的分布式训练解决方案。我们的目标是让每一位开发者都能在 Ascend NPU 和 NVIDIA GPU 上高效训练大模型,降低大模型训练的门槛和成本。 本路线图概述了 LlamaFactory 与 MindSpore HyperParallel 社区协作的发展方向,涵盖并行能力扩展、硬件优化、后端支持等多个维度。 路线图总览 1 2 3 4 5 6 7 8 9 10 11 2026 Q2 2026 Q3 2026 Q4 │ │ │ ▼ ▼ ▼ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ │ Phase 1 │ │ Phase 2 │ │ Phase 3 │ │ 能力扩展 │ ───► │ 硬件深化 │ ───► │ 后端多元 │ └─────────────┘ └─────────────┘ └─────────────┘ │ │ │ ├─ TP/EP/CP混合并行 ├─ 高维TP等优化 ├─ MindSpore后端扩展 ├─ 更多模型泛化 ├─ HyperMPMD三层并行 ├─ 图算融合组件优化 └─ 更大模型规模 └─ HyperOffload UD链卸载 └─ 更多训练阶段支持 Phase 1: 并行能力扩展 (2026 Q2) 目标:扩展 TP(张量并行)/EP(专家并行)/CP(上下文并行)等多维混合并行能力,支持更大规模模型训练。 特性 描述 优先级 状态 TP-EP 混合并行 支持 MoE 模型的 TP+EP 组合并行策略 P0 验证中 CP 长序列支持 支持上下文并行,突破显存限制训练超长序列 P0 验证中 3D 并行 (DP-TP-PP) 完整的三维混合并行支持,适配千亿级参数模型 P1 验证中 昇腾亲和Offload策略 提供NPU亲和的多级智能显存卸载策略 P2 开发中 技术要点: ...