0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

华为宣布开源盘古7B稠密和72B混合专家模型

Carol Li ? 来源:电子发烧友网 ? 作者:李弯弯 ? 2025-07-06 05:51 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

电子发烧友网综合报道 2025年6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型及基于昇腾的模型推理技术,此举标志着华为在AI技术生态建设领域迈出关键一步,为全球开发者、企业及研究人员提供了强大的技术支撑。

华为此次开源行动涵盖三大核心板块:盘古Pro MoE 72B模型权重与基础推理代码已率先上线开源平台;基于昇腾的超大规模MoE模型推理代码同步开放;盘古7B稠密模型相关代码将于近期完成上线。开发者可通过华为开源社区(https://gitcode.com/ascend-tribe)获取完整技术资源,参与模型优化与生态共建。

作为70亿参数的紧凑型模型,盘古7B在保持高效推理能力的同时,显著降低部署门槛。其设计聚焦行业场景的快速适配,特别适合资源受限环境下的边缘计算应用,为中小企业提供高性价比的AI解决方案。

该模型采用创新性的分组混合专家架构(MoGE),通过动态激活机制实现160亿参数的高效利用。在SuperCLUE评测中,其以720亿总参数量达到59分,与千亿级模型持平,展现出“小参数量、大能力”的技术优势。基于昇腾AI计算平台的优化,单卡推理吞吐量达2300 Tokens/s,较传统架构提升4倍,支持384个专家并行推理的超级节点架构,更将算力利用率(MFU)提升50%以上。

华为通过开源构建开放创新生态,吸引全球开发者参与模型优化。目前,盘古大模型已形成覆盖数据管理、训练、部署的全生命周期工具链,支持企业定制化开发。这种“基础开源+商业增值”模式,既降低技术使用门槛,又通过商业发行版形成可持续的盈利路径。

在金融、制造、医疗等领域,盘古模型的动态负载均衡技术使云端推理成本降低30%,支撑高并发实时作业场景。基于MoGE架构的轻量化引擎,可适配昇腾系列芯片,使百亿级模型在边缘设备高效运行,为工业互联网、智能座舱等场景开辟新应用空间。

作为首个由亚洲企业主导的AI大模型开源项目,华为的实践正在改变国际技术竞争格局。通过Apache-2.0协议运营,盘古模型已吸引科大讯飞、中国科学院等1300家机构采用,推动中国AI技术从跟跑向并跑乃至领跑转变。

此次开源行动,是华为“把复杂留给自己,把简单留给客户”技术理念的生动实践。当72B模型的专家网络在昇腾超节点上高效运转,当7B模型的轻量化部署突破行业边界,中国AI产业正以开源为支点,撬动全球技术创新的新范式。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 华为
    +关注

    关注

    216

    文章

    35343

    浏览量

    257559
  • 盘古大模型
    +关注

    关注

    1

    文章

    112

    浏览量

    820
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    太强了!AI PC搭载70B模型,算力狂飙,内存开挂

    了1.5B/7B/8B/14B/32B/70B/671B
    的头像 发表于 03-24 08:52 ?2559次阅读
    太强了!AI PC搭载70<b class='flag-5'>B</b>大<b class='flag-5'>模型</b>,算力狂飙,内存开挂

    华为正式开源盘古7B稠密72B混合专家模型

    [中国,深圳,2025年6月30日] 今日,华为正式宣布开源盘古70亿参数的稠密模型
    的头像 发表于 06-30 11:19 ?791次阅读

    华为开发者大会2025(HDC 2025)亮点:华为云发布盘古模型5.5 宣布新一代昇腾AI云服务上线

    HarmonyOS、昇腾AI云服务、盘古模型等最新科技创新成果。 在主题演讲中,华为常务董事、华为云计算CEO张平安宣布基于CloudMa
    的头像 发表于 06-20 20:19 ?3100次阅读
    <b class='flag-5'>华为</b>开发者大会2025(HDC 2025)亮点:<b class='flag-5'>华为</b>云发布<b class='flag-5'>盘古</b>大<b class='flag-5'>模型</b>5.5 <b class='flag-5'>宣布</b>新一代昇腾AI云服务上线

    在阿里云PAI上快速部署NVIDIA Cosmos Reason-1模型

    NVIDIA 近期发布了 Cosmos Reason-1 的 7B 和 56B 两款多模态大语言模型 (MLLM),它们经过了“物理 AI 监督微调”和“物理 AI 强化学习”两个阶段的训练。其中
    的头像 发表于 06-04 13:43 ?457次阅读

    代码革命的先锋:aiXcoder-7B模型介绍

    ? ? 国内开源代码大模型 4月9日aiXcoder宣布正式开源7B模型Base版,仅仅过去一
    的头像 发表于 05-20 14:41 ?418次阅读
    代码革命的先锋:aiXcoder-<b class='flag-5'>7B</b><b class='flag-5'>模型</b>介绍

    NVIDIA RTX 5880 Ada与Qwen3系列模型实测报告

    近日,阿里巴巴通义千问团队正式推出新一代开源大语言模型——Qwen3 系列,该系列包含 6 款 Dense 稠密模型和 2 款 MoE 混合
    的头像 发表于 05-09 15:05 ?1363次阅读
    NVIDIA RTX 5880 Ada与Qwen3系列<b class='flag-5'>模型</b>实测报告

    NVIDIA使用Qwen3系列模型的最佳实践

    阿里巴巴近期发布了其开源混合推理大语言模型 (LLM) 通义千问 Qwen3,此次 Qwen3 开源模型系列包含两款
    的头像 发表于 05-08 11:45 ?2084次阅读
    NVIDIA使用Qwen3系列<b class='flag-5'>模型</b>的最佳实践

    【幸狐Omni3576边缘计算套件试用体验】CPU部署DeekSeek-R1模型(1B7B

    架构和动态计算分配技术,在保持模型性能的同时显著降低了计算资源需求。 模型特点: 参数规模灵活:提供1.5B/7B/33B等多种规格
    发表于 04-21 00:39

    利用英特尔OpenVINO在本地运行Qwen2.5-VL系列模型

    近期阿里通义实验室在 Hugging Face 和 ModelScope 上开源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B7B
    的头像 发表于 03-12 13:42 ?1320次阅读
    利用英特尔OpenVINO在本地运行Qwen2.5-VL系列<b class='flag-5'>模型</b>

    摩尔线程支持阿里云通义千问QwQ-32B开源模型

    近日,阿里云团队正式开源全新推理模型——通义千问QwQ-32B。摩尔线程在该模型发布后2小时内,迅速且高效完成了对千问QwQ-32B的支持。
    的头像 发表于 03-07 17:48 ?880次阅读
    摩尔线程支持阿里云通义千问QwQ-32<b class='flag-5'>B</b><b class='flag-5'>开源</b><b class='flag-5'>模型</b>

    阿里云发布开源多模态推理模型QVQ-72B-Preview

    近日,阿里云宣布了一项重大技术突破,正式发布了业界首个开源多模态推理模型——QVQ-72B-Preview。这一模型的问世,标志着阿里云在A
    的头像 发表于 12-27 10:28 ?708次阅读

    猎户星空发布Orion-MoE 8×7B模型及AI数据宝AirDS

    。 Orion-MoE 8×7B是猎户星空精心打造的开源混合架构专家模型,该模型拥有高达8×7
    的头像 发表于 11-29 13:57 ?763次阅读

    阿里通义千问代码模型全系列开源

    近日,阿里云通义大模型团队宣布了一项重大决策:将通义千问代码模型全系列正式开源。此次开源模型
    的头像 发表于 11-14 15:26 ?1225次阅读

    PerfXCloud重磅升级 阿里开源最强视觉语言模型Qwen2-VL-7B强势上线!

    体验吧! Qwen2-VL Qwen2-VL模型由阿里推出,在描述图像、理解视频以及解答视觉相关问题等方面表现极为卓越。该模型提供2B/7B/72B
    的头像 发表于 10-23 11:07 ?890次阅读
    PerfXCloud重磅升级  阿里<b class='flag-5'>开源</b>最强视觉语言<b class='flag-5'>模型</b>Qwen2-VL-<b class='flag-5'>7B</b>强势上线!

    TAS5805的I2C地址配置的是7b:2D,8b:5A怎么出来是7b:2F,8b:5E?这个是什么原因?

    我们5805的I2C地址配置的是7b:2D,8b:5A,怎么出来是7b:2F,8b:5E?这个是什么原因? DVDD: 1.8V
    发表于 10-18 07:41