盘古Pro MoE技术开发团队:开源模型并非基于其他厂商模型增量训练而来

2025-07-05 17:22:00 新浪网 

7月5日下午消息,盘古Pro MoE技术开发团队今天发布声明,表示注意到近期开源社区及网络平台关于盘古大模型开源代码的讨论。盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来,在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升训练效率。其他技术特性创新,请参考昇腾生态竞争力系列技术报告披露内容。

声明称,盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码,严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。

责任编辑:凌辰

(责任编辑:董萍萍 )

【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读