《2025大模型服务性能排行榜》发布,蓝耘元生代多项指标领航业界

2025-09-16 10:42:39 商务信息

在2025年9月13日举办的 GOSIM 2025大会现场,清华大学与中国软件评测中心(CSTC)联合发布的《2025大模型服务性能排行榜》由清华大学计算机系高性能所翟季冬教授正式揭晓。据介绍,本次评测涵盖了20余家大模型服务商提供的数百个模型服务,围绕延迟、吞吐、可靠性等关键指标,对主流大模型服务提供商的性能表现展开全面评估。从这份权威评测报告来看,蓝耘元生代MaaS平台在多个维度展现出强劲实力,多个模型在延迟、吞吐等关键指标上位居行业前列,技术实力与服务性能得到充分验证。

在关乎用户体验的延迟指标上,蓝耘元生代表现亮眼:在DeepSeek-R1-0528、DeepSeek-V3.1、Kimi-K2-Instruct三款模型的延迟测试里,均跻身前三。其中,“DeepSeek-V3.1”模型首字延迟仅0.79秒,位列第一,超越七牛云、阿里云百炼、火山方舟等多家服务提供商,响应效率优势显著;更值得关注的是,其搭载的Qwen3-235B-A22B 模型以0.58秒的首字响应,斩获本次评测最佳延迟表现,领先于移动云、华为云,进一步印证其在大模型推理优化领域的领先水平。

与此同时,在模型吞吐性能维度,蓝耘元生代MaaS平台同样表现出色。在DeepSeek-R1-0528(44.20 Tokens/s)、DeepSeek-V3.1(63.54 Tokens/s)、Qwen3-235B-A22B(61.29 Tokens/s)模型的吞吐量测试中,均稳居前三,显示出其在高并发场景下优异的处理效能。

据了解,蓝耘元生代MaaS平台面向企业开发者、创业者及非技术用户提供开箱即用的热门AI模型服务,支持零代码便捷体验、API快速集成、私有化部署等多种使用方式,可满足不同用户在数据安全、特定应用场景方面的个性化需求。

随着大模型应用迈向深水区,“模型即服务”(MaaS)已成为众多开发者调用AI能力的首选途径,它不仅降低了模型使用门槛,更加速了AI技术的普惠化进程。在此背景下,蓝耘从底层算力支撑到 AI 模型应用,为企业开发者、创业者与科研机构提供高性能、低延迟、高可用的智算基础设施服务,其构建的开放兼容的元生代MaaS服务底座,正为大模型在复杂场景下的高效推理应用源源不断地提供着坚实有力的支撑。

(责任编辑:张晓波 )

【免责声明】【广告】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读