全球第四,开源第一!GLM-5 重磅上线,北京超算MaaS平台率先接入

2026.02.12


2026年2月11日,智谱重磅发布旗舰大模型 GLM-5,在全球权威的 Artificial Analysis 榜单中,GLM-5 位居全球第四、开源第一!



北京超算 MaaS 平台率先完成接入,现已开放体验 ⬇️


 立即体验 GLM-5:

https://ai.blsc.cn/#/lms/model



更大基座,更强智能


GLM-5 全新基座为从“写代码”到“写工程”的能力演进提供了坚实基础:


  • 参数规模扩展:从 355B(激活 32B)扩展至 744B(激活 40B),预训练数据从 23T 提升至 28.5T,更大规模的预训练算力显著提升了模型的通用智能水平。


  • 异步强化学习:构建全新的“Slime”框架,支持更大模型规模及更复杂的强化学习任务,提升强化学习后训练流程效率;提出异步智能体强化学习算法,使模型能够持续从长程交互中学习,充分激发预训练模型的潜力。


  • 稀疏注意力机制:首次集成 DeepSeek Sparse Attention,在维持长文本效果无损的同时,大幅降低模型部署成本,提升 Token Efficiency。

Coding 能力:对齐 Claude Opus 4.5


GLM-5 在编程能力上实现了对 Claude Opus 4.5 的对齐,在业内公认的主流基准测试中取得开源模型 SOTA 分数。在 SWE-bench-Verified 和 Terminal Bench 2.0 中分别获得 77.8 和 56.2 的开源模型 SOTA 分数,性能超过 Gemini 3 Pro。


Agent 能力:SOTA 级长程任务执行


GLM-5 在 Agent 能力上实现开源 SOTA,在多个评测基准中取得开源第一:在 BrowseComp(联网检索与信息理解)、MCP-Atlas(工具调用和多步骤任务执行)和 τ²-Bench(复杂多工具场景下的规划和执行)均取得最佳表现。


国产芯片支持



GLM-5模型对国产芯片适配良好,助力国产大模型摆脱海外算力依赖,性价比更优,加速AI应用规模化落地。


GLM-5 的发布,不仅标志着国产大模型在通用智能、代码生成与智能体能力上的重大突破,更通过深度适配国产芯片生态,为AI产业的自主可控与规模化落地注入强劲动能。


北京超算将持续推动前沿模型与国产算力的高效协同,让每一位开发者、科研团队与企业用户,都能以更低门槛、更高性价比,拥抱 AGI 时代的创新浪潮。



您身边的算力服务专家

免费试算