全球第四,开源第一!GLM-5 重磅上线,北京超算MaaS平台率先接入

2026年2月11日,智谱重磅发布旗舰大模型 GLM-5,在全球权威的 Artificial Analysis 榜单中,GLM-5 位居全球第四、开源第一!

北京超算 MaaS 平台率先完成接入,现已开放体验 ⬇️
立即体验 GLM-5:
https://ai.blsc.cn/#/lms/model

更大基座,更强智能
GLM-5 全新基座为从“写代码”到“写工程”的能力演进提供了坚实基础:
参数规模扩展:从 355B(激活 32B)扩展至 744B(激活 40B),预训练数据从 23T 提升至 28.5T,更大规模的预训练算力显著提升了模型的通用智能水平。
异步强化学习:构建全新的“Slime”框架,支持更大模型规模及更复杂的强化学习任务,提升强化学习后训练流程效率;提出异步智能体强化学习算法,使模型能够持续从长程交互中学习,充分激发预训练模型的潜力。
稀疏注意力机制:首次集成 DeepSeek Sparse Attention,在维持长文本效果无损的同时,大幅降低模型部署成本,提升 Token Efficiency。
Coding 能力:对齐 Claude Opus 4.5
GLM-5 在编程能力上实现了对 Claude Opus 4.5 的对齐,在业内公认的主流基准测试中取得开源模型 SOTA 分数。在 SWE-bench-Verified 和 Terminal Bench 2.0 中分别获得 77.8 和 56.2 的开源模型 SOTA 分数,性能超过 Gemini 3 Pro。
Agent 能力:SOTA 级长程任务执行
GLM-5 在 Agent 能力上实现开源 SOTA,在多个评测基准中取得开源第一:在 BrowseComp(联网检索与信息理解)、MCP-Atlas(工具调用和多步骤任务执行)和 τ²-Bench(复杂多工具场景下的规划和执行)均取得最佳表现。

国产芯片支持
GLM-5模型对国产芯片适配良好,助力国产大模型摆脱海外算力依赖,性价比更优,加速AI应用规模化落地。
GLM-5 的发布,不仅标志着国产大模型在通用智能、代码生成与智能体能力上的重大突破,更通过深度适配国产芯片生态,为AI产业的自主可控与规模化落地注入强劲动能。
北京超算将持续推动前沿模型与国产算力的高效协同,让每一位开发者、科研团队与企业用户,都能以更低门槛、更高性价比,拥抱 AGI 时代的创新浪潮。


