DeepSeek-V4上线北京超算MaaS平台,解锁百万token超长上下文
2026.04.28
4月24日,DeepSeek-V4模型的预览版本正式上线并同步开源,北京超算已实现深度适配。
DeepSeek-V4系列包含两款强大的混合专家(MoE)语言模型,均原生支持百万Token超长上下文,在架构创新与推理效能上实现全面升级。
当前,北京超算MaaS平台已全面上线该系列模型,为开发者提供免部署、一键调用DeepSeek-V4 API Token服务,即刻开启高效、普惠的模型体验。
【立即体验】:https://ai.blsc.cn/#/lms/api

两款模型,精准覆盖不同场景 DeepSeek-V4-Pro(1.6T参数,激活49B):性能比肩顶级闭源模型。V4-Pro的极限推理模式(ProMax)重新定义了开放模型的新高度,在核心任务上全面超越前代;在一百万token 上下文设置中,DeepSeek-V4-Pro 仅需 DeepSeek-V3.2 单 token 推理 FLOPs 的 27% 与 10% 的 KV 缓存,使我们能够常规支持一百万 token 上下文,从而让长程任务与进一步测试时扩展更加可行。 DeepSeek-V4-Flash(284B参数,激活13B):更快捷高效的经济之选。在世界知识储备上稍逊于Pro版,但展现出接近的推理能力;在简单Agent任务上与Pro版旗鼓相当。凭借更小的激活参数,V4-Flash可提供更加快捷、经济的API服务,实现百万上下文普惠。 北京超算以强大的智算底座为核心,持续打造高效、易用的AI算力平台,致力于为开发者提供最前沿的模型服务,做好AI时代的“算力引擎”。


