PPIO 上线 DeepSeek-Prover-V2-671B
4月30日,DeepSeek 在 Hugging Face 开源了 DeepSeek-Prover-V2-671B 新模型。作为一站式 AIGC 云服务平台,PPIO派欧云在第一时间上线了 DeepSeek-Prover-V2-671B !让开发者能低成本快速使用并助力搭建创新场景。
DeepSeek-Prover-V2-671B 是一款基于 671B 参数的 MoE 大模型。 在模型架构上,该模型使用了DeepSeek-V3架构,采用MoE(混合专家)模式,具有61层Transformer层,7168维隐藏层。同时支持超长上下文,最大位置嵌入达163840,使其能处理复杂的数学证明,并且采用了FP8量化,可通过量化技术减小模型大小,提高推理效率。
PPIO 平台 DeepSeek-Prover-V2-671B 模型的基本信息:
● 价格: 输入: ¥4/百万 tokens,输出: ¥16/百万 tokens
● 上下文窗口:160k,最大输出 token 数:160k
据了解,PPIO派欧云是致力于为企业及开发者提供高性能的 API 服务,目前已上线 DeepSeek R1/V3、Llama、GLM、Qwen 等系列模型,仅需一行代码即可调用。并且,PPIO 通过 2024 年的实践,已经实现大模型推理的 10 倍 + 降本,实现推理效率与资源使用的动态平衡。