全新上线
D
deepseek/deepseek-r1-0528
输入 ¥4/ 百万 tokens | 输出 ¥16/ 百万 tokensDeepSeek R1 0528 是派欧云平台提供的最新高性能DeepSeek R1 模型。DeepSeek R1 0528 是DeepSeek团队发布的最新开源模型,具备非常强悍的推理性能,尤其在编程、数学、推理任务上达到了开源模型最先进的水平。满血版全参数全新上线
D
DeepSeek-R1-0528-Qwen3-8B
输入 ¥0.4/ 百万 tokens | 输出 ¥0.65/ 百万 tokensDeepSeek-R1-0528-Qwen3-8B 是基于 Qwen3 8B Base 模型,通过融合 DeepSeek-R1-0528 的思维链(Chain-of-Thought)优化训练而成的高性能推理模型。在 AIME 2024 评测中,该模型以开源模型身份达到最先进(SOTA)水平,性能较原版 Qwen3 8B 提升 10%,并展现出与 2350 亿参数的 Qwen3-235B-thinking 相当的推理能力。D
DeepSeek: DeepSeek R1 Distill Qwen 32B
输入 ¥2.18/ 百万 tokens | 输出 ¥2.18/ 百万 tokensDeepSeek R1 Distill Qwen 32B 是一种基于 Qwen 2.5 32B 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。该模型在多个基准测试中超越了 OpenAI 的 o1-mini,取得了密集模型(dense models)的最新技术领先成果(state-of-the-art)。以下是一些基准测试的结果:
AIME 2024 pass@1: 72.6
MATH-500 pass@1: 94.3
CodeForces Rating: 1691
该模型通过从 DeepSeek R1 的输出中进行微调,展现了与更大规模的前沿模型相当的竞争性能。推理模型D
DeepSeek: DeepSeek R1 Distill Qwen 14B
输入 ¥1/ 百万 tokens | 输出 ¥1/ 百万 tokensDeepSeek R1 Distill Qwen 14B 是一种基于 Qwen 2.5 14B 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。该模型在多个基准测试中超越了 OpenAI 的 o1-mini,取得了密集模型(dense models)的最新技术领先成果(state-of-the-art)。以下是一些基准测试的结果:
AIME 2024 pass@1: 69.7
MATH-500 pass@1: 93.9
CodeForces Rating: 1481
该模型通过从 DeepSeek R1 的输出中进行微调,展现了与更大规模的前沿模型相当的竞争性能。推理模型D
DeepSeek R1 Distill Llama 70B
输入 ¥5.8/ 百万 tokens | 输出 ¥5.8/ 百万 tokensDeepSeek R1 Distill Llama 70B是基于Llama3.3 70B的大型语言模型,该模型利用DeepSeek R1输出的微调,实现了与大型前沿模型相当的竞争性能。推理模型D
DeepSeek: DeepSeek R1 Distill Llama 8B
输入 ¥0.3/ 百万 tokens | 输出 ¥0.3/ 百万 tokensDeepSeek R1 Distill Llama 8B 是一种基于 Llama-3.1-8B-Instruct 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。推理模型T
THUDM/GLM-Z1-Rumination-32B-0414
输入 ¥1.75/ 百万 tokens | 输出 ¥1.75/ 百万 tokensGLM-4-32B-Base-0414 在预训练阶段使用了 15 万亿 tokens 的高质量数据,其中包含大量推理类的合成数据,为后续的强化学习扩展奠定了坚实基础。在后训练阶段,除了通过人类偏好对齐优化对话场景的表现外,我们还利用拒绝采样和强化学习等技术,增强了模型在指令理解、工程代码生成、函数调用等方面的能力,从而强化了智能体任务所需的“原子能力”。
GLM-4-32B-0414 在工程代码生成、Artifact 构建、函数调用、基于搜索的问答、报告生成等方面表现优异。在部分评测基准中,其表现甚至可媲美更大规模的模型,如 GPT-4o 和 DeepSeek-V3-0324(参数规模达 671B)。