全新上线
Q
Qwen3 235B A22b Thinking 2507
输入 ¥2/ 百万 tokens | 输出 ¥20/ 百万 tokensQwen3-235B-A22B-Thinking-2507是Qwen3系列最新推出的具备思维能力的突破性模型,在推理能力方面实现了跨越式提升。这款先进AI在逻辑推理、数学运算、科学分析、编程任务以及学术基准测试中均展现出显著增强的性能表现,其水平已达到甚至超越人类专家级别,在开源思维模型中树立了全新的性能标杆。除了卓越的推理能力外,该模型在通用能力方面也有显著提升,包括更精准的指令理解与执行、更复杂的工具调用能力、高度拟真的文本生成效果,以及与人类偏好更契合的输出表现。同时,其增强的256K超长上下文理解能力,使其能够精准把握长篇文档和复杂讨论的深层逻辑关联。全新上线
Q
Qwen3 Coder 480B A35B Instruct
输入 ¥15/ 百万 tokens | 输出 ¥15/ 百万 tokensQwen3-Coder-480B-A35B-Instruct 是由Qwen推出的尖端开源编程模型,在智能体编程(Agentic Coding)、浏览器自动化及核心开发任务中达到与Claude Sonnet同等的性能水平。该模型原生支持256K上下文窗口(通过YaRN技术可扩展至1M token),擅长仓库级代码分析,并针对Qwen Code、CLINE等平台设计了专用函数调用协议——使其成为复杂实际开发工作流的理想选择。全新上线
Q
Qwen3 235B A22B Instruct 2507
输入 ¥1.45/ 百万 tokens | 输出 ¥5.8/ 百万 tokensQwen3-235B-A22B-Instruct-2507 是基于 Qwen3-235B 架构的多语言指令微调混合专家语言模型,每次前向推理激活 220 亿参数。该模型针对通用文本生成任务优化,涵盖指令遵循、逻辑推理、数学计算、代码生成及工具调用等能力。其原生支持 26.2 万 token 的超长上下文窗口,且未采用 "<think>" 思维链显式标注模式。
相较于基础版本,本版本在知识覆盖广度、长文本推理能力、编程基准测试以及开放性任务对齐度等方面实现显著提升。模型尤其擅长多语言理解、数学推理(如美国数学邀请赛 AIME、哈佛-麻省理工数学锦标赛 HMMT),并在 Arena-Hard 综合评测与写作专项评测 WritingBench 中表现优异。全新上线
D
DeepSeek-R1-0528-Qwen3-8B
输入 ¥0.4/ 百万 tokens | 输出 ¥0.65/ 百万 tokensDeepSeek-R1-0528-Qwen3-8B 是基于 Qwen3 8B Base 模型,通过融合 DeepSeek-R1-0528 的思维链(Chain-of-Thought)优化训练而成的高性能推理模型。在 AIME 2024 评测中,该模型以开源模型身份达到最先进(SOTA)水平,性能较原版 Qwen3 8B 提升 10%,并展现出与 2350 亿参数的 Qwen3-235B-thinking 相当的推理能力。全新上线
D
deepseek/deepseek-r1-0528
输入 ¥4/ 百万 tokens | 输出 ¥16/ 百万 tokensDeepSeek R1 0528 是派欧云平台提供的最新高性能DeepSeek R1 模型。DeepSeek R1 0528 是DeepSeek团队发布的最新开源模型,具备非常强悍的推理性能,尤其在编程、数学、推理任务上达到了开源模型最先进的水平。满血版全参数D
DeepSeek: DeepSeek R1 Distill Qwen 32B
输入 ¥2.18/ 百万 tokens | 输出 ¥2.18/ 百万 tokensDeepSeek R1 Distill Qwen 32B 是一种基于 Qwen 2.5 32B 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。该模型在多个基准测试中超越了 OpenAI 的 o1-mini,取得了密集模型(dense models)的最新技术领先成果(state-of-the-art)。以下是一些基准测试的结果:
AIME 2024 pass@1: 72.6
MATH-500 pass@1: 94.3
CodeForces Rating: 1691
该模型通过从 DeepSeek R1 的输出中进行微调,展现了与更大规模的前沿模型相当的竞争性能。推理模型D
DeepSeek: DeepSeek R1 Distill Qwen 14B
输入 ¥1/ 百万 tokens | 输出 ¥1/ 百万 tokensDeepSeek R1 Distill Qwen 14B 是一种基于 Qwen 2.5 14B 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。该模型在多个基准测试中超越了 OpenAI 的 o1-mini,取得了密集模型(dense models)的最新技术领先成果(state-of-the-art)。以下是一些基准测试的结果:
AIME 2024 pass@1: 69.7
MATH-500 pass@1: 93.9
CodeForces Rating: 1481
该模型通过从 DeepSeek R1 的输出中进行微调,展现了与更大规模的前沿模型相当的竞争性能。推理模型D
DeepSeek R1 Distill Llama 70B
输入 ¥5.8/ 百万 tokens | 输出 ¥5.8/ 百万 tokensDeepSeek R1 Distill Llama 70B是基于Llama3.3 70B的大型语言模型,该模型利用DeepSeek R1输出的微调,实现了与大型前沿模型相当的竞争性能。推理模型D
DeepSeek: DeepSeek R1 Distill Llama 8B
输入 ¥0.3/ 百万 tokens | 输出 ¥0.3/ 百万 tokensDeepSeek R1 Distill Llama 8B 是一种基于 Llama-3.1-8B-Instruct 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。推理模型