Qwen3-Next采用高度稀疏的混合专家(MoE)架构设计:总参数量达800亿,但每个推理步骤仅激活约30亿参数。实验表明,在全局负载均衡机制下,保持激活专家数量不变而增加总专家参数量,能够持续降低训练损失。相较于Qwen3的MoE结构(128个总专家,8个路由专家),Qwen3-Next将规模扩展至512个总专家,创新性地采用"10个路由专家+1个共享专家"的组合策略——在最大化资源利用率的同时确保模型性能不受影响。 其中,Qwen3-Next-80B-A3B-Thinking在复杂推理任务中表现卓越:其性能不仅超越更高成本的Qwen3-30B-A3B-Thinking-2507和Qwen3-32B-Thinking等模型,在多项基准测试中更胜过闭源的Gemini-2.5-Flash-Thinking,并逼近我们的旗舰模型Qwen3-235B-A22B-Thinking-2507的性能水平。
模型价格立即体验模型
| 输入 | 活动价¥1/Mt¥1/Mt |
| 输出 | 活动价¥10/Mt¥10/Mt |
示例代码
1base_url="https://api.ppinfra.com/openai"
2api_key="<您的 API Key>"
3
4curl "$base_url/v1/chat/completions" \
5 -H "Content-Type: application/json" \
6 -H "Authorization: Bearer $api_key" \
7 -d @- << 'EOF'
8{
9 "model": "qwen/qwen3-next-80b-a3b-thinking",
10 "messages": [
11
12 {
13 "role": "user",
14 "content": "Hi there!"
15 }
16 ],
17 "response_format": { "type": "text" }
18}
19EOF
20 模型信息
上下文窗口:
65536
最大输出 token 数:
65536
模态:
支持的功能
API 接入指南
Base URL:
https://api.ppinfra.com/openai
Anthropic Base URL:
https://api.ppinfra.com/anthropic
API Endpoints:
/v1/chat/completions/v1/completions
Model ID:
qwen/qwen3-next-80b-a3b-thinking
API Key:
创建 & 查询您的 API KeyRate Limits
| 用量级别 | RPM | TPM |
|---|---|---|
| T1 | 30 | 50,000,000 |
| T2 | 100 | 50,000,000 |
| T3 | 1,000 | 50,000,000 |
| T4 | 3,000 | 50,000,000 |
| T5 | 6,000 | 50,000,000 |
功能使用教程