Q
Qwen3 Next 80B A3B Thinking
双11·8.5
qwen/qwen3-next-80b-a3b-thinking

Qwen3-Next采用高度稀疏的混合专家(MoE)架构设计:总参数量达800亿,但每个推理步骤仅激活约30亿参数。实验表明,在全局负载均衡机制下,保持激活专家数量不变而增加总专家参数量,能够持续降低训练损失。相较于Qwen3的MoE结构(128个总专家,8个路由专家),Qwen3-Next将规模扩展至512个总专家,创新性地采用"10个路由专家+1个共享专家"的组合策略——在最大化资源利用率的同时确保模型性能不受影响。 其中,Qwen3-Next-80B-A3B-Thinking在复杂推理任务中表现卓越:其性能不仅超越更高成本的Qwen3-30B-A3B-Thinking-2507和Qwen3-32B-Thinking等模型,在多项基准测试中更胜过闭源的Gemini-2.5-Flash-Thinking,并逼近我们的旗舰模型Qwen3-235B-A22B-Thinking-2507的性能水平。

模型价格立即体验模型

输入活动价1/Mt1/Mt
输出活动价10/Mt10/Mt

示例代码

一键复制
1base_url="https://api.ppinfra.com/openai"
2api_key="<您的 API Key>"
3
4curl "$base_url/v1/chat/completions" \
5  -H "Content-Type: application/json" \
6  -H "Authorization: Bearer $api_key" \
7  -d @- << 'EOF'
8{
9    "model": "qwen/qwen3-next-80b-a3b-thinking",
10    "messages": [
11        
12        {
13            "role": "user",
14            "content": "Hi there!"
15        }
16    ],
17    "response_format": { "type": "text" }
18}
19EOF
20  

模型信息

上下文窗口:

65536

最大输出 token 数:

65536

模态:

输入:
Text
输出:
Text

支持的功能

Function Calling支持
结构化输出支持
reasoning支持
Anthropic API支持

API 接入指南

Base URL:

https://api.ppinfra.com/openai

Anthropic Base URL:

https://api.ppinfra.com/anthropic

API Endpoints:

/v1/chat/completions/v1/completions

Model ID:

qwen/qwen3-next-80b-a3b-thinking

用量级别RPMTPM
T13050,000,000
T210050,000,000
T31,00050,000,000
T43,00050,000,000
T56,00050,000,000
用更高性价比的产品服务
助您释放无限创新元力,引领智能时代新进程
马上咨询