MiniMax-M1世界上第一个开放权重、大规模混合注意力推理模型。MiniMax-M1 采用混合专家 (MoE) 架构,并结合闪电注意力机制。该模型总共包含 4560 亿个参数,每个令牌激活了 459 亿个参数。M1 模型原生支持 100 万个令牌的上下文长度,是 DeepSeek R1 上下文大小的 8 倍。同时MiniMax-M1 结合 CISPO 算法与混合注意力设计的高效强化学习训练,在长输入推理与真实软件工程场景中实现了业界领先的性能。
模型价格立即体验模型
| 输入 | ¥4/Mt |
| 输出 | ¥16/Mt |
示例代码
1base_url="https://api.ppinfra.com/openai"
2api_key="<您的 API Key>"
3
4curl "$base_url/v1/chat/completions" \
5 -H "Content-Type: application/json" \
6 -H "Authorization: Bearer $api_key" \
7 -d @- << 'EOF'
8{
9 "model": "minimaxai/minimax-m1-80k",
10 "messages": [
11
12 {
13 "role": "user",
14 "content": "Hi there!"
15 }
16 ],
17 "response_format": { "type": "text" }
18}
19EOF
20 模型信息
上下文窗口:
128000
最大输出 token 数:
40000
模态:
支持的功能
API 接入指南
Base URL:
https://api.ppinfra.com/openai
API Endpoints:
/v1/chat/completions
Model ID:
minimaxai/minimax-m1-80k
API Key:
创建 & 查询您的 API KeyRate Limits
| 用量级别 | RPM | TPM |
|---|---|---|
| T1 | 10 | 50,000,000 |
| T2 | 50 | 50,000,000 |
| T3 | 30 | 50,000,000 |
| T4 | 1,000 | 50,000,000 |
| T5 | 1,500 | 50,000,000 |
功能使用教程