GLM-4.7-Flash 作为 30B 级 SOTA 模型,提供了一个兼顾性能与效率的新选择。面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得同尺寸开源模型中的领先表现。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。
模型价格立即体验模型
| 输入 | ¥0.5/Mt |
| 缓存 | 读取¥0.1/Mt |
| 输出 | ¥3/Mt |
示例代码
1base_url="https://api.ppio.com/openai"
2api_key="<您的 API Key>"
3
4curl "$base_url/v1/chat/completions" \
5 -H "Content-Type: application/json" \
6 -H "Authorization: Bearer $api_key" \
7 -d @- << 'EOF'
8{
9 "model": "zai-org/glm-4.7-flash",
10 "messages": [
11
12 {
13 "role": "user",
14 "content": "Hi there!"
15 }
16 ],
17 "response_format": { "type": "text" }
18}
19EOF
20 模型信息
上下文窗口:
200000
最大输出 token 数:
128000
模态:
支持的功能
API 接入指南
Base URL:
https://api.ppio.com/openai
API Endpoints:
/v1/chat/completions
Model ID:
zai-org/glm-4.7-flash
API Key:
创建 & 查询您的 API KeyRate Limits
| 用量级别 | RPM | TPM |
|---|---|---|
| T1 | 5 | 50,000,000 |
| T2 | 100 | 50,000,000 |
| T3 | 1,000 | 50,000,000 |
| T4 | 3,000 | 50,000,000 |
| T5 | 6,000 | 50,000,000 |
功能使用教程