Z
GLM-4.7-Flash
zai-org/glm-4.7-flash

GLM-4.7-Flash 作为 30B 级 SOTA 模型,提供了一个兼顾性能与效率的新选择。面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得同尺寸开源模型中的领先表现。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。

模型价格立即体验模型

输入0.5/Mt
缓存
读取0.1/Mt
输出3/Mt

示例代码

一键复制
1base_url="https://api.ppio.com/openai"
2api_key="<您的 API Key>"
3
4curl "$base_url/v1/chat/completions" \
5  -H "Content-Type: application/json" \
6  -H "Authorization: Bearer $api_key" \
7  -d @- << 'EOF'
8{
9    "model": "zai-org/glm-4.7-flash",
10    "messages": [
11        
12        {
13            "role": "user",
14            "content": "Hi there!"
15        }
16    ],
17    "response_format": { "type": "text" }
18}
19EOF
20  

模型信息

上下文窗口:

200000

最大输出 token 数:

128000

模态:

输入:
Text
输出:
Text

支持的功能

Function Calling支持
结构化输出支持
reasoning支持
Anthropic API不支持

API 接入指南

Base URL:

https://api.ppio.com/openai

API Endpoints:

/v1/chat/completions

Model ID:

zai-org/glm-4.7-flash

用量级别RPMTPM
T1550,000,000
T210050,000,000
T31,00050,000,000
T43,00050,000,000
T56,00050,000,000
用更高性价比的产品服务
助您释放无限创新元力,引领智能时代新进程
马上咨询