跳转到主要内容
在使用过程中遇到任何问题,欢迎随时联系我们

代金券使用指南

PPIO 提供哪些类型的代金券?

PPIO 目前提供以下类型的代金券,帮助用户体验平台服务:
  • 新用户代金券:首次注册的用户可领取,用于试用各类模型服务。
  • 邀请奖励代金券:邀请他人注册并完成任务后获得。

模型速率限制(Rate Limits)

不同用户的 RPM 限制是多少?

RPM(每分钟请求数)限制根据用户的认证级别和账号状态有所不同。详细限制请参见速率限制说明
如需进一步协助,欢迎联系我们

RPM 限速调整与升级规则

用户可以申请提高 RPM 限制吗?

可以。PPIO 支持根据使用需求灵活调整 RPM。规则如下:
  • DeepSeek 系列模型:平台将尽力满足合理的扩容需求。
  • 其他模型:根据模型成本和用户实际使用情况综合评估,受资源可用性限制。
申请流程: 用户 → 客服 / 技术支持 → 产品团队审核 & 审批

实际用量低于承诺 RPM,会怎样处理?

如果用户实际 RPM 连续一周低于承诺值,平台将按以下规则调整:
  • 将限制降至过去一周内的峰值 RPM,或
  • 恢复到模型默认速率限制(取较低值)。

支持自助升级 RPM 吗?

支持。PPIO 计划推出 RPM 升级包,用户可自主管理和提升 RPM 限制,无需人工审批。

API 调用相关问题

GLM-4.5 如何关闭思考模式?

调用 zai-org/glm-4.5 时,如不需要思考模式,可在请求体中添加以下参数:
"enable_thinking": false
完整示例:
{
  "model": "zai-org/glm-4.5",
  "messages": [
    {
      "role": "user",
      "content": "北京今天天气怎么样?"
    }
  ],
  "temperature": 0.7,
  "stream": false,
  "max_tokens": 500,
  "enable_thinking": false
}

如何查看 DeepSeek 缓存命中情况?

调用 DeepSeek 模型时,响应体的 usage 字段会包含缓存命中信息:
{
  "usage": {
    "prompt_tokens": 1000,
    "completion_tokens": 200,
    "total_tokens": 1200,
    "prompt_cache_hit_tokens": 800,
    "prompt_cache_miss_tokens": 200
  }
}
  • prompt_cache_hit_tokens:命中缓存的 token 数(按缓存读取价格计费,约为标准输入价格的 1/10)
  • prompt_cache_miss_tokens:未命中缓存的 token 数(按标准输入价格计费)

调用返回 429 错误,如何处理?

429 Too Many Requests 表示请求频率超出当前 RPM 限制。处理方式:
  1. 降低请求频率:在客户端实现指数退避重试逻辑
  2. 申请提高 RPM:联系我们申请 RPM 升级,参见RPM 升级规则
  3. 使用批量推理:对延迟不敏感的场景,使用批量推理 API 规避限速
import time, random

def call_with_retry(fn, max_retries=5):
    for attempt in range(max_retries):
        try:
            return fn()
        except Exception as e:
            if "429" in str(e) and attempt < max_retries - 1:
                wait = (2 ** attempt) + random.uniform(0, 1)
                time.sleep(wait)
            else:
                raise

调用返回 400 错误,如何处理?

常见原因:
  • 输入长度超出模型上下文窗口限制
  • 参数类型或格式错误
  • 请求体缺少必填字段
请检查以下项目:
检查项说明
model 字段确认模型 ID 正确,可在模型列表查询
messages 格式必须为数组,每条消息包含 rolecontent
输入长度不超过对应模型的 context window 限制
参数类型temperature 为 float,max_tokens 为 int

调用返回 403 错误,如何处理?

常见原因及解决方案:
  1. 账号余额不足 → 前往充值页面充值后重试
  2. 模型需要加白 → 部分模型需申请访问权限,请联系我们提交申请
  3. 套餐限制 → 所使用的模型可能不在当前套餐内

模型响应很慢或内容被截断,怎么排查?

响应慢:
  • 检查 stream 参数:设置 "stream": true 可立即获得首个 token,改善感知延迟
  • 检查网络连通性:国内访问建议使用 api.ppinfra.com 端点
  • 思考模型(如 DeepSeek-R1)推理阶段耗时较长,属正常行为
内容被截断:
  • 检查 max_tokens 设置:默认值可能较小,根据任务需要适当调大
  • 检查响应的 finish_reason
    • stop:正常结束
    • length:触发 max_tokens 上限,需调大该值

错误排查

常用错误码速查

错误码含义常见原因解决方案
400请求格式错误参数类型/格式有误、输入超长检查参数格式和输入长度
401认证失败API Key 无效或已过期检查 API Key 是否正确
403访问被拒绝余额不足、模型未加白、套餐限制充值或申请模型权限
404资源不存在模型 ID 错误检查模型 ID,参见模型列表
429请求过频超出 RPM 限制降低频率或申请升级 RPM
500服务端错误平台内部异常重试,持续问题请联系我们
503服务不可用模型过载或维护中稍后重试,建议指数退避

图像与视频生成常见问题

视频生成任务失败,如何排查?

常见失败原因及解决方案:
失败类型可能原因解决方案
任务排队超时高峰期队列拥塞稍后重试,或在非高峰时段提交
提示词违规含违禁内容修改提示词,避免暴力、色情等违规内容
图片格式不支持不支持的图片格式或尺寸转换为 JPEG/PNG,分辨率建议 512px 以上
参数超出范围duration/fps 等参数超限参考对应模型的 API 文档调整参数
账户余额不足余额耗尽任务被终止充值后重新提交

视频生成 API 如何配置超时时间?

视频生成为异步任务,建议使用轮询方式查询任务状态,并设置合理的超时时间:
import time

def poll_task(task_id, client, max_wait=600, interval=10):
    """轮询视频任务结果,最长等待 600 秒"""
    elapsed = 0
    while elapsed < max_wait:
        result = client.get_task(task_id)
        status = result.get("status")
        if status == "succeeded":
            return result
        elif status == "failed":
            raise Exception(f"任务失败: {result.get('error')}")
        time.sleep(interval)
        elapsed += interval
    raise TimeoutError(f"任务 {task_id} 超时({max_wait}s)")
不同模型的生成时长差异较大(30 秒到 10 分钟不等),建议根据模型文档设置合理的 max_wait

图像 URL 有哪些要求?

使用图像 URL 作为输入时,需满足以下要求:
  • 可公开访问:URL 必须可被平台服务器直接访问,不支持需要登录或 Cookie 的地址
  • 格式支持:JPEG、PNG、WebP
  • 大小限制:建议单张图片不超过 10 MB
  • 分辨率:建议 512px × 512px 及以上,过小可能影响生成质量
  • 有效期:确保 URL 在任务处理期间持续有效(建议使用永久链接或有效期 ≥ 1 小时的预签名 URL)
如果图片存储在私有存储桶,请生成带有足够有效期的预签名 URL,或将图片上传至公开可访问的 CDN。