https://api.ppinfra.com/v3/openai
,获取并设置您的 API 密钥,并按需更新模型名称,即可接入大语言模型 API 服务。
model
:要调用的模型。您可以在大语言模型服务页面查看平台支持的大语言模型列表。
仅适用于ChatCompletion。
messages
:和大模型进行交互时的输入输出。每条消息都属于一个角色。消息可以帮助您获得更好的输出,您可以尝试不同的方法,以获得更好的结果。
content
:消息内容。role
:消息作者的角色。
system
:设定AI角色,告知模型要扮演的角色或者行为。user
:用户输入给模型的文本。assistant
:模型生成的回复。用户也可以预先填写示例,告知模型应该如何回应当前请求。name
:可选,用于区分相同角色的消息作者。仅适用于Completion。
prompt
:生成补全的提示词。是用户输入给大语言模型的文本信息,用于明确地告诉模型想要解决的问题或完成的任务,也是模型理解需求并生成相关、准确内容的基础。
temperature
与top_p
均可控制生成文本的多样性,建议您只设置其中一个值。设置的数值越大,生成的文本越多样。数值越小,生成的文本越确定。
temperature
:采样温度,调整生成文本的随机性。top_p
:核采样,控制候选词累计概率。top_k
:限制候选词数量。presence_penalty
:存在惩罚,控制模型生成文本时的内容重复度。如果一个 Token 在文本中已经出现,就会受到惩罚,这会使得模型引入更多新的 Token 。frequency_penalty
:概率惩罚,控制生成文本中某些词的出现频率。让 Token 每次在文本中出现都受到惩罚,从而减少这些 Token 在未来生成中的概率,阻止模型重复使用相同的 Token。repetition_penalty
:重复惩罚值,用于抑制或者鼓励重复。max_tokens
:单次请求返回的最大 Token 数。如果模型生成的 Token 数超过max_tokens
的值,会返回截断后的内容。stream
:控制输出是否是流式输出。对于一些输出内容比较多的模型,建议设置为流式输出,防止输出过长,导致输出超时。
true
:流式输出,即边生成边输出,模型每生成一部分内容就返回一个片段。false
:模型生成完所有内容后一次性返回结果。stop
:终止字符。当模型生成的文本包含stop
设置的字符串时,模型会停止输出。