生成文本补全
POST
https://api.anthropic.com/v1/complete请求参数
Body 参数application/json
model
string
模型
随着我们不断改进Claude,我们开发了新版本供您查询。该参数控制了哪个版本的Claude回答您的请求。目前我们提供了两个模型系列:Claude和Claude Instant。您可以分别通过将model
设置为"claude-2"
或"claude-instant-1"
来使用它们。有关详细信息,请参阅模型。
prompt
string
提示词
为了生成适当的回应,您需要按照以下方式格式化您的提示:
const userQuestion = r"为什么天空是蓝色的?";
const prompt = `\n\n用户:${userQuestion}\n\n助手:`;
请参考我们关于提示的备注以获取更多上下文信息。
max_tokens_to_sample
integer
生成标记的最大数量,达到此数量后会停止。
请注意,我们的模型可能在达到此最大数量之前就停止。此参数仅指定生成标记的绝对最大数量。
stop_sequences
string
导致模型停止生成完成文本的序列。
我们的模型会在遇到 "\n\nHuman:"
时停止生成,并且将来可能会添加其他内置停止序列。通过提供 stop_sequences
参数,您可以包含其他字符串,使模型停止生成。
temperature
number
在返回结果中注入的随机性数量。
默认为1。取值范围为0到1。将temp值接近于0用于分析性/多选题,将temp值接近于1用于创造性和生成性任务。
top_p
number
使用核心抽样。
在核心抽样中,我们按照降序计算每个后续标记的所有选项的累积分布,并在达到由「top_p」指定的特定概率时截断。您应该更改「temperature」或「top_p」,而不是两者同时更改。
top_k
integer
只从每个后续标记的前K个选项中抽样。
用于删除“长尾”低概率响应。在这里了解更多技术细节。
metadata
object
一个描述请求的元数据的对象。
user_id
string
一个与请求关联的用户的外部标识符。
这应该是一个uuid、哈希值或其他不透明的标识符。Anthropic可以使用此ID来帮助检测滥用行为。请不要包含任何识别信息,比如姓名、电子邮件地址或电话号码。
stream
string
是否使用服务器发送事件(SSE)逐步流式传输响应。
有关SSE事件的详细信息,请参阅使用服务器发送事件的指南。
示例
{
"model": "string",
"prompt": "string",
"max_tokens_to_sample": 0,
"stop_sequences": "string",
"temperature": 0,
"top_p": 0,
"top_k": 0,
"metadata": {
"user_id": "string"
},
"stream": "string"
}
示例代码
返回响应
成功(200)
请求有误(400)
HTTP 状态码: 200
内容格式: JSONapplication/json
数据结构
completion
string
必需
stop_reason
string
必需
model
string
必需
示例
{
"completion": " Hello! My name is Claude.",
"stop_reason": "stop_sequence",
"model": "claude-2"
}
最后修改时间: 1 年前