转载

GPT-3.5 Turbo微调和 API 更新

GPT-3.5 Turbo 的微调现已推出,GPT-4 的微调将于今年秋天推出。此更新使开发人员能够自定义更适合其用例的模型,并大规模运行这些自定义模型。早期的测试表明,GPT-3.5 Turbo的微调版本可以在某些狭窄的任务上与GPT-4级的基本功能相匹配,甚至优于基础GPT-<>级功能。与我们所有的API一样,从微调API发送的数据归客户所有,并且未被 OpenAI 使用或任何其他组织来训练其他模型。

微调用例

自 GPT-3.5 Turbo 发布以来,开发人员和企业要求能够自定义模型,以便为其用户创造独特且差异化的体验。通过此次发布,开发人员现在可以运行监督微调,以使该模型在其用例中表现更好。

在我们的私人测试版中,微调客户已经能够有意义地提高常见用例的模型性能,例如:

  • 改进的可操纵性:微调允许企业使模型更好地遵循指令,例如使输出简洁或始终以给定语言响应。例如,开发人员可以使用微调来确保模型在提示使用该语言时始终以德语响应。
  • 可靠的输出格式:微调可提高模型一致格式化响应的能力,这对于需要特定响应格式(例如代码完成或撰写 API 调用)的应用程序来说至关重要。开发人员可以使用微调来更可靠地将用户提示转换为可与自己的系统一起使用的高质量 JSON 代码段。
  • 自定义音调:微调是磨练模型输出定性感觉的好方法,例如其音调,因此它更适合企业品牌的声音。具有可识别品牌声音的企业可以使用微调来使模型与其基调更加一致。

除了提高性能外,微调还使企业能够缩短提示时间,同时确保类似的性能。使用 GPT-3.5-Turbo 进行微调也可以处理 4k 代币——是我们之前微调模型的两倍。早期的测试人员通过将指令微调到模型本身,加快了每次 API 调用并降低成本,将提示大小减少了多达 90%。

微调在与其他技术例如提示工程、信息检索和函数调用。查看我们的微调指南以了解更多信息。支持通过函数调用进行微调,并将于今年秋天晚些时候推出。gpt-3.5-turbo-16k

微调步骤

步骤 1准备数据
{
  "messages": [
    { "role": "system", "content": "You are an assistant that occasionally misspells words" },
    { "role": "user", "content": "Tell me a story." },
    { "role": "assistant", "content": "One day a student went to schoool." }
  ]
}
步骤 2上传文件
curl https://api.openai.com/v1/files \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -F "purpose=fine-tune" \
  -F "file=@path_to_your_file" 
步骤 3创建微调作业
curl https://api.openai.com/v1/fine_tuning/jobs \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-d '{
  "training_file": "TRAINING_FILE_ID",
  "model": "gpt-3.5-turbo-0613"
}'
一旦模型完成微调过程,它就可以立即用于生产,并且具有相同的共享速率限制作为基础模型。
步骤 4使用微调模型
curl https://api.openai.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-d '{
  "model": "ft:gpt-3.5-turbo:org_id",
  "messages": [
    {
      "role": "system",
      "content": "You are an assistant that occasionally misspells words"
    },
    {
      "role": "user",
      "content": "Hello! What is fine-tuning?"
    }
  ]
}'
我们还将在不久的将来推出微调 UI,这将使开发人员更容易访问有关正在进行的微调作业、已完成的模型快照等的信息。

安全

对我们来说,部署微调是安全的非常重要。为了在微调过程中保留默认模型的安全功能,微调训练数据将通过我们的审核 API 和 GPT-4 支持的审核系统传递,以检测与我们的安全标准冲突的不安全训练数据。

定价

微调成本分为两类:初始培训成本和使用成本:

  • 培训:$0.008 / 1K 代币
  • 使用输入: $0.012 / 1K 代币
  • 使用输出:$0.016 / 1K 代币

例如,训练了 100,000 个代币的训练文件为 3 个 epoch 的微调作业的预期成本为 2.40 USD。gpt-3.5-turbo

更新的 GPT-3 型号

7月,我们宣布原始 GPT-3 基本型号(ada, babbage, curie, 和 davinci )将于 4 年 2024 月 <> 日关闭。今天,我们正在制造这些模型并作为这些模型的替代品,无论是作为基本模型还是微调模型。客户可以通过查询babbage-002和davinci-002完成接口.

这些模型可以使用我们新的 API 端点进行微调/v1/fine_tuning/jobs。这个新的端点提供了分页和更多的可扩展性,以支持微调 API 的未来发展。从更新的端点过渡到更新的端点非常简单,更多详细信息可以在我们的新/v1/fine-tunes微调指南.这将弃用旧终结点,该终结点将于 4 年 2024 月 <> 日关闭。/v1/fine-tunes

基本和微调的 GPT-3 型号的定价如下:

型号基本型号基本型号微调模型微调模型微调模型
输入令牌输出令牌训练输入令牌输出令牌
巴贝奇-002$0.0004 / 1K 代币
$0.0004 / 1K 代币
$0.0004 / 1K 代币
$0.0016 / 1K 代币$0.0016 / 1K 代币
达芬奇-002$0.002 / 1K 代币$0.002 / 1K 代币$0.006 / 1K 代币$0.012 / 1K 代币$0.012 / 1K 代币