Imi*_*mer 8 transformer-model openai-api gpt-3 fine-tuning
OpenAI 文档model中有关微调 API 属性的说明有点令人困惑:
模型
要微调的基本模型的名称。您可以选择“ada”、“babbage”、“curie”、“davinci”之一或 2022 年 4 月 21 日之后创建的微调模型。
我的问题:微调基本模型还是微调模型更好?
ada我从with file创建了一个微调模型mydata1K.jsonl:
ada + mydata1K.jsonl --> ada:ft-acme-inc-2022-06-25
Run Code Online (Sandbox Code Playgroud)
现在我有一个更大的样本文件mydata2K.jsonl,我想用它来改进微调模型。在这第二轮微调中,是ada再次微调好还是对我微调后的模型进行微调好ada:ft-acme-inc-2022-06-25?我假设这是可能的,因为我的微调模型是在 2022 年 4 月 21 日之后创建的。
ada + mydata2K.jsonl --> better-model
Run Code Online (Sandbox Code Playgroud)
或者
ada:ft-acme-inc-2022-06-25 + mydata2K.jsonl --> even-better-model?
Run Code Online (Sandbox Code Playgroud)
更新
看起来不再支持对微调模型进行微调,正如OpenAI 官方文档中所述:
已经微调过的模型还可以继续微调吗?
不,我们目前不支持在作业完成后继续进行微调过程。我们计划在不久的将来支持这一点。
正如OpenAI官方文档中所述:
如果您已经针对您的任务微调了模型,并且现在拥有想要合并的其他训练数据,则可以继续对模型进行微调。这创建了一个从所有训练数据中学习的模型,而无需从头开始重新训练。
为此,请在创建新的微调作业时传入微调模型名称(例如
-m curie:ft-<org>-<date>)。其他训练参数不必更改,但是如果您的新训练数据比以前的训练数据小得多,您可能会发现减少learning_rate_multiplier2 到 4 倍很有用。
您问的是两个选项:
ada + bigger-training-dataset.jsonlada:ft-acme-inc-2022-06-25 + additional-training-dataset.jsonl该文档没有说明哪个选项更好,哪个选项会产生更好的结果。
然而...
为什么?
训练微调模型时,使用的总代币将根据我们的训练费率进行计费。
如果您选择选项 1,您需要为训练数据集中的某些令牌支付两次费用。首先,当使用初始训练数据集进行微调时,其次,当使用更大的训练数据集(即bigger-training-dataset.jsonl= initial-training-dataset.jsonl+ additional-training-dataset.jsonl)进行微调时。
最好继续从微调模型进行微调,因为您只需为附加训练数据集中的令牌付费。
了解有关微调定价计算的更多信息。
| 归档时间: |
|
| 查看次数: |
3220 次 |
| 最近记录: |