相关疑难解决方法(0)

OpenAI GPT-3 API:微调微调模型?

OpenAI 文档model中有关微调 API 属性的说明有点令人困惑:

模型

要微调的基本模型的名称。您可以选择“ada”、“babbage”、“curie”、“davinci”之一或 2022 年 4 月 21 日之后创建的微调模型。

我的问题:微调基本模型还是微调模型更好?

ada我从with file创建了一个微调模型mydata1K.jsonl

ada + mydata1K.jsonl --> ada:ft-acme-inc-2022-06-25
Run Code Online (Sandbox Code Playgroud)

现在我有一个更大的样本文件mydata2K.jsonl,我想用它来改进微调模型。在这第二轮微调中,是ada再次微调好还是对我微调后的模型进行微调好ada:ft-acme-inc-2022-06-25?我假设这是可能的,因为我的微调模型是在 2022 年 4 月 21 日之后创建的。

ada + mydata2K.jsonl --> better-model
Run Code Online (Sandbox Code Playgroud)

或者

ada:ft-acme-inc-2022-06-25 + mydata2K.jsonl --> even-better-model?
Run Code Online (Sandbox Code Playgroud)

transformer-model openai-api gpt-3 fine-tuning

8
推荐指数
1
解决办法
3220
查看次数

如何确保答案来自自定义(微调)数据集?

我使用带有“提示”和“完成”的自定义文本来训练新模型。

这是我用来根据数据创建自定义模型的教程:

beta.openai.com/docs/guides/fine-tuning/advanced-usage

然而,即使在训练模型并向模型发送提示文本之后,我仍然得到并不总是适合我的通用结果。

如何确保提示的完成结果仅来自我用于模型的文本,而不是来自通用 OpenAI 模型?

我可以使用一些标志来消除通用模型的结果吗?

customization nlp openai-api gpt-3

8
推荐指数
1
解决办法
7971
查看次数