AIGC: 关于ChatGPT中的API调用模型
ChatGPT的API模型
- 可供GPT的API调用的模型
模型 | 描述 |
---|---|
GPT4 | 免费的GPT模型,基于3.5改进,可以理解自然语言并生成代码 |
GPT3.5 | 免费的GPT模型,基于3.0改进,可以理解自然语言并生成代码 |
DALL·E | 可以在给定自然语言提示的情况下生成和编辑图像的模型 |
Whisper | 一种可以将音频转换为文本的模型 |
Embeddings | 一组可以将文本转换成数字形式的模型 |
Moderation | 可以检测文本是否敏感或不安全的微调模型 |
GPT3 & Deprecated | 已废弃的其他各种模型 |
- 我们页面通过交互式界面,主要调用的是GPT3.5的模型, 毕竟3.5是免费的
- 当我们用了API之后,我们就可以通过它的API去调GPT4的模型(收费)
- 无论是GPT4还是3.5, 在他们下面其实还包含多种的型号
- 比如对于GPT4而言,从它的官方网站里面,可以看到GPT4有不同的型号
- gpt-4 基于3.5, 拥有更为广泛的常识和高级的推理能力,针对聊天进行了优化
- gpt-4-0613 是0613快照版本,不会再进行更新,在新版本更新后的3个月后过期
- gpt-4-32k, 4的32k版本
- gpt-4-32k-0613 同上0613, 快照版本
- …
- 以上GPT4的型号中,首选 gpt-4 和 gpt-4-32k
- gpt-4 和 gpt-4-32k的区别
- maxtokens不同,也就是支持的最大的token的数量是不一样的
- gpt3.5的一些型号
- gpt-3.5-turbo 基于 text-davinci-003 版本
- gpt-3.5-turbo-16k 基于 gpt-3.5-turbo 调整了 maxtokens
- text-davinci-003 (Legacy)
- text-davinci-002 (Legacy)
- code-davinci-002 (Legacy)
- GPT3.5 相对于GPT4 就有一些复杂了,有一个概念,叫做微调,也叫做 InstructGPT
- 上面相关的这些不同型号其实都是对GPT3.5在不同方向的一个微调
- 以 GPT3.5为例,code-davinci-002 是一个基础的模型,适用于纯代码的补全的任务
- text-davinci-002 基于 code-davinci-002 进行微调的一个版本
- text-davinci-003 是 text-davinci-002 的一个改进版本
- gpt-3.5-turbo 是在 text-davinci-003 基础上的一个改进版本,主要对于聊天应用进行的优化
TRAINING METHOD | MODELS |
---|---|
SFT(Supervised fine-tuning on human demonstrations) | davinci-instruct-beta1 |
FeedME(Supervised fine-tuning on human-written demonstrations and on model samples rated 7/7 by human labelers on an overall quality score) | text-davinci-001, text-davinci-002, text-curie-001, text-babbage-001 |
PPO(Reinforcement learning with reward models trained from comparisons by humans) | text-davinci-003 |
- 上面表格展示了不同模型的训练方法
- 针对于它不同的这些算法以及算法的区别,我们不需要了解的特别多
- 只需要去达到当我们调用GPT的API的时候,我们知道我们应该去采用哪个模型就可以了
- 目前来看,官方所推荐的GPT3.5的模型,首推的是 gpt-3.5-turbo 版本
- 成本更低,性能更高
- 一般使用这个模型就可以了
- 由于 gpt-3.5-turbo 是在 text-davinci-003 针对聊天应用进行优化的,turbo版本的回复比003要长
- 003 模型在个人测试时,要更稳定,但是会更贵
- 不太考虑价格的情况下,GPT4是一个更好的选择, 因为它的理解能力和推理能力相比3.5而言还是强了很多的