模型
旗舰模型
GPT-4o
- 描述: 我们的高智能旗舰模型,适用于复杂的多步骤任务。
- 功能: 文本和图像输入,文本输出。
- 上下文长度: 128k。
- 价格: 输入:$5 | 输出:$15*
GPT-4o mini (新)
- 描述: 我们实惠且智能的小模型,适用于快速、轻量级任务。
- 功能: 文本和图像输入,文本输出。
- 上下文长度: 128k。
- 价格: 输入:$0.15 | 输出:$0.60*
* 每百万令牌的价格
模型概览
OpenAI API 由一组多样化的模型提供支持,具有不同的能力和价格。您还可以通过微调对我们的模型进行自定义,以满足您的特定用例。
模型 | 描述 |
---|---|
GPT-4o | 我们的高智能旗舰模型,适用于复杂的多步骤任务 |
GPT-4o mini | 我们实惠且智能的小模型,适用于快速、轻量级任务 |
GPT-4 Turbo 和 GPT-4 | 之前的一组高智能模型 |
GPT-3.5 Turbo | 一种快速、廉价的简单任务模型 |
DALL·E | 一种可以根据自然语言提示生成和编辑图像的模型 |
TTS | 一组可以将文本转换为自然语音音频的模型 |
Whisper | 一种可以将音频转换为文本的模型 |
Embeddings | 一组可以将文本转换为数值形式的模型 |
Moderation | 一种经过微调的模型,可以检测文本是否可能敏感或不安全 |
GPT base | 一组没有指令跟随的模型,可以理解和生成自然语言或代码 |
Deprecated | 已弃用模型的完整列表,以及建议的替代品 |
对于 GPT 系列模型,上下文窗口指的是可以在单个请求中使用的最大令牌数量,包括输入和输出令牌。
我们还发布了开源模型,包括 Point-E、Whisper、Jukebox 和 CLIP。
持续的模型升级
gpt-4o
、gpt-4o-mini
、gpt-4-turbo
、gpt-4
和 gpt-3.5-turbo
指向各自的最新模型版本。您可以通过发送请求后查看响应对象来验证这一点。响应将包括所使用的具体模型版本(例如,gpt-4o-mini-gpt-4-turbo-gpt-4-gpt-3.5-turbo-gpt-3.5-turbo-1106
)。
我们还提供固定的模型版本,开发人员可以在更新模型推出后继续使用至少三个月。随着新模型更新节奏的加快,我们还让人们能够贡献 evals 帮助我们改进不同用例的模型。如果您有兴趣,请查看 OpenAI Evals repository。
在我们的弃用页面了解更多关于模型弃用的信息。
GPT-4o
GPT-4o(“o”代表“omni”)是我们最先进的模型。它是多模态的(接受文本或图像输入并输出文本),具有与 GPT-4 Turbo 相同的高智能,但效率更高——生成文本的速度提高了两倍,成本降低了 50%。此外,GPT-4o 在视觉和非英语语言的表现上优于我们的其他任何模型。GPT-4o 在 OpenAI API 中对付费客户开放。请在我们的文本生成指南中了解如何使用 GPT-4o。
模型 | 描述 | 上下文窗口 | 最大输出令牌 | 训练数据 |
---|---|---|---|---|
gpt-4o | GPT-4o. 我们的高智能旗舰模型,适用于复杂的多步骤任务。GPT-4o 比 GPT-4 Turbo 更便宜、更快。目前指向 gpt-4o-2024-05-13 |
128,000 tokens | 4,096 tokens | 截至 2023 年 10 月 |
gpt-4o-2024-05-13 | gpt-4o 目前指向此版本。 |
128,000 tokens | 4,096 tokens | 截至 2023 年 10 月 |
gpt-4o-2024-08-06 | 支持结构化输出的最新快照。 | 128,000 tokens | 16,384 tokens | 截至 2023 年 10 月 |
我们将在更新指向新快照 gpt-4o-gpt-4o-2024-08-06
前提前三周通知。
GPT-4o mini
GPT-4o mini(“o”代表“omni”)是我们在小模型类别中最先进的模型,也是我们迄今为止最便宜的模型。它是多模态的(接受文本或图像输入并输出文本),比 gpt-3.5-turbo
更智能但速度相同。它旨在用于较小的任务,包括视觉任务。
我们建议在您之前使用 gpt-3.5-turbo
的地方选择 gpt-4o-mini
,因为此模型更强大且更便宜。
模型 | 描述 | 上下文窗口 | 最大输出令牌 | 训练数据 |
---|---|---|---|---|
gpt-4o-mini | 新 GPT-4o-mini。我们实惠且智能的小模型,适用于快速、轻量级任务。GPT-4o mini 比 GPT-3.5 Turbo 更便宜且更强大。目前指向 gpt-4o-mini-2024-07-18 |
128,000 tokens | 16,384 tokens | 截至 2023 年 10 月 |
gpt-4o-mini-2024-07-18 | gpt-4o-mini 目前指向此版本。 |
128,000 tokens | 16,384 tokens | 截至 2023 年 10 月 |
GPT-4 Turbo 和 GPT-4
GPT-4 是一种大型多模态模型(接受文本或图像输入并输出文本),能够以更高的准确性解决比我们以前的任何模型更困难的问题,这要归功于其更广泛的通用知识和先进的推理能力。GPT-4 在 OpenAI API 中对付费客户开放。与 gpt-3.5-turbo
类似,GPT-4 针对聊天进行了优化,但也适用于使用 Chat Completions API 的传统完成任务。请在我们的文本生成指南中了解如何使用 GPT-4。
模型 | 描述 | 上下文窗口 | 最大输出令牌 | 训练数据 |
---|---|---|---|---|
gpt-4-turbo | 最新的 GPT-4 Turbo 模型,具有视觉功能。视觉请求现在可以使用 JSON 模式和函数调用。目前指向 gpt-4-turbo-2024-04-09 |
128,000 tokens | 4,096 tokens | 截至 2023 年 12 月 |
gpt-4-turbo-2024-04-09 | GPT-4 Turbo with Vision 模型。视觉请求现在可以使用 JSON 模式和函数调用。目前指向此版本。 | 128,000 tokens | 4,096 tokens | 截至 2023 年 12 月 |
gpt-4-turbo-preview | GPT-4 Turbo 预览模型。目前指向 gpt-4-0125-preview |
128,000 tokens | 4,096 tokens | 截至 2023 年 12 月 |
gpt-4-0125-preview | GPT-4 Turbo 预览模型,旨在减少模型不完成任务的“懒惰”情况。了解更多。 | 128,000 tokens | 4,096 tokens | 截至 2023 年 12 月 |
gpt-4-1106-preview | GPT-4 Turbo 预览模型,具有改进的指令跟随、JSON 模式、可重复输出、并行函数调用等功能。这是一个预览模型。了解更多。 | 128,000 tokens | 4,096 tokens | 截至 2023 年 4 月 |
gpt-4 | 目前指向 gpt-4-0613 。参见持续的模型升级。 |
8,192 tokens | 8,192 tokens | 截至 2021 年 9 月 |
gpt-4-0613 | 2023 年 6 月 13 日的 gpt-4 快照,改进了函数调用支持。 |
8,192 tokens | 8,192 tokens | 截至 2021 年 9 月 |
gpt-4-0314 | 2023 年 3 月 14 日的 gpt-4 旧版快照。 |
8,192 tokens | 8,192 tokens | 截至 2021 年 9 月 |
对于许多基本任务,GPT-4 和 GPT-3.5 模型之间的差异并不显著。然而,在更复杂的推理情况下,GPT-4 比我们以前的任何模型都更强大。
多语言能力
GPT-4 优于以前的大型语言模型,并且截至 2023 年,大多数最先进的系统(这些系统通常具有特定于基准的训练或手工工程)。在 MMLU 基准测试中,GPT-4 不仅在英语中比现有模型的表现大幅提高,还在其他语言中表现出色。
GPT-3.5 Turbo
GPT-3.5 Turbo 模型可以理解和生成自然语言或代码,并且已针对使用 Chat Completions API 的聊天进行了优化,但在非聊天任务中同样表现良好。
截至 2024 年 7 月,gpt-4o-mini
应代替 gpt-3.5-turbo
使用,因为它更便宜、更强大、多模态且同样快速。gpt-3.5-turbo
仍然可以在 API 中使用。
模型 | 描述 | 上下文窗口 | 最大输出令牌 | 训练数据 |
---|---|---|---|---|
gpt-3.5-turbo-0125 | 最新的 GPT-3.5 Turbo 模型,在响应请求格式上具有更高的准确性,并修复了导致非英语语言函数调用出现文本编码问题的错误。了解更多。 | 16,385 tokens | 4,096 tokens | 截至 2021 年 9 月 |
gpt-3.5-turbo | 目前指向 gpt-3.5-turbo-0125 。 |
16,385 tokens | 4,096 tokens | 截至 2021 年 9 月 |
gpt-3.5-turbo-1106 | GPT-3.5 Turbo 模型,具有改进的指令跟随、JSON 模式、可重复输出、并行函数调用等功能。了解更多。 | 16,385 tokens | 4,096 tokens | 截至 2021 年 9 月 |
gpt-3.5-turbo-instruct | 具有类似 GPT-3 时代模型的能力。兼容旧的 Completions 端点,而不是 Chat Completions。 | 4,096 tokens | 4,096 tokens | 截至 2021 年 9 月 |
DALL·E
DALL·E 是一个可以根据自然语言描述创建逼真图像和艺术作品的 AI 系统。DALL·E 3 目前支持在给定提示的情况下创建具有特定大小的新图像。DALL·E 2 还支持编辑现有图像或创建用户提供图像的变体。
DALL·E 3 可以通过我们的图像 API 使用,DALL·E 2 也可以使用。您可以通过 ChatGPT Plus 尝试 DALL·E 3。
模型 | 描述 |
---|---|
dall-e-3 | 最新的 DALL·E 模型,于 2023 年 11 月发布。了解更多。 |
dall-e-2 | 之前的 DALL·E 模型,于 2022 年 11 月发布。DALL·E 的第二次迭代,图像比原始模型更逼真、准确,分辨率提高了 4 倍。 |
TTS
TTS 是一种 AI 模型,可以将文本转换为自然的语音文本。我们提供两种不同的模型变体,tts-1
针对实时文本到语音用例进行了优化,tts-1-hd
针对质量进行了优化。这些模型可以与音频 API 中的 Speech 端点一起使用。
模型 | 描述 |
---|---|
tts-1 | 最新的文本到语音模型,优化了速度。 |
tts-1-hd | 最新的文本到语音模型,优化了质量。 |
Whisper
Whisper 是一种通用语音识别模型。它在大量多样化音频数据集上进行了训练,也是一个多任务模型,可以执行多语言语音识别以及语音翻译和语言识别。Whisper v2-large 模型目前通过我们的 API 使用,模型名称为 whisper-1
。
目前,Whisper 的开源版本与通过我们的 API 提供的版本没有区别。然而,通过我们的 API,我们提供了优化的推理过程,使得通过我们的 API 运行 Whisper 比通过其他方式更快。有关 Whisper 的更多技术细节,您可以阅读论文。
Embeddings
Embeddings 是文本的数值表示,可以用于测量两个文本之间的相关性。Embeddings 在搜索、聚类、推荐、异常检测和分类任务中非常有用。您可以在公告博客文章中阅读有关我们最新 embedding 模型的更多信息。
模型 | 描述 | 输出维度 |
---|---|---|
text-embedding-3-large | 最强大的 embedding 模型,适用于英语和非英语任务 | 3,072 |
text-embedding-3-small | 比第二代 ada embedding 模型性能提高 | 1,536 |
text-embedding-ada-002 | 最强大的第二代 embedding 模型,取代了 16 个第一代模型 | 1,536 |
Moderation
Moderation 模型旨在检查内容是否符合 OpenAI 的使用政策。这些模型提供分类能力,寻找以下类别的内容:仇恨、仇恨/威胁、自残、性、性/未成年人、暴力和暴力/图形。您可以在我们的审核指南中找到更多信息。
Moderation 模型接收任意大小的输入,这些输入会自动分成 4,096 个令牌的块。在输入超过 32,768 个令牌的情况下,将使用截断,这在罕见情况下可能会遗漏少量令牌,使其无法进行审核检查。
每次请求到审核端点的最终结果显示的是每个类别的最大值。例如,如果一个 4K 令牌的块的类别得分为 0.9901,而另一个为 0.1901,则结果将在 API 响应中显示 0.9901,因为它更高。
模型 | 描述 | 最大令牌数 |
---|---|---|
text-moderation-latest | 目前指向 text-moderation-007 |
32,768 |
text-moderation-stable | 目前指向 text-moderation-007 |
32,768 |
text-moderation-007 | 最强大的审核模型,涵盖所有类别。 | 32,768 |
GPT Base
GPT base 模型可以理解和生成自然语言或代码,但未经过指令跟随训练。这些模型旨在替代我们原始的 GPT-3 基础模型,并使用旧的 Completions API。大多数客户应该使用 GPT-3.5 或 GPT-4。
模型 | 描述 | 最大令牌数 | 训练数据 |
---|---|---|---|
babbage-002 | 替代 GPT-3 和基础模型。 | 16,384 tokens | 截至 2021 年 9 月 |
davinci-002 | 替代 GPT-3 和基础模型。 | 16,384 tokens | 截至 2021 年 9 月 |
我们如何使用您的数据
您的数据就是您的数据。
自 2023 年 3 月 1 日起,发送到 OpenAI API 的数据将不会用于训练或改进 OpenAI 模型(除非您明确选择加入)。选择加入的一个好处是,随着时间的推移,模型可能会在您的用例上变得更好。
为了帮助识别滥用行为,API 数据可能会保留长达 30 天,然后被删除(除非法律另有要求)。对于具有敏感应用的可信客户,可能提供零数据保留。启用零数据保留后,请求和响应主体不会被持久化到任何日志记录机制中,仅在内存中存在以提供请求。
请注意,此数据政策不适用于 OpenAI 的非 API 消费者服务,如 ChatGPT 或 DALL·E Labs。
默认使用政策按端点
端点 | 用于训练的数据 | 默认保留 | 是否有资格进行零保留 |
---|---|---|---|
/v1/chat/completions* | 否 | 30 天 | 是,除 (a) 图像输入或 (b) 为结构化输出提供的模式* |
/v1/assistants | 否 | 30 天 ** | 否 |
/v1/threads | 否 | 30 天 ** | 否 |
/v1/threads/messages | 否 | 30 天 ** | 否 |
/v1/threads/runs | 否 | 30 天 ** | 否 |
/v1/vector_stores | 否 | 30 天 ** | 否 |
/v1/threads/runs/steps | 否 | 30 天 ** | 否 |
/v1/images/generations | 否 | 30 天 | 否 |
/v1/images/edits | 否 | 30 天 | 否 |
/v1/images/variations | 否 | 30 天 | 否 |
/v1/embeddings | 否 | 30 天 | 是 |
/v1/audio/transcriptions | 否 | 零数据保留 | - |
/v1/audio/translations | 否 | 零数据保留 | - |
/v1/audio/speech | 否 | 30 天 | 是 |
/v1/files | 否 | 直到客户删除 | 否 |
/v1/fine_tuning/jobs | 否 | 直到客户删除 | 否 |
/v1/batches | 否 | 直到客户删除 | 否 |
/v1/moderations | 否 | 零数据保留 | - |
/v1/completions | 否 | 30 天 | 是 |
* 通过 gpt-4o
、gpt-4o-mini
、gpt-4-turbo
或 gpt-4-vision-preview
模型(或之前的 response_format
)的图像输入不符合零保留资格。当启用结构化输出时,提供的模式(无论是作为 response_format
还是在函数定义中)不符合零保留资格,尽管完成本身符合。
** 与 Assistants API 相关的对象将在您通过 API 或仪表板删除后 30 天从我们的服务器上删除。未通过 API 或仪表板删除的对象将无限期保留。
有关详细信息,请参阅我们的 API 数据使用政策。要了解更多关于零保留的信息,请联系我们的销售团队。
模型端点兼容性
端点 | 最新模型 |
---|---|
/v1/assistants | 所有 GPT-4 和 GPT-3.5 Turbo 模型。该工具需要 retrieval (及后续日期模型版本)或 gpt-4-turbo-preview (及后续版本)。 |
/v1/audio/transcriptions | whisper-1 |
/v1/audio/translations | whisper-1 |
/v1/audio/speech | tts-1, tts-1-hd |
/v1/chat/completions | gpt-4 和日期模型版本,以及日期模型版本,以及日期模型版本,gpt-4-turbo-preview 的微调版本 |
/v1/completions (Legacy) | gpt-3.5-turbo-instruct, babbage-002 , davinci-002 |
/v1/embeddings | text-embedding-3-small, text-embedding-3-large , text-embedding-ada-002 |
/v1/fine_tuning/jobs | gpt-3.5-turbo, babbage-002 , davinci-002 |
/v1/moderations | text-moderation-stable, text-moderation-latest |
/v1/images/generations | dall-e-2, dall-e-3 |