今天发布的GPT-4o以及ChatGPT产品的快速总结:#ai##openai#
🌟GPT-4o(“o”代表“全能”)
它可以接受任意组合的文本、音频和图像作为输入,并生成任意组合的文本、音频和图像输出。
它可以在 232 毫秒内响应音频输入,平均为 320 毫秒,这与人类在对话中的响应时间相似。
在英文和代码文本方面,它与 GPT-4 Turbo 的性能相当,对非英语文本的文本有显著改进。
同时在 API 方面更快速、价格更便宜 50%。与现有模型相比,GPT-4o 在视觉和音频理解方面表现特别出色。
与 GPT-4 Turbo 相比,GPT-4o 速度提高了 2 倍,价格减半,限制速率提高了 5 倍。
🌟何时可用?
GPT-4o 的文本和图像功能今天开始在 ChatGPT 中推出。
将在免费版中提供 GPT-4o,并为 Plus 用户提供高达 5 倍的消息限制。
将在未来几周内在 ChatGPT Plus 中推出带有 GPT-4o 的 Voice Mode 的新版本。
开发者现在也可以通过 API 访问 GPT-4o 作为文本和视觉模型。
公告地址:网页链接 歸藏的AI工具箱的微博视频
🌟GPT-4o(“o”代表“全能”)
它可以接受任意组合的文本、音频和图像作为输入,并生成任意组合的文本、音频和图像输出。
它可以在 232 毫秒内响应音频输入,平均为 320 毫秒,这与人类在对话中的响应时间相似。
在英文和代码文本方面,它与 GPT-4 Turbo 的性能相当,对非英语文本的文本有显著改进。
同时在 API 方面更快速、价格更便宜 50%。与现有模型相比,GPT-4o 在视觉和音频理解方面表现特别出色。
与 GPT-4 Turbo 相比,GPT-4o 速度提高了 2 倍,价格减半,限制速率提高了 5 倍。
🌟何时可用?
GPT-4o 的文本和图像功能今天开始在 ChatGPT 中推出。
将在免费版中提供 GPT-4o,并为 Plus 用户提供高达 5 倍的消息限制。
将在未来几周内在 ChatGPT Plus 中推出带有 GPT-4o 的 Voice Mode 的新版本。
开发者现在也可以通过 API 访问 GPT-4o 作为文本和视觉模型。
公告地址:网页链接 歸藏的AI工具箱的微博视频