OpenAI 今天发布了全新模型 ChatGPT-4o。
这个版本主打一个 AI 陪伴 还支持实时的视频和音频输入,比如你可以打开摄像头和它聊天,甚至还可以两个 GPT 直接互相聊天,或者帮助盲人看到外面的世界。
感觉很快就要有 很多套壳的 AI 女友产品亮相了。
ChatGPT-4o(“o”代表“omni”)是迈向更自然的人机交互的一步——它接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像的任意组合输出。
它可以在短至 232 毫秒的时间内响应音频输入,平均为 320 毫秒,这与人类在对话中的响应时间相似。它在英语文本和代码上的性能与 GPT-4 Turbo 的性能相匹配,在非英语文本上的性能显着提高,同时 API 的速度也更快,成本降低了 50%。与现有模型相比,GPT-4o 在视觉和音频理解方面尤其出色。 常岩CY的微博视频
这个版本主打一个 AI 陪伴 还支持实时的视频和音频输入,比如你可以打开摄像头和它聊天,甚至还可以两个 GPT 直接互相聊天,或者帮助盲人看到外面的世界。
感觉很快就要有 很多套壳的 AI 女友产品亮相了。
ChatGPT-4o(“o”代表“omni”)是迈向更自然的人机交互的一步——它接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像的任意组合输出。
它可以在短至 232 毫秒的时间内响应音频输入,平均为 320 毫秒,这与人类在对话中的响应时间相似。它在英语文本和代码上的性能与 GPT-4 Turbo 的性能相匹配,在非英语文本上的性能显着提高,同时 API 的速度也更快,成本降低了 50%。与现有模型相比,GPT-4o 在视觉和音频理解方面尤其出色。 常岩CY的微博视频