值得注意的是,同日发布的一篇论文中,OpenAI将这一能看图的模型称作GPT-4V(ision)。该模型在2022年已完成训练,之后在2023年早些时候开始早期测试访问。借助GPT-4V,今年3月OpenAI与Be My Eyes组织合作开发Be My AI,可为盲人与视力障碍人士描述外界世界。测试表明,Be My AI可为50万盲人和视力障碍用户提供工具,满足他们在信息、文化和就业方面的需求。另外,OpenAI还测试了GPT-4V的验证码破解及地理定位能力,前者表明模型具备解决谜题与执行复杂视觉推理任务的能力,后者则展现出了模型在搜索物品/地点的用处。但这两项功能将涉及网络安全及隐私问题。至于本次更新的另一语音识别与生成功能,OpenAI表示,用户可以用这一功能为孩子讲述睡前故事,还可以在吵架时作为帮手。OpenAI与专业配音演员合作,提供了5种不同的声音。另外,公司还与Spotify展开合作,通过这一功能将播客翻译为其他语言,同时保留播客主持人的声音。