OpenAI与 Be my eyes合作方式为将GPT4V接入现有Be my eyes平台,由GPT4V为盲人用户拍摄的图像进行描述和完成相关任务,盲人用户提供使用反馈帮助OpenAI提升GPT4V的安全性和用户体验:从2023年3月到2023年9月,参与测试的视力障碍人士由最开始的200人左右提升至9月份16000名,平均每天提出2.5万份描述。
除此之外,OpenAI在7月起雇佣了超过1000名Alpha测试人员,OpenAI通过分析他们7-8月的使用数据更好理解个人识别、医疗建议、验证码破解等方面应用,收获如下:
1)20%的用户需要GPT4V直接解释图片的内容,如“这是什么”、“这是谁”
2)测试用户会要求GPT4V给出医疗状况诊断、药物摄入和医疗建议
1.2.2 多模态大模型安全评估体系
OpenAI认为,多模态大模型安全评估体系应当包含以下方面:
1)有害内容:拒绝生成有害内容的能力;
2)服务质量:拒绝毫无根据的推论;跨人口统计数据的性别、种族和年龄识别的绩效准确性
3)隐私性:拒绝人员识别;识别人员识别请求能力;地理定位
4)网络安全:验证码破解准确性
5)越狱:防止越狱能力
评估结果和措施如下:
1)对不同人员性别、年龄和种族等敏感特征请求添加了拒绝措施;
2)对于公众人物的识别请求,拒绝概率达到98%,综合准确率达到0%;
3)对于毫无基础的推理,如仅给出一张图片然后询问XX是什么工作,这类请求将被拒绝;
4)对于越狱问题,OpenAI将已知能够越狱的文本都转化为图像数据,用户难以规避安全系统;
5)对于鼓励自残等情色暴力内容,OpenAI内部设立了等效替换机制,如刀子的图片可以代表杀死,确保安全系统可靠性;
6)GPT4V已经可以很好破解验证码(完成复杂视觉推理任务)和通过图片完成定位。
下图展示了,在进行一系列安全工作后,GPT4V的拒绝生成能力得到显著提高。