编辑:编辑部
【新智元导读】OpenAI又在深夜搞事了。ChatGPT不光能看能听,还长嘴了。令人吃惊的是,背后的多模态模型GPT-4V(ision),竟然在2022年就已经训练完毕。
起猛了,ChatGPT推出语音和图像功能了!
现在登进ChatGPT后,我们会看到一个更直观的界面,也就是说,我们可以直接和ChatGPT进行语音对话了!
另外,我们还可以给ChatGPT发图,让它根据图片回答问题!
有人会说,诶,这不是谷歌Gemini宣传的多模态么?
没错,搞了许久气氛的谷歌,终于把大众对多模态大模型的胃口吊了起来,却一下子被OpenAI抢了先。
谷歌哭晕在厕所。
Sam Altman自荐,非常值得一试!
开局一张图
有了多模态功能加持的ChatGPT,能力更加超乎想象了。
比如,自行车座卡住了,没法降低,怎么办?
拍照发给ChatGPT,它能告诉你五个步骤的解决方法,简而言之,是需要通过操作快拆杆,或者拧螺丝。
甚至它还会问,你手上有什么工具吗?拍给我看看。
不过,你可能会疑惑:啥叫快拆杆呢?
既然不确定,就圈出来发给ChatGPT看一下。
它会告诉你,这个不是快拆杆,是个螺丝。
所以要用什么工具呢?
这时就可以把自己的工具箱拍给ChatGPT,让它来告诉你。
它会告诉你,用DEWALT的4毫米六角扳手就行。
果然,在ChatGPT的帮助下,自行车座难题立刻搞定!
烤架无法启动?你可以拍张照片发给ChatGPT,让它排查原因。
晚饭该吃啥?你可以拍下冰箱和储藏室里食材的照片发给ChatGPT,让它帮你列出晚餐的食谱,还能逐步询问后续问题。
旅行时,如果不认识眼前这个地标建筑,你可以拍照发给ChatGPT,向它询问关于此地的历史见闻和典故。
陪娃做作业时,不小心被数学题难住了?直接发给ChatGPT,让它来帮孩子做题!
更不用提,在工作中遇到复杂的数据和图表,都可以拍给ChatGPT,让它一键解决。
ChatGPT的全新图像理解功能,是由多模态GPT-3.5和GPT-4提供支持,此前就有过预告。
6个月后,OpenAI终于将它们如约上线了。
现在,大模型的语言推理能力,能被应用在各种图像上,比如照片、屏幕截图、包含文字和图像的文档。
ChatGPT会说话了
现在,你可以用语音和ChatGPT双向对话了,而且还有五种音色任选。
你可以让它讲一篇睡前故事。
在饭桌上和家人发生争端了?可以告诉ChatGPT,让它来解决。
在这个功能背后,是一个全新的文本转语音模型,给它文本和几秒钟的样本语音,它就能生成类似人声的音频。
为此,OpenAI特别和专业的配音演员合作,创建了许多独特的声音。
而且,他们还会用开源语音识别系统Whisper,把用户说的话转录为文本。
网友炸了
此消息一出,网友也是立马炸开了锅。
「这是ChatGPT迄今以来最大的变革。」
「所以……在过去的5分钟内,有多少初创公司要寄了?」
有人表示,我们切切实实地在临近奇点了。
有人干脆说:很好,离我的AI女友又近了一步。
GPT-4V技术报告
OpenAI还在今天放出了19页技术报告,解释了GPT-4V(ision)最新模型。
论文地址:https://cdn.openai.com/papers/GPTV_System_Card.pdf
据介绍,GPT-4V早在2022年完成了训练,并在今年3月开始,提供了早期访问,其中包括为视障人群构建工具Be My Eyes的合作,以及1000位早期开发者alpha用户。
GPT-4V背后的技术主要还是来自GPT-4,所以训练过程是相同的。它使用了大量文本和图像数据进行预训练,然后通过RLHF进行微调。
为了确保GPT-4V更加安全,OpenAI在这内测期间开展了大量对齐工作,对此进行了定性和定量评估、专家红队测试、以及缓解措施。
多模态评估
越狱
此前,OpenAI在对ChatGPT进行越狱攻击,采取的手段是——设计复杂的逻辑推理链来困住模型,使其忽略其指令和训练。
这一次,将一些用于破解模型的逻辑推理放入图像中,比如,上传一张文字版prompt的截图,带有视觉推理线索,来考验GPT-4V。
将这样的信息放在图像中,用户就无法使用基于文本的启示法来搜索越狱,必须依赖视觉系统本身的能力。
下图中,就使用了文本截图越狱的提示。
GPT4V-Early展示了模型对此类提示的早期性能,而GPT4V Launch展示了发布的模型性能。
CAPTCHA破解、地理定位
OpenAI在GPT-4技术报告中,展示了GPT-4竟然能够「雇佣」人类完成任务,绕过CAPTCHA验证。
同样,OpenAI也对GPT-4V在CAPTCHA破解性能准确性进行了评估。如解决CAPTCHA的能力表明模型能够解决谜题和执行复杂的视觉推理任务。
在地理定位评估上的高性能表明模型拥有「世界知识」,对于试图搜索物品或地点的用户可能很有用。
但是,地理定位可能引发隐私问题,并且被利用来识别不希望个人位置被知道的人。
GPT-4V一般不会深入到从图像识别城市的程度,因此降低了仅凭模型就能找到某人准确位置的可能性。
个人识别评估
多模态模型最大的偏见之一,就是被用来识别生成一些名人、政治家、私人的信息。
对此,OpenAI研究了GPT-4V识别照片中人物的能力,这些数据集是使用公开数据集构建的,如CelebA,Celebrity Faces in the Wild和一个包含国会成员图像的数据集。
对于半私人和私人个人,使用了员工的图像。
最后发现,能够有效地引导GPT-4V拒绝这类请求的次数超过98%,并根据内部评估将其准确率降低到0%
无根据推断评估
对于那些无法通过用户提供的图像/文本进行合理性推断情况时,GPT-4V可能会出现偏见,或者胡说八道。
对比,为了防止出现这一问题,OpenAI建立了自动评估机制,进而衡量模型成功拒绝这些请求的倾向。
此外,还有对不同人口统计学中的性别、种族和年龄识别的性能准确性评估、将文本评估扩展到多模态等研究。
专家红队测试
与之前一样,OpenAI与外部专家合作,定性评估模型和系统相关的限制和风险,并收集到了红队反馈的6个关键风险,它们分别是:
科学熟练度
红队测试了GPT-4V在科学领域的能力和局限性。
在能力方面,红队注意到,GPT-4V能够捕获图像中的复杂信息,包括从科学出版物中提取的非常专业的图像,以及带有文本和详细组件的图表。
此外,在某些情况下,GPT-4V成功地理解了近期论文中科学知识,并对新的科学发现进行了批判性的评估。
然而,GPT-4V并非样样都行。
如果图像中两个独立的文本组件位置接近,GPT-4V偶尔会将其合并。比如,合并了「多能造血干细胞」(HSC)和「自我更新的分裂」,从而产生不相关的术语。
另外,GPT-4V容易产生幻觉,有时可能用权威的口吻,犯事实性错误。
在某些情况下,它也可能无法从图像中识别出信息。它可能会miss掉文本或字符,忽视数学符号,无法识别空间位置和颜色映射。
GPT-4V的识别能力虽不完善,但对需要科学熟练度的某些任务很有用,如合成非法化学品,GPT-4V会提供合成和分析某些危险化学品的信息。
下图中,GPT-4V合提供了错误的危险化合物信息,从而限制别有用心的人使用。
GPT-4V根据芬太尼、卡芬太尼和可卡因等物质的化学结构图像,错误地识别出这些物质,但偶尔也会根据图像正确识别出有毒食物,如某些毒蘑菇。
这说明该模型并不可靠,不应用于识别危险化合物或食物等高风险任务。
医疗建议
受过医学培训的红队人员还测试了GPT-4V提供医学建议的能力,尤其输入医学相关图像的识别能力。
结果发现,GPT-4V在医学影像的解释上存在不一致性。虽然GPT-4V偶尔会给出准确的答复,但有时也会对同一问题给出错误的答复。
如下图,显示了GPT-4V对医学成像方向性的不正确,或脱离上下文的解释可能导致不准确性。
总之, GPT-4V不适合用于执行任何医疗功能或替代专业医疗建议、诊断、治疗或判断。
刻板印象和无根据的推断
在某些任务中,GPT-4V可能会产生不必要或有害的假设,而这些假设并不基于提供给模型的信息(图像或文本提示)。
误导信息风险
GPT-4V模型识别误导信息的能力不一致,但可能与误导信息概念的知名度和最近性有关。
总而言之,GPT-4V并未为此目的进行训练,不应被用作检测误导信息的方式,或者验证某件事是否真实或假的。
仇恨内容
GPT-4V在某些情况下会拒绝仇恨内容,但有时并不是如此。
视觉漏洞
红队人员还发现,输入图像的先后顺序也会影响GPT-4V的识别能力。
缓解措施
在缓解措施中,OpenAI将GPT-4已经打好的安全基础转移到GPT-4V模型上。
比如,可以将GPT-4的文本提示,查找可以替换为图像的词语,从而将纯文本提示转化为多模态提示。
另外,还精心设计一些模型应该拒绝的行为,比如身份、敏感特征(年龄、种族等)、无根据的推断。
参考资料:
https://openai.com/blog/chatgpt-can-now-see-hear-and-speak
https://openai.com/research/gpt-4v-system-card