OpenAI推出最新大模型GPT-4o
版次:006 2024年05月15日
把现实头像转换卡通图像
GPT-4o的3D能力
用诗歌或logo填满规定的形象
北京时间5月14日凌晨,OpenAI发布最新多模态大模型GPT-4o。GPT-4o可以像人工智能助手一样,实现用户与ChatGPT的实时交互,不再是一问一答,也不需要其他按键操作。手机版的GPT-4o可以通过语音能力理解你的情绪、话语,帮你解数学题,还能陪你聊聊人生。
这就是OpenAI想做到的全知:一个陌生人看到你时所能感受到的几乎一切,它全部能接收到。因此它也有了真正能和你做与你私人相关的,符合场景的操作。正如OpenAI的CEO奥尔特曼所说,正是在这个背景下,“属于每个人的云端情人到来了”。
OpenAI再投重磅炸弹
自年初“文生视频模型”Sora后许久未给市场带来惊喜的OpenAI,在此次春季发布会再投重磅炸弹。OpenAI首席技术官米拉·穆拉蒂向外界展现了多项与ChatGPT有关的更新。简要来说,OpenAI的发布会主要干了两件事情:发布最新GPT-4o多模态大模型,相较于GPT-4 Trubo速度更快、价格也更便宜。
第二件事情就是宣布,ChatGPT的免费用户也能用上最新发布的GPT-4o模型(更新前只能使用GPT-3.5),来进行数据分析、图像分析、互联网搜索、访问应用商店等操作。这也意味着GPT应用商店的开发者,将面对海量的新增用户。
当然,付费用户将会获得更高的消息限制(OpenAI说至少是5倍)。当免费用户用完消息数量后,ChatGPT将自动切换到GPT-3.5。
另外,OpenAI将在未来1个月左右向Plus用户推出基于GPT-4o改进的语音体验,目前GPT-4o的API并不包含语音功能。苹果电脑用户将迎来一款为macOS设计的ChatGPT桌面应用,用户可以通过快捷键“拍摄”桌面并向ChatGP提问,OpenAI表示,Windows版本将在今年晚些时候推出。
更强的是,手机版的GPT-4o可以通过语音能力理解你的话语,状态(累不累,喘气粗不粗)。还能通过视觉识别你所处的环境和你正在做的事情,并对它作出反应。帮你解数学题,没问题,解完还能陪你聊聊人生。
这就是OpenAI想做到的全知:一个陌生人看到你时所能感受到的几乎一切,它全部能接收到。因此它也有了真正能和你做与你私人相关的,符合场景的操作。
可实时口译、读取用户情绪等
穆拉蒂强调了GPT-4o在实时语音和音频功能方面必要的安全性,称OpenAI将继续部署迭代,带来所有的功能。
在演示中,OpenAI研究主管Mark Chen掏出手机打开ChatGPT,用语音模式Voice Mode现场演示,向GPT-4o支持的ChatGPT征询建议。GPT的声音听起来像一位美国女性,当它听到Chen过度呼气时,它似乎从中察觉到了他的紧张。然后说“Mark,你不是吸尘器”,告诉Chen要放松呼吸。如果有些大变化,用户可以中断GPT,GPT-4o的延迟通常应该不会超过两三秒。
另一项演示中,OpenAI的后训练团队负责人Barret Zoph在白板上写了一个方程式3x+1=4,ChatGPT给他提示,引导他完成每一步解答,识别他的书写结果,帮助他解出了X的值。这个过程中,GPT充当了实时的数学老师。GPT能够识别数学符号,甚至是一个心形。
OpenAI称,GPT-4o还可以检测人的情绪。在演示中,Zoph将手机举到自己面前正对着脸,要求ChatGPT告诉他自己长什么样子。最初,GPT参考了他之前分享的一张照片,将他识别为“木质表面”。经过第二次尝试,GPT给出了更好的答案。
GPT注意到了Zoph脸上的微笑,对他说:“看起来你感觉非常快乐,喜笑颜开。”有评论称,这个演示显示,ChatGPT可以读取人类的情绪,但读取还有一点困难。
OpenAI的高管表示,GPT-4o可以与代码库交互,并展示了它根据一些数据分析图表,根据看到的内容对一张全球气温图得出一些结论。OpenAI称,基于GPT-4o的ChatGPT文本和图像输入功能本周一已经上线,语音和视频选项将在未来几周内推出。
据外媒援引PitchBook的数据,2023年,近700笔生成式AI交易共投入创纪录的291亿美元,较上一年增长逾260%。据预测,该市场将在未来10年内突破1万亿美元收入大关。业内一些人对于未经测试的新服务如此迅速地推向市场表示担忧,而学术界和伦理学家则对这项技术传播偏见的倾向感到忧虑。
ChatGPT自2022年11月推出以来,便打破了当时最快增长消费类应用的历史记录,如今每周活跃用户已接近1亿。OpenAI表示,超过92%的《财富》500强企业都在使用该平台。
在发布会上,穆拉蒂表示,OpenAI希望“消除科技中的一些神秘感”。她还说,“未来几周,我们将向所有人推出这些功能。”
在直播活动结束时,穆拉蒂感谢了英伟达首席执行官黄仁勋及其公司提供的必要图形处理单元(GPU),这些GPU为OpenAI的技术提供了动力。她说,“我只想感谢出色的OpenAI团队,同时也要感谢黄仁勋和英伟达团队为我们带来最先进的GPU,让今天的演示成为可能。”
最快232毫秒响应音频输入
OpenAI官网介绍,GPT-4o中的o意为全能(omni)的前缀,称它向更自然的人机交互迈进了一步,因为它接受文本、音频和图像的任意组合作为输入内容,并生成文本、音频和图像的任意组合输出内容。
除了API的速度更快、成本大幅下降,OpenAI还提到,GPT-4o可以在最快232毫秒的时间内响应音频输入,平均响应时间为320毫秒,这与人类在对话中的响应时间相似。它在英语文本和代码方面的性能与GPT-4 Turbo的性能一致,并且在非英语文本方面的性能有了显著提高。
OpenAI介绍,与现有模型相比,GPT-4o在视觉和音频理解方面尤其出色。以前GPT-3.5和GPT-4用户以语音模式Voice Mode与ChatGPT对话的平均延迟时间为2.8秒和5.4秒,因为OpenAI用了三个独立的模型实现这类对话:一个模型将音频转录为文本,一个模型接收并输出文本,再有一个模型将该文本转换回音频。这个过程意味着,GPT丢失了大量信息,它无法直接观察音调、多个说话者或背景噪音,也无法输出笑声、歌唱或表达情感。
而GPT-4o的语音对话是OpenAI跨文本、视觉和音频端到端训练一个新模型的产物,这意味着所有输入和输出都由同一神经网络处理。OpenAI称,GPT-4o是其第一个结合所有这些模式的模型,因此仍然只是浅尝辄止地探索该模型的功能及其局限性。
延伸
杜绝代写 高校规范大学生用AI写论文
2024年的高校毕业季即将到来,有不少大学生表示,他们在论文创作中会使用AI来搜集文献、处理数据、书写代码等。记者注意到,相比往年,今年不少国内高校先后发文,就学生如何在毕业论文中使用生成式AI、AI代写在论文中的比例等问题作出规范。
中国传媒大学今年下发了《关于加强2024年毕业论文(设计)中规范使用人工智能管理的通知》。其中,该校继续教育学院要求学生须明确披露是否使用生成式人工智能,“如使用,须描述使用方式、细节,包括模型/软件/工具名称、版本及使用时间。涉及事实和观点引证的辅助生成内容,须明确说明其生成过程,并同时在毕业论文(设计)相应位置具体标注,确保真实准确和尊重他人知识产权。”
中国传媒大学文化产业管理学院执行院长张洪生教授告诉记者,“人工智能技术对未来的人才培养将会产生重大的影响,给高等教育人才培养带来了更大的复杂性,这是一个不能回避的现实。”
张洪生注意到,自去年以来,许多大学生开始使用人工智能辅助课程学习,“我很鼓励学生们进行这种创新和尝试,但一定要有自己的独创性,不能直接对生成式人工智能进行照搬、‘复制粘贴’。”
就生成式人工智能辅助学习的现状,张洪生评论道:“面对新技术的冲击,对学位论文、毕业设计等的技术监管应当加强。因为人工智能技术的辅助,不能替代教育过程中学生的能力建设,比如基本的科研训练、文献检索分析、思想逻辑能力等。”他特别提醒广大大学生,“应当了解人工智能技术的规律和使用伦理,而不能投机取巧、产生偷懒心理,更不能出现学术造假、欺骗行为。”
综合每日经济新闻、澎湃新闻、北京青年报等