没等到 GPT-5,等来了 GPT-4o(名称中“o”代表Omni,即全能的意思,凸显了其多功能的特性),发布会上展示的效果相当炸裂。时区的原因,不少小伙伴凌晨蹲点跟进 OpenAI 的发布会,也是很拼了,这里我将核心信息整理一下同步给你。
以前我们只能与 ChatGPT 进行文字交流,可以理解为单模模式,仅是文字模式,这次借助 GPT-4o,不仅能读懂你的文字,还能听懂你的声音(甚至你的情绪),也能看懂你眼前的图像。相信更强大视频能力(Sora),在不远的版本中也会融入进GPT中来,比如GPT-5。
如果你体验过手机App的语音通话能力,肯定是惊叹于如此拟人的音色及音调,GPT-4o更新将对话能力发挥到极致。对话时可以打断对话,并且能够识别对话人的情绪,并且自己似乎也具备了高情商的应对能力,科幻片里的桥段慢慢在变成现实,越来越像真人。
识别现实世界的图像对GPT-4o而言,不再是一个挑战,借助摄像头,可以实时识别并将其转换成语言、声音传递给你。国外有个类似的产品叫Be My Eyes,是一款针对视障人士的应用,帮助他们识别眼前的世界。
GPT-4 版本有时速度上相比 GPT-3.5略慢,但 GPT-4o能力上有提升,速度反而更快,体验过的小伙伴瞬间觉得回不去了,Plus用户可以更加快速体验到GPT-4o,真正的免费用户还要再等等。近乎实时的语言翻译能力,足你颠覆你过往的语言翻译的印象。
(来源于即刻网友)
与国内的模型相比,海外的价格是略贵的,但相比GPT自身而言,GPT-4o 的 API 调用价格还是要降低不少,相比GPT-4 Turbo降低了50%的费用,当然Plus的订阅费用依旧不变。
虽然说是免费使用,显然 ChatGPT Plus 用户显然是更早能体验到的(每月$20的订阅费用),3.5版本的免费用户可能还要晚些时候才能体验到或者部分用户可以幸运体验到。既然是免费使用,相信多少会有一些限制,比如GPT-4每天允许的对话次数是有限制的,相信GPT-4o也不会无限制的使用。