北京時(shí)間5月14日1點(diǎn)整(當(dāng)?shù)貢r(shí)間5月13日22:00),OpenAI召開(kāi)了名為「春季更新」的線上發(fā)布會(huì)。
現(xiàn)場(chǎng),OpenAI的首席技術(shù)官M(fèi)ira Murati宣布推出桌面版ChatGPT,并推出名為GPT-4o的全新旗艦人工智能模型。GPT-4o中的“o”代表的是“omni”,有包羅萬(wàn)象、全知全能的意思——象征著這款模型的全面性和多元性。
從OpenAI的現(xiàn)場(chǎng)演示視頻中,我們?cè)谇楦猩弦呀?jīng)很難再將GPT-4o當(dāng)作是一個(gè)機(jī)器。它反應(yīng)敏捷、能說(shuō)會(huì)道、善于分析,還能察言觀色,甚至是表達(dá)自我。
Mira Murati指出,過(guò)去的GPT-4可以處理由圖像和文本混合而成的信息,并能完成諸如從圖像中提取文字或描述圖像內(nèi)容等任務(wù)。而GPT-4o的核心變化就是在GPT-4的基礎(chǔ)上,新增了語(yǔ)音處理能力。并且,GPT-4o還可接受文本、音頻和圖像的任意組合作為輸入,并生成文本、音頻和圖像的任意組合輸出。
更讓人驚喜的是,GPT-4o的響應(yīng)速度非常快。它可以在短短232毫秒內(nèi)響應(yīng)音頻輸入,平均為320毫秒,這與對(duì)話中的人類(lèi)響應(yīng)時(shí)間相似。
與GPT-4 Turbo相比,它在非英語(yǔ)文本上的處理能力有了大幅度提升,同時(shí),API的運(yùn)行成本也降低了50%。與現(xiàn)有模型相比,GPT-4o 在視覺(jué)和音頻理解方面尤其出色
在情感識(shí)別和表達(dá)上,新版ChatGPT有了更強(qiáng)的能力。它不僅能準(zhǔn)確理解用戶的情感,而且能根據(jù)用戶的情感狀態(tài)進(jìn)行適當(dāng)?shù)幕貞?yīng),這將使得聊天體驗(yàn)更加豐富和真實(shí)。如果說(shuō)過(guò)去的GPT還是一個(gè)助手,那么擁有了”眼睛“和”嘴巴“后的GPT已經(jīng)在向朋友靠近了。
除了推出新模型,在產(chǎn)品上OpenAI也做出了諸多更新。
一個(gè)是最先進(jìn)的新模型GPT-4o不再由付費(fèi)用戶獨(dú)享。發(fā)布會(huì)上,Mira Murati 宣布 ChatGPT-4o 將免費(fèi)向所有用戶開(kāi)放,而付費(fèi)和企業(yè)用戶,可以搶先獲得體驗(yàn)。
另外,OpenAI還推出了新版的GPT桌面應(yīng)用,讓用戶可以直接在電腦桌面上使用ChatGPT,并且Mac Plus用戶將優(yōu)先體驗(yàn)到這一功能。用戶可以通過(guò)快捷鍵即刻向ChatGPT提問(wèn),或者直接在ChatGPT內(nèi)截屏提問(wèn)。這種直接在桌面上使用的便捷性,無(wú)疑將使用戶體驗(yàn)得到大幅提升。