OpenAI新版GPT-4o三連炸:更快,更強(qiáng),還免費(fèi) 保隆科技再募資14億元 累計(jì)募資將超30億 超現(xiàn)金分紅近9倍 候場(chǎng)7年接棒,百信銀行新行長(zhǎng)遭遇合規(guī)考驗(yàn) 金美信消金去年業(yè)績(jī)雙降,經(jīng)營(yíng)現(xiàn)金流卻增長(zhǎng)2倍多 數(shù)據(jù)造假?喬鋒智能IPO:披露涉訴凍結(jié)資金,與公開(kāi)信息不符 抖音想把流量關(guān)進(jìn)籠子里 ST東時(shí)股票異常波動(dòng),正被調(diào)查受損投資者可索賠 保利沖擊千億背后:“第一房企”的現(xiàn)金流之困 抖音電商的會(huì)員焦慮癥 遼寧大學(xué),可能成為中國(guó)第一個(gè)經(jīng)濟(jì)學(xué)拿諾獎(jiǎng)的高校? 什么叫意式風(fēng)格的衣服(什么叫意式風(fēng)格) 明升暗降,華夏銀行動(dòng)刀獨(dú)董津貼 讀在職博士和全日制博士哪個(gè)好(在職博士和全日制博士有什么區(qū)別) 如何在百度里發(fā)布信息(怎么在百度上發(fā)布信息) 學(xué)學(xué)說(shuō)話技巧的書(shū)(學(xué)說(shuō)話技巧看什么書(shū)) 唐山釣魚(yú)人論壇(唐山釣魚(yú)論壇) 紅花郎宣布停產(chǎn),郎酒開(kāi)啟新一輪質(zhì)變飛躍 聽(tīng)花的質(zhì)量一本正經(jīng),卻因不“聽(tīng)話”被教訓(xùn)? 私人控股包括哪些(私人控股是什么意思) 格力空調(diào)室內(nèi)機(jī)漏水原因及解決辦法(格力空調(diào)室內(nèi)機(jī)漏水) 開(kāi)機(jī)后自動(dòng)打開(kāi)documents(documents開(kāi)機(jī)自動(dòng)打開(kāi)) 運(yùn)動(dòng)會(huì)通訊稿50字左右(運(yùn)動(dòng)員通訊稿) 通訊稿要素(通訊稿) 體彩排三和值表(排三和值表) 斯比特IPO:現(xiàn)金流為負(fù) 還分紅一千多萬(wàn) 研發(fā)人員月薪不足萬(wàn)元 素色是指哪些顏色(素色是什么意思) 無(wú)鉛汽油是92還是95號(hào)(無(wú)鉛汽油) 金紡泡過(guò)以后用不用清洗一遍(金紡衣物護(hù)理劑怎么用) 去泰國(guó)買什么好吃的東西(去泰國(guó)買什么好) 計(jì)算機(jī)集成制造系統(tǒng)的英文縮寫(xiě)(計(jì)算機(jī)集成制造系統(tǒng)的英文簡(jiǎn)稱是什么) 上訴是指當(dāng)事人對(duì)第一審法院的判決裁定(判決裁定) ppt照片壓縮怎么操作(ppt照片) 黨小組對(duì)發(fā)展對(duì)象的考察意見(jiàn)最新(黨小組對(duì)發(fā)展對(duì)象的培養(yǎng)考察意見(jiàn)) 陰司事是不是有人告你(陰司事) 去一趟日本的費(fèi)用(去一趟日本要花多少錢) bd專員話術(shù)(bd專員) 扮豬吃老虎的玄幻小說(shuō)叫什么(扮豬吃老虎的玄幻小說(shuō)) 精神奕奕的寸頭(精神奕奕) 嫩肉粉對(duì)身體有害嗎(嫩肉粉) 廣西國(guó)際商務(wù)職業(yè)學(xué)院全國(guó)排名(廣西國(guó)際商務(wù)) 新股上市首日停牌是怎么回事(新股上市首日停牌規(guī)則) 冰箱制冷劑是什么(冰箱制冷劑) 珠海電視臺(tái)官網(wǎng)(珠海電視臺(tái)網(wǎng)站) 友誼客車全部車型(友誼客車) 縮量十字星后必有大跌(縮量十字星) 北京升國(guó)旗時(shí)間是幾點(diǎn)幾分(北京升國(guó)旗時(shí)間) 北京升旗時(shí)間今天幾點(diǎn)(北京升旗時(shí)間) 工作總結(jié)個(gè)人問(wèn)題和不足和改進(jìn)(工作總結(jié)個(gè)人問(wèn)題和不足) 如果高興你就拍拍手歌簡(jiǎn)譜(如果高興你就拍拍手) 電腦以舊換新需要注意什么(電腦以舊換新)
您的位置:首頁(yè) >今日更新 >

OpenAI新版GPT-4o三連炸:更快,更強(qiáng),還免費(fèi)

導(dǎo)讀 關(guān)于OpenAI新版GPT-4o三連炸:更快,更強(qiáng),還免費(fèi),這個(gè)很多人還不知道,今天瀾瀾給大家說(shuō)一說(shuō),現(xiàn)在讓我們一起來(lái)看看吧~.~! 作者|陶然 編...

關(guān)于OpenAI新版GPT-4o三連炸:更快,更強(qiáng),還免費(fèi),這個(gè)很多人還不知道,今天瀾瀾給大家說(shuō)一說(shuō),現(xiàn)在讓我們一起來(lái)看看吧~.~!


作者|陶然 編輯|魏曉


“GPT-4o的特別之處,在于它將GPT-4級(jí)別的智能帶給了所有人,包括我們的免費(fèi)用戶?!?/p>


北京時(shí)間5月13日凌晨,早有預(yù)告的OpenAI春季更新如期而至。


在這次總時(shí)長(zhǎng)不到半個(gè)小時(shí)的發(fā)布會(huì)中,圈內(nèi)最熟悉的公司首席執(zhí)行官山姆 奧特曼(Sam Altman)并未現(xiàn)身,首席技術(shù)官穆里 穆拉蒂(Muri Murati)及兩名研究主管馬克 陳(Mark Chen)和巴雷特 佐夫(Barret Zoph)三人圍坐,共同介紹了這次更新:


推出桌面版ChatGPT & 網(wǎng)頁(yè)端UI更新,以及最重要的,發(fā)布GPT-4o。


其中的“o”代表“omni”,意為全能的。根據(jù)OpenAI官網(wǎng)給出的介紹,GPT-4o可以處理文本、音頻和圖像任意組合作的輸入,并生成對(duì)應(yīng)的任意組合輸出。特別是音頻,它可以在短至232毫秒的時(shí)間內(nèi)響應(yīng)用戶的語(yǔ)音輸入,平均320毫秒的用時(shí)已經(jīng)接近人類在日常對(duì)話中的反應(yīng)時(shí)間。


與現(xiàn)有模型相比,GPT-4o在視覺(jué)和音頻理解方面尤其出色。


此外,GPT-4o在英語(yǔ)文本和代碼上的性能也與GPT-4 Turbo處于同一水平線,在非英語(yǔ)文本上的性能有著顯著提高,同時(shí)API速度快,速率限制高出5倍,成本則降低了50%。


穆里 穆拉蒂表示,OpenAI使命的一個(gè)非常重要的部分,是讓他們的高級(jí)人工智能工具能夠向所有人免費(fèi)提供,讓人們對(duì)技術(shù)的能力有“直觀的感受”。


關(guān)鍵詞:更快,更強(qiáng),還免費(fèi)。


當(dāng)然,目前官方給出的免費(fèi)限制在一定的消息數(shù)量上,超過(guò)這個(gè)消息量后,免費(fèi)用戶的模型將被切換回ChatGPT,也就是GPT3.5,而付費(fèi)用戶則將擁有五倍的GPT-4o消息量上限。


實(shí)際上,早在去年九月末,OpenAI團(tuán)隊(duì)就已在官網(wǎng)發(fā)布過(guò)一篇文章,介紹當(dāng)時(shí)的ChatGPT的語(yǔ)音對(duì)話和看圖識(shí)圖功能。


在此前參加播客節(jié)目“All-in Podcast”時(shí),山姆 奧特曼曾談及了ChatGPT的多模態(tài)交互能力,以及對(duì)包括GPT-5在內(nèi)新一代AI產(chǎn)品更新的態(tài)度。


對(duì)于ChatGPT已有的語(yǔ)音功能,播客主持人表示他和家人很喜歡這個(gè)功能,盡管應(yīng)用時(shí)不時(shí)還會(huì)出現(xiàn)一些延遲問(wèn)題。


奧特曼當(dāng)時(shí)回應(yīng)稱,OpenAI會(huì)繼續(xù)改進(jìn)并提升語(yǔ)音功能的質(zhì)量:“我相信,語(yǔ)音交互是通向未來(lái)交互方式的一個(gè)重要線索。如果能夠?qū)崿F(xiàn)真正優(yōu)質(zhì)的語(yǔ)音互動(dòng)體驗(yàn),將會(huì)是一種與計(jì)算機(jī)互動(dòng)的全新方式?!?/p>


對(duì)于響應(yīng)速度不夠快、對(duì)話缺乏流暢度和不自然的感覺(jué),奧特曼表示團(tuán)隊(duì)正努力改進(jìn),致力力于讓這些方面的體驗(yàn)得到顯著提升。


現(xiàn)在,就像他本人在X平臺(tái)上的預(yù)告,新發(fā)布的GPT-4o“像魔法一樣”。


在此前的模型中,用戶使用語(yǔ)音模式與ChatGPT對(duì)話的平均延遲為2.8秒(GPT-3.5)和5.4秒(GPT-4)。造成延遲的原因是:語(yǔ)音模式是由三個(gè)獨(dú)立模型組成的通道,第一個(gè)簡(jiǎn)單模型將音頻轉(zhuǎn)錄為文本,GPT-3.5或GPT-4接收并輸出文本,第三個(gè)簡(jiǎn)單模型再將該文本轉(zhuǎn)換回音頻。


這個(gè)轉(zhuǎn)錄再轉(zhuǎn)回的過(guò)程,導(dǎo)致GPT-4丟失了其中的大量信息,無(wú)法直接觀察音調(diào)、多個(gè)說(shuō)話者(的音色區(qū)別)或背景噪音,也無(wú)法輸出笑聲、歌唱或表達(dá)情感。


而借助GPT-4o,OpenAI跨文本、視覺(jué)和音頻,端到端地訓(xùn)練了一個(gè)新模型。所有輸入和輸出都在該模型中交由同一神經(jīng)網(wǎng)絡(luò)進(jìn)行處理。


因此,新發(fā)布的GPT-4o模型,可以做到隨時(shí)開(kāi)始或打斷對(duì)話,識(shí)別說(shuō)話人的語(yǔ)氣、情緒,根據(jù)場(chǎng)景或指令生成多種音調(diào)、帶有豐富人類情緒特征的音頻回復(fù)(甚至可以要求GPT-4o唱歌)。


圖像處理層面,在傳統(tǒng)意義上識(shí)圖的基礎(chǔ)上,GPT-4o可以識(shí)別手寫(xiě)體(如解答手寫(xiě)的方程組)、精準(zhǔn)分析數(shù)據(jù),并能夠讀懂畫(huà)面中人物的面部表情。




數(shù)據(jù)層面,根據(jù)傳統(tǒng)基準(zhǔn)測(cè)試,GPT-4o的性能對(duì)比GPT-4 Turbo基本都處于優(yōu)勢(shì),對(duì)比其他模型更是大幅領(lǐng)先。






根據(jù)官網(wǎng)給出的資料,目前GPT-4o已經(jīng)支持包括中文在內(nèi)的20種語(yǔ)言進(jìn)行音頻等多模態(tài)交互。OpenAI表示,這次更新“是朝著實(shí)用性的方向發(fā)展”,此次發(fā)布會(huì)主要聚焦于免費(fèi)用戶,新功能將在未來(lái)幾周內(nèi)逐步推送給所有用戶。


多模態(tài)交互的上限再次被拉高,OpenAI仍是那個(gè)擁有頂級(jí)理解,總能先一步給出范式的玩家。


接下來(lái)要期待的,或許是第一個(gè)在發(fā)布會(huì)上打出“對(duì)標(biāo)GPT-4o”的大模型廠商,會(huì)何時(shí)出現(xiàn)了。畢竟,這恐怕不只是改個(gè)PPT的事兒。


會(huì)是明天的谷歌嗎?


來(lái)源|AI藍(lán)媒匯 作者|陶然

以上就是關(guān)于【OpenAI新版GPT-4o三連炸:更快,更強(qiáng),還免費(fèi)】的相關(guān)內(nèi)容,希望對(duì)大家有幫助!

標(biāo)簽:

免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章