精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-4o深夜炸場(chǎng)!AI實(shí)時(shí)視頻通話絲滑如人類,Plus功能免費(fèi)可用

穎脈Imgtec ? 2024-05-15 08:27 ? 次閱讀

轉(zhuǎn)自:量子位 | 公眾號(hào) QbitAI

不開(kāi)玩笑,電影《她》真的來(lái)了。

OpenAI最新旗艦大模型GPT-4o,不僅免費(fèi)可用,能力更是橫跨聽(tīng)、看、說(shuō),絲滑流暢毫無(wú)延遲,就像在打一個(gè)視頻電話。

現(xiàn)場(chǎng)直播的效果更是炸裂:

它能感受到你的呼吸節(jié)奏,也能用比以前更豐富的語(yǔ)氣實(shí)時(shí)回復(fù),甚至可以做到隨時(shí)打斷。


GPT-4o里的“o”是Omni的縮寫(xiě),也就是“全能”的意思,接受文本、音頻和圖像的任意組合作為輸入,并生成文本、音頻和圖像輸出。

它可以在短至232毫秒、平均320毫秒的時(shí)間內(nèi)響應(yīng)音頻輸入,與人類在對(duì)話中的反應(yīng)速度一致。


這還是一份給所有人的大禮,GPT4-o與ChatGPT Plus會(huì)員版所有的能力,包括視覺(jué)、聯(lián)網(wǎng)、記憶、執(zhí)行代碼、GPT Store……

將對(duì)所有用戶免費(fèi)開(kāi)放!

eb0e1682-1251-11ef-9118-92fbcf53809c.png

(新語(yǔ)音模式幾周內(nèi)先對(duì)Plus用戶開(kāi)放)在直播現(xiàn)場(chǎng),CTO Murati穆姐說(shuō):這是把GPT-4級(jí)別的模型開(kāi)放出去,其實(shí)她還謙虛了。

在場(chǎng)外,研究員William Fedus揭秘,GPT-4o就是之前在大模型競(jìng)技場(chǎng)搞A/B測(cè)試的模型之一,im-also-a-good-gpt2-chatbot。

無(wú)論從網(wǎng)友上手體驗(yàn)還是競(jìng)技場(chǎng)排位來(lái)看,都是高于GPT-4-Turbo級(jí)別的模型了,ELO分?jǐn)?shù)一騎絕塵。

eb122dc6-1251-11ef-9118-92fbcf53809c.png

而這樣的超強(qiáng)模型也將提供API,價(jià)格打5折,速度提高一倍,單位時(shí)間調(diào)用次數(shù)足足是原來(lái)的5倍!

追直播的網(wǎng)友已經(jīng)在設(shè)想可能的應(yīng)用,可以替代盲人看世界了。以及確實(shí)感覺(jué)比之前的語(yǔ)音模式體驗(yàn)上強(qiáng)上不少。

eb5edc84-1251-11ef-9118-92fbcf53809c.png

鑒于之前不少人就已經(jīng)和ChatGPT語(yǔ)音模式“談戀愛(ài)”了,有大膽想法的朋友,可以把你們的想法發(fā)在評(píng)論區(qū)了。


總裁Brockman在線演示

知道OpenAI發(fā)布會(huì)為什么定在谷歌I/O前一天了——打臉,狠狠打臉。

谷歌Gemini發(fā)布會(huì)需要靠剪輯視頻和切換提示詞達(dá)成的偽實(shí)時(shí)對(duì)話效果,OpenAI現(xiàn)場(chǎng)全都直播演示了。

比如讓ChatGPT在語(yǔ)言不通的兩個(gè)人之間充當(dāng)翻譯機(jī),聽(tīng)到英語(yǔ)就翻譯成意大利語(yǔ),聽(tīng)到意大利語(yǔ)就翻譯成英語(yǔ)。


發(fā)布會(huì)直播之外,總裁哥Brockman還發(fā)布了額外的5分鐘詳細(xì)演示。而且是讓兩個(gè)ChatGPT互相對(duì)話,最后還唱起來(lái)了,戲劇感直接拉滿。這兩個(gè)ChatGPT,一個(gè)是舊版APP,只知道對(duì)話,另一個(gè)則是新版網(wǎng)頁(yè),具備視覺(jué)等新能力。(我們不妨取Old和New的首字母,分別叫TA們小O和小N)eb8f021a-1251-11ef-9118-92fbcf53809c.pngBrockman首先向小O介紹了大致情況,告訴她要和一個(gè)擁有視覺(jué)能力的AI對(duì)話,她表示很酷并欣然接受。接著,Brockman讓她稍作休息,并向小N也介紹情況,還順帶展示了小N的視覺(jué)能力。只見(jiàn)打完招呼后,小N準(zhǔn)確地說(shuō)出了Brockman的衣著打扮和房間環(huán)境。而對(duì)于要和小O對(duì)話這件事,小N也感到很有趣。
接下來(lái)就是小O和小N相互對(duì)白的時(shí)間了,TA們依然是從Brockman的衣著開(kāi)始聊起,小O不斷提出新的問(wèn)題,小N都一一解答。接著,他們又談?wù)摿朔块g的風(fēng)格、布置和光線,甚至小N還意識(shí)到了Brockman正站在上帝視角凝視著TA們。


如果你看了這段視頻就會(huì)發(fā)現(xiàn),畫(huà)面中出現(xiàn)了一個(gè)女人在Brockman身后做了些惡搞的手勢(shì)。這可不是亂入,是Brockman和女人串通好,專門(mén)給小N設(shè)計(jì)的一道“考題”。

就在小O和小N聊的正開(kāi)心的時(shí)候,Brockman選擇加入,直接問(wèn)有沒(méi)有看到什么不正常的地方。結(jié)果是小N直接識(shí)破了Brockman的小伎倆,直接復(fù)述出了女人在他身后做小動(dòng)作的場(chǎng)景,小O聽(tīng)了之后直接感嘆原來(lái)在這里享受樂(lè)趣的不只有我們兩個(gè)。Brockman把這句話當(dāng)成了夸贊,并對(duì)小O表示了感謝,還愉快地加入了TA們的對(duì)話。之后是最后也是最精彩的部分,在Brockman的指揮下,小O和小N根據(jù)剛才聊天的內(nèi)容,直接開(kāi)啟了對(duì)唱模式。只過(guò)了簡(jiǎn)單幾輪,銜接地就十分密切,而且旋律悠揚(yáng),音色也是和真人毫無(wú)二致。
最后視頻以Brockman唱出的一句Thank you結(jié)束,在視頻外的推文中他還透露新的語(yǔ)音對(duì)話功能將在數(shù)周內(nèi)向Plus用戶開(kāi)放。

ebcac93a-1251-11ef-9118-92fbcf53809c.png


端到端訓(xùn)練,一個(gè)神經(jīng)網(wǎng)絡(luò)搞定語(yǔ)音文本圖像

正如奧特曼在發(fā)布會(huì)前所說(shuō),GPT-4o讓人感覺(jué)像魔法一樣,那么它是如何做到的呢?非常抱歉,這次非但沒(méi)有論文,連技術(shù)報(bào)告也不發(fā)了,只在官網(wǎng)Blog里有一段簡(jiǎn)短的說(shuō)明。在GPT-4o之前,ChatGPT語(yǔ)音模式由三個(gè)獨(dú)立模型組成,語(yǔ)音轉(zhuǎn)文本→GPT3.5/GPT-4→文本轉(zhuǎn)語(yǔ)音。我們也可以讓舊版ChatGPT語(yǔ)音模式自己講一下具體是怎么個(gè)流程。ebe410c0-1251-11ef-9118-92fbcf53809c.jpg這樣一來(lái),整個(gè)系統(tǒng)的延遲足足有2.8秒(GPT-3.5)和5.4秒(GPT-4),而且丟失了大量的信息,它無(wú)法直接感受音調(diào)、多個(gè)說(shuō)話者或背景噪音,也無(wú)法輸出笑聲、唱歌聲,或表達(dá)情感。ebfabea6-1251-11ef-9118-92fbcf53809c.jpgGPT-4o則是跨文本、視覺(jué)和音頻端到端訓(xùn)練的新模型,這意味著所有輸入和輸出都由同一個(gè)神經(jīng)網(wǎng)絡(luò)處理。在語(yǔ)音翻譯任務(wù)上,強(qiáng)于OpenAI專門(mén)的語(yǔ)音模型Whisper-V3以及谷歌和Meta的語(yǔ)音模型。ec8d0a68-1251-11ef-9118-92fbcf53809c.png在視覺(jué)理解上,也再次反超Gemini 1.0 Ultra與對(duì)家Claude Opuseca698d4-1251-11ef-9118-92fbcf53809c.png

雖然技術(shù)方面這次透露的消息就這么多了,不過(guò)也有學(xué)者評(píng)價(jià)。

一個(gè)成功的演示相當(dāng)于1000篇論文。

ecaabb4e-1251-11ef-9118-92fbcf53809c.png


One More Thing

除了OpenAI帶來(lái)的精彩內(nèi)容之外,也別忘了北京時(shí)間5月15日凌晨,谷歌將召開(kāi)I/O大會(huì)。到時(shí)量子位將繼續(xù)第一時(shí)間帶來(lái)最新消息。另外根據(jù)網(wǎng)友推測(cè),GPT-4o這么強(qiáng),全都免費(fèi)開(kāi)放了,這是勸大家不續(xù)訂ChatGPT Plus了的意思嗎?那肯定不是啊~ecaef9f2-1251-11ef-9118-92fbcf53809c.png鑒于OpenAI春節(jié)期間在谷歌發(fā)布Gemini 1.5 Pro后半小時(shí)左右用Sora狙擊了一把,明天OpenAI還有新活也說(shuō)不定呢?直播回放

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30239

    瀏覽量

    268475
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    46896

    瀏覽量

    237669
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    352

    瀏覽量

    15318
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    解鎖 GPT-4o!2024 ChatGPT Plus 代升級(jí)全攻略(附國(guó)內(nèi)支付方法)

    ChatGPT Plus 每月 20 美元,OpenAI 承諾 Plus 用戶享有更快的響應(yīng)速度、優(yōu)先使用新功能及最新模型,包括強(qiáng)大的 GPT-4o。本文將分享 2024 年 Chat
    的頭像 發(fā)表于 10-29 18:17 ?489次閱讀

    OpenAI解鎖GPT-4o定制功能,助力企業(yè)精準(zhǔn)優(yōu)化AI應(yīng)用

    在8月21日的最新動(dòng)態(tài)中,OpenAI 宣布了一項(xiàng)革命性的新功能,正式向企業(yè)用戶開(kāi)放其頂尖AI模型GPT-4o的定制能力。這一舉措標(biāo)志著OpenAI在激烈的企業(yè)級(jí)AI應(yīng)用市場(chǎng)中邁出了重
    的頭像 發(fā)表于 08-21 16:06 ?440次閱讀

    OpenAI提前解鎖GPT-4o語(yǔ)音模式,引領(lǐng)對(duì)話新紀(jì)元

    OpenAI近日宣布了一項(xiàng)令人振奮的消息:即日起,部分ChatGPT Plus用戶將率先體驗(yàn)到GPT-4o的語(yǔ)音模式,這一創(chuàng)新功能標(biāo)志著自然語(yǔ)言處理與人工智能交互技術(shù)邁出了重要一步。GPT-4
    的頭像 發(fā)表于 08-01 18:24 ?1166次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用來(lái)取代GPT-3.5.這是目前市場(chǎng)上最具成本效益的小模型。 ? 該模型在MMLU上得分為82%, 在LMSYS排行榜上的聊天偏好測(cè)試中表現(xiàn)優(yōu)于
    的頭像 發(fā)表于 07-21 10:20 ?938次閱讀
    OpenAI 推出 <b class='flag-5'>GPT-4o</b> mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜

    國(guó)內(nèi)直聯(lián)使用ChatGPT 4.0 API Key使用和多模態(tài)GPT4o API調(diào)用開(kāi)發(fā)教程!

    1. 前言 ChatGPT-4o API 是 OpenAI 提供的強(qiáng)大工具,可用于自然語(yǔ)言處理和多模態(tài)任務(wù)。在國(guó)內(nèi)直聯(lián)使用這些服務(wù)需要一些配置和技巧。本文將詳細(xì)介紹GPT-4o模型以及如何獲取
    的頭像 發(fā)表于 06-08 00:33 ?4565次閱讀
    國(guó)內(nèi)直聯(lián)使用ChatGPT 4.0 API Key使用和多模態(tài)<b class='flag-5'>GPT4o</b> API調(diào)用開(kāi)發(fā)教程!

    開(kāi)發(fā)者如何調(diào)用OpenAI的GPT-4o API以及價(jià)格詳情指南

    ?目前,OpenAI新模型GPT-4oGPT-4 Turbo的價(jià)格如下: GPT-4o 對(duì)比 GPT-4 Turbo GPT-4o 擁有與
    的頭像 發(fā)表于 05-29 16:00 ?1w次閱讀
    開(kāi)發(fā)者如何調(diào)用OpenAI的<b class='flag-5'>GPT-4o</b> API以及價(jià)格詳情指南

    OpenAI 深夜拋出王 “ChatGPT- 4o”, “她” 來(lái)了

    功能和實(shí)際應(yīng)用。 GPT-4 turbo****的增強(qiáng)功能 ChatGPT-4o帶來(lái)了幾個(gè)值得注意的升級(jí),增強(qiáng)了性能和可用性: · 更快的
    發(fā)表于 05-27 15:43

    Azure AI Studio現(xiàn)已支持提供GPT-4o API

    微軟公司在最近的Build 2024開(kāi)發(fā)者大會(huì)上宣布了一個(gè)重要更新。據(jù)微軟CEO薩提亞·納德拉介紹,Azure AI Studio現(xiàn)已支持OpenAI開(kāi)發(fā)的最新旗艦?zāi)P?b class='flag-5'>GPT-4o,并作為API提供。
    的頭像 發(fā)表于 05-22 11:45 ?769次閱讀

    GPT-4o更像“人”,AI“疾步”走向商業(yè)化應(yīng)用

    )等。OpenAI的CEO奧特曼稱之為“人類級(jí)別的響應(yīng)”。GPT-4o一出,各企業(yè)開(kāi)始紛紛再度亮出“家伙什”了,微軟宣布投資40億歐元加碼AI領(lǐng)域、谷歌一夜發(fā)布十幾
    的頭像 發(fā)表于 05-22 08:04 ?497次閱讀
    <b class='flag-5'>GPT-4o</b>更像“人”,<b class='flag-5'>AI</b>“疾步”走向商業(yè)化應(yīng)用

    急!OpenAI再推王GPT-4o,算力跟得上嗎?

    近期,OpenAI 舉辦春季發(fā)布會(huì),正式發(fā)布了 GPT-4o,掀起了全球AI大模型領(lǐng)域的新熱潮。 僅相隔一天,谷歌在其I/O開(kāi)發(fā)者大會(huì)上發(fā)布「AI 全家桶」反擊,展示了其
    的頭像 發(fā)表于 05-17 17:34 ?394次閱讀

    OpenAI發(fā)布全新GPT-4o模型

    近日,OpenAI宣布推出全新的GPT-4o模型,標(biāo)志著人工智能領(lǐng)域的一大技術(shù)飛躍。這款模型不僅具備強(qiáng)大的生成能力,還能精準(zhǔn)理解用戶意圖,提供智能化的回答。
    的頭像 發(fā)表于 05-17 11:48 ?624次閱讀

    OpenAI正式推出GPT-4o模型,支持實(shí)時(shí)音頻、視覺(jué)和文本推理處理

    緊接著,OpenAI總裁暨聯(lián)合創(chuàng)始人Greg Brockman發(fā)布了詳細(xì)演示,展示了兩部搭載GPT-4o的設(shè)備如何實(shí)現(xiàn)語(yǔ)音或視頻交互。
    的頭像 發(fā)表于 05-15 10:26 ?472次閱讀

    OpenAI推出面向所有用戶的AI模型GPT-4o

    在周一的直播盛會(huì)上,OpenAI揭開(kāi)了其最新的人工智能模型GPT-4o的神秘面紗。這款新模型旨在為其著名的聊天機(jī)器人ChatGPT提供更強(qiáng)大、更經(jīng)濟(jì)的支持。GPT-4o是此前備受矚目的GPT-4模型的升級(jí)版,自推出以來(lái)已滿一年有
    的頭像 發(fā)表于 05-15 09:23 ?372次閱讀

    OpenAI全新GPT-4o能力場(chǎng)!速度快/成本低,能讀懂人類情緒

    ”的意思。GPT-4o文本、推理、編碼能力達(dá)到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的兩倍,但成本僅為GPT-4
    的頭像 發(fā)表于 05-15 00:15 ?7784次閱讀

    OpenAI發(fā)布GPT-4o模型,供全體用戶免費(fèi)使用

    OpenAI首席技術(shù)官穆里·穆拉蒂(Muri Murati)指出,GPT-4o具備與GPT-4相同的智能水平,且在文本、圖像及語(yǔ)音處理方面有顯著進(jìn)步。
    的頭像 發(fā)表于 05-14 11:17 ?460次閱讀