精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用圖像對(duì)齊所有模態(tài),Meta開源多感官AI基礎(chǔ)模型,實(shí)現(xiàn)大一統(tǒng)

AI智勝未來(lái) ? 來(lái)源:機(jī)器之心 ? 2023-05-26 15:45 ? 次閱讀

Meta 新的開源模型 ImageBind 將多個(gè)數(shù)據(jù)流連接在一起,適用于文本、視頻音頻等 6 種模態(tài)。

在人類的感官中,一張圖片可以將很多體驗(yàn)融合到一起,比如一張海灘圖片可以讓我們想起海浪的聲音、沙子的質(zhì)地、拂面而來(lái)的微風(fēng),甚至可以激發(fā)創(chuàng)作一首詩(shī)的靈感。圖像的這種「綁定」(binding)屬性通過(guò)與自身相關(guān)的任何感官體驗(yàn)對(duì)齊,為學(xué)習(xí)視覺(jué)特征提供了大量監(jiān)督來(lái)源。

理想情況下,對(duì)于單個(gè)聯(lián)合嵌入空間,視覺(jué)特征應(yīng)該通過(guò)對(duì)齊所有感官來(lái)學(xué)習(xí)。然而這需要通過(guò)同一組圖像來(lái)獲取所有感官類型和組合的配對(duì)數(shù)據(jù),顯然不可行。

最近,很多方法學(xué)習(xí)與文本、音頻等對(duì)齊的圖像特征。這些方法使用單對(duì)模態(tài)或者最多幾種視覺(jué)模態(tài)。最終嵌入僅限于用于訓(xùn)練的模態(tài)對(duì)。因此,視頻 - 音頻嵌入無(wú)法直接用于圖像 - 文本任務(wù),反之亦然。學(xué)習(xí)真正的聯(lián)合嵌入面臨的一個(gè)主要障礙是缺乏所有模態(tài)融合在一起的大量多模態(tài)數(shù)據(jù)。

今日,Meta AI 提出了 ImageBind,它通過(guò)利用多種類型的圖像配對(duì)數(shù)據(jù)來(lái)學(xué)習(xí)單個(gè)共享表示空間。該研究不需要所有模態(tài)相互同時(shí)出現(xiàn)的數(shù)據(jù)集,相反利用到了圖像的綁定屬性,只要將每個(gè)模態(tài)的嵌入與圖像嵌入對(duì)齊,就會(huì)實(shí)現(xiàn)所有模態(tài)的迅速對(duì)齊。Meta AI 還公布了相應(yīng)代碼。

4654cb0a-fb2c-11ed-90ce-dac502259ad0.png

論文地址:

https://dl.fbaipublicfiles.com/imagebind/imagebind_final.pdf

GitHub 地址:

https://github.com/facebookresearch/ImageBind

具體而言,ImageBind 利用網(wǎng)絡(luò)規(guī)模(圖像、文本)匹配數(shù)據(jù),并將其與自然存在的配對(duì)數(shù)據(jù)(視頻、音頻、圖像、深度)相結(jié)合,以學(xué)習(xí)單個(gè)聯(lián)合嵌入空間。這樣做使得 ImageBind 隱式地將文本嵌入與其他模態(tài)(如音頻、深度等)對(duì)齊,從而在沒(méi)有顯式語(yǔ)義或文本配對(duì)的情況下,能在這些模態(tài)上實(shí)現(xiàn)零樣本識(shí)別功能。

4680c494-fb2c-11ed-90ce-dac502259ad0.gif

下圖 2 為 ImageBind 的整體概覽。

46fe11a6-fb2c-11ed-90ce-dac502259ad0.png

與此同時(shí),研究者表示 ImageBind 可以使用大規(guī)模視覺(jué)語(yǔ)言模型(如 CLIP)進(jìn)行初始化,從而利用這些模型的豐富圖像和文本表示。因此,ImageBind 只需要很少的訓(xùn)練就可以應(yīng)用于各種不同的模態(tài)和任務(wù)。

ImageBind 是 Meta 致力于創(chuàng)建多模態(tài) AI 系統(tǒng)的一部分,從而實(shí)現(xiàn)從所有相關(guān)類型數(shù)據(jù)中學(xué)習(xí)。隨著模態(tài)數(shù)量的增加,ImageBind 為研究人員打開了嘗試開發(fā)全新整體性系統(tǒng)的閘門,例如結(jié)合 3D 和 IMU 傳感器來(lái)設(shè)計(jì)或體驗(yàn)身臨其境的虛擬世界。此外它還可以提供一種探索記憶的豐富方式,即組合使用文本、視頻和圖像來(lái)搜索圖像、視頻、音頻文件或文本信息

綁定內(nèi)容和圖像,學(xué)習(xí)單個(gè)嵌入空間

人類有能力通過(guò)很少的樣本學(xué)習(xí)新概念,比如如閱讀對(duì)動(dòng)物的描述之后,就可以在實(shí)際生活中認(rèn)出它們;通過(guò)一張不熟悉的汽車模型照片,就可以預(yù)測(cè)其引擎可能發(fā)出的聲音。這在一定程度上是因?yàn)閱螐垐D像可以將整體感官體驗(yàn)「捆綁」在一起。然而在人工智能領(lǐng)域,雖然模態(tài)數(shù)量一直在增加,但多感官數(shù)據(jù)的缺乏會(huì)限制標(biāo)準(zhǔn)的需要配對(duì)數(shù)據(jù)的多模態(tài)學(xué)習(xí)。

理想情況下,一個(gè)有著不同種類數(shù)據(jù)的聯(lián)合嵌入空間能讓模型在學(xué)習(xí)視覺(jué)特征的同時(shí)學(xué)習(xí)其他的模態(tài)。此前,往往需要收集所有可能的配對(duì)數(shù)據(jù)組合,才能讓所有模態(tài)學(xué)習(xí)聯(lián)合嵌入空間。

ImageBind 規(guī)避了這個(gè)難題,它利用最近的大型視覺(jué)語(yǔ)言模型它將最近的大規(guī)模視覺(jué)語(yǔ)言模型的零樣本能力擴(kuò)展到新的模態(tài),它們與圖像的自然配對(duì),如視頻 - 音頻和圖像 - 深度數(shù)據(jù),來(lái)學(xué)習(xí)一個(gè)聯(lián)合嵌入空間。針對(duì)其他四種模式(音頻、深度、熱成像和 IMU 讀數(shù)),研究者使用自然配對(duì)的自監(jiān)督數(shù)據(jù)。

475987f2-fb2c-11ed-90ce-dac502259ad0.png

通過(guò)將六種模態(tài)的嵌入對(duì)齊到一個(gè)公共空間,ImageBind 可以跨模態(tài)檢索未同時(shí)觀察到的不同類型的內(nèi)容,添加不同模態(tài)的嵌入以自然地對(duì)它們的語(yǔ)義進(jìn)行組合,以及結(jié)合使用 Meta AI 的音頻嵌入與預(yù)訓(xùn)練 DALLE-2 解碼器(設(shè)計(jì)用于與 CLIP 文本嵌入)來(lái)實(shí)現(xiàn)音頻到圖像生成。

互聯(lián)網(wǎng)上存在大量連同文本一起出現(xiàn)的圖像,因此訓(xùn)練圖像 - 文本模型已經(jīng)得到了廣泛的研究。ImageBind 利用了圖像能與各種模態(tài)相連接的綁定屬性,比如利用網(wǎng)絡(luò)數(shù)據(jù)將文本與圖像連接起來(lái),或者利用在有 IMU 傳感器的可穿戴相機(jī)中捕捉到的視頻數(shù)據(jù)將運(yùn)動(dòng)與視頻連接起來(lái)。

從大規(guī)模網(wǎng)絡(luò)數(shù)據(jù)中學(xué)習(xí)到的視覺(jué)表征可以用作學(xué)習(xí)不同模態(tài)特征的目標(biāo)。這使得 ImageBind 將圖像與同時(shí)出現(xiàn)的任何模態(tài)對(duì)齊,自然地使這些模態(tài)彼此對(duì)齊。熱圖和深度圖等與圖像具有強(qiáng)相關(guān)性的模態(tài)更容易對(duì)齊。音頻和 IMU(慣性測(cè)量單元)等非視覺(jué)的模態(tài)則具有較弱的相關(guān)性,比如嬰兒哭聲等特定聲音可以搭配各種視覺(jué)背景。

ImageBind 表明,圖像配對(duì)數(shù)據(jù)足以將這六種模態(tài)綁定在一起。該模型可以更全面地解釋內(nèi)容,使不同的模態(tài)可以相互「對(duì)話」,并在沒(méi)有同時(shí)觀察它們的情況下找到它們之間的聯(lián)系。例如,ImageBind 可以在沒(méi)有一起觀察音頻和文本的情況下將二者聯(lián)系起來(lái)。這使得其他模型能夠「理解」新的模態(tài),而不需要任何資源密集型的訓(xùn)練。

ImageBind 強(qiáng)大的 scaling 表現(xiàn)使該模型能夠替代或增強(qiáng)許多人工智能模型,使它們能夠使用其他模態(tài)。例如雖然 Make-A-Scene 可以通過(guò)使用文本 prompt 生成圖像,但 ImageBind 可以將其升級(jí)為使用音頻生成圖像,如笑聲或雨聲。

ImageBind 的卓越性能

Meta 的分析表明,ImageBind 的 scaling 行為隨著圖像編碼器的強(qiáng)度而提高。換句話說(shuō),ImageBind 對(duì)齊模態(tài)的能力隨著視覺(jué)模型的能力和大小而提升。這表明,更大的視覺(jué)模型對(duì)非視覺(jué)任務(wù)有利,如音頻分類,而且訓(xùn)練這種模型的好處超出了計(jì)算機(jī)視覺(jué)任務(wù)的范疇。

在實(shí)驗(yàn)中,Meta 使用了 ImageBind 的音頻和深度編碼器,并將其與之前在 zero-shot 檢索以及音頻和深度分類任務(wù)中的工作進(jìn)行了比較。

47a77d7c-fb2c-11ed-90ce-dac502259ad0.png

在基準(zhǔn)測(cè)試上,ImageBind 在音頻和深度方面優(yōu)于專家模型。

Meta 發(fā)現(xiàn) ImageBind 可以用于少樣本音頻和深度分類任務(wù),并且優(yōu)于之前定制的方法。例如,ImageBind 明顯優(yōu)于 Meta 在 Audioset 上訓(xùn)練的自監(jiān)督 AudioMAE 模型,以及在音頻分類上微調(diào)的監(jiān)督 AudioMAE 模型。

此外,ImageBind 還在跨模態(tài)的零樣本識(shí)別任務(wù)上取得了新的 SOTA 性能,甚至優(yōu)于經(jīng)過(guò)訓(xùn)練以識(shí)別該模態(tài)概念的最新模型。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1083

    瀏覽量

    40418
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30172

    瀏覽量

    268435
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    46872

    瀏覽量

    237602

原文標(biāo)題:用圖像對(duì)齊所有模態(tài),Meta開源多感官AI基礎(chǔ)模型,實(shí)現(xiàn)大一統(tǒng)

文章出處:【微信號(hào):AI智勝未來(lái),微信公眾號(hào):AI智勝未來(lái)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進(jìn)行融合,通過(guò)學(xué)習(xí)不同模態(tài)之間的關(guān)聯(lián),
    的頭像 發(fā)表于 10-18 09:39 ?321次閱讀

    亞馬遜云科技上線Meta Llama 3.2模型

    亞馬遜云科技近日宣布,Meta公司的新模型Llama 3.2已在其平臺(tái)上正式上線。該模型包括Meta首款
    的頭像 發(fā)表于 10-11 18:08 ?422次閱讀

    亞馬遜云科技正式上線Meta Llama 3.2模型

    亞馬遜云科技宣布,Meta的新模型Llama 3.2,包括其首款模態(tài)模型,現(xiàn)已在Amazo
    的頭像 發(fā)表于 10-11 09:20 ?459次閱讀

    Meta發(fā)布模態(tài)LLAMA 3.2人工智能模型

    Meta Platforms近日宣布了項(xiàng)重要技術(shù)突破,成功推出了模態(tài)LLAMA 3.2人工智能模型。這
    的頭像 發(fā)表于 09-27 11:44 ?368次閱讀

    Meta發(fā)布全新開源模型Llama 3.1

    科技巨頭Meta近期震撼發(fā)布了其最新的開源人工智能(AI模型——Llama 3.1,這舉措標(biāo)志著Me
    的頭像 發(fā)表于 07-24 18:25 ?1398次閱讀

    Meta不會(huì)在歐盟提供新的模態(tài)AI模型

    科技巨頭Meta近日宣布了項(xiàng)重要決策,其即將推出的創(chuàng)新模態(tài)Llama模型將不會(huì)在歐盟地區(qū)發(fā)布。這
    的頭像 發(fā)表于 07-19 16:04 ?460次閱讀

    Meta即將發(fā)布超強(qiáng)開源AI模型Llama 3-405B

    在人工智能領(lǐng)域的激烈競(jìng)爭(zhēng)中,Meta公司再次擲出重磅炸彈,宣布將于7月23日正式發(fā)布其最新力作——Llama 3-405B,個(gè)擁有驚人4050億參數(shù)的開源模型。這
    的頭像 發(fā)表于 07-18 09:58 ?951次閱讀

    聆思CSK6視覺(jué)語(yǔ)音大模型AI開發(fā)板入門資源合集(硬件資料、大模型語(yǔ)音/模態(tài)交互/英語(yǔ)評(píng)測(cè)SDK合集)

    豐富外設(shè)配件 配套模態(tài)應(yīng)用示例,支持快速上手體驗(yàn)大模型語(yǔ)音交互、智能視覺(jué)等 AI 應(yīng)用 板載 DAPLINK 調(diào)試器,外接條USB 線即
    發(fā)表于 06-18 17:33

    智譜AI發(fā)布全新模態(tài)開源模型GLM-4-9B

    近日,智譜AI在人工智能領(lǐng)域取得重大突破,成功推出全新開源模型GLM-4-9B。這款模型以其卓越的模態(tài)
    的頭像 發(fā)表于 06-07 09:17 ?681次閱讀

    Meta推出最強(qiáng)開源模型Llama 3 要挑戰(zhàn)GPT

    公司這次開源了Llama 3 8B與70B兩款不同規(guī)模的模型,開發(fā)者可以免費(fèi)使用,而Meta公司還將陸續(xù)推出系列具備
    的頭像 發(fā)表于 04-19 17:00 ?808次閱讀

    李未可科技正式推出WAKE-AI模態(tài)AI模型

    文本生成、語(yǔ)言理解、圖像識(shí)別及視頻生成等模態(tài)交互能力。 ? 該大模型圍繞 GPS 軌跡+視覺(jué)+語(yǔ)音打造新代 LLM-Based的自然交互
    發(fā)表于 04-18 17:01 ?568次閱讀
    李未可科技正式推出WAKE-<b class='flag-5'>AI</b><b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>

    機(jī)器人基于開源模態(tài)語(yǔ)言視覺(jué)大模型

    ByteDance Research 基于開源模態(tài)語(yǔ)言視覺(jué)大模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo
    發(fā)表于 01-19 11:43 ?365次閱讀
    機(jī)器人基于<b class='flag-5'>開源</b>的<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>語(yǔ)言視覺(jué)大<b class='flag-5'>模型</b>

    OneLLM:對(duì)齊所有模態(tài)的框架!

    OneLLM 是第個(gè)在單個(gè)模型中集成八種不同模態(tài)的MLLM。通過(guò)統(tǒng)的框架和漸進(jìn)式模態(tài)
    的頭像 發(fā)表于 01-04 11:27 ?908次閱讀
    OneLLM:<b class='flag-5'>對(duì)齊</b><b class='flag-5'>所有</b><b class='flag-5'>模態(tài)</b>的框架!

    自動(dòng)駕駛和模態(tài)大語(yǔ)言模型的發(fā)展歷程

    模態(tài)大語(yǔ)言模型(MLLM) 最近引起了廣泛的關(guān)注,其將 LLM 的推理能力與圖像、視頻和音頻數(shù)據(jù)相結(jié)合,通過(guò)多模態(tài)
    發(fā)表于 12-28 11:45 ?492次閱讀
    自動(dòng)駕駛和<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大語(yǔ)言<b class='flag-5'>模型</b>的發(fā)展歷程

    模型+模態(tài)的3種實(shí)現(xiàn)方法

    我們知道,預(yù)訓(xùn)練LLM已經(jīng)取得了諸多驚人的成就, 然而其明顯的劣勢(shì)是不支持其他模態(tài)(包括圖像、語(yǔ)音、視頻模態(tài))的輸入和輸出,那么如何在預(yù)訓(xùn)練LLM的基礎(chǔ)上引入跨模態(tài)的信息,讓其變得更強(qiáng)
    的頭像 發(fā)表于 12-13 13:55 ?1628次閱讀
    大<b class='flag-5'>模型</b>+<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>的3種<b class='flag-5'>實(shí)現(xiàn)</b>方法