精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

加速ViT模型新思路!Meta推出Token Merging

OpenCV學(xué)堂 ? 來(lái)源:新智元 ? 作者:新智元 ? 2022-12-06 15:48 ? 次閱讀

【導(dǎo)讀】由Meta AI的研究人員推出Token Merging(ToMe),無(wú)需訓(xùn)練即可加速 ViT 模型。更重要的是,這個(gè)模型不需對(duì)token進(jìn)行剪枝。

視覺變換器(ViT)在兩年前進(jìn)入大眾視野,并成為計(jì)算機(jī)視覺研究的核心組成部分。 它成功將一個(gè)在自然語(yǔ)言處理領(lǐng)域的Transformer模型遷移到計(jì)算機(jī)視覺領(lǐng)域。從那時(shí)起,計(jì)算機(jī)視覺領(lǐng)域的進(jìn)步已經(jīng)加速。

盡管在成本與性能方面被超越,Vanilla ViT仍有許多優(yōu)點(diǎn)。

它們是由簡(jiǎn)單的矩陣乘法組成的,這使得它們的速度比它們的原始運(yùn)算量所顯示的要快。

此外,它們支持強(qiáng)大的自監(jiān)督預(yù)訓(xùn)練技術(shù),如MAE(掩碼自動(dòng)編碼器),可以產(chǎn)生最先進(jìn)的結(jié)果,同時(shí)可以進(jìn)行快速訓(xùn)練。

而且由于它們不對(duì)數(shù)據(jù)進(jìn)行假設(shè),它們可以幾乎不加改變地應(yīng)用在圖片、音頻、文本等諸多模式中。

當(dāng)然,理想很豐滿,現(xiàn)實(shí)很骨感。ViT模型的規(guī)模大,有較大延時(shí)。在資源有限的設(shè)備上,運(yùn)行這個(gè)復(fù)雜模型會(huì)產(chǎn)生很大問(wèn)題。

Token剪枝:變好了,但沒完全好 針對(duì)運(yùn)算慢的問(wèn)題,研究人員給出了多個(gè)解決方案。其中一種常見的加速視覺 Transformer模型的方法是對(duì)進(jìn)行token剪枝。 在運(yùn)行時(shí)修剪標(biāo)記,通過(guò)修剪不太重要的token產(chǎn)生高效的Transformer。如DynamicViT分層修剪冗余token,從而在分類任務(wù)中實(shí)現(xiàn)FLOPs減少。

然而,token剪枝有幾個(gè)問(wèn)題,其中最主要的,是由于修剪token會(huì)產(chǎn)生信息損失,因此,人們對(duì)ViT模型token的剪枝數(shù)量是有限的,為了減少信息損失,只能對(duì)不重要的token進(jìn)行修剪。

而且,為了使修剪過(guò)的token有效,人們需要再次訓(xùn)練模型。這就造成額外的資源消耗。

更重要的是,token剪枝是動(dòng)態(tài)的過(guò)程,需要根據(jù)不同的圖像或句子確定token剪枝的不同數(shù)量。雖然這有利于提高準(zhǔn)確性,但卻不夠?qū)嵱脤?shí)用性,因?yàn)檫@種情況下,數(shù)據(jù)不能再進(jìn)行批處理。

為了解決這個(gè)問(wèn)題,人們需要在剪枝過(guò)程中添加掩碼,而這會(huì)進(jìn)一步影響效率的提升。

簡(jiǎn)單來(lái)說(shuō),token剪枝確實(shí)讓ViT跑得更快,但這是在信息損耗的代價(jià)上實(shí)現(xiàn)的。

TokenMerging:換個(gè)想法

怎樣才能使ViT的速度類似于剪枝,但保持比剪枝更高的準(zhǔn)確度呢?Meta AI研究團(tuán)隊(duì)給出了新的解題思路:Token Merging(ToMe)。

70f4dd92-74ad-11ed-8abf-dac502259ad0.png

論文鏈接:https://arxiv.org/pdf/2210.09461.pdf

Token Merging選擇將token結(jié)合,而非進(jìn)行剪枝。由于其定制的匹配算法,它和剪枝一樣快,同時(shí)更準(zhǔn)確。另外,它的工作不需要任何額外的訓(xùn)練,所以你可以在巨大的模型上使用它來(lái)加快它們的速度,而不會(huì)犧牲很多準(zhǔn)確性。

Meta的目標(biāo)是在現(xiàn)有的ViT中插入一個(gè)Token Merging的模塊,通過(guò)合并冗余的token,在不需要額外訓(xùn)練的前提下提高訓(xùn)練和推理的吞吐量。

基本思路是:在Transformer模型中,通過(guò)合并,使每層減少r個(gè)token。假設(shè)一個(gè)Transformer模型有L層,那么通過(guò)合并就可以減少rL個(gè)token。變量r的大小決定了速度和精度的關(guān)系,因?yàn)楦俚臉?biāo)記意味著更低的準(zhǔn)確度但更高的吞吐量。

值得注意的是,在Token Merging中,無(wú)論圖像的內(nèi)容如何,都會(huì)減少rL標(biāo)記。這完美解決了token剪枝中無(wú)法進(jìn)行批處理的問(wèn)題。

通過(guò)ToMe,類似的token批在每個(gè)Transformer塊中被合并:例如,狗的皮毛被合并成一個(gè)token。

7110d9f2-74ad-11ed-8abf-dac502259ad0.png

Token Merging被插入每個(gè)attention塊和每個(gè)Transformer塊。這也與token剪枝的工作流程形成對(duì)比。后者傾向于將剪枝步驟放在每個(gè)Transformer塊的開頭。

7137d688-74ad-11ed-8abf-dac502259ad0.png

通過(guò)Token Merging,需要被合并的token的信息可以得到傳播,ViT也能夠借助attention塊中的特征來(lái)決定需要合并哪些token。

具體做法

合并的第一步是確定相似的token。在Transformer中的QKV(query, key, value)已被提取的條件下,通過(guò)消融實(shí)驗(yàn),研究團(tuán)隊(duì)發(fā)現(xiàn)使用key可以最好衡量token之間的相似度(下圖紫色部分)。

7149485a-74ad-11ed-8abf-dac502259ad0.png

因?yàn)閗ey已經(jīng)總結(jié)了每個(gè)token中包含的信息,以便用于Attention中的dot-product來(lái)衡量token間的相似度。

除了研究哪個(gè)指標(biāo)更好衡量token相似度外,還需要知道什么距離衡量相似度。通過(guò)實(shí)驗(yàn)研究團(tuán)隊(duì)發(fā)現(xiàn),使用使用余弦距離來(lái)衡量toke之間的相似度可以獲得最好的精度和速度的關(guān)系。

71602b60-74ad-11ed-8abf-dac502259ad0.png

確定了token的相似性,接下來(lái)需要一個(gè)快速的方法來(lái)確定哪些token需要匹配,以減少總數(shù)的r。

Meta團(tuán)隊(duì)沒有使用kmeans聚類算法或圖分割算法,而是使用匹配算法,因?yàn)楹笳卟粌H可以精準(zhǔn)匹配每一層token的數(shù)量,還能快速執(zhí)行上千次匹配。這些都是迭代聚類算法無(wú)法完成的。

因此,Meta團(tuán)隊(duì)提出了一個(gè)更有效的解決方案。

設(shè)計(jì)目標(biāo)如下。1.)避免任何無(wú)法并行化的迭代,2.)希望合并的變化是漸進(jìn)的,因?yàn)榫垲悓?duì)多少個(gè)標(biāo)記可以合并到一個(gè)組中沒有限制(這可能會(huì)對(duì)網(wǎng)絡(luò)產(chǎn)生不利影響),而匹配則使大多數(shù)標(biāo)記沒有被合并。

7192354c-74ad-11ed-8abf-dac502259ad0.png

將所有token分為相同大小的2個(gè)集合A與B。

把從集合A中的每個(gè)token到B中與其最相似的token畫一條邊。

只留下最相似的r條邊, 其余刪掉。

融合仍然相連的邊(特征取均值)。

把這兩個(gè)集合拼在一起, 得到最終的合并結(jié)果。

通過(guò)這項(xiàng)獨(dú)特的技術(shù),可以提高ViT模型的吞吐量和實(shí)際訓(xùn)練速度。使用Token Merging可以將訓(xùn)練速度提高一倍。它可以用于圖像、視頻和音頻任務(wù),并且仍然可以達(dá)到最先進(jìn)的準(zhǔn)確性。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3178

    瀏覽量

    48731
  • Meta
    +關(guān)注

    關(guān)注

    0

    文章

    259

    瀏覽量

    11352
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    614

    瀏覽量

    13513

原文標(biāo)題:加速ViT模型新思路!Meta推出Token Merging,不靠剪枝靠合并

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Meta發(fā)布Llama 3.2量化版模型

    近日,Meta在開源Llama 3.2的1B與3B模型后,再次為人工智能領(lǐng)域帶來(lái)了新進(jìn)展。10月24日,Meta正式推出了這兩個(gè)模型的量化版
    的頭像 發(fā)表于 10-29 11:05 ?317次閱讀

    Meta推出可自我評(píng)估AI模型

    Meta近期宣布了一項(xiàng)重要的人工智能進(jìn)展,即將發(fā)布一系列全新的人工智能模型。其中,一款能夠自我評(píng)估的模型尤為引人注目,這一創(chuàng)新有望顯著減少人工智能開發(fā)過(guò)程中的人類參與。
    的頭像 發(fā)表于 10-22 17:07 ?285次閱讀

    聯(lián)想與Meta合作推出AI Now個(gè)人AI智能體

    聯(lián)想集團(tuán)近日在美國(guó)西雅圖舉辦了年度Tech World大會(huì),會(huì)上聯(lián)想CEO楊元慶與Meta創(chuàng)始人兼CEO馬克?扎克伯格共同宣布了一項(xiàng)重要合作。雙方基于Meta的Llama大模型,推出
    的頭像 發(fā)表于 10-17 16:58 ?508次閱讀

    亞馬遜云科技上線Meta Llama 3.2模型

    亞馬遜云科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺(tái)上正式上線。該模型包括Meta首款多模態(tài)模型,現(xiàn)已在Amazon
    的頭像 發(fā)表于 10-11 18:08 ?423次閱讀

    亞馬遜云科技正式上線Meta Llama 3.2模型

    亞馬遜云科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMaker中正式可用。
    的頭像 發(fā)表于 10-11 09:20 ?463次閱讀

    Meta發(fā)布多模態(tài)LLAMA 3.2人工智能模型

    Meta Platforms近日宣布了一項(xiàng)重要技術(shù)突破,成功推出了多模態(tài)LLAMA 3.2人工智能模型。這一創(chuàng)新模型不僅能夠深度解析文本信息,還實(shí)現(xiàn)了對(duì)圖像內(nèi)容的精準(zhǔn)理解,標(biāo)志著
    的頭像 發(fā)表于 09-27 11:44 ?369次閱讀

    扎克伯格:Meta在AI方面的最新想法和動(dòng)向

    在2023年8月1日,眾多媒體紛紛報(bào)道,據(jù)稱在Meta于本周三舉行的財(cái)務(wù)報(bào)表講解電話會(huì)議上,CEO馬克·扎克伯格以及其他高層領(lǐng)導(dǎo)分享了關(guān)于Meta在人工智能領(lǐng)域的最新創(chuàng)新思路及行動(dòng)方向。
    的頭像 發(fā)表于 08-01 16:53 ?495次閱讀

    Meta發(fā)布全新開源大模型Llama 3.1

    科技巨頭Meta近期震撼發(fā)布了其最新的開源人工智能(AI)模型——Llama 3.1,這一舉措標(biāo)志著Meta在AI領(lǐng)域的又一重大突破。Meta創(chuàng)始人馬克·扎克伯格親自站臺(tái),盛贊Llam
    的頭像 發(fā)表于 07-24 18:25 ?1399次閱讀

    Meta不會(huì)在歐盟提供新的多模態(tài)AI模型

    科技巨頭Meta近日宣布了一項(xiàng)重要決策,其即將推出的創(chuàng)新多模態(tài)Llama模型將不會(huì)在歐盟地區(qū)發(fā)布。這一決定背后,是Meta對(duì)歐洲復(fù)雜且不可預(yù)測(cè)的監(jiān)管環(huán)境的深刻考量,也為
    的頭像 發(fā)表于 07-19 16:04 ?462次閱讀

    云知聲攜手耘途教育成立云知學(xué)院福建分院,探索智慧教育新思路

    近日,云知聲與耘途教育聯(lián)合成立云知學(xué)院福建分院,深入探索智慧教育新模式、新思路。
    的頭像 發(fā)表于 05-11 15:52 ?519次閱讀
    云知聲攜手耘途教育成立云知學(xué)院福建分院,探索智慧教育<b class='flag-5'>新思路</b>

    愛芯元智推出邊端側(cè)智能SoCAX650N,讓視覺更智能

    當(dāng)前大模型蓬勃發(fā)展,OpenAI的Sora、ChatGPT、CLIP、DALL-E,Google的Gemini、ViT-22B,Meta的LLaMA3、DINO v2,
    的頭像 發(fā)表于 05-09 14:39 ?1422次閱讀
    愛芯元智<b class='flag-5'>推出</b>邊端側(cè)智能SoCAX650N,讓視覺更智能

    Meta推出最強(qiáng)開源模型Llama 3 要挑戰(zhàn)GPT

    Meta推出最強(qiáng)開源模型Llama 3 要挑戰(zhàn)GPT Facebook母公司Meta Platforms(META.US)
    的頭像 發(fā)表于 04-19 17:00 ?811次閱讀

    Meta發(fā)布CodeLlama70B開源大模型

    Meta發(fā)布CodeLlama70B開源大模型 Meta發(fā)布了開源大模型CodeLlama70B,號(hào)稱是CodeLlama系列體量最大、性能最強(qiáng)的大
    的頭像 發(fā)表于 01-31 10:30 ?1369次閱讀

    Meta發(fā)布開源大模型Code Llama 70B

    近日,Meta宣布推出了一款新的開源大模型Code Llama 70B,這是其“Code Llama家族中體量最大、性能最好的模型版本”。這款新模型
    的頭像 發(fā)表于 01-31 09:24 ?887次閱讀

    Meta推出最新版AI代碼生成模型Code Llama70B

    Meta近日宣布了其最新版本的AI代碼生成模型Code Llama70B,并稱其為“目前最大、最優(yōu)秀的模型”。這一更新標(biāo)志著Meta在AI代碼生成領(lǐng)域的持續(xù)創(chuàng)新和進(jìn)步。
    的頭像 發(fā)表于 01-30 18:21 ?1398次閱讀