精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

了解遷移學(xué)習(xí),哪種情況適合做遷移學(xué)習(xí)?

電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-08-05 10:39 ? 次閱讀

▌一. 了解遷移學(xué)習(xí)

遷移學(xué)習(xí)(Transfer Learning)目標(biāo)是將從一個(gè)環(huán)境中學(xué)到的知識(shí)用來幫助新環(huán)境中的學(xué)習(xí)任務(wù)。

> The ability of a system to recognize and apply knowledge and skills learned in previous tasks to novel tasks。

入門推薦一篇公認(rèn)的比較好的 【Survey】:A Survey on Transfer Learning,Sinno JialinPan, Qiang Yang,IEEE Trans

http://www.cse.ust.hk/faculty/qyang/Docs/2009/tkde_transfer_learning.pdf

另外,戴文淵的碩士學(xué)位論文也可以看一下:基于實(shí)例和特征的遷移學(xué)習(xí)算法研究

https://download.csdn.net/download/linolzhang/9872535

Survey 作者歸納了 Transfer Learning 相關(guān)的知識(shí)域,有必要了解一下這些名詞:

● Learning學(xué)習(xí) - learning to learn

●終身學(xué)習(xí) - life-long learning

●知識(shí)轉(zhuǎn)移 -knowledge transfer

●歸納遷移 - inductive transfer

●多任務(wù)學(xué)習(xí) -multi-task learning

●知識(shí)的鞏固 -knowledge consolidation

●上下文相關(guān)學(xué)習(xí) -context sensitive learning

●基于知識(shí)的歸納偏差 -knowledge-based inductive bias

●元學(xué)習(xí) -meta learning

●增量學(xué)習(xí) -and incremental/cumulative learning

另外,進(jìn)展及 Open Source Toolkit 可以參考:

http://www.cse.ust.hk/TL/index.html

▌二. 遷移學(xué)習(xí)分類

遷移學(xué)習(xí)(Transfer Learning)根據(jù)領(lǐng)域 和 任務(wù)的相似性,可以這樣劃分:

我們根據(jù) 源Domain和目前Domain 之間的關(guān)系,源Task 和 目標(biāo)Task之間的關(guān)系,以及任務(wù)方法更詳細(xì)的整理為下表:

實(shí)際上,歸納式遷移學(xué)習(xí) 是應(yīng)用最廣泛的一種方法,從這點(diǎn)上看,遷移學(xué)習(xí)更適合 有標(biāo)簽的應(yīng)用域。

根據(jù)技術(shù)方法,我們將遷移學(xué)習(xí)的方法劃分為:

遷移學(xué)習(xí)方法雖然在學(xué)術(shù)有很多研究工作,實(shí)際上在應(yīng)用領(lǐng)域并不算成熟,這本身就是一個(gè)很大的命題,關(guān)于遷移學(xué)習(xí)的條件 和 本質(zhì)也并未形成一套正統(tǒng)的體系來引領(lǐng)研究方向,更多的也是在實(shí)驗(yàn)摸索。

遷移學(xué)習(xí) 目前面臨如下幾個(gè)問題:

1. 哪種情況適合做遷移學(xué)習(xí)? - What

這里先給個(gè)自己的理解:分類和回歸問題是比較適合做遷移學(xué)習(xí)的場(chǎng)景,有標(biāo)簽的源數(shù)據(jù)是最好的輔助。

2. 該選擇哪種方法? - Which

簡(jiǎn)單而行之有效的方法是首選,領(lǐng)域在快速發(fā)展,也不必拘泥算法本身,改善結(jié)果才是硬道理。

3. 如何避免負(fù)遷移? - How

遷移學(xué)習(xí)的目標(biāo)是改善目標(biāo)域的 Task效果,這里面負(fù)遷移(Negative Transfer)是很多研究者面臨的一個(gè)問題,如何得到行之有效的改進(jìn),避免負(fù)遷移是需要大家去評(píng)估和權(quán)衡的。

▌三. 經(jīng)典算法 TrAdaBoost

TrAdaBoost 算法是基于 樣本遷移的 開山之作,由戴文淵提出,有著足夠的影響力放在第一位來進(jìn)行講解。

論文下載:Boosting for Transfer Learning

http://home.cse.ust.hk/~qyang/Docs/2007/tradaboost.pdf

算法的基本思想是從源 Domain 數(shù)據(jù)中篩選有效數(shù)據(jù),過濾掉與目標(biāo) Domain 不match的數(shù)據(jù),通過 Boosting方法建立一種權(quán)重調(diào)整機(jī)制,增加有效數(shù)據(jù)權(quán)重,降低無效數(shù)據(jù)權(quán)重,下圖是 TrAdaBoost 算法的示意圖(截圖來自于 莊福振 -遷移學(xué)習(xí)研究進(jìn)展):

TrAdaBoost 算法比較簡(jiǎn)單,用一句話概括就是 從過期數(shù)據(jù)里面 找出和目標(biāo)數(shù)據(jù)最接近的樣本數(shù)據(jù)。

來看 TrAdaBoost 的算法步驟:

這里需要說明的一點(diǎn)就是 權(quán)重的更新方式,對(duì)于輔助樣本來講,預(yù)測(cè)值和標(biāo)簽越接近,權(quán)重越大;而對(duì)于目標(biāo)數(shù)據(jù)則是相反,預(yù)測(cè)值和標(biāo)簽差異越大,權(quán)重越大。這種策略狠容易理解,我們想找到輔助樣本中 和 目標(biāo)數(shù)據(jù)分布最接近的樣本,同時(shí)放大目標(biāo)樣本Loss的影響,那么理想的結(jié)果就是:

目標(biāo)樣本預(yù)測(cè)值與標(biāo)簽盡量匹配(不放過一個(gè)沒匹配好的數(shù)據(jù)),輔助樣本在前面的基礎(chǔ)上篩選出最 match(權(quán)重大的) 的部分。

作者在后面給出了理論證明,這里有兩個(gè)公式(來證明算法收斂):

因篇幅問題,這里就不再展開了(和作者說的一樣),有興趣可以參考原Paper,看下實(shí)驗(yàn)結(jié)果:

實(shí)驗(yàn)發(fā)現(xiàn),當(dāng) 同分布數(shù)據(jù)(目標(biāo)數(shù)據(jù))占比當(dāng)?shù)陀?.1時(shí),算法效果明顯,當(dāng)比例超過 0.1時(shí),TrBoost 退化為 SVM 的效果。

這又是一個(gè)顯而易見的結(jié)論,我們認(rèn)為大于0.1時(shí),僅僅依靠 目前數(shù)據(jù)就足夠完成樣本訓(xùn)練,這種情況下,輔助樣本的貢獻(xiàn)可以忽略。

另外,當(dāng) 目標(biāo)數(shù)據(jù) 和 輔助數(shù)據(jù) 差別比較大時(shí),該方法是不 Work的,印證了最初的假設(shè),這里不再展開證明。

最后,給出網(wǎng)友提供的C代碼:【下載地址】

https://download.csdn.net/download/linolzhang/9880438

▌四. 多任務(wù)學(xué)習(xí)

多任務(wù)學(xué)習(xí)(Multi-Task Learning, MTL)是一種同時(shí)學(xué)習(xí)多個(gè)任務(wù)的機(jī)器學(xué)習(xí)方法,該方法由來已久,和深度學(xué)習(xí)沒什么關(guān)系。

如果非要把它 和深度學(xué)習(xí)加上一個(gè) link,我們可以這樣來表示:

input1->Hidden1->H1->Out1input1->Out1input2->Hidden2->H2->Out2==>input2->Hidden123->H123->Out2input3->Hidden3->H3->Out3input3->Out3

也比較好理解,相當(dāng)于把多個(gè) Task網(wǎng)絡(luò)進(jìn)行合并,同時(shí)訓(xùn)練多個(gè)任務(wù),這種情況并不鮮見,比如以下2個(gè)方向:

1)目標(biāo)檢測(cè) - 復(fù)合多任務(wù)

目標(biāo)檢測(cè)是 分類問題+回歸問題的組合,這是一個(gè)典型的 Multi-Task,比如:

Detection=Classification+Location

Mask RCNN =Classification+Location+Segmentation

檢測(cè)問題前面描述的比較多了,這里就不再貼圖了。

2)特征提取

多任務(wù)特征提取,多個(gè)輸出,這一類問題代表就是 數(shù)據(jù)結(jié)構(gòu)化,特征識(shí)別。

下圖是香港中文大學(xué)湯曉鷗組發(fā)表的TCDCN(Facial Landmark Detection by Deep Multi-task Learning),很多講 Multi-Task的軟文都拿出來說,我們也借用一下。

在這里 Multi-Task 被同時(shí)用作 人臉關(guān)鍵點(diǎn)定位、姿態(tài)估計(jì)和屬性預(yù)測(cè)(比如性別、年齡、人種、微笑?戴眼鏡?)

多任務(wù)學(xué)習(xí)適用于這樣的情況:

1)多個(gè)任務(wù)之間存在關(guān)聯(lián),比如行人和車輛檢測(cè),對(duì)于深度網(wǎng)絡(luò)也可以理解為有部分共同的網(wǎng)絡(luò)結(jié)構(gòu);

2)每個(gè)獨(dú)立任務(wù)的訓(xùn)練數(shù)據(jù)比較少,單獨(dú)訓(xùn)練無法有效收斂;

3)多個(gè)任務(wù)之間存在相關(guān)性信息,單獨(dú)訓(xùn)練時(shí)無法有效挖掘;

可以看一下這篇 Tutorial:

www.public.asu.edu/~jye02/Software/MALSAR/MTL-SDM12.pdf

關(guān)于多任務(wù)學(xué)習(xí)的應(yīng)用,比如分類任務(wù)下的二級(jí)分類、人臉識(shí)別等,大家可以更進(jìn)一步了解。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    6909

    瀏覽量

    88849
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4601

    瀏覽量

    92673
  • 遷移學(xué)習(xí)
    +關(guān)注

    關(guān)注

    0

    文章

    74

    瀏覽量

    5558

原文標(biāo)題:一文了解遷移學(xué)習(xí)經(jīng)典算法

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    遷移學(xué)習(xí)的原理,基于Keras實(shí)現(xiàn)遷移學(xué)習(xí)

    我面對(duì)的大多數(shù)計(jì)算機(jī)視覺問題沒有非常大的數(shù)據(jù)集(5000-40000圖像)。即使使用極端的數(shù)據(jù)增強(qiáng)策略,也很難達(dá)到像樣的精確度。而在少量數(shù)據(jù)集上訓(xùn)練數(shù)百萬參數(shù)的網(wǎng)絡(luò)通常會(huì)導(dǎo)致過擬合。所以遷移學(xué)習(xí)是我的救星。
    的頭像 發(fā)表于 05-09 03:44 ?1.5w次閱讀
    <b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>的原理,基于Keras實(shí)現(xiàn)<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>

    什么是遷移學(xué)習(xí)遷移學(xué)習(xí)的實(shí)現(xiàn)方法與工具分析

    向于不要求海量數(shù)據(jù)也能達(dá)到應(yīng)用的精準(zhǔn)要求,因此“小數(shù)據(jù)學(xué)習(xí)”正在成為新的熱點(diǎn),以遷移學(xué)習(xí),強(qiáng)化學(xué)習(xí)為代表的小數(shù)據(jù)學(xué)習(xí)技術(shù),更能體現(xiàn)人工智能的
    發(fā)表于 05-11 09:12 ?1.2w次閱讀

    使用哪種運(yùn)放比較適合做衰減用,且不會(huì)失真很嚴(yán)重?

    您好:我想用運(yùn)放做衰減用,輸入信號(hào)的幅度為0~10V,衰減5倍左右。輸入信號(hào)的頻率為135H和15Hz組成的正弦波包絡(luò)。 請(qǐng)問,使用哪種運(yùn)放比較適合做衰減用,且不會(huì)失真很嚴(yán)重,謝謝!
    發(fā)表于 09-10 07:20

    遷移學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò)

    keras 之 遷移學(xué)習(xí),改變VGG16輸出層,用imagenet權(quán)重retrain
    發(fā)表于 09-09 11:02

    【木棉花】學(xué)習(xí)筆記--分布式遷移

    也可以查看我上一篇學(xué)習(xí)筆記了解一下。那今天我要整理到學(xué)習(xí)筆記中的呢,就是在分布式能力里算是比較簡(jiǎn)單的分布式遷移。為了更好地熟練掌握鴻蒙手機(jī)應(yīng)用開發(fā),為了供大家更方便的
    發(fā)表于 09-05 10:49

    遷移學(xué)習(xí)

    經(jīng)典機(jī)器學(xué)習(xí)算法介紹章節(jié)目標(biāo):機(jī)器學(xué)習(xí)是人工智能的重要技術(shù)之一,詳細(xì)了解機(jī)器學(xué)習(xí)的原理、機(jī)制和方法,為學(xué)習(xí)深度
    發(fā)表于 04-21 15:15

    基于局部分類精度的多源在線遷移學(xué)習(xí)算法

    近年來,遷移學(xué)習(xí)得到越來越多的關(guān)注,現(xiàn)有的在線遷移學(xué)習(xí)算法一般從單個(gè)源領(lǐng)域遷移知識(shí)。然而,當(dāng)源領(lǐng)域與目標(biāo)領(lǐng)域相似度較低時(shí),很難進(jìn)行有效的
    發(fā)表于 12-25 11:04 ?0次下載

    機(jī)器學(xué)習(xí)方法遷移學(xué)習(xí)的發(fā)展和研究資料說明

    近年來,遷移學(xué)習(xí)已經(jīng)引起了廣泛的關(guān)注和研究。遷移學(xué)習(xí)是運(yùn)用已存有的知識(shí)對(duì)不同但相關(guān)領(lǐng)域問題進(jìn)行求解的一種新的機(jī)器學(xué)習(xí)方法。它放寬了傳統(tǒng)機(jī)器
    發(fā)表于 07-17 08:00 ?0次下載
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>方法<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>的發(fā)展和研究資料說明

    基于脈沖神經(jīng)網(wǎng)絡(luò)的遷移學(xué)習(xí)算法

    使用脈沖序列進(jìn)行數(shù)據(jù)處理的脈沖神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的低功耗特性,但由于學(xué)習(xí)算法不成熟,多層網(wǎng)絡(luò)練存在收斂困難的問題。利用反向傳播網(wǎng)絡(luò)具有學(xué)習(xí)算法成熟和訓(xùn)練速度快的特點(diǎn),設(shè)計(jì)一種遷移學(xué)習(xí)算法
    發(fā)表于 05-24 16:03 ?15次下載

    基于WordNet模型的遷移學(xué)習(xí)文本特征對(duì)齊算法

    基于WordNet模型的遷移學(xué)習(xí)文本特征對(duì)齊算法
    發(fā)表于 06-27 16:14 ?8次下載

    基于遷移深度學(xué)習(xí)的雷達(dá)信號(hào)分選識(shí)別

    基于遷移深度學(xué)習(xí)的雷達(dá)信號(hào)分選識(shí)別 ? 來源:《軟件學(xué)報(bào)》?,作者王功明等 ? 摘要:? 針對(duì)當(dāng)前雷達(dá)信號(hào)分選識(shí)別算法普遍存在的低信噪比下識(shí)別能力差、特征參數(shù)提取困難、分類器模型參數(shù)復(fù)雜等問題,提出
    發(fā)表于 03-02 17:35 ?1441次閱讀

    一文詳解遷移學(xué)習(xí)

    遷移學(xué)習(xí)需要將預(yù)訓(xùn)練好的模型適應(yīng)新的下游任務(wù)。然而,作者觀察到,當(dāng)前的遷移學(xué)習(xí)方法通常無法關(guān)注與任務(wù)相關(guān)的特征。在這項(xiàng)工作中,作者探索了重新聚焦模型注意力以進(jìn)行
    的頭像 發(fā)表于 08-11 16:56 ?6252次閱讀
    一文詳解<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>

    視覺深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架Torchvision介紹

    Torchvision是基于Pytorch的視覺深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架,當(dāng)前支持的圖像分類、對(duì)象檢測(cè)、實(shí)例分割、語義分割、姿態(tài)評(píng)估模型的遷移學(xué)習(xí)
    的頭像 發(fā)表于 09-22 09:49 ?863次閱讀
    視覺深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練框架Torchvision介紹

    遷移學(xué)習(xí)的基本概念和實(shí)現(xiàn)方法

    遷移學(xué)習(xí)(Transfer Learning)是機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要概念,其核心思想是利用在一個(gè)任務(wù)或領(lǐng)域中學(xué)到的知識(shí)來加速或改進(jìn)另一個(gè)相關(guān)任務(wù)或領(lǐng)域的學(xué)習(xí)過程。這種方法在數(shù)據(jù)稀缺
    的頭像 發(fā)表于 07-04 17:30 ?1382次閱讀

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的兩個(gè)重要概念,它們?cè)谔岣吣P托阅堋p少訓(xùn)練時(shí)間和降低對(duì)數(shù)據(jù)量的需求方面發(fā)揮著關(guān)鍵作用。本文將從定義、原理、應(yīng)用、區(qū)別和聯(lián)系等方面詳細(xì)探討預(yù)訓(xùn)
    的頭像 發(fā)表于 07-11 10:12 ?851次閱讀