精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)MTL時(shí)需要考慮的問題

jmiy_worldofai ? 來源:xx ? 2019-02-19 14:14 ? 次閱讀

在過去的一年里,我和我的團(tuán)隊(duì)一直致力于提高 Taboola Feed 的個(gè)性化用戶體驗(yàn)。我們使用多任務(wù)學(xué)習(xí)(MTL)來預(yù)測同一組輸入特性上的多個(gè)關(guān)鍵性能指標(biāo)(KPIs),并在 TensorFlow 中實(shí)現(xiàn)了一個(gè)深度學(xué)習(xí)(DL)模型。但是,在我們開始著手這項(xiàng)研究的時(shí)候,MTL 對(duì)我們來說比現(xiàn)在復(fù)雜得多,所以我想分享一些經(jīng)驗(yàn)教訓(xùn)。

在本文中,我將分享一些在神經(jīng)網(wǎng)絡(luò)(NN)中實(shí)現(xiàn) MTL 時(shí)具體需要考慮哪些方面的問題,我還將對(duì)這些問題提出簡單的 TensorFlow 解決方案。

我們想從硬參數(shù)共享(hard parameter sharing)的基本方法開始。硬共享意味著我們有一個(gè)共享子網(wǎng),這個(gè)子網(wǎng)是特定于任務(wù)的。

在 TensorFlow 中使用這種模型時(shí),由于它看起來與其他 NN 體系結(jié)構(gòu)沒有那么大的不同,您可能會(huì)覺得自己有哪里做錯(cuò)了。

經(jīng)驗(yàn) 1-損失合并

我們在 MTL 模型中遇到的第一個(gè)挑戰(zhàn)是為多個(gè)任務(wù)定義單個(gè)損失函數(shù)。雖然單個(gè)任務(wù)有定義明確的損失函數(shù),但多個(gè)任務(wù)會(huì)帶來多個(gè)損失。

我們最開始嘗試的做法是直接將所有的損失相加。不久我們就發(fā)現(xiàn),當(dāng)一個(gè)任務(wù)趨同于好的結(jié)果時(shí),其他任務(wù)看起來相當(dāng)糟糕。造成這個(gè)現(xiàn)象的原因很簡單,因?yàn)閾p失的規(guī)模是如此的不同,以至于一個(gè)任務(wù)主導(dǎo)了整個(gè)損失,而其余的任務(wù)沒有機(jī)會(huì)影響共享層的學(xué)習(xí)過程。

一個(gè)快速的解決辦法是用一個(gè)加權(quán)和替代損失的直接相加和,使所有的損失對(duì)共享層的影響大致相同。然而,這個(gè)解決方案涉及另一個(gè)超參數(shù),可能需要每隔一段時(shí)間調(diào)整一次。

幸運(yùn)的是,我們發(fā)現(xiàn)了一篇很棒的論文,論文建議使用不確定性來衡量 MTL 中的損失。具體方法是學(xué)習(xí)另一個(gè)噪聲參數(shù),該參數(shù)集成在每個(gè)任務(wù)的損失函數(shù)中。這允許 MTL 中有多個(gè)任務(wù),并使所有損失達(dá)到相同的規(guī)模。

通過這種方法,不僅可以得到比加權(quán)和更好的結(jié)果,而且不需要考慮附加的權(quán)重超參數(shù)。這篇論文的作者還提供了一個(gè) keras 實(shí)現(xiàn)方法。

經(jīng)驗(yàn) 2-調(diào)整學(xué)習(xí)速率

學(xué)習(xí)速率是調(diào)節(jié)神經(jīng)網(wǎng)絡(luò)最重要的超參數(shù)之一,這是一個(gè)常見的規(guī)律。所以我們嘗試了調(diào)優(yōu),發(fā)現(xiàn)了對(duì)不同任務(wù)來說最優(yōu)的調(diào)試速率。選擇較高的學(xué)習(xí)率會(huì)導(dǎo)致其中一個(gè)任務(wù)的dying Relu,而使用較低的學(xué)習(xí)率會(huì)導(dǎo)致另一個(gè)任務(wù)的收斂緩慢。那我們該怎么辦?我們可以讓每個(gè)特定于任務(wù)的子網(wǎng)調(diào)整為單獨(dú)的學(xué)習(xí)速率,并將共享子網(wǎng)調(diào)整為另一個(gè)速率。

雖然這聽起來很復(fù)雜,但實(shí)際上相當(dāng)簡單。通常,在 TensorFlow 中訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),您可以使用如下方法:

optimizer = tf.train.AdamOptimizer(learning_rate).minimize(loss)

A

damOptimizer 定義了應(yīng)該如何應(yīng)用漸變,并最小化計(jì)算并應(yīng)用它們。我們可以用自己的實(shí)現(xiàn)來代替最小化,該實(shí)現(xiàn)將對(duì)計(jì)算圖中的每個(gè)變量使用適當(dāng)?shù)膶W(xué)習(xí)速率:

all_variables = shared_vars + a_vars + b_varsall_gradients = tf.gradients(loss, all_variables)

shared_subnet_gradients = all_gradients[:len(shared_vars)]a_gradients = all_gradients[len(shared_vars):len(shared_vars + a_vars)]b_gradients = all_gradients[len(shared_vars + a_vars):]

shared_subnet_optimizer = tf.train.AdamOptimizer(shared_learning_rate)a_optimizer = tf.train.AdamOptimizer(a_learning_rate)b_optimizer = tf.train.AdamOptimizer(b_learning_rate)

train_shared_op = shared_subnet_optimizer.apply_gradients(zip(shared_subnet_gradients, shared_vars))train_a_op = a_optimizer.apply_gradients(zip(a_gradients, a_vars))train_b_op = b_optimizer.apply_gradients(zip(b_gradients, b_vars))

train_op = tf.group(train_shared_op, train_a_op, train_b_op)

另外,這個(gè)技巧實(shí)際上也可以應(yīng)用于單任務(wù)網(wǎng)絡(luò)

經(jīng)驗(yàn) 3-使用評(píng)估作為特征

一旦我們通過了創(chuàng)建預(yù)測多個(gè)任務(wù)的 NN 的第一個(gè)階段,我們可能會(huì)將某個(gè)任務(wù)的評(píng)估作為另一個(gè)任務(wù)的結(jié)果。這個(gè)估計(jì)是張量,所以我們可以像連接其他層的輸出一樣連接它。但是在反向傳播中會(huì)發(fā)生什么呢?

假設(shè)任務(wù) A 的估計(jì)值作為一個(gè)特性傳遞給任務(wù) B。我們可能并不想將梯度從任務(wù) B 傳回任務(wù) A,因?yàn)槲覀円呀?jīng)給了任務(wù) A 標(biāo)簽

別擔(dān)心,TensorFlow 的 API 有tf.stop_gradient,它正是為了解決這個(gè)問題而存在的。當(dāng)計(jì)算梯度時(shí),它可以讓你傳遞一個(gè)張量列表,你想把它當(dāng)作常數(shù),這正是我們所需要的。

all_gradients = tf.gradients(loss, all_variables, stop_gradients=stop_tensors)

同樣地,這在 MTL 網(wǎng)絡(luò)中很有用,但它不僅僅在 MTL 網(wǎng)絡(luò)中有用。只要您想用 TensorFlow 計(jì)算一個(gè)值,并且需要假設(shè)該值是一個(gè)常量,就可以使用此技術(shù)。例如,當(dāng)訓(xùn)練生成對(duì)抗網(wǎng)絡(luò)(GANs)時(shí),您不希望在生成對(duì)抗性網(wǎng)絡(luò)的過程中進(jìn)行反向傳播。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:多任務(wù)深度學(xué)習(xí)的三個(gè)經(jīng)驗(yàn)教訓(xùn)

文章出處:【微信號(hào):worldofai,微信公眾號(hào):worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發(fā)表于 03-20 11:32

    神經(jīng)網(wǎng)絡(luò)簡介

    神經(jīng)網(wǎng)絡(luò)簡介
    發(fā)表于 08-05 21:01

    labview BP神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)

    請(qǐng)問:我在用labview做BP神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)故障診斷,在NI官網(wǎng)找到了機(jī)器學(xué)習(xí)工具包(MLT),但是里面沒有關(guān)于這部分VI的幫助文檔,對(duì)于”BP神經(jīng)網(wǎng)絡(luò)分類“這個(gè)范例有很多不懂的地方,比如
    發(fā)表于 02-22 16:08

    神經(jīng)網(wǎng)絡(luò)基本介紹

    神經(jīng)網(wǎng)絡(luò)基本介紹
    發(fā)表于 01-04 13:41

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)有什么區(qū)別

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別
    發(fā)表于 06-06 14:21

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問題,我們似乎可以給出相對(duì)簡明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺不是很難,只不過一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競爭學(xué)習(xí)的一個(gè)代表,
    發(fā)表于 07-21 04:30

    人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)方法有哪些?

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)是一種類似生物神經(jīng)網(wǎng)絡(luò)的信息處理結(jié)構(gòu),它的提出是為了解決一些非線性,非平穩(wěn),復(fù)雜的實(shí)際問題。那有哪些辦法能實(shí)現(xiàn)人工神經(jīng)
    發(fā)表于 08-01 08:06

    如何設(shè)計(jì)BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

    (Digital Signal Processor)相比,現(xiàn)場可編程門陣列(Field Programma-ble Gate Array,F(xiàn)PGA)在神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)上更具優(yōu)勢。DSP處理器在處理時(shí)采用指令順序執(zhí)行
    發(fā)表于 08-08 06:11

    簡單神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)

    最簡單的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 09-11 11:57

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測
    發(fā)表于 07-12 08:02

    matlab實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò) 精選資料分享

    習(xí)神經(jīng)神經(jīng)網(wǎng)絡(luò),對(duì)于神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)是如何一直沒有具體實(shí)現(xiàn)一下:現(xiàn)看到一個(gè)簡單的神經(jīng)網(wǎng)絡(luò)模型用于訓(xùn)
    發(fā)表于 08-18 07:25

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機(jī)的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達(dá)能力,可以通過對(duì)系統(tǒng)性能的學(xué)習(xí)來實(shí)現(xiàn)具有最佳組合的PID控
    發(fā)表于 09-07 07:43

    神經(jīng)網(wǎng)絡(luò)移植到STM32的方法

    神經(jīng)網(wǎng)絡(luò)移植到STM32最近在做的一個(gè)項(xiàng)目需要用到網(wǎng)絡(luò)進(jìn)行擬合,并且將擬合得到的結(jié)果用作控制,就在想能不能直接在單片機(jī)上做神經(jīng)網(wǎng)絡(luò)計(jì)算,這樣就可以實(shí)時(shí)計(jì)算,不依賴于上位機(jī)。所以要解決
    發(fā)表于 01-11 06:20

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    : 循環(huán)神經(jīng)網(wǎng)絡(luò)的基本概念 循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),具有記憶功能。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)不同,循環(huán)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-05 09:52 ?491次閱讀