精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

帶Dropout的訓練過程

Dbwd_Imgtec ? 來源:YXQ ? 2019-08-08 10:35 ? 次閱讀

dropout是指在深度學習網絡的訓練過程中,對于神經網絡單元,按照一定的概率將其暫時從網絡中丟棄。注意是暫時,對于隨機梯度下降來說,由于是隨機丟棄,故而每一個mini-batch都在訓練不同的網絡。

過擬合是深度神經網(DNN)中的一個常見問題:模型只學會在訓練集上分類,這些年提出的許多過擬合問題的解決方案,其中dropout具有簡單性而且效果也非常良好。

算法概述

我們知道如果要訓練一個大型的網絡,而訓練數據很少的話,那么很容易引起過擬合,一般情況我們會想到用正則化、或者減小網絡規模。然而Hinton在2012年文獻:《Improving neural networks by preventing co-adaptation of feature detectors》提出了,在每次訓練的時候,隨機讓一半的特征檢測器停過工作,這樣可以提高網絡的泛化能力,Hinton又把它稱之為dropout。

第一種理解方式是,在每次訓練的時候使用dropout,每個神經元有百分之50的概率被移除,這樣可以使得一個神經元的訓練不依賴于另外一個神經元,同樣也就使得特征之間的協同作用被減弱。Hinton認為,過擬合可以通過阻止某些特征的協同作用來緩解。

第二種理解方式是,我們可以把dropout當做一種多模型效果平均的方式。對于減少測試集中的錯誤,我們可以將多個不同神經網絡的預測結果取平均,而因為dropout的隨機性,我們每次dropout后,網絡模型都可以看成是一個不同結構的神經網絡,而此時要訓練的參數數目卻是不變的,這就解脫了訓練多個獨立的不同神經網絡的時耗問題。在測試輸出的時候,將輸出權重除以二,從而達到類似平均的效果。

需要注意的是如果采用dropout,訓練時間大大延長,但是對測試階段沒影響。

帶dropout的訓練過程

而為了達到ensemble的特性,有了dropout后,神經網絡的訓練和預測就會發生一些變化。在這里使用的是dropout以pp的概率舍棄神經元

訓練層面

對應的公式變化如下如下:

沒有dropout的神經網絡:

有dropout的神經網絡:

無可避免的,訓練網絡的每個單元要添加一道概率流程。

測試層面

預測的時候,每一個單元的參數要預乘以p。

除此之外還有一種方式是,在預測階段不變,而訓練階段改變。

Inverted Dropout的比例因子是

關于這個比例我查了不少資料,前面的是論文的結論;后面是keras源碼中dropout的實現。有博客寫的公式不一致,我寫了一個我覺得是對的版本。

Dropout與其它正則化

Dropout通常使用L2歸一化以及其他參數約束技術。正則化有助于保持較小的模型參數值。

使用Inverted Dropout后,上述等式變為:

可以看出使用Inverted Dropout,學習率是由因子q=1?p進行縮放 。由于q在[0,1]之間,η和q之間的比例變化:

參考文獻將q稱為推動因素,因為其能增強學習速率,將r(q)稱為有效的學習速率。

有效學習速率相對于所選的學習速率而言更高:基于此約束參數值的規一化可以幫助簡化學習速率選擇過程。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • Dropout
    +關注

    關注

    0

    文章

    13

    瀏覽量

    10028
  • 深度學習
    +關注

    關注

    73

    文章

    5422

    瀏覽量

    120593

原文標題:理解神經網絡中的Dropout

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于智能語音交互芯片的模擬訓練器示教與回放系統設計

    ,提高了培訓效果。回放系統通過記錄操作訓練過程中各操作人員的口令、聲音強度、動作、時間、操作現象等,待操作訓練結束后通過重演訓練過程,以便操作者及時糾正自己的問題。示教系統也可理解為對標準操作
    發表于 07-01 08:07

    Python和Keras在訓練期間如何將高斯噪聲添加到輸入數據中呢?

    噪聲,模型被迫學習對輸入中的微小變化具有魯棒性的特征,這可以幫助它在新的、看不見的數據上表現更好。 高斯噪聲也可以在訓練過程中添加到神經網絡的權重中以提高其性能,這種技術稱為 Dropout。讓我們
    發表于 02-16 14:04

    基于有限狀態機的虛擬訓練過程模型研究

    通過一個基于操作規程的虛擬訓練系統研究了系統仿真流程,分析了有限狀態機(FSM)的原理,結合虛擬仿真訓練的特點,設計出了操作過程模型,并通過Windows 消息機制編程實
    發表于 12-07 14:23 ?14次下載

    理解神經網絡中的Dropout

    dropout是指在深度學習網絡的訓練過程中,對于神經網絡單元,按照一定的概率將其暫時從網絡中丟棄。注意是暫時,對于隨機梯度下降來說,由于是隨機丟棄,故而每一個mini-batch都在訓練不同的網絡
    發表于 11-16 01:11 ?3718次閱讀
    理解神經網絡中的<b class='flag-5'>Dropout</b>

    卷積神經網絡訓練過程中的SGD的并行化設計

    for parallelizing convolutional neural networks 本文也將針對這篇文章給出分析。 1、簡介 介紹一種卷積神經網絡訓練過程中的SGD的并行化方法。
    發表于 11-16 14:43 ?3288次閱讀

    分類器的訓練過程

    opencv中haar、lbp的訓練原理及過程
    發表于 11-27 15:18 ?0次下載

    基于分割后門訓練過程的后門防御方法

    后門攻擊的目標是通過修改訓練數據或者控制訓練過程等方法使得模型預測正確干凈樣本,但是對于帶有后門的樣本判斷為目標標簽。例如,后門攻擊者給圖片增加固定位置的白塊(即中毒圖片)并且修改圖片的標簽為目標標簽。用這些中毒數據訓練模型過后
    的頭像 發表于 01-05 09:23 ?742次閱讀

    適配PyTorch FX讓量化感知訓練更簡單

    近年來,量化感知訓練是一個較為熱點的問題,可以大大優化量化后訓練造成精度損失的問題,使得訓練過程更加高效。
    的頭像 發表于 03-08 09:45 ?1069次閱讀

    深度學習模型訓練過程詳解

    詳細介紹深度學習模型訓練的全過程,包括數據預處理、模型構建、損失函數定義、優化算法選擇、訓練過程以及模型的評估與調優。
    的頭像 發表于 07-01 16:13 ?488次閱讀

    卷積神經網絡的基本原理、結構及訓練過程

    訓練過程以及應用場景。 一、卷積神經網絡的基本原理 卷積運算 卷積運算是卷積神經網絡的核心,它是一種數學運算,用于提取圖像中的局部特征。卷積運算的過程如下: (1)定義卷積核:卷積核是一個小的矩陣,用于在輸入圖像上滑動,提取局部特征。 (2)滑動窗口:將
    的頭像 發表于 07-02 14:21 ?1053次閱讀

    CNN模型的基本原理、結構、訓練過程及應用領域

    CNN模型的基本原理、結構、訓練過程以及應用領域。 卷積神經網絡的基本原理 1.1 卷積運算 卷積運算是CNN模型的核心,它是一種數學運算
    的頭像 發表于 07-02 15:26 ?1588次閱讀

    卷積神經網絡的基本結構和訓練過程

    處理具有空間層次結構的數據時表現出色。本文將從卷積神經網絡的歷史背景、基本原理、網絡結構、訓練過程以及應用領域等方面進行詳細闡述,以期全面解析這一重要算法。
    的頭像 發表于 07-02 18:27 ?569次閱讀

    深度學習的典型模型和訓練過程

    深度學習作為人工智能領域的一個重要分支,近年來在圖像識別、語音識別、自然語言處理等多個領域取得了顯著進展。其核心在于通過構建復雜的神經網絡模型,從大規模數據中自動學習并提取特征,進而實現高效準確的預測和分類。本文將深入解讀深度學習中的典型模型及其訓練過程,旨在為讀者提供一個全面而深入的理解。
    的頭像 發表于 07-03 16:06 ?668次閱讀

    解讀PyTorch模型訓練過程

    PyTorch作為一個開源的機器學習庫,以其動態計算圖、易于使用的API和強大的靈活性,在深度學習領域得到了廣泛的應用。本文將深入解讀PyTorch模型訓練的全過程,包括數據準備、模型構建、訓練循環、評估與保存等關鍵步驟,并結合
    的頭像 發表于 07-03 16:07 ?543次閱讀

    BP神經網絡的基本結構和訓練過程

    網絡結構,通過誤差反向傳播算法(Error Backpropagation Algorithm)來訓練網絡,實現對復雜問題的學習和解決。以下將詳細闡述BP神經網絡的工作方式,涵蓋其基本原理、訓練過程、應用實例以及優缺點等多個方面。
    的頭像 發表于 07-10 15:07 ?1420次閱讀
    BP神經網絡的基本結構和<b class='flag-5'>訓練過程</b>