精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

神經網絡初學者的激活函數指南

穎脈Imgtec ? 2023-04-21 09:28 ? 次閱讀

作者:Mouaad B.

來源:DeepHub IMBA


如果你剛剛開始學習神經網絡,激活函數的原理一開始可能很難理解。但是如果你想開發強大的神經網絡,理解它們是很重要的。

f6fc88d0-dd8b-11ed-ad0d-dac502259ad0.png

但在我們深入研究激活函數之前,先快速回顧一下神經網絡架構的基本元素。如果你已經熟悉神經網絡的工作原理,可以直接跳到下一節。


神經網絡架構

神經網絡由稱為神經元的鏈接節點層組成,神經元通過稱為突觸的加權連接來處理和傳輸信息

f7128234-dd8b-11ed-ad0d-dac502259ad0.png

每個神經元從上一層的神經元獲取輸入,對其輸入的和應用激活函數,然后將輸出傳遞給下一層。

神經網絡的神經元包含輸入層、隱藏層和輸出層。

輸入層只接收來自域的原始數據。這里沒有計算,節點只是簡單地將信息(也稱為特征)傳遞給下一層,即隱藏層。隱藏層是所有計算發生的地方。它從輸入層獲取特征,并在將結果傳遞給輸出層之前對它們進行各種計算。輸出層是網絡的最后一層。它使用從隱藏層獲得的所有信息并產生最終值。

為什么需要激活函數。為什么神經元不能直接計算并將結果轉移到下一個神經元?激活函數的意義是什么?


激活函數在神經網絡中的作用

網絡中的每個神經元接收來自其他神經元的輸入,然后它對輸入進行一些數學運算以生成輸出。一個神經元的輸出可以被用作網絡中其他神經元的輸入。

f746d052-dd8b-11ed-ad0d-dac502259ad0.png

如果沒有激活函數,神經元將只是對輸入進行線性數學運算。這意味著無論我們在網絡中添加多少層神經元,它所能學習的東西仍然是有限的,因為輸出總是輸入的簡單線性組合。

激活函數通過在網絡中引入非線性來解決問題。通過添加非線性,網絡可以模擬輸入和輸出之間更復雜的關系,從而發現更多有價值的模式。

簡而言之,激活函數通過引入非線性并允許神經網絡學習復雜的模式,使神經網絡更加強大。


理解不同類型的激活函數

我們可以將這些函數分為三部分:二元、線性和非線性。

f75d787a-dd8b-11ed-ad0d-dac502259ad0.png

二元函數只能輸出兩個可能值中的一個,而線性函數則返回基于線性方程的值。

非線性函數,如sigmoid函數,Tanh, ReLU和elu,提供的結果與輸入不成比例。每種類型的激活函數都有其獨特的特征,可以在不同的場景中使用。


1、Sigmoid / Logistic激活函數

Sigmoid激活函數接受任何數字作為輸入,并給出0到1之間的輸出。輸入越正,輸出越接近1。另一方面,輸入越負,輸出就越接近0,如下圖所示。

f7774f48-dd8b-11ed-ad0d-dac502259ad0.png

它具有s形曲線,使其成為二元分類問題的理想選擇。如果要創建一個模型來預測一封電子郵件是否為垃圾郵件,我們可以使用Sigmoid函數來提供一個0到1之間的概率分數。如果得分超過0.5分,則認為該郵件是垃圾郵件。如果它小于0.5,那么我們可以說它不是垃圾郵件。

函數定義如下:

f7a416a4-dd8b-11ed-ad0d-dac502259ad0.png

但是Sigmoid函數有一個缺點——它受到梯度消失問題的困擾。當輸入變得越來越大或越來越小時,函數的梯度變得非常小,減慢了深度神經網絡的學習過程,可以看上面圖中的導數(Derivative)曲線。

但是Sigmoid函數仍然在某些類型的神經網絡中使用,例如用于二進制分類問題的神經網絡,或者用于多類分類問題的輸出層,因為預測每個類的概率Sigmoid還是最好的解決辦法。


2、Tanh函數(雙曲正切)

Tanh函數,也被稱為雙曲正切函數,是神經網絡中使用的另一種激活函數。它接受任何實數作為輸入,并輸出一個介于-1到1之間的值。

f7bd2608-dd8b-11ed-ad0d-dac502259ad0.png

Tanh函數和Sigmoid函數很相似,但它更以0為中心。當輸入接近于零時,輸出也將接近于零。這在處理同時具有負值和正值的數據時非常有用,因為它可以幫助網絡更好地學習。

函數定義如下:

f7e4c456-dd8b-11ed-ad0d-dac502259ad0.png

與Sigmoid函數一樣,Tanh函數也會在輸入變得非常大或非常小時遭遇梯度消失的問題。


3、線性整流單元/ ReLU函數

ReLU是一種常見的激活函數,它既簡單又強大。它接受任何輸入值,如果為正則返回,如果為負則返回0。換句話說,ReLU將所有負值設置為0,并保留所有正值。

f7f3a444-dd8b-11ed-ad0d-dac502259ad0.png

函數定義如下:

f812cfae-dd8b-11ed-ad0d-dac502259ad0.png

使用ReLU的好處之一是計算效率高,并且實現簡單。它可以幫助緩解深度神經網絡中可能出現的梯度消失問題。

但是,ReLU可能會遇到一個被稱為“dying ReLU”問題。當神經元的輸入為負,導致神經元的輸出為0時,就會發生這種情況。如果這種情況發生得太頻繁,神經元就會“死亡”并停止學習。


4、Leaky ReLU

Leaky ReLU函數是ReLU函數的一個擴展,它試圖解決“dying ReLU”問題。Leaky ReLU不是將所有的負值都設置為0,而是將它們設置為一個小的正值,比如輸入值的0.1倍。他保證即使神經元接收到負信息,它仍然可以從中學習。

f825f3f4-dd8b-11ed-ad0d-dac502259ad0.png

函數定義如下:

f852474c-dd8b-11ed-ad0d-dac502259ad0.png

Leaky ReLU已被證明在許多不同類型的問題中工作良好。


5、指數線性單位(elu)函數

ReLU一樣,他們的目標是解決梯度消失的問題。elu引入了負輸入的非零斜率,這有助于防止“dying ReLU”問題

f86315ae-dd8b-11ed-ad0d-dac502259ad0.png

公式為:

f88ba528-dd8b-11ed-ad0d-dac502259ad0.png

這里的alpha是控制負飽和度的超參數。

與ReLU和tanh等其他激活函數相比,elu已被證明可以提高訓練和測試的準確性。它在需要高準確度的深度神經網絡中特別有用。


6、Softmax函數

在需要對輸入進行多類別分類的神經網絡中,softmax函數通常用作輸出層的激活函數。它以一個實數向量作為輸入,并返回一個表示每個類別可能性的概率分布。

softmax的公式是:

f8a18672-dd8b-11ed-ad0d-dac502259ad0.png

這里的x是輸入向量,i和j是從1到類別數的索引

Softmax對于多類分類問題非常有用,因為它確保輸出概率之和為1,從而便于解釋結果。它也是可微的,這使得它可以在訓練過程中用于反向傳播。


7、Swish

Swish函數是一個相對較新的激活函數,由于其優于ReLU等其他激活函數的性能,在深度學習社區中受到了關注。

Swish的公式是:

f8b5fc6a-dd8b-11ed-ad0d-dac502259ad0.png

這里的beta是控制飽和度的超參數。

Swish類似于ReLU,因為它是一個可以有效計算的簡單函數。并且有一個平滑的曲線,有助于預防“dying ReLU”問題。Swish已被證明在各種深度學習任務上優于ReLU。


選擇哪一種?

首先,需要將激活函數與你要解決的預測問題類型相匹配。可以從ReLU激活函數開始,如果沒有達到預期的結果,則可以轉向其他激活函數。

以下是一些需要原則:

  • ReLU激活函數只能在隱藏層中使用。
  • Sigmoid/Logistic和Tanh函數不應該用于隱藏層,因為它們會在訓練過程中引起問題。

Swish函數用于深度大于40層的神經網絡會好很多。

輸出層的激活函數是由你要解決的預測問題的類型決定的。以下是一些需要記住的基本原則:

回歸-線性激活函數

二元分類- Sigmoid

多類分類- Softmax

  • 多標簽分類- Sigmoid

選擇正確的激活函數可以使預測準確性有所不同。所以還需要根據不同的使用情況進行測試。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4717

    瀏覽量

    99990
  • 函數
    +關注

    關注

    3

    文章

    4234

    瀏覽量

    61962
收藏 人收藏

    評論

    相關推薦

    神經元模型激活函數通常有哪幾類

    神經元模型激活函數神經網絡中的關鍵組成部分,它們負責在神經元之間引入非線性,使得神經網絡能夠學
    的頭像 發表于 07-11 11:33 ?430次閱讀

    前饋神經網絡的基本結構和常見激活函數

    激活函數的非線性變換,能夠學習和模擬復雜的函數映射,從而解決各種監督學習任務。本文將詳細闡述前饋神經網絡的基本結構,包括其組成層、權重和偏置、激活
    的頭像 發表于 07-09 10:31 ?226次閱讀

    神經網絡的種類及舉例說明

    神經網絡作為深度學習領域的核心組成部分,近年來在圖像識別、自然語言處理、語音識別等多個領域取得了顯著進展。本文將從神經網絡的基本原理出發,深入講解其種類,并通過具體實例進行說明,以期為初學者提供一份詳盡的入門
    的頭像 發表于 07-08 11:06 ?358次閱讀

    rnn是什么神經網絡模型

    領域有著廣泛的應用。 RNN的基本概念 1.1 神經網絡的基本概念 神經網絡是一種受生物神經網絡啟發的數學模型,它由多個神經元(或稱為節點)組成,這些
    的頭像 發表于 07-05 09:50 ?384次閱讀

    卷積神經網絡和bp神經網絡的區別在哪

    結構、原理、應用場景等方面都存在一定的差異。以下是對這兩種神經網絡的詳細比較: 基本結構 BP神經網絡是一種多層前饋神經網絡,由輸入層、隱藏層和輸出層組成。每個神經元之間通過權重連接,
    的頭像 發表于 07-04 09:49 ?8400次閱讀

    如何使用神經網絡進行建模和預測

    輸入信號,對其進行加權求和,然后通過激活函數進行非線性轉換,生成輸出信號。通過這種方式,神經網絡可以學習輸入數據的復雜模式和關系。 神經網絡的類型
    的頭像 發表于 07-03 10:23 ?369次閱讀

    bp神經網絡和卷積神經網絡區別是什么

    結構、原理、應用場景等方面都存在一定的差異。以下是對這兩種神經網絡的比較: 基本結構 BP神經網絡是一種多層前饋神經網絡,由輸入層、隱藏層和輸出層組成。每個神經元之間通過權重連接,并通
    的頭像 發表于 07-03 10:12 ?514次閱讀

    BP神經網絡激活函數怎么選擇

    中,激活函數起著至關重要的作用,它決定了神經元的輸出方式,進而影響整個網絡的性能。 一、激活函數
    的頭像 發表于 07-03 10:02 ?309次閱讀

    卷積神經網絡激活函數的作用

    卷積神經網絡(Convolutional Neural Networks, CNNs)是深度學習中一種重要的神經網絡結構,廣泛應用于圖像識別、語音識別、自然語言處理等領域。在卷積神經網絡中,
    的頭像 發表于 07-03 09:18 ?316次閱讀

    卷積神經網絡的原理是什么

    基本概念、結構、訓練過程以及應用場景。 卷積神經網絡的基本概念 1.1 神經網絡 神經網絡是一種受人腦神經元結構啟發的數學模型,由大量的節點(神經
    的頭像 發表于 07-02 14:44 ?348次閱讀

    神經網絡反向傳播算法原理是什么

    介紹反向傳播算法的原理、數學基礎、實現步驟和應用場景。 神經網絡簡介 神經網絡是一種受人腦啟發的計算模型,由大量的神經元(或稱為節點)組成。每個神經元接收輸入信號,通過
    的頭像 發表于 07-02 14:16 ?250次閱讀

    神經網絡結構類型和應用實例

    神經網絡模型,作為深度學習領域的核心組成部分,近年來在圖像識別、自然語言處理、語音識別等多個領域取得了顯著進展。本文旨在深入解讀神經網絡的基本原理、結構類型、訓練過程以及應用實例,為初學者提供一份詳盡的入門
    的頭像 發表于 07-02 11:33 ?200次閱讀

    神經網絡激活函數的定義及類型

    引言 神經網絡是一種模擬人腦神經元結構的計算模型,廣泛應用于圖像識別、自然語言處理、語音識別等領域。在神經網絡中,激活函數起著至關重要的作用
    的頭像 發表于 07-02 10:09 ?305次閱讀

    神經網絡中的激活函數有哪些

    神經網絡中,激活函數是一個至關重要的組成部分,它決定了神經元對于輸入信號的反應方式,為神經網絡引入了非線性因素,使得
    的頭像 發表于 07-01 11:52 ?380次閱讀

    分享給嵌入式初學者

    電子發燒友網站提供《分享給嵌入式初學者.doc》資料免費下載
    發表于 11-08 10:46 ?0次下載
    分享給嵌入式<b class='flag-5'>初學者</b>