精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

RNN以及LSTM

新機器視覺 ? 來源:機器學習算法那些事 ? 作者:機器學習算法那些 ? 2022-03-15 10:44 ? 次閱讀

熟悉深度學習的朋友知道,LSTM是一種RNN模型,可以方便地處理時間序列數據,在NLP等領域有廣泛應用。

在看了臺大李宏毅教授的深度學習視頻后,特別是介紹的第一部分RNN以及LSTM,整個人醍醐灌頂。

0. 從RNN說起

循環神經網絡(Recurrent Neural Network,RNN)是一種用于處理序列數據的神經網絡。相比一般的神經網絡來說,他能夠處理序列變化的數據。比如某個單詞的意思會因為上文提到的內容不同而有不同的含義,RNN就能夠很好地解決這類問題。

1. 普通RNN

先簡單介紹一下一般的RNN。其主要形式如下圖所示(圖片均來自臺大李宏毅教授的PPT):

ba5cb7b8-a355-11ec-952b-dac502259ad0.png

這里:

為當前狀態下數據的輸入,表示接收到的上一個節點的輸入。

為當前節點狀態下的輸出,而為傳遞到下一個節點的輸出。

通過上圖的公式可以看到,輸出 h'與 x 和 h 的值都相關。

而 y 則常常使用 h'投入到一個線性層(主要是進行維度映射)然后使用softmax進行分類得到需要的數據。

對這里的y如何通過 h'計算得到往往看具體模型的使用方式。

通過序列形式的輸入,我們能夠得到如下形式的RNN。

ba767a90-a355-11ec-952b-dac502259ad0.png

2. LSTM

2.1 什么是LSTM

長短期記憶(Long short-term memory, LSTM)是一種特殊的RNN,主要是為了解決長序列訓練過程中的梯度消失和梯度爆炸問題。簡單來說,就是相比普通的RNN,LSTM能夠在更長的序列中有更好的表現。

LSTM結構(圖右)和普通RNN的主要輸入輸出區別如下所示。

ba9e1884-a355-11ec-952b-dac502259ad0.png

相比RNN只有一個傳遞狀態,LSTM有兩個傳輸狀態,一個(cell state),和一個(hidden state)。RNN中的等價于LSTM中的。

其中對于傳遞下去的改變得很慢,通常輸出的是上一個狀態傳過來的加上一些數值。

而則在不同節點下往往會有很大的區別。

2.2 深入LSTM結構

下面具體對LSTM的內部結構來進行剖析。

首先使用LSTM的當前輸入和上一個狀態傳遞下來的拼接訓練得到四個狀態。

baaf8b0a-a355-11ec-952b-dac502259ad0.png

其中,,是由拼接向量乘以權重矩陣之后,再通過一個 sigmoid激活函數轉換成0到1之間的數值,來作為一種門控狀態。而則是將結果通過一個 tanh激活函數將轉換成-1到1之間的值(這里使用 tanh是因為這里是將其做為輸入數據,而不是門控信號)。

下面開始進一步介紹這四個狀態在LSTM內部的使用(敲黑板)

bac692d2-a355-11ec-952b-dac502259ad0.png

是Hadamard Product,也就是操作矩陣中對應的元素相乘,因此要求兩個相乘矩陣是同型的。則代表進行矩陣加法。

LSTM內部主要有三個階段:

1. 忘記階段。這個階段主要是對上一個節點傳進來的輸入進行選擇性忘記。簡單來說就是會 “忘記不重要的,記住重要的”。

具體來說是通過計算得到的(f表示forget)來作為忘記門控,來控制上一個狀態的哪些需要留哪些需要忘。

2. 選擇記憶階段。這個階段將這個階段的輸入有選擇性地進行“記憶”。主要是會對輸入進行選擇記憶。哪些重要則著重記錄下來,哪些不重要,則少記一些。當前的輸入內容由前面計算得到的表示。而選擇的門控信號則是由(i代表information)來進行控制。

將上面兩步得到的結果相加,即可得到傳輸給下一個狀態的。也就是上圖中的第一個公式。

3. 輸出階段。這個階段將決定哪些將會被當成當前狀態的輸出。主要是通過來進行控制的。并且還對上一階段得到的進行了放縮(通過一個tanh激活函數進行變化)。

與普通RNN類似,輸出往往最終也是通過變化得到。

3. 總結

以上,就是LSTM的內部結構。通過門控狀態來控制傳輸狀態,記住需要長時間記憶的,忘記不重要的信息;而不像普通的RNN那樣只能夠“呆萌”地僅有一種記憶疊加方式。對很多需要“長期記憶”的任務來說,尤其好用。

但也因為引入了很多內容,導致參數變多,也使得訓練難度加大了很多。因此很多時候我們往往會使用效果和LSTM相當但參數更少的GRU來構建大訓練量的模型。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4762

    瀏覽量

    100541
  • LSTM
    +關注

    關注

    0

    文章

    59

    瀏覽量

    3738

原文標題:人人都能看懂的LSTM

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    FPGA也能做RNN

    ,GPU只能提供有限的并行性。針對這個問題,普渡大學的研究人員提出了一種LSTM在Zynq 7020 FPGA的硬件實現方案,該方案在FPGA中實現了2層128個隱藏單元的RNN,并且使用字符級語言模型
    發表于 07-31 10:11

    放棄 RNNLSTM 吧,它們真的不好用

    2014 年 RNN/LSTM 起死回生。自此,RNN/LSTM 及其變種逐漸被廣大用戶接受和認可。起初,LSTM
    的頭像 發表于 04-25 09:43 ?2.1w次閱讀

    RNN及其變體LSTM和GRU

    下圖為一個雙層LSTM對三個不同的單詞的反應分布。該LSTM每層有600個細胞狀態單元,基于Penn Tree Bank(PTB)數據集訓練。我們可以看到,模型對介詞(“for”)和代詞(“he”、“she”)的反應模式大不相同。
    的頭像 發表于 06-30 11:11 ?1.6w次閱讀
    <b class='flag-5'>RNN</b>及其變體<b class='flag-5'>LSTM</b>和GRU

    循環神經網絡(RNN)和(LSTM)初學者指南

    最近,有一篇入門文章引發了不少關注。文章中詳細介紹了循環神經網絡(RNN),及其變體長短期記憶(LSTM)背后的原理。
    發表于 02-05 13:43 ?910次閱讀

    一種具有強記憶力的 E3D-LSTM網絡,強化了LSTM的長時記憶能力

    標準 LSTM 單元結構 首先簡要介紹一下標準 LSTM 結構,和 RNN 相比 LSTM 增加了更復雜的門結構(圖中黃色模塊),主要解決 RN
    的頭像 發表于 09-01 07:35 ?1.1w次閱讀
    一種具有強記憶力的 E3D-<b class='flag-5'>LSTM</b>網絡,強化了<b class='flag-5'>LSTM</b>的長時記憶能力

    循環神經網絡LSTM為何如此有效?

    長短期記憶網絡(LSTM),作為一種改進之后的循環神經網絡,不僅能夠解決 RNN無法處理長距離的依賴的問題,還能夠解決神經網絡中常見的梯度爆炸或梯度消失等問題,在處理序列數據方面非常有效。 有效背后
    的頭像 發表于 03-19 11:22 ?2801次閱讀
    循環神經網絡<b class='flag-5'>LSTM</b>為何如此有效?

    深度分析RNN的模型結構,優缺點以及RNN模型的幾種應用

    強大的Bert模型家族,都是站在RNN的肩上,不斷演化、變強的。 這篇文章,闡述了RNN的方方面面,包括模型結構,優缺點,RNN模型的幾種應用,RNN常使用的激活函數,
    的頭像 發表于 05-13 10:47 ?2.4w次閱讀
    深度分析<b class='flag-5'>RNN</b>的模型結構,優缺點<b class='flag-5'>以及</b><b class='flag-5'>RNN</b>模型的幾種應用

    如何理解RNNLSTM神經網絡

    在深入探討RNN(Recurrent Neural Network,循環神經網絡)與LSTM(Long Short-Term Memory,長短期記憶網絡)神經網絡之前,我們首先需要明確它們
    的頭像 發表于 07-09 11:12 ?540次閱讀

    LSTM模型的基本組成

    長短期記憶網絡(Long Short-Term Memory, LSTM)是一種特殊的循環神經網絡(RNN)架構,它在處理序列數據時能夠捕捉長期依賴關系,有效解決了傳統RNN在處理長序列時容易出現
    的頭像 發表于 07-10 17:01 ?1007次閱讀

    LSTM神經網絡的基本原理 如何實現LSTM神經網絡

    LSTM(長短期記憶)神經網絡是一種特殊的循環神經網絡(RNN),它能夠學習長期依賴信息。在處理序列數據時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關系而受到
    的頭像 發表于 11-13 09:53 ?201次閱讀

    使用LSTM神經網絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的一個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發展,特別是循環神經網絡(RNN)及其變體——長短期記憶(LSTM)網絡的出現
    的頭像 發表于 11-13 09:56 ?273次閱讀

    LSTM神經網絡的優缺點分析

    長短期記憶(Long Short-Term Memory, LSTM)神經網絡是一種特殊的循環神經網絡(RNN),由Hochreiter和Schmidhuber在1997年提出。LSTM因其在處理
    的頭像 發表于 11-13 09:57 ?454次閱讀

    LSTM神經網絡與傳統RNN的區別

    在深度學習領域,循環神經網絡(RNN)因其能夠處理序列數據而受到廣泛關注。然而,傳統RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)神經網絡應運而生。 循環
    的頭像 發表于 11-13 09:58 ?195次閱讀

    LSTM神經網絡的調參技巧

    長短時記憶網絡(Long Short-Term Memory, LSTM)是一種特殊的循環神經網絡(RNN),它能夠學習長期依賴信息。在實際應用中,LSTM網絡的調參是一個復雜且關鍵的過程,直接影響
    的頭像 發表于 11-13 10:01 ?309次閱讀

    RNNLSTM模型的比較分析

    RNN(循環神經網絡)與LSTM(長短期記憶網絡)模型在深度學習領域都具有處理序列數據的能力,但它們在結構、功能和應用上存在顯著的差異。以下是對RNNLSTM模型的比較分析: 一、基
    的頭像 發表于 11-15 10:05 ?210次閱讀