精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

nlfO_thejiangme ? 2018-01-10 16:30 ? 次閱讀

機(jī)器學(xué)習(xí)已經(jīng)在各個行業(yè)得到了大規(guī)模的廣泛應(yīng)用,并為提升業(yè)務(wù)流程的效率、提高生產(chǎn)率做出了極大的貢獻(xiàn)。這篇文章主要介紹了機(jī)器學(xué)習(xí)中最先進(jìn)的算法之一——神經(jīng)網(wǎng)絡(luò)的八種不同架構(gòu),并從原理和適用范圍進(jìn)行了解讀。機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)如此優(yōu)秀,我們先來探討兩個問題——為什么需要機(jī)器學(xué)習(xí)?為何要使用神經(jīng)網(wǎng)絡(luò)?之后在來詳細(xì)了解八種不同的網(wǎng)絡(luò)架構(gòu)。

一、為何需要機(jī)器學(xué)習(xí)?

通常來講,對于人類十分復(fù)雜的任務(wù)就是機(jī)器學(xué)習(xí)大顯身手的地方,那些問題都過于復(fù)雜,讓人類解決是不現(xiàn)實或者是不可能的。所以人們想出了一個辦法,為機(jī)器學(xué)習(xí)算法提供大量的數(shù)據(jù),并讓算法去探索這些數(shù)據(jù),搜索出一個可以描述這些數(shù)據(jù)的模型來實現(xiàn)解決問題的目標(biāo)。

讓我們來看兩個小例子:

要寫出一個能在不同光照條件下、新的視角下、雜亂的環(huán)境中識別一個新的物體的程序是極度困難的。我們不知道如何去寫這個程序,如何建模,因為我們根本就不知道我們的大腦是如何處理這樣的情況的。即使我們能想到一個辦法,那么程序?qū)?fù)雜到難以置信的程度!

編寫一個檢測信用卡欺詐的程序也十分困難,幾乎不存在又簡單又可靠的規(guī)則,我們需要結(jié)合一系列弱規(guī)則來實現(xiàn)。當(dāng)欺詐目標(biāo)變化時,程序也需要隨機(jī)應(yīng)變的改變以適應(yīng)。

還有大量的例子使我們束手無策,于是機(jī)器學(xué)習(xí)就成為了一種有效的方法。我們不在去編寫程序解決某個特定的任務(wù),而是對于需要解決的問題收集大量的輸入——輸出數(shù)據(jù)。機(jī)器學(xué)習(xí)算法可以通過這些數(shù)據(jù)產(chǎn)生可以解決問題的程序。這些程序與傳統(tǒng)的code不同,是由成千上萬個參數(shù)構(gòu)成。如果我們建模有效,那么程序?qū)谛碌臄?shù)據(jù)上獲得和訓(xùn)練數(shù)據(jù)一樣好的表現(xiàn),并且可以輸入新的訓(xùn)練數(shù)據(jù)來使得程序適應(yīng)新的變化。需要注意的是,現(xiàn)在大規(guī)模計算的成本已經(jīng)比請經(jīng)驗豐富的程序員便宜了,這也是經(jīng)濟(jì)上機(jī)器學(xué)習(xí)得以發(fā)展的原因所在。

目前機(jī)器學(xué)習(xí)主要在以下方面應(yīng)用:

模式識別:實際場景中的目標(biāo)、包括人臉、表情、語音識別等等;

異常檢測:例如信用卡交易的異常檢測、傳感器異常數(shù)據(jù)模式檢測和異常行為檢測等;

預(yù)測:預(yù)測股票或者匯率、或者預(yù)測消費者喜歡的電影、音樂等。

二、什么是神經(jīng)網(wǎng)絡(luò)?

神經(jīng)網(wǎng)絡(luò)是一類機(jī)器學(xué)習(xí)算法和模型的統(tǒng)稱,也是目前機(jī)器學(xué)習(xí)發(fā)展最快的一個領(lǐng)域。它在生物大腦結(jié)構(gòu)的啟發(fā)下誕生,并衍生為現(xiàn)在最為前沿的深度神經(jīng)網(wǎng)絡(luò),可以處理輸入和輸出間極為復(fù)雜的映射過程。神經(jīng)網(wǎng)絡(luò)具有如下三個特征使它成為了機(jī)器學(xué)習(xí)中的重要組成部分:

有助于理解大腦實際工作的流程,

有助于理解神經(jīng)元和期間的自適應(yīng)鏈接以及并行計算的概念,與順序處理的序列模型大不相同;

在大腦的啟發(fā)下利用新的算法解決實際問題。

要想系統(tǒng)地學(xué)習(xí)機(jī)器學(xué)習(xí),吳恩達(dá)的課程對于機(jī)器學(xué)習(xí)入門很有幫助,進(jìn)一步的可以學(xué)習(xí)被稱為"深度學(xué)習(xí)教父"Hinton的神經(jīng)網(wǎng)絡(luò)課程來進(jìn)一步理解神經(jīng)網(wǎng)絡(luò)。

接下來的內(nèi)容我們會具體闡述八種常見的神經(jīng)網(wǎng)絡(luò)架構(gòu),這應(yīng)該是每個機(jī)器學(xué)習(xí)從業(yè)者和研究者都應(yīng)該熟悉并掌握的工具。

神經(jīng)網(wǎng)絡(luò)的架構(gòu)主要分為三大類——前饋、循環(huán)和對稱鏈接網(wǎng)絡(luò)。

前饋網(wǎng)絡(luò)是最常見的架構(gòu),第一次負(fù)責(zé)輸入、最后一層負(fù)責(zé)輸出,中間的稱為隱藏層。如果有一層以上的隱藏層則稱為深度結(jié)構(gòu)。可以將每一層看做是一次變換,并在變換后利用非線性激活函數(shù)進(jìn)行激活。

循環(huán)神經(jīng)網(wǎng)絡(luò)(RNNs):在連接圖中表現(xiàn)的是一個循環(huán),它們的動力學(xué)特性十分復(fù)雜并難以訓(xùn)練,但更真實地反映了生物真實的情況。有很多工作在尋找更高效的方法來訓(xùn)練網(wǎng)絡(luò)。這種網(wǎng)絡(luò)對于處理序列數(shù)據(jù)十分有效,其中每一個單元與深度網(wǎng)絡(luò)中的神經(jīng)元類似,但其在每一個時隙內(nèi)采用相同的權(quán)重,并在每一個時隙內(nèi)都接收輸入。他們同時還具有利用隱藏狀態(tài)記憶信息的能力。

對稱連接網(wǎng)絡(luò)與循環(huán)網(wǎng)絡(luò)類似,但單元間的鏈接對稱。他們遵循能量函數(shù)更容易分析。沒有隱藏層的對稱連接網(wǎng)絡(luò)成為Hopfield網(wǎng)絡(luò),有隱藏層的則稱為玻爾茲曼機(jī)(具體參見Hinton課程內(nèi)容)

三、八種核心神經(jīng)網(wǎng)絡(luò)架構(gòu)

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

1.感知機(jī)(Perceptrons)

感知機(jī)可以稱為第一代的神經(jīng)網(wǎng)絡(luò),主要包括輸入的多個特征單元(人工定義或程序?qū)ふ遥虚g由學(xué)習(xí)權(quán)重連接,最后由決策單元輸出。典型的感知機(jī)單元遵循前饋模型,輸入通過權(quán)重處理后直接連接到輸出單元上。

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

如果人們手動選取足夠的有效特征,感知機(jī)幾乎可以做任何事。但一旦人工特征固定下來將會極大的限制感知機(jī)的學(xué)習(xí)能力。同時如何選擇一個好的、有效的特征也是困擾人們的難點。這對于感知機(jī)來說是毀滅性的,由于感知機(jī)將所有的注意力放在了模式識別上而忽視了變換過程。Minsky和Papert的"群體不變性理論"指出無法通過學(xué)習(xí)來識別出一組變化中的變換過程。為了處理這樣的變換,感知機(jī)需要利用多特征單元來識別出變換。而這模式識別中最為復(fù)雜的一步則需要手工來完成特征提取,而不是學(xué)習(xí)。

沒有隱藏層的神經(jīng)網(wǎng)絡(luò)在為輸入輸出映射建模的過程中具有很大的局限性。而更多層的線性單元似乎也沒有幫助,因為線性的疊加依舊是線性的。固定的非線性輸出也不足以建立復(fù)雜的映射關(guān)系。所以在感知機(jī)的基礎(chǔ)上我們需要建立多層具有適應(yīng)性非線性的隱藏單元網(wǎng)絡(luò)。但我們該如何訓(xùn)練這樣的網(wǎng)絡(luò)呢?我們需要有效的方法來調(diào)整所有層而不僅僅是最后一層的權(quán)重。這十分困難,因為學(xué)習(xí)隱藏層的權(quán)重就等同于學(xué)習(xí)特征,但沒人會告訴你每個隱藏單元應(yīng)該做什么。這就需要更先進(jìn)的結(jié)構(gòu)來處理了!

2.卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks)

機(jī)器學(xué)習(xí)領(lǐng)域?qū)τ谀繕?biāo)識別和檢測進(jìn)行了多年的探索,問題始終懸而未決的原因在于以下問題始終困擾著物體的視覺識別:

分割、遮擋問題

光照變化問題

扭曲和形變問題

同一類物體在功能性區(qū)別下的外形變化

視角不同帶來的困難

維度尺度帶來的問題

這些問題一直困擾著傳統(tǒng)的模式識別。人們闡釋手工創(chuàng)造各種各樣的特征來描述物體的特征,但結(jié)果總不盡如人意。熱別是在物體識別領(lǐng)域,輕微的變化就會造成結(jié)果的巨大差別。

圖 卷積網(wǎng)絡(luò)的可視化圖形

在感知機(jī)和多層感知機(jī)的基礎(chǔ)上,人們提出了一種新的網(wǎng)絡(luò)結(jié)構(gòu)——卷積神經(jīng)網(wǎng)絡(luò)。利用卷積神經(jīng)網(wǎng)絡(luò)可以對一些特征的檢測進(jìn)行共享,并在尺度和位置和方向上具有一定的不變性。較早的著名例子就是1998年Yann LeCun提出的一個稱為LeNet的網(wǎng)絡(luò)進(jìn)行手寫字符識別獲得了巨大的成功。下圖是LeNet的主要結(jié)構(gòu):一個包括卷積、池化和全連接的六層網(wǎng)絡(luò)結(jié)構(gòu)。

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

它利用反向傳播算法來對隱藏層的單元權(quán)重進(jìn)行訓(xùn)練,并在每個卷積層中實現(xiàn)了卷積操作的(卷積核)權(quán)值共享,并引入池化層實現(xiàn)了特征的縮聚(后面的網(wǎng)絡(luò)層具有較大的感受野),最后通過全連接層來實現(xiàn)輸出。

而后時間來到了ILSVRC2012年的比賽,由ImageNet提供了120萬張的高清訓(xùn)練數(shù)據(jù),目的是訓(xùn)練一個可以分類出圖像屬于一千類中每一類的概率的模型,并以此來進(jìn)行圖像的識別。Hinton的學(xué)生Alex Krizhevsky最后奪魁。在LeNet的基礎(chǔ)上改進(jìn)了神經(jīng)網(wǎng)絡(luò),訓(xùn)練出了一個具有7個隱藏層深度網(wǎng)絡(luò),更深更強(qiáng)大的AlexNet,并引入了GPU進(jìn)行并行訓(xùn)練,極大的提高了深度學(xué)習(xí)模型的訓(xùn)練效率。自此GPU開始進(jìn)入了廣大機(jī)器學(xué)習(xí)研究者的視野中。遠(yuǎn)超過第二名的成績展示了深度學(xué)習(xí)的強(qiáng)大魅力,也使得深度學(xué)習(xí)開始走入了高速發(fā)展的快車道中。

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

3.循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network)

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

循環(huán)神經(jīng)網(wǎng)絡(luò)主要用于處理序列數(shù)據(jù)。在機(jī)器學(xué)習(xí)領(lǐng)域,序列模型一般利用序列數(shù)據(jù)作為輸入,來訓(xùn)練序列模型用于預(yù)測序列數(shù)據(jù)的下一項。在循環(huán)神經(jīng)網(wǎng)絡(luò)之前主要使用無記憶模型處理這類任務(wù)。

循環(huán)神經(jīng)網(wǎng)絡(luò)是一種十分有力的武器,它包含了兩個重要的特點。首先擁有一系列隱含狀態(tài)的分布可以高效的存儲過去的信息;其次它具有非線性動力學(xué)可以允許它以復(fù)雜的方式更新隱藏狀態(tài)。在足夠的時間和神經(jīng)元數(shù)量下,RNN甚至可以計算出計算機(jī)能計算的任何東西。它們甚至?xí)憩F(xiàn)出振動、牽引和混沌的行為。

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

然而循環(huán)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練復(fù)雜,需要面對梯度消失或者爆炸的問題。由于訓(xùn)練的RNN是一個很長的序列模型,訓(xùn)練過程中的梯度十分容易出現(xiàn)問題。即使在很好的初值下,它也很難檢測到目前的目標(biāo)和先前很多步前輸入間的聯(lián)系,所以循環(huán)神經(jīng)網(wǎng)絡(luò)處理長程依賴性還十分困難。

目前主要有四種有效的方式實現(xiàn)循環(huán)神經(jīng)網(wǎng)絡(luò),主要包括長短時記憶(Long Short Term Memory),海森自由優(yōu)化方法(Hessian Free Optimization),回聲狀態(tài)網(wǎng)絡(luò)(Echo State Networks)以及利用動量的初始化(Good initialization with momentum)

4?.長短時記憶網(wǎng)絡(luò)(Long/Short Term Memory Network)

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

Hochreiter和Schmidhuber(1997)通過構(gòu)建長短時記憶網(wǎng)絡(luò)(LSTM:Long Short Term Memory),解決了RNN長時間記憶(如數(shù)百個時間步)的問題。 他們使用相互作用的邏輯單元和線性單元來設(shè)計專門的存儲細(xì)胞(Memory Cell)。 當(dāng)“寫入”門打開時,信息就可以進(jìn)入存儲細(xì)胞。 只要“保持”門處于開啟狀態(tài),信息就會一直保留在存儲細(xì)胞中。開啟“讀取”門就可以從細(xì)胞中讀取信息:RNN特別適合用于手寫草書識別這樣的任務(wù)。通常會以筆尖坐標(biāo)x,y以及表示筆是向上還是向下的參數(shù)p作為輸入,輸出則是一段字符序列。Graves和Schmidhuber(2009)將LSTM結(jié)合到RNN中,得到了當(dāng)前草書識別的最佳結(jié)果。 不過,他們使用小圖像序列而非筆尖坐標(biāo)序列作為輸入。

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

5. Hopfield網(wǎng)絡(luò)

帶有非線性單元的循環(huán)網(wǎng)絡(luò)通常是很難分析的,它們會以許多不同的方式表現(xiàn)出來:穩(wěn)定狀態(tài),振蕩,或遵循不可預(yù)測的混沌軌跡。 Hopfield網(wǎng)絡(luò)由二進(jìn)制閾值單元反復(fù)連接組成。1982年,約翰·霍普菲爾德認(rèn)識到如果這種連接是對稱的,那就存在一個全局的能量函數(shù)。整個網(wǎng)絡(luò)每個二進(jìn)制單元的“配置”都對應(yīng)了能量的多與少,二進(jìn)制單元的閾值決策規(guī)則會讓網(wǎng)絡(luò)的配置朝著能量函數(shù)最小化的方向進(jìn)行。 使用這種類型的計算的一種簡潔方法是使用存儲器作為神經(jīng)網(wǎng)絡(luò)的能量最小值,使用能量極小值的記憶提供了一個內(nèi)存關(guān)聯(lián)存儲器(CAM) 。項目只用知道其內(nèi)容的一部分便可實現(xiàn)訪問,可以有效應(yīng)對硬件損壞的情況。

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

每當(dāng)我們記憶一次配置,我們希望得到一個新的能量最小值。 但是,一旦同時存在兩個最小值,怎么辦? 這就限制了Hopfield網(wǎng)絡(luò)的能力。 那么我們?nèi)绾卧黾親opfield網(wǎng)絡(luò)的能力呢? 物理學(xué)家們喜歡用已有的數(shù)學(xué)知識去解釋大腦的工作原理。 許多關(guān)于Hopfield網(wǎng)絡(luò)及其存儲能力的論文在物理學(xué)期刊上發(fā)表。最終,伊麗莎白·加德納(Elizabeth Gardner)發(fā)現(xiàn)了一個更好的存儲規(guī)則,它使用權(quán)重的全部容量。 她并不一次存儲所有向量,而是多次循環(huán)訓(xùn)練集,并利用感知器收斂過程來訓(xùn)練每個單元,使其具有正確的狀態(tài),給定該向量中所有其他單元的狀態(tài)。 統(tǒng)計學(xué)家稱這種技術(shù)為“擬似然估計”。

Hopfield網(wǎng)絡(luò)還有另一種計算角色。 我們并不用網(wǎng)絡(luò)來存儲記憶,而是用它來構(gòu)建感官輸入的演繹,用可見單元表示輸入,用隱層節(jié)點的狀態(tài)表示演繹,用能量表示演繹的好壞。

6?.玻爾茲曼機(jī)(Boltzmann Machine Network)

玻爾茲曼機(jī)是一種隨機(jī)遞歸神經(jīng)網(wǎng)絡(luò), 它可以被看作是Hopfield網(wǎng)絡(luò)隨機(jī)生成的, 它也是第一批能夠?qū)W習(xí)內(nèi)部表示、能夠表示和解決困難的組合學(xué)問題的神經(jīng)網(wǎng)絡(luò)之一。

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

玻爾茲曼機(jī)學(xué)習(xí)算法的學(xué)習(xí)目標(biāo)是最大化玻爾茲曼機(jī)分配給訓(xùn)練集中的二進(jìn)制向量的概率乘積。這相當(dāng)于最大化了玻爾茲曼機(jī)分配給訓(xùn)練向量的對數(shù)概率之和。如果我們1)讓網(wǎng)絡(luò)在沒有外部輸入的情況下穩(wěn)定到N不同時間平穩(wěn)分布; 2)每次采樣一次可見向量,那也可以理解為最大化我們得到N個樣本的概率。

2012年,Salakhutdinov和Hinton提出了玻爾茲曼機(jī)的高效小批量學(xué)習(xí)程序。 對于正向,首先將隱藏概率初始化為0.5,然后將可見單元上的數(shù)據(jù)向量進(jìn)行固定,然后并行更新所有隱藏單元,直到使用平均場更新進(jìn)行收斂。 在網(wǎng)絡(luò)收斂之后,為每個連接的單元對記錄PiPj,并在最小批量中對所有數(shù)據(jù)進(jìn)行平均。 對于反向:首先保留一組“幻想粒子”,每個粒子的值都是全局配置。 然后依次更新每個幻想粒子中的所有單元幾次。 對于每個連接的單元對,在所有的幻想粒子上平均SiSj。

在普通玻爾茲曼機(jī)中,單元的隨機(jī)更新是有序的。 有一個特殊的體系結(jié)構(gòu)允許更有效的交替并行更新(層內(nèi)無連接,無跨層連接)。 這個小批量程序使得玻爾茲曼機(jī)的更新更加并行化。 這就是所謂的深玻爾茲曼機(jī)器(DBM),一個帶有很多缺失連接的普通玻爾茲曼機(jī)。

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

2014年,Salakhutdinov和Hinton為他們的模型提出了更新,稱之為受限玻爾茲曼機(jī)(Restricted Boltzmann Machines)。 他們限制連通性使得推理和學(xué)習(xí)變得更簡單,隱藏單元只有一層,隱藏單元之間沒有連接。 在受限玻爾茲曼機(jī)中,當(dāng)可見單元被固定時,只需要一步就能達(dá)到熱平衡。 另一個有效的小批量RBM學(xué)習(xí)程序是這樣的: 對于正向,首先將可見單元的數(shù)據(jù)向量固定。 然后計算所有可見和隱藏單元對的的確切值。 對于每個連接的單元對,在所有小批量中的數(shù)據(jù)上平均。 對于反向,也保留一組“幻想粒子”。然后使用交替并行更新更新每個幻想粒子幾次。 對于每個連接的單位對,在所有幻想粒子上平均ViHj。

7. 深度信念網(wǎng)絡(luò)(Deep Belief Network)

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

反向傳播被認(rèn)為是人工神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)方法,在處理數(shù)據(jù)后,計算每個神經(jīng)元的誤差貢獻(xiàn)。但是,使用反向傳播也存在一些很明顯的問題。首先,它需要的數(shù)據(jù)是要標(biāo)注訓(xùn)練好的,但實際生活中幾乎所有的數(shù)據(jù)都是沒有標(biāo)注過的。其次,其學(xué)習(xí)的延展性不好,這意味著在具有多個隱藏層的網(wǎng)絡(luò)中,它的學(xué)習(xí)時間是非常慢的。第三,它很可能會被陷在一個局部最優(yōu)的位置,這對于深度網(wǎng)絡(luò)來說,遠(yuǎn)不是最優(yōu)解。

為了克服反向傳播的上述局限性,研究人員已經(jīng)考慮使用無監(jiān)督學(xué)習(xí)方法。這有助于保持使用梯度法調(diào)整權(quán)重的效率和簡單性,同時也可以用于對感覺輸入的結(jié)構(gòu)進(jìn)行建模。尤其是可以通過調(diào)整權(quán)重來使得生成模型的輸入概率最大化。那么問題就來了,我們應(yīng)該學(xué)習(xí)什么樣的生成模型?它能像Boltzmann機(jī)器那樣以能量為基礎(chǔ)嗎?它是一個非常理想的由神經(jīng)元組成的因果模型,還是兩者的混合?

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

信念網(wǎng)絡(luò)(belief net)是由隨機(jī)變量構(gòu)成的有向無環(huán)圖。用信念網(wǎng)絡(luò),我們要觀察的一些變量和想要解決二個問題是:推理的問題——推斷未觀測的狀態(tài)變量,以及學(xué)習(xí)的問題——調(diào)整變量之間的相互作用,使網(wǎng)絡(luò)更容易生成訓(xùn)練數(shù)據(jù)。

早期的圖形模型使用專家來定義圖形結(jié)構(gòu)和條件概率。當(dāng)時這些圖形是稀疏連接的;因此,研究人員最初專注于做正確的推斷,而不是學(xué)習(xí)。神經(jīng)網(wǎng)絡(luò)是以學(xué)習(xí)為中心的,自己死記硬背的知識并不酷,因為知識來自于學(xué)習(xí)訓(xùn)練數(shù)據(jù)。神經(jīng)網(wǎng)絡(luò)的目的不是為了便于解釋,也不是為了讓推理變得簡單。但即便如此,還是有神經(jīng)網(wǎng)絡(luò)版本的信念網(wǎng)絡(luò)。

由隨機(jī)二元神經(jīng)元組成的生成神經(jīng)網(wǎng)絡(luò)有兩種。一個是基于能量的,在此基礎(chǔ)上,我們利用對稱連接將二元隨機(jī)神經(jīng)元連接到一個波耳茲曼機(jī)器上。另一個是基于因果關(guān)系,我們在一個有向無環(huán)圖中連接二元隨機(jī)神經(jīng)元,得到一個s型信念網(wǎng)絡(luò)。這兩種類型的具體描述不再贅述。

8.深度自動編碼器(DeepAuto-encoders

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

最后,讓我們討論一下deep auto-encoders。由于一些原因,它們看起來總是很好地進(jìn)行非線性降維,因為它們提供了兩種方式的靈活映射。在訓(xùn)練目標(biāo)的數(shù)量上,學(xué)習(xí)時間是線性的(或更好的)。最終的編碼模型是相當(dāng)緊湊快速的。然而,利用反向傳播來優(yōu)化深度自動編碼器是非常困難的。初始權(quán)值小,后傳播梯度消失。我們現(xiàn)在有了更好的方法來優(yōu)化它們:要么使用無監(jiān)督的分層預(yù)訓(xùn)練,要么就像在回聲狀態(tài)網(wǎng)絡(luò)中一樣小心地初始化權(quán)重。

對于預(yù)訓(xùn)練任務(wù),主要有三種不同類型的shallow auto-encoders:

RBM

去噪自動編碼器

壓縮自動編碼器

為什么使用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

簡單地說,現(xiàn)在有許多不同的方法來對特性進(jìn)行逐層預(yù)訓(xùn)練。對于沒有大量標(biāo)記案例的數(shù)據(jù)集,預(yù)訓(xùn)練有助于后續(xù)的鑒別學(xué)習(xí)。對于非常大的、已標(biāo)記的數(shù)據(jù)集,初始化在監(jiān)督學(xué)習(xí)中使用無監(jiān)督預(yù)訓(xùn)練的權(quán)值是不必要的,即使對于深網(wǎng)也是如此。所以預(yù)訓(xùn)練是初始化深網(wǎng)權(quán)重的最優(yōu)先方法,當(dāng)然現(xiàn)在還有其他方法。但是如果我們讓網(wǎng)絡(luò)變得更大,我們還將需要再次訓(xùn)練!

說了這么多...

神經(jīng)網(wǎng)絡(luò)是有史以來最美麗的編程范例之一。在傳統(tǒng)的編程方法中,我們告訴計算機(jī)要做什么,將大問題分解成許多小的、精確定義的任務(wù),計算機(jī)就可以輕松地執(zhí)行這些任務(wù)。相比之下,在神經(jīng)網(wǎng)絡(luò)中,我們不會告訴計算機(jī)如何解決我們的問題。相反,它從觀察數(shù)據(jù)中學(xué)習(xí),找出自己解決問題的方法。

今天,深度神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)在計算機(jī)視覺、語音識別、自然語言處理等許多重要問題上都取得了令人矚目的成績。它們廣泛應(yīng)用在了Google、微軟和Facebook等公司的部署中。

希望這篇文章對你學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的核心概念能有所幫助!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:作為機(jī)器學(xué)習(xí)研究者,你需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    labview BP神經(jīng)網(wǎng)絡(luò)的實現(xiàn)

    請問:我在用labview做BP神經(jīng)網(wǎng)絡(luò)實現(xiàn)故障診斷,在NI官網(wǎng)找到了機(jī)器學(xué)習(xí)工具包(MLT),但是里面沒有關(guān)于這部分VI的幫助文檔,對于”BP神經(jīng)網(wǎng)絡(luò)分類“這個范例有很多不懂的地方,
    發(fā)表于 02-22 16:08

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    是一常用的無監(jiān)督學(xué)習(xí)策略,在使用改策略時,網(wǎng)絡(luò)的輸出神經(jīng)元相互競爭,每一時刻只有一個競爭獲勝的神經(jīng)元激活。ART
    發(fā)表于 07-21 04:30

    人工神經(jīng)網(wǎng)絡(luò)實現(xiàn)方法有哪些?

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)是一類似生物神經(jīng)網(wǎng)絡(luò)的信息處理結(jié)構(gòu),它的提出是為了解決一些非線性
    發(fā)表于 08-01 08:06

    神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索有什么優(yōu)勢?

    ,稍有不同就無法復(fù)現(xiàn)論文的結(jié)果。而網(wǎng)絡(luò)結(jié)構(gòu)作為一特殊的超參數(shù),在深度學(xué)習(xí)整個環(huán)節(jié)中扮演著舉足輕重的角色。在圖像分類任務(wù)上大放異彩的ResNet、在機(jī)器翻譯任務(wù)上稱霸的Transfor
    發(fā)表于 09-11 11:52

    【AI學(xué)習(xí)】第3篇--人工神經(jīng)網(wǎng)絡(luò)

    `本篇主要介紹:人工神經(jīng)網(wǎng)絡(luò)的起源、簡單神經(jīng)網(wǎng)絡(luò)模型、更多神經(jīng)網(wǎng)絡(luò)模型、機(jī)器學(xué)習(xí)的步驟:訓(xùn)練與預(yù)測、訓(xùn)練的兩階段:正向推演與反向傳播、以Te
    發(fā)表于 11-05 17:48

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機(jī)的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達(dá)能力,可以通過
    發(fā)表于 09-07 07:43

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    十余年來快速發(fā)展的嶄新領(lǐng)域,越來越受到研究者的關(guān)注。卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型是深度學(xué)習(xí)模型中最重要的一經(jīng)典結(jié)構(gòu),其性能在近年來深度學(xué)習(xí)
    發(fā)表于 08-02 10:39

    卷積神經(jīng)網(wǎng)絡(luò)簡介:什么是機(jī)器學(xué)習(xí)

    抽象人工智能 (AI) 的世界正在迅速發(fā)展,人工智能越來越多地支持以前無法實現(xiàn)或非常難以實現(xiàn)的應(yīng)用程序。本系列文章解釋了卷積神經(jīng)網(wǎng)絡(luò) (CNN) 及其在 AI 系統(tǒng)中機(jī)器學(xué)習(xí)中的重要性。CNN 是從
    發(fā)表于 02-23 20:11

    新型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu):膠囊網(wǎng)絡(luò)

    膠囊網(wǎng)絡(luò)是 Geoffrey Hinton 提出的一新型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),為了解決卷積神經(jīng)網(wǎng)絡(luò)(ConvNets)的一些缺點,提出了膠囊
    的頭像 發(fā)表于 02-02 09:25 ?5825次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

    卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一前饋神經(jīng)網(wǎng)絡(luò),常用于圖像處理、自然語言處理等領(lǐng)域中。它是一
    的頭像 發(fā)表于 08-17 16:30 ?1195次閱讀

    人工神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    人工神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別? 人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)是一模仿人腦神經(jīng)元網(wǎng)絡(luò)結(jié)構(gòu)
    的頭像 發(fā)表于 08-22 16:45 ?4281次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    網(wǎng)絡(luò)結(jié)構(gòu),分別適用于不同的應(yīng)用場景。本文將從基本概念、結(jié)構(gòu)組成、工作原理及應(yīng)用領(lǐng)域等方面對這兩神經(jīng)網(wǎng)絡(luò)進(jìn)行深入解讀。
    的頭像 發(fā)表于 07-03 16:12 ?2674次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時,我們需要
    的頭像 發(fā)表于 07-04 13:20 ?671次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩非常重要的
    的頭像 發(fā)表于 07-04 14:24 ?1119次閱讀