精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

淺析深度學(xué)習(xí)的原理及其架構(gòu)

ss ? 來源:網(wǎng)絡(luò)整理 ? 作者:工程師譚軍 ? 2018-10-07 15:13 ? 次閱讀
深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。
深度學(xué)習(xí)的概念由Hinton等人于2006年提出?;谏疃戎眯?a href="http://www.nxhydt.com/v/tag/1722/" target="_blank">網(wǎng)絡(luò)(DBN)提出非監(jiān)督貪心逐層訓(xùn)練算法,為解決深層結(jié)構(gòu)相關(guān)的優(yōu)化難題帶來希望,隨后提出多層自動(dòng)編碼器深層結(jié)構(gòu)。此外Lecun等人提出的卷積神經(jīng)網(wǎng)絡(luò)是第一個(gè)真正多層結(jié)構(gòu)學(xué)習(xí)算法,它利用空間相對關(guān)系減少參數(shù)數(shù)目以提高訓(xùn)練性能。 [1]
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)中一種基于對數(shù)據(jù)進(jìn)行表征學(xué)習(xí)的方法。觀測值(例如一幅圖像)可以使用多種方式來表示,如每個(gè)像素強(qiáng)度值的向量,或者更抽象地表示成一系列邊、特定形狀的區(qū)域等。而使用某些特定的表示方法更容易從實(shí)例中學(xué)習(xí)任務(wù)(例如,人臉識(shí)別或面部表情識(shí)別)。深度學(xué)習(xí)的好處是用非監(jiān)督式或半監(jiān)督式的特征學(xué)習(xí)和分層特征提取高效算法來替代手工獲取特征。
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究中的一個(gè)新的領(lǐng)域,其動(dòng)機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機(jī)制來解釋數(shù)據(jù),例如圖像,聲音和文本。 [2]
同機(jī)器學(xué)習(xí)方法一樣,深度機(jī)器學(xué)習(xí)方法也有監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)之分.不同的學(xué)習(xí)框架下建立的學(xué)習(xí)模型很是不同.例如,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural networks,簡稱CNNs)就是一種深度的監(jiān)督學(xué)習(xí)下的機(jī)器學(xué)習(xí)模型,而深度置信網(wǎng)(Deep Belief Nets,簡稱DBNs)就是一種無監(jiān)督學(xué)習(xí)下的機(jī)器學(xué)習(xí)模型。
假設(shè)我們有一個(gè)系統(tǒng)S,它有n層(S1,…Sn),它的輸入是I,輸出是O,形象地表示為: I =》S1=》S2=》…。.=》Sn =》 O,如果輸出O等于輸入I,即輸入I經(jīng)過這個(gè)系統(tǒng)變化之后沒有任何的信息損失,設(shè)處理a信息得到b,再對b處理得到c,那么可以證明:a和c的互信息不會(huì)超過a和b的互信息。這表明信息處理不會(huì)增加信息,大部分處理會(huì)丟失信息。保持了不變,這意味著輸入I經(jīng)過每一層Si都沒有任何的信息損失,即在任何一層Si,它都是原有信息(即輸入I)的另外一種表示?,F(xiàn)在回到主題Deep Learning,需要自動(dòng)地學(xué)習(xí)特征,假設(shè)我們有一堆輸入I(如一堆圖像或者文本),假設(shè)設(shè)計(jì)了一個(gè)系統(tǒng)S(有n層),通過調(diào)整系統(tǒng)中參數(shù),使得它的輸出仍然是輸入I,那么就可以自動(dòng)地獲取得到輸入I的一系列層次特征,即S1,…, Sn。 [3]
對于深度學(xué)習(xí)來說,其思想就是對堆疊多個(gè)層,也就是說這一層的輸出作為下一層的輸入。通過這種方式,就可以實(shí)現(xiàn)對輸入信息進(jìn)行分級表達(dá)了。 [3]
另外,前面是假設(shè)輸出嚴(yán)格地等于輸入,這個(gè)限制太嚴(yán)格,可以略微地放松這個(gè)限制,例如只要使得輸入與輸出的差別盡可能地小即可,這個(gè)放松會(huì)導(dǎo)致另外一類不同的Deep Learning方法。上述就是Deep Learning的基本思想。 [3]
把學(xué)習(xí)結(jié)構(gòu)看作一個(gè)網(wǎng)絡(luò),則深度學(xué)習(xí)的核心思路如下:
①無監(jiān)督學(xué)習(xí)用于每一層網(wǎng)絡(luò)的pre-train;
②每次用無監(jiān)督學(xué)習(xí)只訓(xùn)練一層,將其訓(xùn)練結(jié)果作為其高一層的輸入;
③用自頂而下的監(jiān)督算法去調(diào)整所有層
主要技術(shù)
線性代數(shù)、概率和信息論
欠擬合、過擬合、正則化
最大似然估計(jì)和貝葉斯統(tǒng)計(jì)
隨機(jī)梯度下降
監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)
深度前饋網(wǎng)絡(luò)、代價(jià)函數(shù)和反向傳播
正則化、稀疏編碼和dropout
自適應(yīng)學(xué)習(xí)算法
卷積神經(jīng)網(wǎng)絡(luò)
循環(huán)神經(jīng)網(wǎng)絡(luò)
遞歸神經(jīng)網(wǎng)絡(luò)
深度神經(jīng)網(wǎng)絡(luò)和深度堆疊網(wǎng)絡(luò)
LSTM長短時(shí)記憶
主成分分析
正則自動(dòng)編碼器
表征學(xué)習(xí)
蒙特卡洛
受限波茲曼機(jī)
深度置信網(wǎng)絡(luò)
softmax回歸、決策樹和聚類算法
KNN和SVM
生成對抗網(wǎng)絡(luò)和有向生成網(wǎng)絡(luò)
機(jī)器視覺和圖像識(shí)別
自然語言處理
語音識(shí)別和機(jī)器翻譯
有限馬爾科夫
動(dòng)態(tài)規(guī)劃
梯度策略算法
增強(qiáng)學(xué)習(xí)(Q-learning)
轉(zhuǎn)折點(diǎn)
2006年前,嘗試訓(xùn)練深度架構(gòu)都失敗了:訓(xùn)練一個(gè)深度有監(jiān)督前饋神經(jīng)網(wǎng)絡(luò)趨向于產(chǎn)生壞的結(jié)果(同時(shí)在訓(xùn)練和測試誤差中),然后將其變淺為1(1或者2個(gè)隱層)。
2006年的3篇論文改變了這種狀況,由Hinton的革命性的在深度信念網(wǎng)(Deep Belief Networks, DBNs)上的工作所引領(lǐng):
Hinton, G. E., Osindero, S. and Teh, Y.,A fast learning algorithm for deep belief nets.Neural Computation 18:1527-1554, 2006
Yoshua Bengio, Pascal Lamblin, Dan Popovici and Hugo Larochelle,Greedy LayerWise Training of Deep Networks, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems 19 (NIPS 2006), pp. 153-160, MIT Press, 2007
Marc’Aurelio Ranzato, Christopher Poultney, Sumit Chopra and Yann LeCun Efficient Learning of Sparse Representations with an Energy-Based Model, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems (NIPS 2006), MIT Press, 2007
在這三篇論文中以下主要原理被發(fā)現(xiàn):
表示的無監(jiān)督學(xué)習(xí)被用于(預(yù))訓(xùn)練每一層;
在一個(gè)時(shí)間里的一個(gè)層次的無監(jiān)督訓(xùn)練,接著之前訓(xùn)練的層次。在每一層學(xué)習(xí)到的表示作為下一層的輸入;
用有監(jiān)督訓(xùn)練來調(diào)整所有層(加上一個(gè)或者更多的用于產(chǎn)生預(yù)測的附加層);
DBNs在每一層中利用用于表示的無監(jiān)督學(xué)習(xí)RBMs。Bengio et al paper 探討和對比了RBMs和auto-encoders(通過一個(gè)表示的瓶頸內(nèi)在層預(yù)測輸入的神經(jīng)網(wǎng)絡(luò))。Ranzato et al paper在一個(gè)convolutional架構(gòu)的上下文中使用稀疏auto-encoders(類似于稀疏編碼)。Auto-encoders和convolutional架構(gòu)將在以后的課程中講解。
從2006年以來,大量的關(guān)于深度學(xué)習(xí)的論文被發(fā)表。

深度學(xué)習(xí)是計(jì)算機(jī)領(lǐng)域中目前非?;鸬?a href="http://www.nxhydt.com/v/tag/" target="_blank">話題,不僅在學(xué)術(shù)界有很多論文,在業(yè)界也有很多實(shí)際運(yùn)用。本篇博客主要介紹了三種基本的深度學(xué)習(xí)的架構(gòu),并對深度學(xué)習(xí)的原理作了簡單的描述。本篇文章翻譯自Medium上一篇入門介紹。

深度學(xué)習(xí)是計(jì)算機(jī)領(lǐng)域中目前非常火的話題,不僅在學(xué)術(shù)界有很多論文,在業(yè)界也有很多實(shí)際運(yùn)用。本篇博客主要介紹了三種基本的深度學(xué)習(xí)的架構(gòu),并對深度學(xué)習(xí)的原理作了簡單的描述。翻譯自:原文地址

簡介

機(jī)器學(xué)習(xí)技術(shù)在當(dāng)代社會(huì)已經(jīng)發(fā)揮了很大的作用:從網(wǎng)絡(luò)搜索到社交網(wǎng)絡(luò)中的內(nèi)容過濾到電子商務(wù)網(wǎng)站的個(gè)性化推薦,它正在快速的出現(xiàn)在用戶的消費(fèi)品中,如攝像機(jī)和智能手機(jī)。機(jī)器學(xué)習(xí)系統(tǒng)可以用來識(shí)別圖像中的物體,將語音轉(zhuǎn)變成文字,匹配用戶感興趣的新聞、消息和產(chǎn)品等,也可以選擇相關(guān)的搜索結(jié)果。這些應(yīng)用越來越多的使用一種叫做“深度學(xué)習(xí)(Deep Learning)”的技術(shù)。

深度學(xué)習(xí)(Deep Learning)(也稱為深度結(jié)構(gòu)學(xué)習(xí)【Deep Structured Learning】、層次學(xué)習(xí)【Hierarchical Learning】或者是深度機(jī)器學(xué)習(xí)【Deep Machine Learning】)是一類算法集合,是機(jī)器學(xué)習(xí)的一個(gè)分支。它嘗試為數(shù)據(jù)的高層次摘要進(jìn)行建模。以一個(gè)簡單的例子來說,假設(shè)你有兩組神經(jīng)元,一個(gè)是接受輸入的信號(hào),一個(gè)是發(fā)送輸出的信號(hào)。當(dāng)輸入層接收到輸入信號(hào)的時(shí)候,它將輸入層做一個(gè)簡單的修改并傳遞給下一層。在一個(gè)深度網(wǎng)絡(luò)中,輸入層與輸出層之間可以有很多的層(這些層并不是由神經(jīng)元組成的,但是它可以以神經(jīng)元的方式理解),允許算法使用多個(gè)處理層,并可以對這些層的結(jié)果進(jìn)行線性和非線性的轉(zhuǎn)換。

譯者補(bǔ)充:深度學(xué)習(xí)的思想與人工神經(jīng)網(wǎng)絡(luò)思想是一致的??偟膩碚f,神經(jīng)網(wǎng)絡(luò)是一種機(jī)器學(xué)習(xí)架構(gòu),所有的個(gè)體單元以權(quán)重的方式連接在一起,且這些權(quán)重是通過網(wǎng)絡(luò)來訓(xùn)練的,那么它就可以稱之為神經(jīng)網(wǎng)絡(luò)算法。人工神經(jīng)網(wǎng)絡(luò)算法的思想來源于模仿人類大腦思考的方式。人類大腦是通過神經(jīng)系統(tǒng)得到輸入信號(hào)再作出相應(yīng)反映的,而接受外部刺激的方式是用神經(jīng)元接受神經(jīng)末梢轉(zhuǎn)換的電信號(hào)。那么,我們希望通過人造神經(jīng)元的方式模擬大腦的思考,這就產(chǎn)生了人工神經(jīng)網(wǎng)絡(luò)了。人工神經(jīng)元組成了人工神經(jīng)網(wǎng)絡(luò)的計(jì)算單元,而人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)描述了這些神經(jīng)元的連接方式。我們可以采用層的方式組織神經(jīng)元,層與層之間可以互相連接。以前受制于很多因素,我們無法添加很多層,而現(xiàn)在隨著算法的更新、數(shù)據(jù)量的增加以及GPU的發(fā)展,我們可以用很多的層來開發(fā)神經(jīng)網(wǎng)絡(luò),這就產(chǎn)生了深度神經(jīng)網(wǎng)絡(luò)。而深度學(xué)習(xí)其實(shí)就是深度神經(jīng)網(wǎng)絡(luò)的一個(gè)代名詞。關(guān)于人工神經(jīng)網(wǎng)絡(luò)算法可以參考人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network)算法簡介。

近些年來,深度學(xué)習(xí)通過在某些任務(wù)中極佳的表現(xiàn)正在改革機(jī)器學(xué)習(xí)。深度學(xué)習(xí)方法在會(huì)話識(shí)別、圖像識(shí)別、對象偵測以及如藥物發(fā)現(xiàn)和基因組學(xué)等領(lǐng)域表現(xiàn)出了驚人的準(zhǔn)確性。但是,“深度學(xué)習(xí)”這個(gè)詞語很古老,它在1986年由Dechter在機(jī)器學(xué)習(xí)領(lǐng)域提出,然后在2000年有Aizenberg等人引入到人工神經(jīng)網(wǎng)絡(luò)中。而現(xiàn)在,由于Alex Krizhevsky在2012年使用卷積網(wǎng)絡(luò)結(jié)構(gòu)贏得了ImageNet比賽之后受到大家的矚目。

深度學(xué)習(xí)架構(gòu)

1、生成式深度架構(gòu)(Generative deep architectures),主要是用來描述具有高階相關(guān)性的可觀測數(shù)據(jù)或者是可見的對象的特征,主要用于模式分析或者是總和的目的,或者是描述這些數(shù)據(jù)與他們的類別之間的聯(lián)合分布。(其實(shí)就是類似與生成模型)

2、判別式深度架構(gòu)(Discriminative deep architectures),主要用于提供模式分類的判別能力,經(jīng)常用來描述在可見數(shù)據(jù)條件下物體的后驗(yàn)類別的概率。(類似于判別模型)

3、混合深度架構(gòu)(Hybrid deep architectures),目標(biāo)是分類,但是和生成結(jié)構(gòu)混合在一起了。比如以正在或者優(yōu)化的方式引入生成模型的結(jié)果,或者使用判別標(biāo)注來學(xué)習(xí)生成模型的參數(shù)。

盡管上述深度學(xué)習(xí)架構(gòu)的分類比較復(fù)雜,其實(shí)實(shí)際中對應(yīng)的模型的例子就是深度前饋網(wǎng)絡(luò),卷積網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)(Deep feed-forward networks, Convolution networks and Recurrent Networks)。

深度前饋網(wǎng)絡(luò)(Deep feed-forward networks)

深度前饋網(wǎng)絡(luò)也叫做前饋神經(jīng)網(wǎng)絡(luò),或者是多層感知機(jī)(Multilayer Perceptrons,MLPs),是深度學(xué)習(xí)模型中的精粹。

前饋網(wǎng)絡(luò)的目標(biāo)是近似某些函數(shù)。例如,對于一個(gè)分類器,y=f(x)y=f(x)來說,它將一個(gè)輸入值xx變成對應(yīng)的類別yy。前饋網(wǎng)絡(luò)就是定義一個(gè)映射y=f(x;θ)y=f(x;θ),并學(xué)習(xí)出參數(shù)θθ使得產(chǎn)生最好的函數(shù)近似。

簡而言之,神經(jīng)網(wǎng)絡(luò)可以定義成輸入層,隱含層和輸出層。其中,輸入層接受數(shù)據(jù),隱含層處理數(shù)據(jù),輸出層則輸出最終結(jié)果。這個(gè)信息流就是接受xx,通過處理函數(shù)ff,在達(dá)到輸出yy。這個(gè)模型并沒有任何的反饋連接,因此被稱為前饋網(wǎng)絡(luò)。模型如下圖所示:

卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Networks)

在機(jī)器學(xué)習(xí)中,卷積神經(jīng)網(wǎng)絡(luò)(簡稱CNN或者ConvNet)是一種前饋神經(jīng)網(wǎng)絡(luò),它的神經(jīng)元的連接是啟發(fā)于動(dòng)物視覺皮層。單個(gè)皮質(zhì)神經(jīng)元可以對某個(gè)有限空間區(qū)域的刺激作出反應(yīng)。這個(gè)有限空間可以稱為接受域。不同的神經(jīng)元的接受域可以重疊,從組成了所有的可見區(qū)域。那么,一個(gè)神經(jīng)元對某個(gè)接受域內(nèi)的刺激作出反應(yīng),在數(shù)學(xué)上可以使用卷積操作來近似。也就是說,卷積神經(jīng)網(wǎng)絡(luò)是受到生物處理的啟發(fā),設(shè)計(jì)使用最少的預(yù)處理的多層感知機(jī)的變體。

卷積神經(jīng)網(wǎng)絡(luò)在圖像和視頻識(shí)別、推薦系統(tǒng)以及自然語言處理中都有廣泛的運(yùn)用。

LeNet是早期推動(dòng)深度學(xué)習(xí)發(fā)展的卷積神經(jīng)網(wǎng)絡(luò)之一。這是Yann LeCun從1988年以來進(jìn)行的許多詞的成功迭代后得到的開創(chuàng)性工作,稱之為LeNet5。在當(dāng)時(shí),LeNet架構(gòu)主要用來進(jìn)行字符識(shí)別的工作,如讀取郵編,數(shù)字等。如下圖所示,卷積神經(jīng)網(wǎng)絡(luò)主要包含四塊:

卷積層(Convolutional Layer)

激活函數(shù)(Activation Function)

池化層(Pooling Layer)

全連接層(Fully Connected Layer)

卷積層(Convolutional Layer)

卷積層是基于單詞“卷積(Convolution)”而來,這是一種數(shù)學(xué)上的操作,它是對兩個(gè)變量f\*gf\*g進(jìn)行操作產(chǎn)生第三個(gè)變量。它和互相關(guān)(cross-correlation)很像。卷積層的輸入是一個(gè)m×m×rm×m×r圖像,其中m是圖像的高度和寬度,r是通道的數(shù)量,例如,一個(gè)RGB圖像的通道是3,即r=3r=3。卷積層有kk個(gè)濾波器【filters】(或者稱之為核【kernel】),其大小是n×n×qn×n×q,這里的nn是比圖像維度小的一個(gè)數(shù)值,qq既可以等于通道數(shù)量,也可以小于通道數(shù)量,具體根據(jù)不同的濾波器來定。濾波器的大小導(dǎo)致了

激活函數(shù)(Activation Function)

為了實(shí)現(xiàn)復(fù)雜的映射函數(shù),我們需要使用激活函數(shù)。它可以帶來非線性的結(jié)果,而非線性可以使得我們很好的擬合各種函數(shù)。同時(shí),激活函數(shù)對于壓縮來自神經(jīng)元的無界線性加權(quán)和也是重要的。

激活函數(shù)很重要,它可以避免我們把大的數(shù)值在高層次處理中進(jìn)行累加。激活函數(shù)有很多,常用的有sigmoid,tanh和ReLU。

池化層(Pooling Layer)

池化是一個(gè)基于樣本的離散化過程。其目的上降低輸入表示的采樣(這里的輸入可以是圖像,隱層的輸出等),減少它們的維度,并允許我們假設(shè)特征已經(jīng)被包含在了子區(qū)域中。

這部分的作用是通過提供一種抽象的形式表示來幫助過擬合表示。同樣的,它也通過減少了參數(shù)的數(shù)量降低了計(jì)算的復(fù)雜度并為內(nèi)部的表示提供一個(gè)基本的不變性的轉(zhuǎn)換。

目前最常用的池化技術(shù)有Max-Pooling、Min-Pooling和Average-Pooling。下圖是2*2濾波器的Ma-Pooling操作示意圖。

全連接層(Fully Connected Layer)

“全連接”的意思是指先前的層里面的所有的神經(jīng)元都與后一個(gè)層里面的所有的神經(jīng)元相連。全連接層是一種傳統(tǒng)的多層感知機(jī),在輸出層,它使用softmax激活函數(shù)或者其他激活函數(shù)。

遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks)

在傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)中,我們假設(shè)所有的輸入之間相互獨(dú)立。但是對于很多任務(wù)來說,這并不是一個(gè)好的主意。如果你想知道一個(gè)句子中下一個(gè)單詞是什么,你最好知道之前的單詞是什么。RNN之所以叫RNN就是它對一個(gè)序列中所有的元素都執(zhí)行相同的任務(wù),所有的輸出都依賴于先前的計(jì)算。另一種思考RNN的方式是它會(huì)記住所有之前的計(jì)算的信息。

一個(gè)RNN里面有很多循環(huán),它可以攜帶從輸入中帶來的信息。如下圖所示,x_tx_t是一種輸入,A是RNN里面的一部分,h_th_t是輸出。本質(zhì)上,您可以從句子中輸入文字,甚至還可以從字符串中輸入x_tx_t格式的字符,通過RNN可以提供一個(gè)h_th_t。 RNN的一些類型是LSTM,雙向RNN,GRU等。

由于任何輸入和輸出都可以在RNN中變成一對一或者多對多的形式,RNN可以用在自然語言處理、機(jī)器翻譯、語言模型、圖像識(shí)別、視頻分析、圖像生成、驗(yàn)證碼識(shí)別等領(lǐng)域。下圖展示了RNN可能的結(jié)構(gòu)以及對模型的解釋。

應(yīng)用

深度學(xué)習(xí)有很多應(yīng)用,很多特別的問題也可以通過深度學(xué)習(xí)解決。一些深度學(xué)習(xí)的應(yīng)用舉例如下:

黑白圖像的著色

深度學(xué)習(xí)可以用來根據(jù)對象及其情景來為圖片上色,而且結(jié)果很像人類的著色結(jié)果。這中解決方案使用了很大的卷積神經(jīng)網(wǎng)絡(luò)和有監(jiān)督的層來重新創(chuàng)造顏色。

機(jī)器翻譯

深度學(xué)習(xí)可以對未經(jīng)處理的語言序列進(jìn)行翻譯,它使得算法可以學(xué)習(xí)單詞之間的依賴關(guān)系,并將其映射到一種新的語言中。大規(guī)模的LSTM的RNN網(wǎng)絡(luò)可以用來做這種處理。

圖像中的對象分類與檢測

這種任務(wù)需要將圖像分成之前我們所知道的某一種類別中。目前這類任務(wù)最好的結(jié)果是使用超大規(guī)模的卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的。突破性的進(jìn)展是Alex Krizhevsky等人在ImageNet比賽中使用的AlexNet模型。

自動(dòng)產(chǎn)生手寫體

這種任務(wù)是先給定一些手寫的文字,然后嘗試生成新的類似的手寫的結(jié)果。首先是人用筆在紙上手寫一些文字,然后根據(jù)寫字的筆跡作為語料來訓(xùn)練模型,并最終學(xué)習(xí)產(chǎn)生新的內(nèi)容。

自動(dòng)玩游戲

這項(xiàng)任務(wù)是根據(jù)電腦屏幕的圖像,來決定如何玩游戲。這種很難的任務(wù)是深度強(qiáng)化模型的研究領(lǐng)域,主要的突破是DeepMind團(tuán)隊(duì)的成果。

聊天機(jī)器人

一種基于sequence to sequence的模型來創(chuàng)造一個(gè)聊天機(jī)器人,用以回答某些問題。它是根據(jù)大量的實(shí)際的會(huì)話數(shù)據(jù)集產(chǎn)生的。想了解詳情,可以參考:https://medium.com/shridhar743/generative-model-chatbots-e422ab08461e

結(jié)論

從本篇博客來看,由于模仿了人類大腦,深度學(xué)習(xí)可以運(yùn)用在很多領(lǐng)域中。目前有很多領(lǐng)域都在研究使用深度學(xué)習(xí)解決問題。盡管目前信任是個(gè)問題,但是它終將被解決。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評論

    相關(guān)推薦

    深度學(xué)習(xí)的硬件架構(gòu)解析

    深度學(xué)習(xí)在這十年,甚至是未來幾十年內(nèi)都有可能是最熱門的話題。雖然深度學(xué)習(xí)已是廣為人知了,但它并不僅僅包含數(shù)學(xué)、建模、學(xué)習(xí)和優(yōu)化。算法必須在優(yōu)
    發(fā)表于 11-18 16:00 ?5725次閱讀

    超越英偉達(dá)Pascal五倍?揭秘英特爾深度學(xué)習(xí)芯片架構(gòu) 精選資料推薦

    在被英特爾收購兩年之后,深度學(xué)習(xí)芯片公司 Nervana 終于準(zhǔn)備將代號(hào)為「Lake Crest」的架構(gòu)轉(zhuǎn)化為實(shí)際的產(chǎn)品了。對于英特爾來說,現(xiàn)在入局或許有些遲到,英偉達(dá)已經(jīng)占據(jù)深度
    發(fā)表于 07-26 07:04

    AUTOSAR架構(gòu)深度解析 精選資料推薦

    AUTOSAR架構(gòu)深度解析本文轉(zhuǎn)載于:AUTOSAR架構(gòu)深度解析目錄AUTOSAR架構(gòu)深度解析A
    發(fā)表于 07-28 07:40

    如何在交通領(lǐng)域構(gòu)建基于圖的深度學(xué)習(xí)架構(gòu)

    學(xué)習(xí)架構(gòu)因?yàn)檫@篇文獻(xiàn)對于交通領(lǐng)域中的各種問題、方法做了一個(gè)比較清楚的綜述,所以是一篇很有價(jià)值的文獻(xiàn),很適合剛進(jìn)入這個(gè)方向的同學(xué)。
    發(fā)表于 08-31 08:05

    討論紋理分析在圖像分類中的重要性及其深度學(xué)習(xí)中使用紋理分析

    紋理就能被更準(zhǔn)確地捕捉和分類。  在基于紋理的分類任務(wù)重,紋理分析對于深度學(xué)習(xí)的重要性  由于紋理基于局部模式,而傳統(tǒng)的深度學(xué)習(xí)方法強(qiáng)調(diào)復(fù)雜的特征,對紋理分類沒有幫助,因此,傳統(tǒng)的CN
    發(fā)表于 10-26 16:57

    什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?

    什么是深度學(xué)習(xí)為了解釋深度學(xué)習(xí),有必要了解神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦的神經(jīng)元和神經(jīng)網(wǎng)絡(luò)的計(jì)算模型。作為具體示例,讓我們考慮一個(gè)輸入圖像并識(shí)別圖像中對象類別的示例。這個(gè)例子對應(yīng)機(jī)器
    發(fā)表于 02-17 16:56

    新芯片架構(gòu)瞄準(zhǔn)深度學(xué)習(xí)和視覺處理

    深度學(xué)習(xí)本質(zhì)上是以一組算法為基礎(chǔ),透過具有多個(gè)處理層、由線性與非線性交易組成的深度繪圖,嘗試在數(shù)據(jù)中建模高層級抽象。ThinCI架構(gòu)的獨(dú)特之處似乎就在于其處理
    發(fā)表于 11-03 15:17 ?1870次閱讀
    新芯片<b class='flag-5'>架構(gòu)</b>瞄準(zhǔn)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>和視覺處理

    介紹了計(jì)算機(jī)視覺領(lǐng)域內(nèi)比較成功的10個(gè)深度學(xué)習(xí)架構(gòu)

    近年來,深度學(xué)習(xí)的發(fā)展勢頭迅猛,要跟上深度學(xué)習(xí)的進(jìn)步速度變得越來越困難了。幾乎每一天都有關(guān)于深度學(xué)習(xí)
    的頭像 發(fā)表于 01-11 10:49 ?9236次閱讀

    MIT深度學(xué)習(xí)基礎(chǔ)知識(shí) 編碼器-解碼器架構(gòu)分析

    本文以 7 種架構(gòu)范例簡要介紹深度學(xué)習(xí),每種范例均提供 TensorFlow 教程鏈接。
    的頭像 發(fā)表于 02-21 15:53 ?1.1w次閱讀
    MIT<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>基礎(chǔ)知識(shí) 編碼器-解碼器<b class='flag-5'>架構(gòu)</b>分析

    基于深度學(xué)習(xí)的行為識(shí)別算法及其應(yīng)用

    基于深度學(xué)習(xí)的行為識(shí)別算法及其應(yīng)用
    發(fā)表于 06-16 14:56 ?20次下載

    什么是深度學(xué)習(xí)(Deep Learning)?深度學(xué)習(xí)的工作原理詳解

    學(xué)習(xí)中的“深度”一詞表示用于識(shí)別數(shù)據(jù)模式的多層算法或神經(jīng)網(wǎng)絡(luò)。DL 高度靈活的架構(gòu)可以直接從原始數(shù)據(jù)中學(xué)習(xí),這類似于人腦的運(yùn)作方式,獲得更多數(shù)據(jù)后,其預(yù)測準(zhǔn)確度也將隨之提升。? ? 此
    的頭像 發(fā)表于 04-01 10:34 ?1w次閱讀

    深度學(xué)習(xí)中的圖像分割

    深度學(xué)習(xí)可以學(xué)習(xí)視覺輸入的模式,以預(yù)測組成圖像的對象類。用于圖像處理的主要深度學(xué)習(xí)架構(gòu)是卷積神經(jīng)
    的頭像 發(fā)表于 05-05 11:35 ?1224次閱讀

    什么是深度學(xué)習(xí)算法?深度學(xué)習(xí)算法的應(yīng)用

    什么是深度學(xué)習(xí)算法?深度學(xué)習(xí)算法的應(yīng)用 深度學(xué)習(xí)算法被認(rèn)為是人工智能的核心,它是一種模仿人類大腦
    的頭像 發(fā)表于 08-17 16:03 ?2103次閱讀

    深度學(xué)習(xí)框架連接技術(shù)

    ,深度學(xué)習(xí)框架能夠很好的為應(yīng)用程序提供預(yù)測、檢測等功能。因此本文旨在介紹深度學(xué)習(xí)框架連接技術(shù)的基本原理及其應(yīng)用。 基本原理
    的頭像 發(fā)表于 08-17 16:11 ?754次閱讀

    深度學(xué)習(xí)框架和深度學(xué)習(xí)算法教程

    深度學(xué)習(xí)框架和深度學(xué)習(xí)算法教程 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)
    的頭像 發(fā)表于 08-17 16:11 ?1043次閱讀