CNN組成:
1. Convolutional layer(卷積層--CONV)
作用:主要就是通過一個個的filter,不斷地提取特征,從局部的特征到總體的特征,從而進行圖像識別等等功能。
2. Pooling layer (池化層--POOL)
作用:是為了提取一定區域的主要特征,并減少參數數量,防止模型過擬合。擴大感受野。減少冗余,做窗口滑動卷積的時候,卷積值就代表了整個窗口的特征。因為滑動的窗口間有大量重疊區域,出來的卷積值有冗余,進行最大pooling或者平均pooling就是減少冗余。減少冗余的同時,pooling也丟掉了局部位置信息,所以局部有微小形變,結果也是一樣的。
3. Fully Connected layer(全連接層--FC)
卷積取的是局部特征,全連接就是把以前的局部特征重新通過權值矩陣組裝成完整的圖,用到了所有的局部特征
相比傳統神經網絡(NN)的優點:
因為,對于不同的區域,我們都共享同一個filter,因此就共享這同一組參數。這也是有道理的,通過前面的講解我們知道,filter是用來檢測特征的,那一個特征一般情況下很可能在不止一個地方出現,比如“豎直邊界”,就可能在一幅圖中多出出現,那么 我們共享同一個filter不僅是合理的,而且是應該這么做的。
由此可見,參數共享機制,讓我們的網絡的參數數量大大地減少。這樣,我們可以用較少的參數,訓練出更加好的模型,典型的事半功倍,而且可以有效地 避免過擬合。同樣,由于filter的參數共享,即使圖片進行了一定的平移操作,我們照樣可以識別出特征,這叫做 “平移不變性”。因此,模型就更加穩健了。
2. 連接的稀疏性(sparsity of connections)
由卷積的操作可知,輸出圖像中的任何一個單元,只跟輸入圖像的一部分有關系。而傳統神經網絡中,由于都是全連接,所以輸出的任何一個單元,都要受輸入的所有的單元的影響。這樣無形中會對圖像的識別效果大打折扣。比較,每一個區域都有自己的專屬特征,我們不希望它受到其他區域的影響。
正是由于上面這兩大優勢,使得CNN超越了傳統的NN,開啟了神經網絡的新時代。
-
圖像識別
+關注
關注
9文章
519瀏覽量
38240 -
cnn
+關注
關注
3文章
351瀏覽量
22178
發布評論請先 登錄
相關推薦
評論