精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

神經網絡瘦身:關于SqueezeNet的創新點、網絡結構

MqC7_CAAI_1981 ? 來源:未知 ? 作者:李倩 ? 2018-03-13 16:41 ? 次閱讀

今年二月份,UC Berkeley和Stanford一幫人在arXiv貼了一篇文章:

SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and<0.5MB model size(https://arxiv.org/abs/1602.07360)

這篇文章做成了許多人夢寐以求的事——壓縮神經網絡參數。但和以往不同,原作不是在前人網絡基礎上修修補補(例如Deep Compression),而是自己設計了一個全新的網絡,它用了比AlexNet少50倍的參數,達到了AlexNet相同的精度!

關于SqueezeNet的創新點、網絡結構,國內已經有若干愛好者發布了相關的簡介,如這篇(http://blog.csdn.net/xbinworld/article/details/50897870)、這篇(http://blog.csdn.net/shenxiaolu1984/article/details/51444525),國外的文獻沒有查,相信肯定也有很多。

本文關注的重點在SqueezeNet為什么能實現網絡瘦身?難道網絡參數的冗余性就那么強嗎?或者說很多參數都是浪費的、無意義的?

為了更好的解釋以上問題,先給出AlexNet和SqueezeNet結構圖示:

AlexNet

圖1 AlexNet示意圖

圖2 AlexNet網絡結構

SqueezeNet

圖3 SqueezeNet示意圖

圖4 SqueezeNet網絡結構

為什么SqueezeNet能夠以更少的參數實現AlexNet相同的精度?

下面的表格直觀的展示了SqueezeNet的參數量,僅為AlexNet的1/48。

網絡 參數量
AlexNet 60M
SqueezeNet 1.25M

乍一看,感覺非常不科學,怎么可能相差如此懸殊的參數量實現了相同的識別精度?

我們先考慮一個非常簡單的例子,這個例子可以說是SqueezeNet和AlexNet的縮影:

1、一層卷積,卷積核大小為5×5

2、兩層卷積,卷積核大小為3×3

以上兩種卷積方式除了卷積核大小不同,其它變量均相同,為了方便后文計算,定義輸入通道數1,輸出通道數為C(兩層卷積為C'),輸出尺寸N×N。

按照目前的理論,神經網絡應該盡可能的采用多層小卷積,以減少參數量,增加網絡的非線性。但隨著參數的減少,計算量卻增加了!根據上面的例子,大致算一下,為了簡便,只考慮乘法的計算量:

5×5一層卷積計算量是25×C×N×N

3×3兩層卷積的計算量是9×C×(1+C')×N×N

很明顯25C<9C(1+C')。

這說明了什么?說明了“多層小卷積核”的確增大了計算量!

我們再回過頭考慮SqueezeNet和AlexNet,兩個網絡的架構如上面4幅圖所示,可以看出SqueezeNet比AlexNet深不少,SqueezeNet的卷積核也更小一些,這就導致了SqueezeNet計算量遠遠高于AlexNet(有待商榷,需要進一步確認,由于Fire module中的squeeze layer從某種程度上減少了計算量,SqueezeNet的計算量可能并不大)。

可是論文原文過度關注參數個數,忽略計算量,這樣的對比方式貌似不太妥當。事實上,目前最新的深層神經網絡都是通過增加計算量換來更少的參數,可是為什么這樣做效果會很好?

因為內存讀取耗時要遠大于計算耗時!

如此一來,問題就簡單了,不考慮網絡本身架構的優劣性,深層網絡之所以如此成功,就是因為把參數讀取的代價轉移到計算量上了,考慮的目前人類計算機的發展水平,計算耗時還是要遠遠小于數據存取耗時的,這也是“多層小卷積核”策略成功的根源。

關于Dense-Sparse-Dense(DSD)訓練法

不得不說一下原作的這個小發現,使用裁剪之后的模型為初始值,再次進行訓練調優所有參數,正確率能夠提升4.3%。 稀疏相當于一種正則化,有機會把解從局部極小中解放出來。這種方法稱為DSD (Dense→Sparse→Dense)。

這個和我們人類學習知識的過程是多么相似!人類每隔一段時間重新溫習一下學過的知識,會增加對所學知識的印象。我們可以把“隔一段時間”理解為“裁剪”,即忘卻那些不怎么重要的參數,“再學習”理解為從新訓練,即強化之前的參數,使其識別精度更高!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4765

    瀏覽量

    100561

原文標題:神經網絡瘦身:SqueezeNet

文章出處:【微信號:CAAI-1981,微信公眾號:中國人工智能學會】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【案例分享】ART神經網絡與SOM神經網絡

    的拓撲結構,即將高位空間中相似的樣本映射到網絡輸出層中的鄰近神經元。SOM神經網絡中的輸出層神經
    發表于 07-21 04:30

    神經網絡結構搜索有什么優勢?

    近年來,深度學習的繁榮,尤其是神經網絡的發展,顛覆了傳統機器學習特征工程的時代,將人工智能的浪潮推到了歷史最高點。然而,盡管各種神經網絡模型層出不窮,但往往模型性能越高,對超參數的要求也越來越嚴格
    發表于 09-11 11:52

    卷積神經網絡(CNN)是如何定義的?

    什么是卷積神經網絡?ImageNet-2010網絡結構是如何構成的?有哪些基本參數?
    發表于 06-17 11:48

    卷積神經網絡模型發展及應用

    神經網絡已經廣泛應用于圖像分類、目標檢測、語義分割以及自然語言處理等領域。首先分析了典型卷積神經網絡模型為提高其性能增加網絡深度以及寬度的模型結構,分析了采用注意力機制進一步提升模型性
    發表于 08-02 10:39

    神經網絡分類

    神經網絡分類 特征提取和選擇完成后,再利用分類器進行圖像目標分類,本文采用神經網絡中的BP網絡進行分類。在設計神經網絡結構時,
    發表于 03-01 17:55 ?1668次閱讀
    <b class='flag-5'>神經網絡</b>分類

    基于自適應果蠅算法的神經網絡結構訓練

    基于自適應果蠅算法的神經網絡結構訓練_霍慧慧
    發表于 01-03 17:41 ?0次下載

    基于神經網絡結構在命名實體識別中應用的分析與總結

    近年來,基于神經網絡的深度學習方法在自然語言處理領域已經取得了不少進展。作為NLP領域的基礎任務—命名實體識別(Named Entity Recognition,NER)也不例外,神經網絡結構
    的頭像 發表于 01-18 09:24 ?4627次閱讀
    基于<b class='flag-5'>神經網絡結構</b>在命名實體識別中應用的分析與總結

    一種新型神經網絡結構:膠囊網絡

    膠囊網絡是 Geoffrey Hinton 提出的一種新型神經網絡結構,為了解決卷積神經網絡(ConvNets)的一些缺點,提出了膠囊網絡。
    的頭像 發表于 02-02 09:25 ?5830次閱讀

    一種改進的深度神經網絡結構搜索方法

    為提升網絡結構的尋優能力,提岀一種改進的深度神經網絡結構搜索方法。針對網絡結構間距難以度量的問題,結合神經網絡結構搜索方案,設計基于圖的深
    發表于 03-16 14:05 ?3次下載
    一種改進的深度<b class='flag-5'>神經網絡結構</b>搜索方法

    幾種典型神經網絡結構的比較與分析

    幾種典型神經網絡結構的比較與分析說明。
    發表于 04-28 10:11 ?3次下載

    卷積神經網絡結構

    卷積神經網絡結構 卷積神經網絡(Convolutional Neural Network, CNN)是一種前饋神經網絡,常用于圖像處理、自然語言處理等領域中。它是一種深度學習(Deep
    的頭像 發表于 08-17 16:30 ?1197次閱讀

    卷積神經網絡與循環神經網絡的區別

    網絡結構,分別適用于不同的應用場景。本文將從基本概念、結構組成、工作原理及應用領域等方面對這兩種神經網絡進行深入解讀。
    的頭像 發表于 07-03 16:12 ?2775次閱讀

    深度神經網絡與基本神經網絡的區別

    在探討深度神經網絡(Deep Neural Networks, DNNs)與基本神經網絡(通常指傳統神經網絡或前向神經網絡)的區別時,我們需要從多個維度進行深入分析。這些維度包括
    的頭像 發表于 07-04 13:20 ?694次閱讀

    循環神經網絡和卷積神經網絡的區別

    循環神經網絡(Recurrent Neural Network,RNN)和卷積神經網絡(Convolutional Neural Network,CNN)是深度學習領域中兩種非常重要的神經網絡結構
    的頭像 發表于 07-04 14:24 ?1144次閱讀

    遞歸神經網絡結構形式主要分為

    結構形式。 Elman網絡 Elman網絡是一種基本的遞歸神經網絡結構,由Elman于1990年提出。其結構主要包括輸入層、隱藏層和輸出層,
    的頭像 發表于 07-05 09:32 ?475次閱讀