新聞中心

        EEPW首頁 > 消費電子 > 設計應用 > CNN各種網絡概述-從LeNet到AlexNet

        CNN各種網絡概述-從LeNet到AlexNet

        作者: 時間:2018-07-24 來源:網絡 收藏

        演化脈絡

        本文引用地址:http://www.104case.com/article/201807/383659.htm

        下圖所示CNN結構演化的歷史,起點是神經認知機模型,已經出現了卷積結構,但是第一個CNN模型誕生于1989年,1998年誕生了LeNet。隨著ReLU和dropout的提出,以及GPU和大數據帶來的歷史機遇,CNN在12年迎來了歷史突破。12年之后,CNN的演化路徑可以總結為四條:1)更深的網絡,2)增強卷積模的功能以及上訴兩種思路的融合,3)從分類到檢測,4)增加新的功能模塊。

        開始-LeNet

        1998年,LeCun提出LeNet,并成功應用于美國手寫數字識別。但很快,CNN的鋒芒被SVM和手工設計的局部特征蓋過。

        轉折點-AlexNet

        AlexNet 之所以能夠成功,深度學習之所以能夠重回歷史舞臺,原因在于:

        非線性激活函數:ReLU

        防止過擬合的方法:Dropout,Data augmentation

        大數據訓練:百萬級ImageNet圖像數據

        其他:GPU實現,LRN歸一化層的使用

        第一條演化路徑:網絡變深

        VGGNet 可以看成是加深版本的 AlexNet,參見 Karen Simonyan 和 Andrew Zisserman 的論文《Very Deep Convolutional Networks for Large-Scale Visual Recognition》。

        VGGNet 和下文中要提到的 GoogLeNet 是2014年 ImageNet 競賽的第二名和第一名,Top-5錯誤率分別為7.32%和6.66%。VGGNet 也是5個卷積組、2層全連接圖像特征、1層全連接分類特征,可以看作和 AlexNet 一樣總共8個部分。

        第二條演化路徑:增強卷積模塊

        首先要說起 NIN(Network in Network)的思想(詳見 Min Lin 和 Qiang Chen 和 Shuicheng Yan 的論文《Network In Network》),它對傳統的卷積方法做了兩點改進:將原來的線性卷積層(linear convolution layer)變為多層感知卷積層(multilayer perceptron);將全連接層的改進為全局平均池化。

        MIN使得卷積神經網絡向另一個演化分支—增強卷積模塊的功能的方向演化,2014年誕生了 GoogLeNet(即 Inception V1)。谷歌公司提出的 GoogLeNet 是2014年 ILSVRC 挑戰賽的冠軍,它將 Top-5的錯誤率降低到了6.67%。GoogLeNet 的更多內容詳見 Christian Szegedy 和 Wei Liu 等人的論文《Going Deeper with Convolutions》。

        ResNet依然是:沒有最深,只有更深(152層)。聽說目前層數已突破一千。ResNet主要的創新在殘差網絡,這也是現在火熱的AlphaGo Zero主要技術之一。如圖11所示,其實這個網絡的提出本質上還是要解決層次比較深的時候無法訓練的問題。這種借鑒了Highway Network思想的網絡相當于旁邊專門開個通道使得輸入可以直達輸出,而優化的目標由原來的擬合輸出H(x)變成輸出和輸入的差H(x)-x,其中H(X)是某一層原始的的期望映射輸出,x是輸入。



        關鍵詞:

        評論


        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 高雄县| 静宁县| 平潭县| 宣威市| 太白县| 西丰县| 巫山县| 托里县| 长海县| 郎溪县| 遂川县| 田林县| 湘潭市| 临湘市| 天门市| 诸城市| 垣曲县| 宣城市| 盖州市| 杭锦后旗| 怀柔区| 贡嘎县| 珠海市| 白城市| 读书| 图木舒克市| 南召县| 河曲县| 盐亭县| 宣化县| 郧西县| 房产| 静安区| 仪陇县| 河西区| 阿尔山市| 施秉县| 天峻县| 石柱| 临猗县| 襄垣县|