1、本章先是介紹了一些神經(jīng)網(wǎng)絡(luò)的基礎(chǔ),神經(jīng)元模型、感知機和多層感知機及正向傳導和誤差反向傳播機制。 神經(jīng)元模型主要介紹了M-P神經(jīng)元模型。通過對神經(jīng)元各輸入值和權(quán)重值相乘后的累加值與神經(jīng)元閾值進行比較,可以得到神經(jīng)元的輸出值。主要使用的是sing函數(shù)。由于sign會使得神經(jīng)元的輸出具有不連續(xù)性,為了使神經(jīng)元模型能夠更好地處理非線性問題,并使得其輸出光滑連續(xù),一些學者將sing函數(shù)替換成了sigmoid、ReLU函數(shù)、反正切函數(shù)等非線性函數(shù)。 感知機是基于M-P模型提出搭建的,感知機由兩層組成-輸入層和輸出層。感知機中的層概念便于搭建復雜的網(wǎng)絡(luò)結(jié)構(gòu)。由此提出了多層感知機,包含輸入層、隱藏層和輸出層。多層感知機的隱藏層中,同一層的神經(jīng)元節(jié)點共享同一個激活函數(shù)和偏置,并且在處理二分類問題時,神經(jīng)網(wǎng)絡(luò)的輸出層通常使用sigmoid函數(shù)作為激活函數(shù);而在處理多分類問題時,神經(jīng)網(wǎng)絡(luò)的輸出層通常使用softmax函數(shù)作為激活函數(shù)。 通常將使用誤差反向傳播機制的前饋神經(jīng)網(wǎng)絡(luò)稱為BP神經(jīng)網(wǎng)絡(luò)。是一種全連接網(wǎng)絡(luò),在處理高維、非線性問題時,BP神經(jīng)網(wǎng)絡(luò)所需的層數(shù)較多,這就使得模型參數(shù)量較大,訓練困難且模型精度難以提升。在處理圖像問題時,通常需要將二維張量或三維張量表示的圖片拉伸成一維向量,送入全連接網(wǎng)絡(luò)。這種處理方式忽略了圖像的局部不變性,破壞了像素間的聯(lián)系。這些缺陷極大限制了其應用和推廣。 2、之后介紹了卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)。 為了模擬大腦神經(jīng)元的感覺野機制,并且降低模型的參數(shù)量,將圖像領(lǐng)域的濾波操作引入神經(jīng)網(wǎng)絡(luò)。該濾波器又稱為卷積核。這種將卷積操作和神經(jīng)網(wǎng)絡(luò)相結(jié)合的方式模擬了大腦視覺中的感覺野機制,同時也可以大大降低模型的參數(shù)量,這正是卷積神經(jīng)網(wǎng)絡(luò)名稱的由來。原理包含局部連接、權(quán)值共享和局部不變性。 其結(jié)構(gòu)通常由輸入層、卷積層、池化層、全連接層和輸出層組成。 卷積層主要使用卷積操作對輸入數(shù)據(jù)進行線性權(quán)重求和,為了提升神經(jīng)網(wǎng)絡(luò)的非線性,還需要在執(zhí)行卷積操作后引入sigmoid函數(shù)或ReLU函數(shù)等激活函數(shù)以進行非線性化。一個卷積核只能抽取圖片的一種特征,因此我們在CNN中需要引入多個卷積核,以得到多通道的特征圖,進而抽取原始圖片中的輪廓,色彩,紋理等不同類型的特征。 池化層的作用是對卷積層獲取的特征圖進行降采樣,進一步縮減特征圖的尺寸。該過程不需要引入額外的權(quán)值參數(shù),通常是通過對一定范圍內(nèi)的像素值取最大值,平均值等來達到最大池化,平均池化的目的。池化操作在一定程度上可以使神經(jīng)網(wǎng)絡(luò)對輸入數(shù)據(jù)的位置變化具有更強的魯棒性。 全連接層用于將卷積、池化后得到的矩陣特征圖映射到樣本的標空間中,實現(xiàn)最終的邏輯判斷 另外最近部門招聘,要求如下: |
歡迎光臨 電子工程網(wǎng) (http://m.qingdxww.cn/) | Powered by Discuz! X3.4 |