這個博客是定製的幫助您理解不同類型的常用神經網絡,它們是如何工作的,以及它們的行業應用。博客以簡短的介紹開始的工作神經網絡.我們盡量使它簡單而有效。
神經網絡模型的類型如下:
神經網絡的九種類型是:
- 感知器
- 前饋神經網絡
- 多層感知器
- 卷積神經網絡
- 徑向基函數神經網絡
- 遞歸神經網絡
- 長期短期記憶
- 序列到序列模型
- 模塊化神經網絡
人工神經網絡導論
神經網絡表示深度學習使用人工智能.某些應用場景過於繁重或超出了傳統機器學習算法的處理範圍。正如大家所知,神經網絡在這些場景中發揮了作用,填補了空白。還有,報名參加神經網絡和深度學習今天就開始訓練和提高你的技能。
人工神經網絡的靈感來自於人體內的生物神經元,這些神經元在特定環境下被激活,從而導致身體做出相應的反應。人工神經網絡由不同層次的相互連接的人工神經元組成,這些神經元由激活函數提供動力,幫助它們開關。喜歡傳統的機算法,這裏也有神經網絡在訓練階段學習到的某些值。
簡單地說,每個神經元接收輸入和隨機權重的相乘版本,然後添加一個靜態偏置值(每個神經元層都是唯一的);然後將其傳遞給一個適當的激活函數,該激活函數決定神經元給出的最終值。根據輸入值的性質,有各種激活函數可用。一旦從最後的神經網絡層生成輸出,就計算損失函數(輸入vs輸出),並執行反向傳播,其中調整權重以使損失最小。找到最優的權重值是整個操作的重點周圍。為了更好的理解,請參考以下-
權重是與輸入相乘的數值。在反向傳播中,它們被修改以減少損耗。簡單地說,權重是從神經網絡中機器學習的值。它們根據預測輸出與訓練輸入之間的差異進行自我調整。
激活函數是一個幫助神經元開關的數學公式。
- 輸入層表示輸入向量的維度。
- 隱藏層表示將輸入空間劃分為具有(軟)邊界的區域的中間節點。它接受一組加權輸入,並通過激活函數產生輸出。
- 輸出層表示神經網絡的輸出。
神經網絡的類型
現有的神經網絡有很多種,也有可能處於開發階段。它們可以根據它們的結構、數據流、使用的神經元及其密度、層及其深度激活過濾器等進行分類。此外,了解R中的神經網絡增進你的學習。
我們將討論以下神經網絡:
答:感知器
由Minsky-Papert提出的感知器模型是神經元最簡單、最古老的模型之一。它是神經網絡中最小的單元,在輸入數據中進行一定的計算以檢測特征或商業智能。它接受加權輸入,並應用激活函數得到輸出作為最終結果。感知機也被稱為TLU(閾值邏輯單元)
感知器是一種監督學習算法,它將數據分為兩類,因此它是一個二進製分類器。感知機通過一個超平麵將輸入空間分為兩類,該超平麵由下式表示:
感知器的優點
感知機可以實現像AND, OR或NAND這樣的邏輯門。
感知器的缺點
感知機隻能學習線性可分問題,如布爾與問題。對於非線性問題,如布爾異或問題,它不起作用。
B.前饋神經網絡
前饋神經網絡的應用:
- 簡單分類(傳統的基於機器學習的分類算法有局限性)
- 人臉識別【簡單直接的圖像處理】
- 計算機視覺[目標類難以分類]
- 語音識別
最簡單的神經網絡形式,輸入數據隻沿一個方向移動,通過人工神經節點,然後通過輸出節點。在隱藏層可能存在也可能不存在的地方,輸入和輸出層會出現在那裏。在此基礎上,可將其進一步分為單層前饋和多層前饋神經網絡。
層數取決於函數的複雜性。它有單向的正向傳播而沒有反向傳播。這裏的權重是靜態的。激活函數的輸入乘以權重。為此,采用分級激活函數或步進激活函數。例如:如果它超過閾值(通常是0),神經元被激活,神經元產生1作為輸出。如果它低於閾值(通常為0),即被認為是-1,則神經元不會被激活。它們維護起來相當簡單,並配有處理包含大量噪聲的數據的設備。
前饋神經網絡的優點
- 操作簡單,易於設計和維護
- 快速和快速[單向傳播]
- 對噪聲數據有很高的響應能力
前饋神經網絡的缺點:
- 無法用於深度學習[由於缺乏密集層和反向傳播]
c .多層感知器
多層感知器的應用
- 語音識別
- 機器翻譯
- 複雜的分類
一個進入複雜神經網絡的入口點,在這裏輸入的數據通過不同的人工神經元層傳輸。每一個節點都連接到下一層的所有神經元,這使它成為一個完全連接的神經網絡。輸入和輸出層具有多個隱藏層,即總共至少三個或更多層。它具有雙向傳播,即正向傳播和反向傳播。
輸入與權重相乘,然後輸入激活函數,在反向傳播中,它們經過修改以減少損失。簡單地說,權重是從神經網絡中機器學習的值。它們根據預測輸出與訓練輸入之間的差異進行自我調整。采用非線性激活函數,然後采用softmax作為輸出層激活函數。
多層感知器的優點
- 用於深度學習[由於存在密集的完全連接層和反向傳播]
多層感知器的缺點:
- 設計和維護相對複雜
相對較慢(取決於隱藏層的數量)
D.卷積神經網絡
卷積神經網絡的應用
- 圖像處理
- 計算機視覺
- 語音識別
- 機器翻譯
卷積神經網絡包含神經元的三維排列,而不是標準的二維陣列。第一層叫做卷積層。卷積層中的每個神經元隻處理來自視野的一小部分信息。輸入特征像過濾器一樣分批獲取。網絡可以理解部分圖像,並可以多次計算這些操作,以完成完整的圖像處理。處理包括將圖像從RGB或HSI尺度轉換為灰度。進一步的像素值的變化將有助於檢測邊緣和圖像可以分為不同的類別。
傳播是單向的,CNN包含一個或多個卷積層,然後池化;雙向的,卷積層的輸出進入一個完全連接的神經網絡,對圖像進行分類,如上圖所示。過濾器用於提取圖像的某些部分。在MLP中,輸入與權值相乘,然後輸入激活函數。卷積使用RELU, MLP使用非線性激活函數,其次是softmax。卷積神經網絡在圖像和視頻識別、語義解析和釋義檢測等方麵都有很好的效果。
快速檢查,深度學習課程
卷積神經網絡的優點:
- 用於參數較少的深度學習
- 與全連接層相比,需要學習的參數更少
卷積神經網絡的缺點:
- 設計和維護相對複雜
- 相對較慢[取決於隱藏層的數量]
E.徑向基函數神經網絡
徑向基函數網絡由一個輸入向量後麵跟著一層RBF神經元和一個輸出層組成,每個類別有一個節點。分類是通過測量輸入與訓練集數據點的相似度來進行的,每個神經元在訓練集中存儲一個原型。這是訓練集中的一個例子。
當一個新的輸入向量(你試圖分類的n維向量)需要分類時,每個神經元計算輸入和它的原型之間的歐氏距離。例如,如果我們有兩個類,即A類和B類,那麼要分類的新輸入比B類原型更接近A類原型。因此,它可以被標記或歸類為A類。
每個RBF神經元將輸入向量與它的原型進行比較,並輸出一個從0到1的相似性度量值。當輸入等於原型時,RBF神經元的輸出將為1,隨著輸入和原型之間的距離增加,響應呈指數下降,接近0。由神經元反應產生的曲線趨向於典型的鍾形曲線。輸出層由一組神經元組成(每個類別一個神經元)。
應用範圍:電力恢複
一個Powercut P1。需要先恢複
b。Powercut P3下一步需要修複,因為它會影響更多的房屋
c。Powercut P2應該最後修複,因為它隻影響一個房子
快速檢查- - - - - -NLP過程
F.遞歸神經網絡
循環神經網絡的應用
- 文本處理,如自動建議,語法檢查等。
- 文本到語音的處理
- 圖像薄鐵片
- 情緒分析
- 翻譯
循環神經網絡的設計目的是保存一個層的輸出,反饋到輸入,以幫助預測層的結果。第一層是典型的前向神經網絡,然後是循環神經網絡層,在這個層中,它在前一個時間步中的一些信息被記憶函數記住。在本例中實現了向前傳播。它存儲未來使用所需的信息。如果預測是錯誤的,則使用學習率進行小的更改。因此,在反向傳播過程中,使其逐漸增大,以便做出正確的預測。
循環神經網絡的優點
- 模型順序數據的優點之一是,每個樣本都可以假設依賴於曆史數據。
- 與卷積層一起使用,以擴展像素的有效性。
循環神經網絡的缺點
- 漸變消失和爆炸問題
- 訓練循環神經網絡可能是一項艱巨的任務
- 使用ReLU作為激活函數很難處理長序列數據。
對RNN的改進:LSTM(長短時記憶)網絡
LSTM網絡是一種除標準單元外還使用特殊單元的RNN。LSTM單元包括一個“記憶單元”,可以在記憶中長時間保存信息。一組門用於控製信息何時進入內存、何時輸出以及何時遺忘。有三種類型的門,即輸入門,輸出門和遺忘門。輸入門決定了上一個樣本中有多少信息將被保存在內存中;輸出門控製傳遞到下一層的數據量,遺忘門控製存儲的內存撕裂率。這種體係結構讓他們學會了長期的依賴關係
這是LSTM單元的實現之一,還有許多其他的架構存在。
G.序列到序列模型
序列間模型由兩個遞歸神經網絡組成。在這裏,存在一個處理輸入的編碼器和一個處理輸出的解碼器。編碼器和解碼器同時工作-使用相同的參數或不同的參數。與實際的RNN相反,該模型特別適用於輸入數據長度等於輸出數據長度的情況。雖然這些模型具有RNN相似的優點和局限性,但通常主要應用於聊天機器人、機器翻譯和問答係統。
H.模塊化神經網絡
模塊化神經網絡的應用
- 股票市場預測係統
- 字符識別的自適應MNN
- 高級輸入數據的壓縮
模塊化神經網絡有許多不同的網絡,它們各自獨立工作並執行子任務。在計算過程中,不同的網絡之間並沒有真正的相互作用或信號。他們獨立工作以實現產出。
因此,通過將一個龐大而複雜的計算過程分解為獨立的組件,可以顯著地加快完成速度。由於網絡之間沒有相互作用,甚至沒有相互連接,所以計算速度提高了。
模塊化神經網絡的優點
- 非常高效。
- 獨立的培訓
- 魯棒性
模塊化神經網絡的缺點
- 移動目標的問題
常見問題
1.神經網絡的九種主要類型是什麼?
神經網絡的九種類型是:
- 感知器
- 前饋神經網絡
- 多層感知器
- 卷積神經網絡
- 徑向基函數神經網絡
- 遞歸神經網絡
- 長期短期記憶
- 序列到序列模型
- 模塊化神經網絡
2.什麼是神經網絡及其類型?
神經網絡是機器學習中使用的人工網絡,其工作方式與人類神經係統類似。為了讓神經網絡模仿和像人腦一樣工作,許多事物都以不同的方式連接在一起。神經網絡基本上用於計算模型。
3.什麼是CNN和DNN?
深度神經網絡(DNN)是一種在輸入和輸出層之間具有多層結構的人工神經網絡(ANN)。它們可以模擬複雜的非線性關係。卷積神經網絡(CNN)是一種可供選擇的DNN類型,它允許在多元信號中建模時間和空間相關性。
4.CNN和Ann有什麼不同?
CNN是一種特殊的神經網絡,它有一層或多層卷積單元。神經網絡類涵蓋了幾種架構,包括卷積神經網絡(CNN),循環神經網絡(RNN),如LSTM和GRU,自動編碼器和深度信念網絡。
5.為什麼CNN比MLP更好?
多層感知器(MLP)非常適合MNIST,因為它是一個更簡單、更直接的數據集,但當涉及到計算機視覺的真實應用時,它落後於CNN,尤其是圖像分類。
希望你覺得有趣!你可以查看我們的博客卷積神經網絡.要了解更多關於這些概念的知識,請閱讀人工智能在線課程今天和upskill。