熟女俱乐部五十路二区av,又爽又黄禁片视频1000免费,国产卡一卡二卡三无线乱码新区,中文无码一区二区不卡αv,中文在线中文a

新聞中心

EEPW首頁 > 嵌入式系統(tǒng) > 設計應用 > 基于神經(jīng)網(wǎng)絡的抽油機故障診斷

基于神經(jīng)網(wǎng)絡的抽油機故障診斷

作者: 時間:2012-12-12 來源:網(wǎng)絡 收藏
1 引言
技術在學習速度、適應性、非線性映射等性能上有獨特的優(yōu)勢,能夠進行有效的監(jiān)督分類,因此常用來進行聚類分析,然而在進行聚類分析時,出現(xiàn)為了提高識別精度而使網(wǎng)絡規(guī)模較大,并且收斂時間慢的問題,1981年芬蘭學者Kohonen提出了一個比較完整的、分類性能較好的自組織特征映射(Self-Organizing Feature Map)(簡稱SOM網(wǎng)絡)的方案。SOM網(wǎng)絡是一種由全連接的神經(jīng)元陣列組成的無教師自組織網(wǎng)絡,可以認為是2層網(wǎng)絡,第一層是輸入層,另一層是競爭層,本例的SOM網(wǎng)絡結構如圖1所示 [1]:

本文針對傳統(tǒng)自組織分類精度低和收斂速度慢的缺點進行改進。
2 自組織特征映射神經(jīng)網(wǎng)絡
SOM網(wǎng)絡能將任意維輸入映射成一維或者二維離散圖形,并保持其拓撲結構不變,此外,網(wǎng)絡通過對輸入模式的反復學習,可以使連接權值空間分布密度與輸入模式的概率分布趨于一致。網(wǎng)絡在競爭過程中,近鄰者相互激勵,遠鄰者相互抑制,比遠鄰更遠的神經(jīng)元則表現(xiàn)弱激勵作用。由于這種交互作用的曲線類似于墨西哥人帶的帽子,因此也稱這種交互方式為“墨西哥帽”[2],如圖2 所示:

SOM網(wǎng)絡根據(jù)其學習規(guī)則,對輸入模式進行自動分類,捕捉住各個輸入模式中所含的模式特征,并對其進行自組織,在競爭層將分類結果表現(xiàn)出來,SOM網(wǎng)絡的特點是:
1) 一旦由于某種原因,某個神經(jīng)元受到損害或者完全失效,剩下的神經(jīng)元仍可以保證所對應的記憶信息不會消失。
2) 網(wǎng)絡對學習模式的記憶不是一次性完成的,而是通過反復學習,將輸入模式的統(tǒng)計特征“溶解”到各個連接權上的。所以這種網(wǎng)絡具有較強的抗干擾能力。
它的具體的工作原理過程如下:
1) 首先將權值賦予隨機初始值;同時設置一個初始鄰域,并設置網(wǎng)絡的循環(huán)次數(shù) ;
2)然后給出一個新的輸入模式輸入到網(wǎng)絡上;
3) 采用勝者為王的模式,計算模式和所有的輸出神經(jīng)元的距離,并選擇和距離最小的神經(jīng)元C, 即,則C即為獲勝神經(jīng)元;
4) 更新結點及其鄰域結點的連接權值:

式中:為增益函數(shù),隨著時間逐漸減小;
5) 選取另一個學習模式提供給網(wǎng)絡,返回步驟3),直到全部的輸入模式都提供給網(wǎng)絡;
6) 令, 返回步驟2), 直至為止。
由SOM網(wǎng)絡的工作原理可以看出,標準SOM網(wǎng)絡學習速率在遞減過程中采用線性遞減的方式,這將導致網(wǎng)絡收斂速度慢,在數(shù)據(jù)量比較大的情況下就會導致網(wǎng)絡聚類結果不穩(wěn)定甚至發(fā)散。因此可以將改進學習率遞減方式作為改進SOM網(wǎng)絡的一個方向。
2.1 神經(jīng)網(wǎng)絡的改進
實驗證明利用標準的自組織特征映射神經(jīng)網(wǎng)絡對分類的效果不是很理想,因為該算法對學習速率調(diào)整只采用線性遞減,聚類的收斂速度慢,而且對鄰域也只采用正方形或圓形域,造成權值調(diào)整時,鄰域內(nèi)所有神經(jīng)元都同樣激活,所以最終聚類效果不好,因此要想辦法從改進學習率、鄰域等方面來提高網(wǎng)絡的性能。
將網(wǎng)絡的學習過程分為2個階段,分別為快學習階段和調(diào)整階段,在快學習階段中,學
習速率采用冪函數(shù)遞減的方式,聚類的效果較好,同時收斂的速度快,所采用的遞減方式為
時收斂的速度快,所采用的遞減方式為:

式中:為常數(shù),一般為0.05
同時根據(jù)網(wǎng)絡學習時神經(jīng)元間相互作用曲線,側反饋的強度與鄰域內(nèi)神經(jīng)元i同獲勝神經(jīng)元C的距離有關, 典型的Gauss函數(shù)[3]最適合作為鄰域函數(shù),如式(3)所示:

式中:為鄰域的有效寬度,而為競爭層神經(jīng)元間的距離,對維元素其距離公式如下:

式中:分別表示神經(jīng)元間在陣列上的坐標,并且采用冪函數(shù)遞減

式中:參數(shù)一般取0.5
這樣在快學習階段學習率應遞減較快,可采用冪函數(shù)形式,鄰域從較大值遞減為較小值,在調(diào)整階段,網(wǎng)絡學習集中對較小范圍內(nèi)的神經(jīng)元的連接權值進行調(diào)整,其學習率遞減緩慢,可采用線性函數(shù)形式,鄰域值從較大值緩慢減小為0,即只包含獲勝神經(jīng)元。

pid控制相關文章:pid控制原理



上一頁 1 2 下一頁

評論


相關推薦

技術專區(qū)

關閉