MATLAB徑向基神經(jīng)網(wǎng)絡(luò)函數(shù).doc_第1頁
MATLAB徑向基神經(jīng)網(wǎng)絡(luò)函數(shù).doc_第2頁
MATLAB徑向基神經(jīng)網(wǎng)絡(luò)函數(shù).doc_第3頁
MATLAB徑向基神經(jīng)網(wǎng)絡(luò)函數(shù).doc_第4頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

眾所周知,BP網(wǎng)絡(luò)用于函數(shù)逼近時,權(quán)值的調(diào)節(jié)采用的是負(fù)梯度下降法。這個調(diào)節(jié)權(quán)值的方法有局限性,即收斂慢和局部極小等。徑向基函數(shù)網(wǎng)絡(luò)(RBF)在逼近能力、分類能力和學(xué)習(xí)速度等方面均優(yōu)于BP網(wǎng)絡(luò)。Matlab中提供了四個徑向基函數(shù)相關(guān)的函數(shù),它們都是創(chuàng)建兩層的神經(jīng)網(wǎng)絡(luò),第一層都是徑向基層,第二層是線性層或者競爭層。主要的區(qū)別是它們權(quán)值、閥值就算函數(shù)不同或者是否有閥值。注意:徑向基函數(shù)網(wǎng)絡(luò)不需要訓(xùn)練,在創(chuàng)建的時候就自動訓(xùn)練好了。1.net = newrbe(P,T,spread)newrbe()函數(shù)可以快速設(shè)計(jì)一個徑向基函數(shù)網(wǎng)絡(luò),且是的設(shè)計(jì)誤差為0。第一層(徑向基層)神經(jīng)元數(shù)目等于輸入向量的個數(shù),加權(quán)輸入函數(shù)為dist,網(wǎng)絡(luò)輸入函數(shù)為netprod;第二層(線性層)神經(jīng)元數(shù)模有輸出向量T確定,加權(quán)輸入函數(shù)為dotprod,網(wǎng)絡(luò)輸入函數(shù)為netsum。兩層都有閥值。第一層的權(quán)值初值為p,閥值初值為0.8326/spread,目的是使加權(quán)輸入為spread時徑向基層輸出為0.5,閥值的設(shè)置決定了每一個徑向基神經(jīng)元對輸入向量產(chǎn)生響應(yīng)的區(qū)域。2.net,tr = newrb(P,T,goal,spread,MN,DF)該函數(shù)和newrbe一樣,只是可以自動增加網(wǎng)絡(luò)的隱層神經(jīng)元數(shù)模直到均方差滿足精度或者神經(jīng)元數(shù)模達(dá)到最大為止。 P=-1:0.1:1;T=sin(P);spread=1;mse=0.02;net=newrb(P,T,mse,spread);t=sim(net,P);plot(P,T,r*,P,t)3.net = newgrnn(P,T,spread)泛回歸網(wǎng)絡(luò)(generalized regression neural network)廣義回歸網(wǎng)絡(luò)主要用于函數(shù)逼近。它的結(jié)構(gòu)完全與newbre的相同,但是有以下幾點(diǎn)區(qū)別(沒有說明的表示相同):(1)第二網(wǎng)絡(luò)的權(quán)值初值為T(2)第二層沒有閥值(3)第二層的權(quán)值輸入函數(shù)為normpod,網(wǎng)絡(luò)輸入函數(shù)為netsum P=0:1:20; T=exp(P).*sin(P); net=newgrnn(P,T,0.7); p=0:0.1:20; t=sim(net,p); plot(P,T,*r,p,t)4.net = newpnn(P,T,spread)概率神經(jīng)網(wǎng)絡(luò)(probabilistic neural network)該網(wǎng)絡(luò)與前面三個最大的區(qū)別在于,第二層不再是線性層而是競爭層,并且競爭層沒有閥值,其它同newbre,故PNN網(wǎng)絡(luò)主要用于解決分類問題。PNN是按下面的方式進(jìn)行分類的:為網(wǎng)絡(luò)提供一輸入向量后,首先,徑向基層計(jì)算該輸入向量同樣本輸入向量之間的距離|dist|,該層的輸出為一個距離向量;競爭層接受距離向量為輸入,計(jì)算每個模式出現(xiàn)的概率,通過競爭傳遞函數(shù)為概率最大的元素對應(yīng)輸出1,否則為0。注意:由于第二層是競爭層,故輸入/輸出向量必須使用ind2vec/vec2ind函數(shù)進(jìn)行轉(zhuǎn)換,也就是將索引轉(zhuǎn)換為向量或者向量轉(zhuǎn)換為索引。P=1 2; 2 2;1 1P = 1 2 1 2 2 1Tc=1 2 3;T=ind2vec(Tc)T = (1,1) 1 (2,2) 1 (3,3) 1spread=1;net=newpnn(P,T,spread);t=sim(ne

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論