第2章 貝葉斯決策理論_第1頁
第2章 貝葉斯決策理論_第2頁
第2章 貝葉斯決策理論_第3頁
第2章 貝葉斯決策理論_第4頁
第2章 貝葉斯決策理論_第5頁
已閱讀5頁,還剩76頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

第2章貝葉斯決策理論,2.1分類器的描述方法2.2最大后驗(yàn)概率判決準(zhǔn)則2.3最小風(fēng)險貝葉斯判決準(zhǔn)則2.4Neyman-Person判決準(zhǔn)則2.5最小最大風(fēng)險判決準(zhǔn)則習(xí)題,2.1分類器的描述方法2.1.1基本假設(shè)給定模式空間S,由m個互不相交的模式類集合組成,即,。幾個基本假設(shè)如下:,(1)假定類i的先驗(yàn)概率為P(i);(2)樣本(或模式)x由特征向量來表示,同樣記為x,假設(shè)為d維,即x=(x1,x2,xd);,(3)特征向量x的取值范圍構(gòu)成特征空間,記為Rd;(4)特征向量x的類條件概率密度函數(shù)為p(x|i),表示當(dāng)樣本xi時,特征向量x的概率密度函數(shù);(5)特征向量x的后驗(yàn)概率為P(i|x),表示在特征向量x出現(xiàn)的條件下,樣本x來自類i的概率,即類i出現(xiàn)的概率。模式識別就是根據(jù)特征向量x的取值,依據(jù)某個判決準(zhǔn)則把樣本x劃分到1,2,m中的一個。,2.1.2模式分類器的描述模式分類器的描述方法有多種,這里僅介紹以下三種描述方法,它們之間是統(tǒng)一的。1.映射描述法由于我們獲取的有關(guān)觀察對象的數(shù)據(jù)總量是有限的,因此,可用一個d+1維向量表示,即,其中:(x1,x2,xd)為特征向量,是特征空間Rd中的一個點(diǎn);取值于集合1,2,m,表示模式的真實(shí)類別號,是未知的量,m為類別數(shù)。模式分類的實(shí)質(zhì)在于實(shí)現(xiàn)特征空間Rd到類別號空間1,2,m的一個映射,即Rd1,2,m給定一個映射f,就給出了一種模式識別方法,不同的映射對應(yīng)不同的分類方法,這就是模式識別問題的映射描述法。,2.劃分描述法由于每個特征向量是Rd空間的一個點(diǎn),且Rd1,2,m是一個多對一的映射,通過映射,本質(zhì)上實(shí)現(xiàn)了對空間Rd的一種劃分,即把Rd劃分成個不相重疊的區(qū)域,每一個區(qū)域?qū)?yīng)一個類別。設(shè)區(qū)域Ri對應(yīng)第i類i,則以下條件成立:(1)這一條表明了分類的確定性,一個樣本只能屬于某一類,不能同屬兩個或多個類別。,(2)若特征向量x=(x1,x2,xd)落在區(qū)域Ri內(nèi),即xRi,則將樣本x判屬第i類,記為xi;此時,Ri稱為xi的決策區(qū)域。(3)。若Ri為Rd的真子集,即,當(dāng)樣本落在此區(qū)域中時,樣本對應(yīng)的模式不是m類中的任何一種,可以把它稱為拒絕類,為拒絕域,相應(yīng)的判決為拒識。此時,引入一個新類m+1(拒絕類),相應(yīng)的決策區(qū)域?yàn)椤?當(dāng)樣本落在兩類或多類的交界面上時,可以任取交界面所在的一類進(jìn)行判決,也可以拒絕判決。從劃分意義上看,模式識別就是對于一個具體分類問題,在確定了需分類的類別數(shù)m和所用的特征維數(shù)后,實(shí)現(xiàn)對Rd空間的劃分,每一種劃分對應(yīng)一種識別方法。,如果不考慮拒識,此時,那么,正確分類包括m種情形,樣本x來自類i,特征向量xRi(i=1,2,m);錯誤分類包括m(m1)種情形,樣本x來自類i,但特征向量xRj(i=1,2,m;j=1,2,m;ji)。因此,平均正確概率Pc為,(2-1),平均錯誤概率Pe為Pe=1Pc(2-2)以下不再刻意區(qū)分樣本(或模式)和特征向量,也就是說,xi意指x是樣本(或模式);xRi或函數(shù)g(x)意指x是特征向量。,3.判別函數(shù)法把分類問題對應(yīng)為Rd空間上的多元函數(shù),通常稱為判別函數(shù)(或稱判決函數(shù))gi(x),i=1,2,m。對于任給未知類別的樣本x,計(jì)算各類判別函數(shù)的值gi(x),i=1,2,m,將樣本x判屬有極大(或極小)函數(shù)值的那一類。到底應(yīng)取極大值還是取極小值,需要根據(jù)具體問題的物理意義確定。不同的判別函數(shù)對應(yīng)不同的模式分類方法。,模式分類實(shí)際上是將特征空間劃分為不同的決策區(qū)域,相鄰決策區(qū)域被決策面所分割,這些決策面是特征空間中的超曲面,其決策面方程滿足相鄰兩個決策域的判別函數(shù)相等,即gi(x)=gj(x)分類器可被看做是一個計(jì)算m類個判別函數(shù)并選取最大(或最小)判決值對應(yīng)的類別的網(wǎng)絡(luò)或機(jī)器。一個分類器的網(wǎng)絡(luò)結(jié)構(gòu)如圖2-1所示。,圖2-1分類器的網(wǎng)絡(luò)結(jié)構(gòu),2.2最大后驗(yàn)概率判決準(zhǔn)則2.2.1判決準(zhǔn)則在討論具體的判決準(zhǔn)則之前,讓我們先來看一個分類問題。假設(shè)某工廠里所有的產(chǎn)品都只屬于事先確定的兩類,分別表示為1=“高質(zhì)量”,2=“平均質(zhì)量”。假設(shè)工廠對于產(chǎn)品儲量有一個合理的長期記錄,總結(jié)出來的結(jié)果如下:,總的產(chǎn)品個數(shù)n=2253550;屬于類1產(chǎn)品的個數(shù)n1=901420;屬于類2產(chǎn)品的個數(shù)n2=1352130;由此可以估計(jì)出兩類產(chǎn)品出現(xiàn)的概率,即先驗(yàn)概率分別,情形1:假設(shè)在沒有看到一個具體的產(chǎn)品時就要確定它到底屬于哪一類。如果唯一能夠得到的信息就是先驗(yàn)概率,那么一個很自然的“合理”選擇是將這一產(chǎn)品歸入類2。可以想象,這時可能造成40%的錯誤率。如果我們僅僅需要做一次判斷,那么采用這種判決規(guī)則還是合理的。但是,如果要求我們進(jìn)行多次判斷,那么重復(fù)使用這種規(guī)則就不合適了,因?yàn)槲覀儗⒁恢钡玫较嗤慕Y(jié)果。,情形2:假設(shè)可以對產(chǎn)品進(jìn)行一些測量,獲得了它的觀測向量(或特征向量)x,這時意味著對該產(chǎn)品所屬類別的不確定性減少了,即觀測向量(或特征向量)能夠提供一些類別信息。具體地,后驗(yàn)概率P(i|x)表示了x所代表的某個產(chǎn)品屬于第i類的概率,那么現(xiàn)在“合理”的選擇是:,如果P(1|x)P(2|x),則判決x屬于1;如果P(1|x)P(2|x),則判決x屬于2;如果P(1|x)=P(2|x),則判決x屬于1或?qū)儆?。這種決策稱為最大后驗(yàn)概率判決準(zhǔn)則,也稱為貝葉斯(Bayes)判決準(zhǔn)則。假設(shè)已知P(i)和p(x|i)(i=1,2,m),最大后驗(yàn)概率判決準(zhǔn)則就是把樣本x歸入后驗(yàn)概率最大的類別中,也就是,2-3,則xj。,由于已知P(i)和p(x|i),因此我們希望找到P(i|x)與它們之間的關(guān)系。這里以一維為例進(jìn)行討論。假設(shè)特征變量為X,那么有,由Bayes公式可知,=,=,=,其中,y1,y2(x,x+)。當(dāng)趨近于0時,y1與y2趨近于x,從而有,(2-4),類似地,可得特征變量為多維時的結(jié)果,(2-5),根據(jù)式(2-5),可以得到幾種最大后驗(yàn)概率判決準(zhǔn)則的等價形式:(1)若,,則xj;,(2)若,,則xj;,(3)若,則xj。,其中,L(x)稱為似然比,lnL(x)稱為對數(shù)似然比。在最大后驗(yàn)概率判決準(zhǔn)則中,xj的決策區(qū)域Rj為,(j=1,2,m)(2-6),【例2.1】假設(shè)在某個局部地區(qū)的細(xì)胞識別中,第一類表示正常,第二類表示異常,兩類的先驗(yàn)概率分別為:正常P(1)=0.9,P(2)=0.1。現(xiàn)有一個待識別樣本細(xì)胞,其觀察值為x,從類條件概率密度函數(shù)曲線p(x|i)上可查得:p(x|1)=0.2,p(x|2)=0.4,試判斷該細(xì)胞是否正常。,解計(jì)算p(x|1)P(1)=0.20.9=0.18p(x|2)P(2)=0.40.1=0.040.18根據(jù)Bayes判決準(zhǔn)則將該細(xì)胞判為第一類,即為正常細(xì)胞。,2.2.2錯誤概率最大后驗(yàn)概率判決準(zhǔn)則的一個優(yōu)良性質(zhì)就是使平均錯誤概率達(dá)到最小。因此,最大后驗(yàn)概率判決準(zhǔn)則又稱為最小錯誤概率判決準(zhǔn)則。這里以二分類情況為例進(jìn)行分析。此時,m=2,任意一個判決準(zhǔn)則對應(yīng)于特征空間Rd的一個劃分:R=R1R2,R1R2=。錯誤分類為兩種情況:真實(shí)類別為1時,而特征值x落入R2;真實(shí)類別為2時,而特征值x落入R1。因此,平均錯誤概率為,(2-7),其中,,考慮到,=,(2-8),式(2-7)可以化為,(2-9),若要使Pe達(dá)到最小,則x1的決策區(qū)域R1必須滿足:,即,(2-10),式(2-10)與最大后驗(yàn)概率判決準(zhǔn)則中x1的決策區(qū)域是一致的,也就是說,最大后驗(yàn)概率判決準(zhǔn)則使平均錯誤概率達(dá)到最小。,例如,假設(shè)模式x為一維的情況,如圖2-2所示,得到的兩類分界點(diǎn)為t,將x軸分為兩個區(qū)域R1和R2,其中,紋理區(qū)域的面積表示平均錯誤概率,即,圖中,,,,圖2-2平均錯誤概率計(jì)算示意圖,2.3最小風(fēng)險貝葉斯判決準(zhǔn)則最大后驗(yàn)概率判決準(zhǔn)則使分類的平均錯誤概率最小化。但是,對于某些具體的分類問題,這個準(zhǔn)則并不是最好的,這是因?yàn)樗鼪]有考慮到不同的錯誤判斷帶來的后果是不相同的??紤]到各種錯誤分類造成的損失不同,人們提出了最小風(fēng)險貝葉斯判決準(zhǔn)則。它的基本思路是給每一種決策規(guī)定一個損失值(或代價),將其作為因錯誤決策而導(dǎo)致的損失的度量。,設(shè)樣本x來自類i,可能被判為1,2,m中的任何一種,若允許拒絕判決,可將拒絕類看成是獨(dú)立的一類,記為第m+1類,即m+1。為了表述方便,引入如下符號:(1)決策j:將樣本x的類別判為第j類。不同的決策對應(yīng)于特征空間的不同決策區(qū)域Rj,j1,2,m。若xRj,則判決xj(j=1,2,m)。這里未考慮拒識情況。,(2)損失函數(shù)(j,i):對真實(shí)類別為第i類的樣本采取決策j所帶來的損失。在實(shí)際應(yīng)用時,可以將(j,i)簡寫為ji,寫成矩陣形式,稱之為損失矩陣。,對于給定類i的樣本,正確判斷時的代價函數(shù)應(yīng)該是最小的,即,(i=1,2,m),(2-11),當(dāng)樣本x的真實(shí)類別未知時,決策j的條件風(fēng)險是對x為所有可能的真實(shí)類別條件下將樣本判為第j類的代價求平均,即,(2-12),條件風(fēng)險只是反映對某一個樣本x做出決策所帶來的風(fēng)險。由于x是隨機(jī)向量,對于x的不同取值,決策j的條件風(fēng)險的大小不同,因此,究竟采取哪一種決策,與x的取值有關(guān)。決策可以看成是隨機(jī)向量x的函數(shù),記為(x),它本身也是一個隨機(jī)變量,它的取值為1,2,m。不同的決策值對應(yīng)于特征空間不同的決策區(qū)域。由此可以定義期望風(fēng)險。,條件風(fēng)險R(j|x)(j=1,2,m)在特征空間中的平均值稱為期望風(fēng)險,記為R,即,(2-13),其中,p(x)為樣本矢量在Rd空間中的概率密度函數(shù),與類別號無關(guān)。期望風(fēng)險的另一種表示方法為,與最小錯誤概率判決規(guī)則類似,若對每一個x都選擇最小的條件風(fēng)險,就能保證總體風(fēng)險R最小,因此,得到最小風(fēng)險貝葉斯判決準(zhǔn)則如下:,可見,期望風(fēng)險反映對整個特征空間上所有x采取相應(yīng)決策所帶來的平均風(fēng)險。,(2-14),如果,(2-15),則判決xk。損失函數(shù)根據(jù)實(shí)際問題和經(jīng)驗(yàn)確定。若將損失函數(shù)取為,(2-16),則稱這種損失函數(shù)為0-1損失函數(shù)。此時,決策j的條件風(fēng)險為,(2-17),由(2-17)可以看出,R(j|x)最小實(shí)際上對應(yīng)于P(j|x)最大,因此當(dāng)取0-1損失函數(shù)時,最小風(fēng)險貝葉斯判決準(zhǔn)則等價于最大后驗(yàn)概率判決準(zhǔn)則。這說明最大后驗(yàn)概率判決準(zhǔn)則是最小風(fēng)險貝葉斯判決準(zhǔn)則的特例。,對于兩類分類問題,條件風(fēng)險為,(2-18),(2-19),按最小風(fēng)險的Bayes準(zhǔn)則有,(2-20),根據(jù)Bayes公式有,(2-21),(2-22),由此可見,和最大后驗(yàn)概率判決準(zhǔn)則相比,形式相似,只是閾值發(fā)生了變化,它不僅與先驗(yàn)概率的比值有關(guān),而且和代價函數(shù)差的比值有關(guān)。這里的代價函數(shù)差值是錯誤分類時和正確分類時的代價函數(shù)之差。【例2.2】在例2.1的基礎(chǔ)上,增加條件11=0,12=6,21=1,22=0,請判斷該細(xì)胞是否正常。解若按最小風(fēng)險的Bayes判決進(jìn)行判斷,可以求出:,所以,應(yīng)將細(xì)胞樣本判為第二類,即為異常。,2.4Neyman-Person判決準(zhǔn)則最大后驗(yàn)概率判決準(zhǔn)則是使分類的平均錯誤概率最小,最小風(fēng)險貝葉斯判決準(zhǔn)則是使分類的平均風(fēng)險最小。可是,在實(shí)際遇到的模式識別問題中有可能出現(xiàn)這樣的問題:對于兩類情形,不考慮總體的情況,而只關(guān)注某一類的錯誤概率,要求在其中一類錯誤概率小于給定閾值的條件下,使另一類錯誤概率盡可能小。,例如,在雷達(dá)目標(biāo)檢測中,人們可能不僅對目標(biāo)出現(xiàn)的先驗(yàn)概率未知,而且對錯誤判斷的代價也是難以估計(jì)的,甚至是難以定義的。雷達(dá)目標(biāo)檢測中存在兩種錯誤:一種是虛警,即沒有目標(biāo)判為有目標(biāo);另一種是漏警,即有目標(biāo)判為沒有目標(biāo)。適當(dāng)?shù)姆椒ň褪怯^察者確定一個允許的虛警概率,使漏警概率盡可能得小。,Neyman-Person判決準(zhǔn)則解決的就是上述問題,它只適用于兩類情形。在兩類情況下,有兩種錯誤概率:第一類錯誤概率是,樣本真實(shí)類別為1,但落到了2的判決區(qū)域R2內(nèi),從而被判為2的概率,記為E1;第二類錯誤概率是,樣本真實(shí)類別為2,但落到了1的判決區(qū)域R1內(nèi),從而被判為1的概率,記為E2。平均錯誤概率為Pe=P(1)E1+P(2)E2(2-23),假設(shè)限定E2不能超過某個閾值,即E2(2-24)在這個前提下,求判決區(qū)域使E1達(dá)到最小值。由于滿足式(2-24)的E2有多個,在不等式條件下,難以求解E1的最小值,因此,可以選擇0,將式(2-24)條件下的求解問題轉(zhuǎn)化為E2=0(2-25),條件下的E1最小值求解問題。這是一個典型的條件極值問題,我們采用Lagrange乘數(shù)法來求解,其中,約束條件為E20=0。,構(gòu)造目標(biāo)函數(shù)r=E1+(E20)其中,為Lagrange乘子。由1與2的決策區(qū)域分別為R1與R2,可得,(2-26),(2-27),從而,目標(biāo)函數(shù)可改寫為,(2-28),為了使r達(dá)到最小,則要求使被積函數(shù)p(x|2)p(x|1)小于0的點(diǎn)全部落入R1中,且R1中的點(diǎn)使被積函數(shù)p(x|2)p(x|1)小于0,所以,R1=x|p(x|2)p(x|1)p(x|1),則x2(2-30)寫成似然比形式為,(2-31),上式左邊為似然比函數(shù),右邊為閾值,形式和兩類時的最大后驗(yàn)概率判決準(zhǔn)則相似。不同之處在于閾值是Lagrange乘子,是一個不確定的量,需要根據(jù)約束條件求解,即,(2-32),其中,(2-33),由于的作用主要是影響積分域,因此,根據(jù)上式求的解析式很不容易,下面介紹一種實(shí)用的計(jì)算求解方法。根據(jù)式(2-33),越大,R1越小,從而E2也越小,即E2是的單調(diào)減函數(shù)。給定一個值,可求出一個E2值,在計(jì)算的值足夠多的情況下,可構(gòu)成一個二維表備查。給定一個0后,可查表得到相應(yīng)的值,這種方法得到的是計(jì)算解,其精度取決于二維表的制作精度。,【例2.3】設(shè)兩類問題中,二維樣本均為正態(tài)分布,其均值和協(xié)方差矩陣分別為:1=(1,0)T,2=(1,0)T,1=2=I,取0=0.046,試求Neyman-Person準(zhǔn)則的閾值。解由給定的條件可知兩類的密度函數(shù)分別為,由上面兩式可以算得,上式兩邊求對數(shù)可以得到判決界面,對于給定的0,可由下式計(jì)算,即,顯然,y服從標(biāo)準(zhǔn)正態(tài)分布,通過查數(shù)學(xué)用表得到E2和之間的對應(yīng)關(guān)系如下:,由設(shè)定的0=0.046,查上表可得=4,故類分布及判決界面如圖2-3所示。,。,圖2-3例2.3圖示,2.5最小最大風(fēng)險判決準(zhǔn)則前面討論的最小風(fēng)險貝葉斯判決,其結(jié)果受到以下三種因素的影響:類條件概率密度函數(shù)p(x|i)、先驗(yàn)概率P(i)和代價函數(shù)(j,i)。在實(shí)際應(yīng)用中經(jīng)常遇到的是各類先驗(yàn)概率不能精確知道或在分析過程中發(fā)生變動的情況。這就使得判決結(jié)果不能達(dá)到最佳,實(shí)際分類器的平均損失要變大,甚至變得很大。在這種情況下要采用最小最大風(fēng)險判決準(zhǔn)則,它的基本思想是在最差的情況下爭取最好的結(jié)果。,由前面的討論可知,期望風(fēng)險(平均風(fēng)險)為,因?yàn)閮深惽闆r下,先驗(yàn)概率滿足:,所以,一旦R1、R2確定,則R就是先驗(yàn)概率P(1)的線性函數(shù):R=kP(1)+b(2-34)其中,(2-35),(2-36),在已知類概率密度函數(shù)、代價函數(shù)和某個先驗(yàn)概率P(1)時,按最小風(fēng)險貝葉斯判決準(zhǔn)則,可以確定R1和R2:,(2-38),(2-37),其中,(2-39),(2-40),對應(yīng)不同的先驗(yàn)概率P(1),可以得到相應(yīng)的最小Bayes風(fēng)險,當(dāng)P(1)遍取0,1時,就得到P(1)R曲線,如圖2-4(a)所示的曲線。設(shè)P(1)的設(shè)計(jì)值為P(1),在式(2-37)式(2-40)中,用P(1)代替P(1),確定R1和R2,此時,實(shí)際的平均風(fēng)險為直線R=kP(1)+b,如圖2-4(a)所示的直線。在最小Bayes風(fēng)險曲線中,P(1)=P(1)對應(yīng)的風(fēng)險為R。,當(dāng)實(shí)際的先驗(yàn)概率值和設(shè)計(jì)值相符時,實(shí)際的平均風(fēng)險值也和最小Bayes風(fēng)險相符,即R=R;而當(dāng)實(shí)際的先驗(yàn)概率值和設(shè)計(jì)值不相符時,分類結(jié)果的實(shí)際風(fēng)險值R就會大于最小Bayes風(fēng)險。因此,實(shí)際的平均風(fēng)險直線R=kP(1)+b與最小Bayes風(fēng)險曲線P(1)R相切,切點(diǎn)為(P(1),R),如圖2-4(a)所示。,圖2-4最小Bayes風(fēng)險曲線(a)一般情況下的風(fēng)險曲線;(b)最大點(diǎn)為極值點(diǎn)的風(fēng)險曲線,平均風(fēng)險的偏離量和先驗(yàn)概率的偏離量成線性關(guān)系,即R=kP(1)(2-41)如何選擇先驗(yàn)概率使最大可能的平均風(fēng)險最小呢?由式(2-34)可知,(2-42),如果k=0,則R與P(1)無關(guān),且恒等于b,這時最大可能的平均風(fēng)險達(dá)到最小值。但k=0意味著此時的平均風(fēng)險直線與最小Bayes風(fēng)險曲線相切于B點(diǎn),平均風(fēng)險R達(dá)到最小Bayes風(fēng)險曲線的最大值,如圖2-4(b)所示,B點(diǎn)對應(yīng)的先驗(yàn)概率滿足使最大可能的平均風(fēng)險最小的要求。最小最大風(fēng)險判決準(zhǔn)則就是采用最小Bayes風(fēng)險曲線中最大值對應(yīng)的先驗(yàn)概率P0來設(shè)計(jì)分類器,也就是,在式(2-37)式(2-40)中,取P(1)=P0,確定R1和R2。,通過以上分析我們知道,在得到最小Bayes風(fēng)險曲線后,最小最大風(fēng)險判決準(zhǔn)則確定的風(fēng)險為最小Bayes風(fēng)險曲線的最大值,此時先驗(yàn)概率的誤差不會使分類器的性能指標(biāo)下降;在最大點(diǎn)以外的點(diǎn)上設(shè)計(jì)的最小風(fēng)險分類器,對先驗(yàn)概率的偏差呈線性變化,變化的最大值不會比最小Bayes風(fēng)險曲線的最大值小。因此,模式識別中的最小最大風(fēng)險判決準(zhǔn)則的實(shí)質(zhì)是使因先驗(yàn)概率測量不準(zhǔn)而導(dǎo)致的最大可能實(shí)際風(fēng)險值最小化。,最小最大風(fēng)險判決準(zhǔn)則是一種保守的判決方法,有賴于最小Bayes風(fēng)險曲線的獲得,而在實(shí)際應(yīng)用中這是非常困難的。若已經(jīng)得到了最小Bayes風(fēng)險曲線的解析式,求最小Bayes風(fēng)險曲線關(guān)于P(1)的偏導(dǎo),并置為0,即可求得B點(diǎn)對應(yīng)的先驗(yàn)概率P0。式(2-37)式(2-40)給出的決策區(qū)域R1與R2和先驗(yàn)概率P(1)有關(guān),所以,兩類錯誤概率與,也與P(1)有關(guān)。最小Bayes風(fēng)險曲線上B點(diǎn)對應(yīng)的先驗(yàn)概率P(1)=P0使式(2-34)中的k=0,從而,通過令k=0的方法求解P0,即,=0,若上式有唯一解,則該極值點(diǎn)即為最大值點(diǎn);若上式有多個解,則多個極大點(diǎn)中的最大者為最大點(diǎn);若無解,則最大點(diǎn)出現(xiàn)在左端點(diǎn)或右端點(diǎn)上,計(jì)算兩端點(diǎn)的R值,大者即為最大值。,習(xí)題2-1分別寫出下列條件下的最大后驗(yàn)概率判決準(zhǔn)則:(1)兩類情況,且P(1)=P(2);(2)兩類情況,且p(x|1)=p(x|2)。2-2二維正態(tài)分布1=(1,0)T,2=(1,0)T,P(1)=P(2),(1)1=2=I;(2),,,分別寫出上述兩種情況下最大后驗(yàn)概率判決

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論