您好,登錄后才能下訂單哦!
這篇文章給大家分享的是有關python實現高斯判別分析算法的例子的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。
高斯判別分析算法(Gaussian discriminat analysis)
高斯判別算法是一個典型的生成學習算法(關于生成學習算法可以參考我的另外一篇博客)。在這個算法中,我們假設p(x|y)p(x|y)服從多元正態分布。
注:在判別學習算法中,我們假設p(y|x)p(y|x)服從一維正態分布,這個很好類比,因為在模型中輸入數據XX通常是擁有很多維度的,所以對于XX的條件概率建模時要取多維正態分布。
多元正態分布
多元正態分布也叫多元高斯分布,這個分布的兩個參數分別是平均向量μ∈Rnμ∈Rn和一個協方差矩陣∑∈Rn×n∑∈Rn×n
關于協方差矩陣的定義;假設XX是由nn個標量隨機變量組成的列向量,并且μkμk是第kk個元素的期望值,即μk=E(Xk)μk=E(Xk),那么協方差矩陣被定義為
下面是一些二維高斯分布的概率密度圖像:
最右邊的圖像展現的二維高斯分布的均值是零向量(2x1的零向量),協方差矩陣Σ=IΣ=I(2x2的單位矩陣),像這樣以零向量為均值以單位陣為協方差的多維高斯分布稱為標準正態分布,中間的圖像以零向量為均值,Σ=0.6IΣ=0.6I;最右邊的圖像中Σ=2IΣ=2I,觀察發現當ΣΣ越大時,高斯分布越“鋪開”,當ΣΣ越小時,高斯分布越“收縮”。
讓我們看一些其他例子對比發現規律
上圖中展示的三個高斯分布對應的均值均為零向量,協方差矩陣分別對應與下面三個
最左邊的圖像是我們熟悉的標準二維正態分布,然后我們觀察到當我們增加ΣΣ的非主對角元素時,概率密度圖像沿著45°線(x1=x2x1=x2)“收縮”,從對應的等高線輪廓圖可以跟清楚的看到這一點:
通過對比右邊和中間的兩幅圖發現,通過減少主對角元素可以讓概率密度圖像變得“收縮”,不過是在相反的方向上。
高斯判別分析模型
當我們處理輸入特征是連續隨機變量xx時的分類問題時,我們可以使用高斯判別分析模型(GDA),用多元正態分布模型來描述p(x|y)p(x|y),模型的具體數學表達式是這樣的:
通過最大化似然函數ll可以得到上面四個參數的估計值:
我們用圖像直觀的描述一下算法處理的結果:
python的實現demo 如下:
第57的高斯概率密度函數用矩陣運算寫有bug沒跑通,又因為實驗數據只有二維,于是在紙上對上文中矩陣運算公式進行了化簡至最后結果寫在了函數里。如有疑問可以拿出筆來演算一下。
#GDA #author:Xiaolewen import matplotlib.pyplot as plt from numpy import * #Randomly generate two cluster data of Gaussian distributions mean0=[2,3] cov=mat([[1,0],[0,2]]) x0=random.multivariate_normal(mean0,cov,500).T #The first class point which labael equal 0 y0=zeros(shape(x0)[1]) #print x0,y0 mean1=[7,8] cov=mat([[1,0],[0,2]]) x1=random.multivariate_normal(mean1,cov,300).T y1=ones(shape(x1)[1]) #The second class point which label equals 1 #print x1,y1 x=array([concatenate((x0[0],x1[0])),concatenate((x0[1],x1[1]))]) y=array([concatenate((y0,y1))]) m=shape(x)[1] #print x,y,m #Caculate the parameters:\phi,\u0,\u1,\Sigma phi=(1.0/m)*len(y1) #print phi u0=mean(x0,axis=1) #print u0 u1=mean(x1,axis=1) #print u1 xplot0=x0;xplot1=x1 #save the original data to plot x0=x0.T;x1=x1.T;x=x.T #print x0,x1,x x0_sub_u0=x0-u0 x1_sub_u1=x1-u1 #print x0_sub_u0 #print x1_sub_u1 x_sub_u=concatenate([x0_sub_u0,x1_sub_u1]) #print x_sub_u x_sub_u=mat(x_sub_u) #print x_sub_u sigma=(1.0/m)*(x_sub_u.T*x_sub_u) #print sigma #plot the discriminate boundary ,use the u0_u1's midnormal midPoint=[(u0[0]+u1[0])/2.0,(u0[1]+u1[1])/2.0] #print midPoint k=(u1[1]-u0[1])/(u1[0]-u0[0]) #print k x=range(-2,11) y=[(-1.0/k)*(i-midPoint[0])+midPoint[1] for i in x] #plot contour for two gaussian distributions def gaussian_2d(x, y, x0, y0, sigmaMatrix): return exp(-0.5*((x-x0)**2+0.5*(y-y0)**2)) delta = 0.025 xgrid0=arange(-2, 6, delta) ygrid0=arange(-2, 6, delta) xgrid1=arange(3,11,delta) ygrid1=arange(3,11,delta) X0,Y0=meshgrid(xgrid0, ygrid0) #generate the grid X1,Y1=meshgrid(xgrid1,ygrid1) Z0=gaussian_2d(X0,Y0,2,3,cov) Z1=gaussian_2d(X1,Y1,7,8,cov) #plot the figure and add comments plt.figure(1) plt.clf() plt.plot(xplot0[0],xplot0[1],'ko') plt.plot(xplot1[0],xplot1[1],'gs') plt.plot(u0[0],u0[1],'rx',markersize=20) plt.plot(u1[0],u1[1],'y*',markersize=20) plt.plot(x,y) CS0=plt.contour(X0, Y0, Z0) plt.clabel(CS0, inline=1, fontsize=10) CS1=plt.contour(X1,Y1,Z1) plt.clabel(CS1, inline=1, fontsize=10) plt.title("Gaussian discriminat analysis") plt.xlabel('Feature Dimension (0)') plt.ylabel('Feature Dimension (1)') plt.show(1)
這是最終的擬合結果:
感謝各位的閱讀!關于“python實現高斯判別分析算法的例子”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。