您好,登錄后才能下訂單哦!
Logistic Regression Classifier邏輯回歸主要思想就是用最大似然概率方法構建出方程,為最大化方程,利用牛頓梯度上升求解方程參數。
好了,下面開始正文。
算法的思路我就不說了,我就提供一個萬能模板,適用于任何緯度數據集。
雖然代碼類似于梯度下降,但他是個分類算法
定義sigmoid函數
def sigmoid(x): return 1/(1+np.exp(-x))
進行邏輯回歸的參數設置以及迭代
def weights(x,y,alpha,thershold): #初始化參數 m,n = x_train.shape theta = np.random.rand(n) #參數 cnt = 0 # 迭代次數 max_iter = 50000 #開始迭代 while cnt < max_iter: cnt += 1 diff = np.full(n,0) for i in range(m): diff = (y[i]-sigmoid(theta.T @ x[i]))*x[i] theta = theta + alpha * diff if(abs(diff)<thershold).all(): break return theta
預測函數
def predict(x_test,theta): if sigmoid(theta.T @ x_test)>0.5: return 1 else:return 0
調用函數
x_train = np.array([[1,2.697,6.254], [1,1.872,2.014], [1,2.312,0.812], [1,1.983,4.990], [1,0.932,3.920], [1,1.321,5.583], [1,2.215,1.560], [1,1.659,2.932], [1,0.865,7.362], [1,1.685,4.763], [1,1.786,2.523]]) y_train = np.array([1,0,0,1,0,1,0,0,1,0,1]) alpha = 0.001 # 學習率 thershold = 0.01 # 指定一個閾值,用于檢查兩次誤差 print(weights(x_train,y_train,alpha,thershold))
總結
以上所述是小編給大家介紹的Python利用邏輯回歸分類實現模板,希望對大家有所幫助!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。