您好,登錄后才能下訂單哦!
這篇文章主要講解了“怎么理解并掌握Python邏輯回歸”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“怎么理解并掌握Python邏輯回歸”吧!
def sigmoid(x):定義sigmoid函數
return 1/(1+np.exp(-x))
進行邏輯回歸的參數設置以及迭代
def weights(x,y,alpha,thershold): #初始化參數 m,n = x_train.shape theta = np.random.rand(n) #參數 cnt = 0 # 迭代次數 max_iter = 50000 #開始迭代 while cnt < max_iter: cnt += 1 diff = np.full(n,0) for i in range(m): diff = (y[i]-sigmoid(theta.T @ x[i]))*x[i] theta = theta + alpha * diff if(abs(diff)<thershold).all(): break return theta
預測函數
def predict(x_test,theta): if sigmoid(theta.T @ x_test)>0.5: return 1 else:return 0
調用函數
x_train = np.array([[1,2.697,6.254], [1,1.872,2.014], [1,2.312,0.812], [1,1.983,4.990], [1,0.932,3.920], [1,1.321,5.583], [1,2.215,1.560], [1,1.659,2.932], [1,0.865,7.362], [1,1.685,4.763], [1,1.786,2.523]]) y_train = np.array([1,0,0,1,0,1,0,0,1,0,1]) alpha = 0.001 # 學習率 thershold = 0.01 # 指定一個閾值,用于檢查兩次誤差 print(weights(x_train,y_train,alpha,thershold))
感謝各位的閱讀,以上就是“怎么理解并掌握Python邏輯回歸”的內容了,經過本文的學習后,相信大家對怎么理解并掌握Python邏輯回歸這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。