您好,登錄后才能下訂單哦!
這篇文章主要介紹Python中sklearn模型怎么用,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!
1.classification分類
2.Regression回歸
3.Clustering聚類
4.Dimensionality reduction降維
5.Model selection模型選擇
6.Preprocessing預處理
1.sklearn.base: Base classes and utility function基礎實用函數
2.sklearn.cluster: Clustering聚類
3.sklearn.cluster.bicluster: Biclustering 雙向聚類
4.sklearn.covariance: Covariance Estimators 協方差估計
5.sklearn.model_selection: Model Selection 模型選擇
6.sklearn.datasets: Datasets 數據集
7.sklearn.decomposition: Matrix Decomposition 矩陣分解
8.sklearn.dummy: Dummy estimators 虛擬估計
9.sklearn.ensemble: Ensemble Methods 集成方法
10.sklearn.exceptions: Exceptions and warnings 異常和警告
11.sklearn.feature_extraction: Feature Extraction 特征抽取
12.sklearn.feature_selection: Feature Selection 特征選擇
13。sklearn.gaussian_process: Gaussian Processes 高斯過程
14.sklearn.isotonic: Isotonic regression 保序回歸
15.sklearn.kernel_approximation: Kernel Approximation 核 逼近
16.sklearn.kernel_ridge: Kernel Ridge Regression 嶺回歸ridge
17.sklearn.discriminant_analysis: Discriminant Analysis 判別分析
18.sklearn.linear_model: Generalized Linear Models 廣義線性模型
19.sklearn.manifold: Manifold Learning 流形學習
20.sklearn.metrics: Metrics 度量 權值
21.sklearn.mixture: Gaussian Mixture Models 高斯混合模型
22.sklearn.multiclass: Multiclass and multilabel classification 多等級標簽分類
23.sklearn.multioutput: Multioutput regression and classification 多元回歸和分類
24.sklearn.naive_bayes: Naive Bayes 樸素貝葉斯
25.sklearn.neighbors: Nearest Neighbors 最近鄰
26.sklearn.neural_network: Neural network models 神經網絡
27.sklearn.calibration: Probability Calibration 概率校準
28.sklearn.cross_decomposition: Cross decomposition 交叉求解
29.sklearn.pipeline: Pipeline 管道
30.sklearn.preprocessing: Preprocessing and Normalization 預處理和標準化
31.sklearn.random_projection: Random projection 隨機映射
32.sklearn.semi_supervised: Semi-Supervised Learning 半監督學習
33.sklearn.svm: Support Vector Machines 支持向量機
34.sklearn.tree: Decision Tree 決策樹
35.sklearn.utils: Utilities 實用工具
from sklearn import preprocessing
標準化處理函數
將數據轉化為標準正態分布(均值為0,方差為1)
preprocessing.scale(X,axis=0, with_mean=True, with_std=True, copy=True)
將數據在縮放在固定區間,默認縮放到區間 [0, 1]
preprocessing.minmax_scale(X,feature_range=(0, 1), axis=0, copy=True)
數據的縮放比例為絕對值最大值,并保留正負號,即在區間 [-1.0, 1.0] 內。唯一可用于稀疏數據 scipy.sparse的標準化preprocessing.maxabs_scale(X,axis=0, copy=True)
通過 Interquartile Range (IQR) 標準化數據,即四分之一和四分之三分位點之間preprocessing.robust_scale(X,axis=0, with_centering=True, with_scaling=True,copy=True)
標準化正態分布類
基于mean和std的標準化
classpreprocessing.StandardScaler(copy=True, with_mean=True,with_std=True) # 屬性: # scale_:ndarray,縮放比例 # mean_:ndarray,均值 # var_:ndarray,方差 # n_samples_seen_:int,已處理的樣本個數,調用partial_fit()時會累加,調用fit()會重設 # 這里可以根據訓練集進行標準化,測試集沿用訓練集的標準化方法! scaler = preprocessing.StandardScaler().fit(train_data) scaler.transform(train_data) scaler.transform(test_data) # 將每個特征值歸一化到一個固定范圍 scaler = preprocessing.MinMaxScaler(feature_range=(0, 1)).fit(train_data) scaler.transform(train_data) scaler.transform(test_data)
將數據在縮放在固定區間的類,默認縮放到區間 [0, 1]
classpreprocessing.MinMaxScaler(feature_range=(0, 1),copy=True): # 屬性: # min_:ndarray,縮放后的最小值偏移量 # scale_:ndarray,縮放比例 # data_min_:ndarray,數據最小值 # data_max_:ndarray,數據最大值 # data_range_:ndarray,數據最大最小范圍的長度
數據的縮放比例為絕對值最大值,并保留正負號,即在區間 [-1.0, 1.0] 內。可以用于稀疏數據scipy.sparse
classpreprocessing.MaxAbsScaler(copy=True): # 屬性: # scale_:ndarray,縮放比例 # max_abs_:ndarray,絕對值最大值 # n_samples_seen_:int,已處理的樣本個數
通過 Interquartile Range (IQR) 標準化數據,即四分之一和四分之三分位點之間
classpreprocessing.RobustScaler(with_centering=True,with_scaling=True, copy=True): # 屬性: # center_:ndarray,中心點 # scale_:ndarray,縮放比例
生成 kernel 矩陣,用于將 svm kernel 的數據標準化
classpreprocessing.KernelCenterer:
以上幾個標準化類的方法:
fit(X[,y]):根據數據 X 的值,設置標準化縮放的比例
transform(X[,y, copy]):用之前設置的比例標準化 X
fit_transform(X[, y]):根據 X設置標準化縮放比例并標準化
partial_fit(X[,y]):累加性的計算縮放比例
inverse_transform(X[,copy]):將標準化后的數據轉換成原數據比例
get_params([deep]):獲取參數
set_params(**params):設置參數
正則化
# 計算兩個樣本的相似度時必不可少的一個操作,就是正則化。其思想是:首先求出樣本的p-范數,然后該樣本的所有元素都要除以該范數,這樣最終使得每個樣本的范數都為1。
# L1 norm 是指對每個樣本的每一個元素都除以該樣本的L1范數. 使行和為1
# eg. 0.47619048 = 10 /(10+4+5+2) X = np.array([[10,4,5,2], [1,4,5,7]]) X_normalized = preprocessing.normalize(X, norm='l1') X_normalized array([[ 0.47619048, 0.19047619, 0.23809524, 0.0952381 ], [ 0.05882353, 0.23529412, 0.29411765, 0.41176471]]) #L2 norm 是指對每個樣本的每一個元素都除以該樣本的L2范數. # eg. 0.4 = 1/sqrt(1+1+4) X = [[ 1., -1., 2.], [ 2., 0., 0.], [ 0., 1., -1.]] X_normalized = preprocessing.normalize(X, norm='l2') X_normalized array([[ 0.40, -0.40, 0.81], [ 1. , 0. , 0. ], [ 0. , 0.70, -0.70]])
將數據集分為訓練集和測試集
from sklearn.mode_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # arrays:樣本數組,包含特征向量和標簽 # test_size: # float-獲得多大比重的測試樣本 (默認:0.25) # int - 獲得多少個測試樣本 # train_size: 同test_size # random_state: int - 隨機種子(種子固定,實驗可復現) # shuffle - 是否在分割之前對數據進行洗牌(默認True)
模型流程:
# 擬合模型 model.fit(X_train, y_train) # 模型預測 model.predict(X_test) # 獲得這個模型的參數 model.get_params() # 為模型進行打分 model.score(data_X, data_y)
線性回歸
from sklearn.linear_model import LinearRegression # 定義線性回歸模型 model = LinearRegression(fit_intercept=True, normalize=False, copy_X=True, n_jobs=1) """ fit_intercept:是否計算截距。False-模型沒有截距 normalize: 當fit_intercept設置為False時,該參數將被忽略。 如果為真,則回歸前的回歸系數X將通過減去平均值并除以l2-范數而歸一化。 n_jobs:指定線程數 """
邏輯回歸
from sklearn.linear_model import LogisticRegression # 定義邏輯回歸模型 model = LogisticRegression(penalty='l2', dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver='liblinear', max_iter=100, multi_class='ovr', verbose=0, warm_start=False, n_jobs=1) """ penalty:使用指定正則化項(默認:l2) dual: n_samples > n_features取False(默認) C:正則化強度的反,值越小正則化強度越大 n_jobs: 指定線程數 random_state:隨機數生成器 fit_intercept: 是否需要常量 """
樸素貝葉斯
from sklearn import naive_bayes model = naive_bayes.GaussianNB() model = naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None) model = naive_bayes.BernoulliNB(alpha=1.0, binarize=0.0, fit_prior=True, class_prior=None) """ alpha:平滑參數 fit_prior:是否要學習類的先驗概率;false-使用統一的先驗概率 class_prior: 是否指定類的先驗概率;若指定則不能根據參數調整 binarize: 二值化的閾值,若為None,則假設輸入由二進制向量組成 """
決策樹
from sklearn import tree model = tree.DecisionTreeClassifier(criterion='gini', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, class_weight=None, presort=False) """ criterion :特征選擇準則gini/entropy max_depth:樹的最大深度,None-盡量下分 min_samples_split:分裂內部節點,所需要的最小樣本樹 min_samples_leaf:葉子節點所需要的最小樣本數 max_features: 尋找最優分割點時的最大特征數 max_leaf_nodes:優先增長到最大葉子節點數 min_impurity_decrease:如果這種分離導致雜質的減少大于或等于這個值,則節點將被拆分。 """
支持向量機SVM
from sklearn.svm import SVC model = SVC(C=1.0, kernel='rbf', gamma='auto') """ C:誤差項的懲罰參數C gamma: 核相關系數。浮點數,If gamma is ‘auto' then 1/n_features will be used instead. """
knn最近鄰算法
from sklearn import neighbors #定義kNN分類模型 model = neighbors.KNeighborsClassifier(n_neighbors=5, n_jobs=1) # 分類 model = neighbors.KNeighborsRegressor(n_neighbors=5, n_jobs=1) # 回歸 """ n_neighbors: 使用鄰居的數目 n_jobs:并行任務數 """
多層感知器
from sklearn.neural_network import MLPClassifier # 定義多層感知機分類算法 model = MLPClassifier(activation='relu', solver='adam', alpha=0.0001) """ hidden_layer_sizes: 元祖 activation:激活函數 solver :優化算法{‘lbfgs', ‘sgd', ‘adam'} alpha:L2懲罰(正則化項)參數。 """
交叉驗證
from sklearn.model_selection import cross_val_score cross_val_score(model, X, y=None, scoring=None, cv=None, n_jobs=1) """ model:擬合數據的模型 cv : k-fold scoring: 打分參數-‘accuracy'、‘f1'、‘precision'、‘recall' 、‘roc_auc'、'neg_log_loss'等等 """
檢驗曲線
from sklearn.model_selection import validation_curve train_score, test_score = validation_curve(model, X, y, param_name, param_range, cv=None, scoring=None, n_jobs=1) """ model:用于fit和predict的對象 X, y: 訓練集的特征和標簽 param_name:將被改變的參數的名字 param_range: 參數的改變范圍 cv:k-fold """
# 保存為pickle文件 import pickle # 保存模型 with open('model.pickle', 'wb') as f: pickle.dump(model, f) # 讀取模型 with open('model.pickle', 'rb') as f: model = pickle.load(f) model.predict(X_test) # sklearn自帶方法joblib from sklearn.externals import joblib # 保存模型 joblib.dump(model, 'model.pickle') #載入模型 model = joblib.load('model.pickle')
以上是“Python中sklearn模型怎么用”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。