91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何用XGBoost在Python 中進行特征重要性分析和特征選擇

發布時間:2021-10-09 16:22:56 來源:億速云 閱讀:507 作者:柒染 欄目:編程語言

如何用XGBoost在Python 中進行特征重要性分析和特征選擇,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。

使用諸如梯度增強之類的決策樹方法的集成的好處是,它們可以從訓練有素的預測模型中自動提供特征重要性的估計。

使用梯度增強的好處是,在構建增強后的樹之后,檢索每個屬性的重要性得分相對簡單。通常,重要性提供了一個分數,該分數指示每個特征在模型中構建增強決策樹時的有用性或價值。用于決策樹的關鍵決策使用的屬性越多,其相對重要性就越高。

此重要性是針對數據集中的每個屬性明確計算得出的,從而可以對屬性進行排名并進行相互比較。單個決策樹的重要性是通過每個屬性拆分點提高性能指標的數量來計算的,并由節點負責的觀察次數來加權。性能度量可以是用于選擇拆分點的純度(基尼系數),也可以是其他更特定的誤差函數。然后,將特征重要性在模型中所有決策樹之間平均。有關如何在增強型決策樹中計算特征重要性的更多技術信息,

手動繪制特征重要性

訓練有素的XGBoost模型會自動計算出您的預測建模問題中的特征重要性。這些重要性分數可在訓練模型的feature_importances_成員變量中獲得。例如,可以按如下所示直接打印它們:

print(model.feature_importances_)

我們可以將這些得分直接繪制在條形圖上,以直觀表示數據集中每個特征的相對重要性。例如:

# plot pyplot.bar(range(len(model.feature_importances_)), model.feature_importances_) pyplot.show()

我們可以通過在皮馬印第安人發病的糖尿病數據集上訓練XGBoost模型并根據計算出的特征重要性創建條形圖來證明這一點。

下載數據集并將其放置在當前工作目錄中。

數據集文件:

https://raw.githubusercontent.com/jbrownlee/Datasets/master/pima-indians-diabetes.csv

數據集詳細信息:

https://raw.githubusercontent.com/jbrownlee/Datasets/master/pima-indians-diabetes.names

# plot feature importance manually from numpy import loadtxt from xgboost import XGBClassifier from matplotlib import pyplot # load data dataset = loadtxt('pima-indians-diabetes.csv', delimiter=",") # split data into X and y X = dataset[:,0:8] y = dataset[:,8] # fit model no training data model = XGBClassifier() model.fit(X, y) # feature importance print(model.feature_importances_) # plot pyplot.bar(range(len(model.feature_importances_)), model.feature_importances_) pyplot.show()

注意:由于算法或評估程序的隨機性,或者數值精度的差異,您的結果可能會有所不同。考慮運行該示例幾次并比較平均結果。

首先運行此示例將輸出重要性分數。

[ 0.089701    0.17109634  0.08139535  0.04651163  0.10465116  0.2026578 0.1627907   0.14119601]

我們還獲得了相對重要性的條形圖。

如何用XGBoost在Python 中進行特征重要性分析和特征選擇

該圖的缺點是要素按其輸入索引而不是其重要性排序。我們可以在繪制之前對特征進行排序。

值得慶幸的是,有一個內置的繪圖函數可以幫助我們。

使用內置XGBoost特征重要性圖XGBoost庫提供了一個內置函數,可以按重要性順序繪制要素。該函數稱為plot_importance(),可以按以下方式使用:

# plot feature importance plot_importance(model) pyplot.show()

例如,以下是完整的代碼清單,其中使用內置的plot_importance()函數繪制了Pima Indians數據集的特征重要性。

# plot feature importance using built-in function from numpy import loadtxt from xgboost import XGBClassifier from xgboost import plot_importance from matplotlib import pyplot # load data dataset = loadtxt('pima-indians-diabetes.csv', delimiter=",") # split data into X and y X = dataset[:,0:8] y = dataset[:,8] # fit model no training data model = XGBClassifier() model.fit(X, y) # plot feature importance plot_importance(model) pyplot.show()

注意:由于算法或評估程序的隨機性,或者數值精度的差異,您的結果可能會有所不同。考慮運行該示例幾次并比較平均結果。

運行該示例將為我們提供更有用的條形圖。

如何用XGBoost在Python 中進行特征重要性分析和特征選擇

您可以看到,要素是根據它們在F0至F7的輸入數組(X)中的索引自動命名的。手動將這些索引映射到問題描述中的名稱,可以看到該圖顯示F5(體重指數)具有最高的重要性,而F3(皮膚褶皺厚度)具有最低的重要性。

XGBoost特征重要性評分的特征選擇

特征重要性評分可用于scikit-learn中的特征選擇。這是通過使用SelectFromModel類完成的,該類采用一個模型,并且可以將數據集轉換為具有選定要素的子集。此類可以采用預訓練的模型,例如在整個訓練數據集上進行訓練的模型。然后,它可以使用閾值來確定要選擇的特征。當您在SelectFromModel實例上調用transform()方法以一致地選擇訓練數據集和測試數據集上的相同要素時,將使用此閾值。

在下面的示例中,我們首先訓練,然后分別在整個訓練數據集和測試數據集上評估XGBoost模型。使用從訓練數據集計算出的特征重要性,然后將模型包裝在SelectFromModel實例中。我們使用它來選擇訓練數據集上的特征,從選定的特征子集中訓練模型,然后在測試集上評估模型,并遵循相同的特征選擇方案。

例如:

# select features using threshold selection = SelectFromModel(model, threshold=thresh, prefit=True) select_X_train = selection.transform(X_train) # train model selection_model = XGBClassifier() selection_model.fit(select_X_train, y_train) # eval model select_X_test = selection.transform(X_test) y_pred = selection_model.predict(select_X_test)

出于興趣,我們可以測試多個閾值,以根據特征重要性選擇特征。具體來說,每個輸入變量的特征重要性,從本質上講,使我們能夠按重要性測試每個特征子集,從所有特征開始,到具有最重要特征的子集結束。

下面提供了完整的代碼清單:

# use feature importance for feature selection from numpy import loadtxt from numpy import sort from xgboost import XGBClassifier from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score from sklearn.feature_selection import SelectFromModel # load data dataset = loadtxt('pima-indians-diabetes.csv', delimiter=",") # split data into X and y X = dataset[:,0:8] Y = dataset[:,8] # split data into train and test sets X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.33, random_state=7) # fit model on all training data model = XGBClassifier() model.fit(X_train, y_train) # make predictions for test data and evaluate y_pred = model.predict(X_test) predictions = [round(value) for value in y_pred] accuracy = accuracy_score(y_test, predictions) print("Accuracy: %.2f%%" % (accuracy * 100.0)) # Fit model using each importance as a threshold thresholds = sort(model.feature_importances_) for thresh in thresholds:  # select features using threshold  selection = SelectFromModel(model, threshold=thresh, prefit=True)  select_X_train = selection.transform(X_train)  # train model  selection_model = XGBClassifier()  selection_model.fit(select_X_train, y_train)  # eval model  select_X_test = selection.transform(X_test)  y_pred = selection_model.predict(select_X_test)  predictions = [round(value) for value in y_pred]  accuracy = accuracy_score(y_test, predictions)  print("Thresh=%.3f, n=%d, Accuracy: %.2f%%" % (thresh, select_X_train.shape[1], accuracy*100.0))

請注意,如果您使用的是XGBoost 1.0.2(可能還有其他版本),則XGBClassifier類中存在一個錯誤,該錯誤會導致錯誤:

KeyError: 'weight'

這可以通過使用自定義XGBClassifier類來解決,該類為coef_屬性返回None。下面列出了完整的示例。

# use feature importance for feature selection, with fix for xgboost 1.0.2 from numpy import loadtxt from numpy import sort from xgboost import XGBClassifier from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score from sklearn.feature_selection import SelectFromModel   # define custom class to fix bug in xgboost 1.0.2 class MyXGBClassifier(XGBClassifier):  @property  def coef_(self):   return None   # load data dataset = loadtxt('pima-indians-diabetes.csv', delimiter=",") # split data into X and y X = dataset[:,0:8] Y = dataset[:,8] # split data into train and test sets X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.33, random_state=7) # fit model on all training data model = MyXGBClassifier() model.fit(X_train, y_train) # make predictions for test data and evaluate predictions = model.predict(X_test) accuracy = accuracy_score(y_test, predictions) print("Accuracy: %.2f%%" % (accuracy * 100.0)) # Fit model using each importance as a threshold thresholds = sort(model.feature_importances_) for thresh in thresholds:  # select features using threshold  selection = SelectFromModel(model, threshold=thresh, prefit=True)  select_X_train = selection.transform(X_train)  # train model  selection_model = XGBClassifier()  selection_model.fit(select_X_train, y_train)  # eval model  select_X_test = selection.transform(X_test)  predictions = selection_model.predict(select_X_test)  accuracy = accuracy_score(y_test, predictions)  print("Thresh=%.3f, n=%d, Accuracy: %.2f%%" % (thresh, select_X_train.shape[1], accuracy*100.0))

注意:由于算法或評估程序的隨機性,或者數值精度的差異,您的結果可能會有所不同。考慮運行該示例幾次并比較平均結果。

運行此示例將打印以下輸出。

Accuracy: 77.95% Thresh=0.071, n=8, Accuracy: 77.95% Thresh=0.073, n=7, Accuracy: 76.38% Thresh=0.084, n=6, Accuracy: 77.56% Thresh=0.090, n=5, Accuracy: 76.38% Thresh=0.128, n=4, Accuracy: 76.38% Thresh=0.160, n=3, Accuracy: 74.80% Thresh=0.186, n=2, Accuracy: 71.65% Thresh=0.208, n=1, Accuracy: 63.78%

我們可以看到,模型的性能通常隨所選特征的數量而降低。

在此問題上,需要權衡測試集精度的特征,我們可以決定采用較不復雜的模型(較少的屬性,例如n =  4),并接受估計精度的適度降低,從77.95%降至76.38%。

這可能是對這么小的數據集的洗禮,但是對于更大的數據集并使用交叉驗證作為模型評估方案可能是更有用的策略。

看完上述內容是否對您有幫助呢?如果還想對相關知識有進一步的了解或閱讀更多相關文章,請關注億速云行業資訊頻道,感謝您對億速云的支持。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

宝兴县| 四子王旗| 广丰县| 思茅市| 和顺县| 浪卡子县| 永靖县| 广丰县| 循化| 衢州市| 葫芦岛市| 荆州市| 蒲城县| 涟水县| 鄂伦春自治旗| 应用必备| 大英县| 正蓝旗| 栾城县| 尉犁县| 英吉沙县| 遂平县| 罗平县| 中宁县| 顺平县| 锡林浩特市| 宿州市| 桐庐县| 克山县| 兰溪市| 乌海市| 焉耆| 北海市| 荥阳市| 抚顺市| 锦屏县| 深泽县| 嘉禾县| 大化| 化隆| 云南省|