91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么使用python實現決策樹ID3算法

發布時間:2021-04-09 12:59:39 來源:億速云 閱讀:286 作者:小新 欄目:開發技術

這篇文章主要介紹怎么使用python實現決策樹ID3算法,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

step1:計算香農熵

from math import log
import operator


# 計算香農熵
def calculate_entropy(data):
  label_counts = {}
  for feature_data in data:
    laber = feature_data[-1] # 最后一行是laber
    if laber not in label_counts.keys():
      label_counts[laber] = 0
    label_counts[laber] += 1

  count = len(data)
  entropy = 0.0

  for key in label_counts:
    prob = float(label_counts[key]) / count
    entropy -= prob * log(prob, 2)
  return entropy

step2.計算某個feature的信息增益的方法

# 計算某個feature的信息增益
# index:要計算信息增益的feature 對應的在data 的第幾列
# data 的香農熵
def calculate_relative_entropy(data, index, entropy):
  feat_list = [number[index] for number in data] # 得到某個特征下所有值(某列)
  uniqual_vals = set(feat_list)
  new_entropy = 0
  for value in uniqual_vals:
    sub_data = split_data(data, index, value)
    prob = len(sub_data) / float(len(data)) 
    new_entropy += prob * calculate_entropy(sub_data) # 對各子集香農熵求和
  relative_entropy = entropy - new_entropy # 計算信息增益
  return relative_entropy

step3.選擇最大信息增益的feature

# 選擇最大信息增益的feature
def choose_max_relative_entropy(data):
  num_feature = len(data[0]) - 1
  base_entropy = calculate_entropy(data)#香農熵
  best_infor_gain = 0
  best_feature = -1
  for i in range(num_feature):
    info_gain=calculate_relative_entropy(data, i, base_entropy)
    #最大信息增益
    if (info_gain > best_infor_gain):
      best_infor_gain = info_gain
      best_feature = i

  return best_feature

step4.構建決策樹

def create_decision_tree(data, labels):
  class_list=[example[-1] for example in data]
  # 類別相同,停止劃分
  if class_list.count(class_list[-1]) == len(class_list):
    return class_list[-1]
  # 判斷是否遍歷完所有的特征時返回個數最多的類別
  if len(data[0]) == 1:
    return most_class(class_list)
  # 按照信息增益最高選取分類特征屬性
  best_feat = choose_max_relative_entropy(data)
  best_feat_lable = labels[best_feat] # 該特征的label
  decision_tree = {best_feat_lable: {}} # 構建樹的字典
  del(labels[best_feat]) # 從labels的list中刪除該label
  feat_values = [example[best_feat] for example in data]
  unique_values = set(feat_values)
  for value in unique_values:
    sub_lables=labels[:]
    # 構建數據的子集合,并進行遞歸
    decision_tree[best_feat_lable][value] = create_decision_tree(split_data(data, best_feat, value), sub_lables)
  return decision_tree

在構建決策樹的過程中會用到兩個工具方法:

# 當遍歷完所有的特征時返回個數最多的類別
def most_class(classList):
  class_count={}
  for vote in classList:
    if vote not in class_count.keys():class_count[vote]=0
    class_count[vote]+=1
  sorted_class_count=sorted(class_count.items,key=operator.itemgetter(1),reversed=True)
  return sorted_class_count[0][0]
  
# 工具函數輸入三個變量(待劃分的數據集,特征,分類值)返回不含劃分特征的子集
def split_data(data, axis, value):
  ret_data=[]
  for feat_vec in data:
    if feat_vec[axis]==value :
      reduce_feat_vec=feat_vec[:axis]
      reduce_feat_vec.extend(feat_vec[axis+1:])
      ret_data.append(reduce_feat_vec)
  return ret_data

以上是“怎么使用python實現決策樹ID3算法”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

普兰县| 龙川县| 杭锦后旗| 英超| 纳雍县| 芦溪县| 汾阳市| 阿克苏市| 渝北区| 苏尼特右旗| 泸水县| 卢龙县| 萍乡市| 甘洛县| 从江县| 左贡县| 贵港市| 井陉县| 甘孜| 手游| 仲巴县| 德庆县| 奉贤区| 盐城市| 达尔| 宁明县| 本溪市| 台中县| 新丰县| 化德县| 绥阳县| 嘉定区| 高台县| 宝应县| 德庆县| 怀仁县| 齐河县| 习水县| 库尔勒市| 永定县| 广水市|