91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python回歸樹如何實現

發布時間:2022-06-02 13:36:56 來源:億速云 閱讀:136 作者:iii 欄目:開發技術

本篇內容介紹了“Python回歸樹如何實現”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

首先導入庫

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt

首先需要創建訓練數據,我們的數據將具有獨立變量(x)和一個相關的變量(y),并使用numpy在相關值中添加高斯噪聲,可以用數學表達為

Python回歸樹如何實現

這里的???? 是噪聲。代碼如下所示。

def f(x):
    mu, sigma = 0, 1.5
    return -x**2 + x + 5 + np.random.normal(mu, sigma, 1)

num_points = 300
np.random.seed(1)
    
x = np.random.uniform(-2, 5, num_points)
y = np.array( [f(i) for i in x] )

plt.scatter(x, y, s = 5)

Python回歸樹如何實現

回歸樹

在回歸樹中是通過創建一個多個節點的樹來預測數值數據的。下圖展示了一個回歸樹的樹結構示例,其中每個節點都有其用于劃分數據的閾值。

給定一組數據,輸入值將通過相應的規格達到葉子節點。達到節點M的所有輸入值可以用X的子集表示。從數學上講,讓我們用一個函數表達此情況,如果給定的輸入值達到節點M,則可以給出1個,否則為0。

找到分裂數據的閾值:通過在每個步驟中選擇2個連續點并計算其平均值來迭代訓練數據。計算的平均值將數據分為兩個的閾值。

首先讓我們考慮隨機閾值以演示任何給定的情況。

threshold = 1.5

low = np.take(y, np.where(x < threshold))
high = np.take(y, np.where(x > threshold))

plt.scatter(x, y, s = 5, label = 'Data')
plt.plot([threshold]*2, [-16, 10], 'b--', label = 'Threshold line')
plt.plot([-2, threshold], [low.mean()]*2, 'r--', label = 'Left child prediction line')
plt.plot([threshold, 5], [high.mean()]*2, 'r--', label = 'Right child prediction line')
plt.plot([-2, 5], [y.mean()]*2, 'g--', label = 'Node prediction line')
plt.legend()

Python回歸樹如何實現

藍色垂直線表示單個閾值,我們假設它是任意兩點的均值,并稍后將其用于劃分數據。

我們對這個問題的第一個預測是所有訓練數據(y軸)的平均值(綠色水平線)。而兩條紅線是要創建的子節點的預測。

很明顯這些平均值都不能很好地代表我們的數據,但它們的差異也是很明顯的:主節點預測(綠線)得到所有訓練數據的均值,我們將其分為2個子節點,這2個子節點有自己的預測(紅線)。與綠線相比這2個子節點更好地代表了它們對應的訓練數據。回歸樹就是將不斷地將數據分成2個部分&mdash;&mdash;從每個節點創建2個子節點,直到達到給定的停止值(這是一個節點所能擁有的最小數據量)。它會提前停止樹的構建過程,我們將其稱為預修剪樹。

為什么會有早停的機制?如果我們要繼續進行分配直到節點只有一個值是,這創建一個過度擬合的方案,每個訓練數據都只能預測自己。

說明:當模型完成時,它不會使用根節點或任何中間節點來預測任何值;它將使用回歸樹的葉子(這將是樹的最后一個節點)進行預測。

為了得到最能代表給定閾值數據的閾值,我們使用殘差平方和。它可以在數學上定義為

Python回歸樹如何實現

讓我們看看這一步是如何工作的。

Python回歸樹如何實現

既然計算了閾值的SSR值,那么可以采用具有最小SSR值的閾值。使用該閾值將訓練數據分為兩個(低和高部分),其中其中低部分將用于創建左子節點,高部分將用于創建右子節點。

def SSR(r, y): 
    return np.sum( (r - y)**2 )
    
SSRs, thresholds = [], []
for i in range(len(x) - 1):
    threshold = x[i:i+2].mean()
    
    low = np.take(y, np.where(x < threshold))
    high = np.take(y, np.where(x > threshold))
    
    guess_low = low.mean()
    guess_high = high.mean()
    
    SSRs.append(SSR(low, guess_low) + SSR(high, guess_high))
    thresholds.append(threshold)
    
print('Minimum residual is: {:.2f}'.format(min(SSRs)))
print('Corresponding threshold value is: {:.4f}'.format(thresholds[SSRs.index(min(SSRs))]))

Python回歸樹如何實現

在進入下一步之前,我將使用pandas創建一個df,并創建一個用于尋找最佳閾值的方法。所有這些步驟都可以在沒有pandas的情況下完成,這里使用他是因為比較方便。

df = pd.DataFrame(zip(x, y.squeeze()), columns = ['x', 'y'])

def find_threshold(df, plot = False):
    SSRs, thresholds = [], []
    for i in range(len(df) - 1):
        threshold = df.x[i:i+2].mean()

        low = df[(df.x <= threshold)]
        high = df[(df.x > threshold)]

        guess_low = low.y.mean()
        guess_high = high.y.mean()

        SSRs.append(SSR(low.y.to_numpy(), guess_low) + SSR(high.y.to_numpy(), guess_high))
        thresholds.append(threshold)
    
    if plot:
        plt.scatter(thresholds, SSRs, s = 3)
        plt.show()
        
    return thresholds[SSRs.index(min(SSRs))]

創建子節點

在將數據分成兩個部分后就可以為低值和高值找到單獨的閾值。需要注意的是這里要增加一個停止條件;因為對于每個節點,屬于該節點的數據集中的點會變少,所以我們為每個節點定義了最小數據點數量。如果不這樣做,每個節點將只使用一個訓練值進行預測,會導致過擬合。

可以遞歸地創建節點,我們定義了一個名為TreeNode的類,它將存儲節點應該存儲的每一個值。使用這個類我們首先創建根,同時計算它的閾值和預測值。然后遞歸地創建它的子節點,其中每個子節點類都存儲在父類的left或right屬性中。

在下面的create_nodes方法中,首先將給定的df分成兩部分。然后檢查是否有足夠的數據單獨創建左右節點。如果(對于其中任何一個)有足夠的數據點,我們計算閾值并使用它創建一個子節點,用這個新節點作為樹再次調用create_nodes方法。

class TreeNode():
    def __init__(self, threshold, pred):
        self.threshold = threshold
        self.pred = pred
        self.left = None
        self.right = None

def create_nodes(tree, df, stop):
    low = df[df.x <= tree.threshold]
    high = df[df.x > tree.threshold]
    
    if len(low) > stop:
        threshold = find_threshold(low)
        tree.left = TreeNode(threshold, low.y.mean())
        create_nodes(tree.left, low, stop)
        
    if len(high) > stop:
        threshold = find_threshold(high)
        tree.right = TreeNode(threshold, high.y.mean())
        create_nodes(tree.right, high, stop)
        
threshold = find_threshold(df)
tree = TreeNode(threshold, df.y.mean())

create_nodes(tree, df, 5)

這個方法在第一棵樹上進行了修改,因為它不需要返回任何東西。雖然遞歸函數通常不是這樣寫的(不返回),但因為不需要返回值,所以當沒有激活if語句時,不做任何操作。

在完成后可以檢查此樹結構,查看它是否創建了一些可以擬合數據的節點。這里將手動選擇第一個節點及其對根閾值的預測。

plt.scatter(x, y, s = 0.5, label = 'Data')
plt.plot([tree.threshold]*2, [-16, 10], 'r--', 
         label = 'Root threshold')
plt.plot([tree.right.threshold]*2, [-16, 10], 'g--', 
         label = 'Right node threshold')
plt.plot([tree.threshold, tree.right.threshold], 
         [tree.right.left.pred]*2,
         'g', label = 'Right node prediction')
plt.plot([tree.left.threshold]*2, [-16, 10], 'm--', 
         label = 'Left node threshold')
plt.plot([tree.left.threshold, tree.threshold], 
         [tree.left.right.pred]*2,
         'm', label = 'Left node prediction')
plt.plot([tree.left.left.threshold]*2, [-16, 10], 'k--',
         label = 'Second Left node threshold')
plt.legend()

Python回歸樹如何實現

這里看到了兩個預測:

第一個左節點對高值的預測(高于其閾值)

第一個右節點對低值(低于其閾值)的預測

這里我手動剪切了預測線的寬度,因為如果給定的x值達到了這些節點中的任何一個,則將以屬于該節點的所有x值的平均值表示,這也意味著沒有其他x值參與 在該節點的預測中(希望有意義)。

這種樹形結構遠不止兩個節點那么簡單,所以我們可以通過如下調用它的子節點來檢查一個特定的葉子節點。

tree.left.right.left.left

這當然意味著這里有一個向下4個子結點長的分支,但它可以在樹的另一個分支上深入得多。

預測

我們可以創建一個預測方法來預測任何給定的值。

def predict(x):
    curr_node = tree
    result = None
    while True:
        if x <= curr_node.threshold:
            if curr_node.left: curr_node = curr_node.left
            else: 
                break
        elif x > curr_node.threshold:
            if curr_node.right: curr_node = curr_node.right
            else: 
                break
                
    return curr_node.pred

預測方法做的是沿著樹向下,通過比較我們的輸入和每個葉子的閾值。如果輸入值大于閾值,則轉到右葉,如果小于閾值,則轉到左葉,以此類推,直到到達任何底部葉子節點。然后使用該節點自身的預測值進行預測,并與其閾值進行最后的比較。

使用x = 3進行測試(在創建數據時,可以使用上面所寫的函數計算實際值。-3**2+3+5 = -1,這是期望值),我們得到:

predict(3)
# -1.23741

計算誤差

這里用相對平方誤差驗證數據

Python回歸樹如何實現

def RSE(y, g): 
    return sum(np.square(y - g)) / sum(np.square(y - 1 / len(y)*sum(y)))

x_val = np.random.uniform(-2, 5, 50)
y_val = np.array( [f(i) for i in x_val] ).squeeze()

tr_preds = np.array( [predict(i) for i in df.x] )
val_preds = np.array( [predict(i) for i in x_val] )
print('Training error: {:.4f}'.format(RSE(df.y, tr_preds)))
print('Validation error: {:.4f}'.format(RSE(y_val, val_preds)))

可以看到誤差并不大,結果如下

Python回歸樹如何實現

概括的步驟

Python回歸樹如何實現

更深入的模型

一個更適合回歸樹模型的數據:因為我們的數據是多項式生成的數據,所以使用多項式回歸模型可以更好地擬合。我們更換一下訓練數據,把新函數設為

Python回歸樹如何實現

def f(x):
    mu, sigma = 0, 0.5
    if x < 3: return 1 + np.random.normal(mu, sigma, 1)
    elif x >= 3 and x < 6: return 9 + np.random.normal(mu, sigma, 1)
    elif x >= 6: return 5 + np.random.normal(mu, sigma, 1)
    
np.random.seed(1)
    
x = np.random.uniform(0, 10, num_points)
y = np.array( [f(i) for i in x] )

plt.scatter(x, y, s = 5)

Python回歸樹如何實現

在此數據集上運行了上面的所有相同過程,結果如下

Python回歸樹如何實現

比我們從多項式數據中獲得的誤差低。

最后共享一下上面動圖的代碼:

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from matplotlib.animation import FuncAnimation

#===================================================Create Data
def f(x):
    mu, sigma = 0, 1.5
    return -x**2 + x + 5 + np.random.normal(mu, sigma, 1)

np.random.seed(1)
    
x = np.random.uniform(-2, 5, 300)
y = np.array( [f(i) for i in x] )

p = x.argsort()
x = x[p]
y = y[p]

#===================================================Calculate Thresholds
def SSR(r, y): #send numpy array
    return np.sum( (r - y)**2 )

SSRs, thresholds = [], []
for i in range(len(x) - 1):
    threshold = x[i:i+2].mean()
    
    low = np.take(y, np.where(x < threshold))
    high = np.take(y, np.where(x > threshold))
    
    guess_low = low.mean()
    guess_high = high.mean()
    
    SSRs.append(SSR(low, guess_low) + SSR(high, guess_high))
    thresholds.append(threshold)

#===================================================Animated Plot
fig, (ax1, ax2) = plt.subplots(2,1, sharex = True)
x_data, y_data = [], []
x_data2, y_data2 = [], []
ln, = ax1.plot([], [], 'r--')
ln2, = ax2.plot(thresholds, SSRs, 'ro', markersize = 2)
line = [ln, ln2]

def init():
    ax1.scatter(x, y, s = 3)
    ax1.title.set_text('Trying Different Thresholds')
    ax2.title.set_text('Threshold vs SSR')
    ax1.set_ylabel('y values')
    ax2.set_xlabel('Threshold')
    ax2.set_ylabel('SSR')
    return line

def update(frame):
    x_data = [x[frame:frame+2].mean()] * 2
    y_data = [min(y), max(y)]
    line[0].set_data(x_data, y_data)

    x_data2.append(thresholds[frame])
    y_data2.append(SSRs[frame])
    line[1].set_data(x_data2, y_data2)
    return line

ani = FuncAnimation(fig, update, frames = 298,
                    init_func = init, blit = True)
plt.show()

“Python回歸樹如何實現”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

积石山| 湖口县| 沿河| 胶州市| 宁德市| 农安县| 南皮县| 清水县| 建阳市| 盐源县| 潜山县| 云南省| 加查县| 太仆寺旗| 城口县| 石泉县| 南开区| 乌兰察布市| 灌云县| 兴业县| 射洪县| 大关县| 香港| 云霄县| 枝江市| 哈密市| 共和县| 盐津县| 沙田区| 泰宁县| 吉水县| 织金县| 萍乡市| 金塔县| 衡东县| 虎林市| 周至县| 勐海县| 宁国市| 师宗县| 伊宁市|