如何在Python中使用決策樹實現迴歸器?
決策樹是隨機森林演算法的基本構建塊。它被認為是機器學習中最流行的演算法之一,用於分類目的。決策樹給出的決策可以用來解釋為什麼做出某種預測。這意味著使用者可以清楚地瞭解該過程的輸入和輸出。它們也稱為CART,即分類和迴歸樹。它可以視覺化為二叉樹(在資料結構和演算法中學習的)。
樹中的每個節點都表示單個輸入變數,葉節點(也稱為終端節點)包含輸出變數。這些葉節點用於對節點進行預測。建立決策樹時,基本思想是將給定空間劃分為多個部分。所有值都被提出,並嘗試不同的分割,以便獲得較低的成本和最佳預測值。這些值以貪婪的方式選擇。
這些節點的分割持續進行,直到達到樹的最大深度。使用決策樹的目的是根據特定特徵值將輸入資料集劃分為更小的資料集,直到每個目標變數都屬於一個類別。這種分割是為了在每一步獲得最大的資訊增益。
每個決策樹都從根節點開始,這是進行第一次分割的地方。應該設計一種有效的方法來確保節點的定義。
這就是基尼係數發揮作用的地方。基尼係數被認為是衡量不平等的最常用度量之一。不平等是指每個子集可能所屬的目標類別(輸出)。
使用DecisionTreeRegressor時,使用以下語法:
class sklearn.tree.DecisionTreeRegressor (*, criterion=’mse’,…
讓我們瞭解如何使用DecisionTreeRegressor:
示例
from sklearn import tree my_data = [[1, 1], [5, 5], [2,3], [7,11]] target_vals = [0.1, 1.5, 0.75, 1.73] clf = tree.DecisionTreeRegressor() print("The decision tree regressor has been called") DTreg = clf.fit(my_data, target_vals) print("Data has been fit") pred_val = DTreg.predict([[4, 7]]) print("The predicted data is ") print(pred_val)
輸出
The decision tree regressor has been called Data has been fit The predicted data is [1.5]
解釋
- 必需的包被匯入到環境中。
- 定義特徵向量和目標值。
- 呼叫DecisionTreeRegressor並將資料擬合到模型。
- 使用“predict”函式預測特徵值的預測值。
- 輸出顯示在控制檯上。
廣告