如何在Python中使用决策树实现回归?

如何在Python中使用决策树实现回归?

决策树是随机森林算法的基本构建块。它被认为是机器学习中最流行的算法之一,用于分类目的。决策树给出的决策可以用于解释为什么做出某个预测。这意味着用户可以清楚地了解过程的输入和输出。它们也被称为CART,即分类和回归树。它可以被视为二叉树(在数据结构和算法中研究的树)。

树中的每个节点表示单个输入变量,叶节点(也称为终端节点)包含输出变量。这些叶节点用于在节点上进行预测。创建决策树时,基本思想是将给定空间划分为多个部分。将所有值放在一起并尝试不同的拆分,以达到成本最小化和最佳预测值。这些值是贪婪地选择的。

节点的拆分一直进行,直到达到树的最大深度。使用决策树的想法是基于特定特征值将输入数据集划分为较小的数据集,直到每个目标变量都属于一个单一的类别。这个分割是为了获得每个步骤的最大信息增益。

每个决策树都始于根部,这是第一次分裂的地方。必须制定有效的方法来确保定义节点。

这就是Gini值的作用。Gini被认为是测量不平等的最常用的测量之一。不平等是指可能属于节点中每个子集的目标类(输出)。

使用DecisionTreeRegressor时使用下面的语法。

class sklearn.tree.DecisionTreeRegressor(*,criterion='mse',...

让我们了解如何使用DecisionTreeRegressor –

更多Python相关文章,请阅读:Python 教程

示例

from sklearn import tree
my_data = [[1,1],[5,5],[2,3],[7,11]]
target_vals = [0.1,1.5,0.75,1.73]
clf = tree.DecisionTreeRegressor()
print(“已调用决策树回归器”)
DTreg = clf.fit(my_data,target_vals)
print(“已安装数据”)
pred_val = DTreg.predict([[4,7]])
print(“预测的数据为”)
print(pred_val)

输出

已调用决策树回归器
已安装数据
预测的数据为
[1.5]

解释

  • 导入了所需的软件包。
  • 定义了特征向量和目标值。
  • 调用DecisionTreeRegressor并将数据适合模型。
  • 使用“predict”函数预测特征值的值。
  • 将输出显示在控制台中。

Python教程

Java教程

Web教程

数据库教程

图形图像教程

大数据教程

开发工具教程

计算机教程