R语言 回归决策树
决策树是机器学习中的一种算法,它使用决策作为特征,以树状结构的形式表示结果。它是一种常用的工具,用于直观地表示算法做出的决定。决策树同时使用分类和回归。回归树用于因变量是连续的时候,而分类树用于因变量是分类的时候。例如,确定/预测性别是分类的一个例子,而根据发动机功率预测汽车的里程数是回归的一个例子。在这篇文章中,让我们讨论在R编程中使用回归的决策树的语法和实现。
在R中的实现
在R编程中, rpart() 函数存在于 rpart 包中。使用 rpart() 函数,可以在R中建立决策树。
语法:
rpart(formula, data, method)
参数:
formula: 表示拟合模型所依据的公式
data: 表示数据框架
method: 表示创建决策树的方法。”anova “用于回归,”class “作为分类的方法。
例1:
在这个例子中,让我们使用回归决策树来预测萼片的宽度。
第1步: 安装所需的软件包
第2步: 加载软件包
第3步: 为回归的决策树拟合模型
第4步: 绘制树形图
第5步: 打印决策树模型
第6步: 预测萼片宽度
输出
例2:
在这个例子中,让我们用决策树来预测mpg值的回归。
第1步: 安装所需的软件包
第2步: 加载软件包
第3步: 为回归的决策树拟合模型
第4步: 绘制树形图
第5步: 打印决策树模型
第6步: 使用测试数据集预测mpg值
输出
决策树的优点
- 考虑所有可能的决策: 决策树考虑所有可能的决策来创建问题的结果。
- 易于使用: 有了分类和回归技术,它很容易用于任何类型的问题,并进一步创建预测和解决该问题。
- 没有缺失值的问题: 有缺失值的数据集没有问题,不会影响决策树的建立。
决策树的劣势
- 需要更多时间: 决策树需要更多时间来计算大数据集。
- 学习能力差: 决策树的学习能力不强。随机森林方法被用于更好的学习。