如何利用剪枝方法设计更好的决策树( 二 )

剪枝从一棵未剪枝的决策树开始 。 然后获取子树序列 , 通过交叉验证选择最佳的子树序列 。
剪枝可以确保子树是最优的 , 这一点很重要 , 也就是说它具有更高的精度 , 并且最优子树搜索在计算上是易于处理的 。 因此 , 剪枝不仅应该减少过拟合 , 而且还应该使决策树比未剪枝的决策树更简单、更容易理解和更有效地解释 , 同时保持其性能 。
结语 现在人们知道决策树属于一种有监督的机器学习算法 。 与其他监督学习算法相比 , 决策树也可用于解决分类和回归问题 。
决策树用于构建模型 , 以基于从先前训练数据中得出的简单决策规则来预测变量值或类别 。 剪枝有助于决策树做出精确的决策 , 同时降低其复杂性并设置约束 。
原文标题:How to Design a Better Decision Tree With Pruning , 作者:Mahipal Nehra

特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。