建网站怎样往网站传视频,steam交易链接怎么用,响应式网站建设服务提供商,企业vi形象设计是什么意思决策树的基本构建流程
决策树的本质是挖掘有效的分类规则#xff0c;然后以树的形式呈现。
这里有两个重点#xff1a;
有效的分类规则#xff1b;树的形式。
有效的分类规则#xff1a;叶子节点纯度越高越好#xff0c;就像我们分红豆和黄豆一样#xff0c;我们当然…决策树的基本构建流程
决策树的本质是挖掘有效的分类规则然后以树的形式呈现。
这里有两个重点
有效的分类规则树的形式。
有效的分类规则叶子节点纯度越高越好就像我们分红豆和黄豆一样我们当然是想把红豆和黄豆完全分开。
这里标签的纯度的衡量指标有
分类误差信息熵Entropy基尼系数Gini。
我们举例来看看这三个指标是如何计算的
对于单个数据集
假如我们有10条样本6条0类样本4条1类样本
则0类样本占 6 10 \frac{6}{10} 106 1类样本占 4 10 \frac{4}{10} 104
分类误差1-多数类的占比: 1 − 6 10 0.4 1-\frac{6}{10}0.4 1−1060.4 信息熵 − 6 10 ∗ l o g 2 6 10 − 4 10 ∗ l o g 2 4 10 0.97 -\frac{6}{10}*log_2\frac{6}{10}-\frac{4}{10}*log_2\frac{4}{10} 0.97 −106∗log2106−104∗log21040.97 基尼系数 1 − ( ( 6 10 ) 2 ( 4 10 ) 2 ) 0.48 1-((\frac{6}{10})^2(\frac{4}{10})^2)0.48 1−((106)2(104)2)0.48
对于多个数据集
如何计算B1B2两个子节点整体的评估指标
加权求和 这里以基尼系数为例
Gini_B1 1 − ( ( 2 5 ) 2 ( 3 5 ) 2 ) 0.48 1-((\frac{2}{5})^2(\frac{3}{5})^2)0.48 1−((52)2(53)2)0.48
Gini_B2 0
Gini_B 5 8 \frac{5}{8} 85*Gini_B1 3 8 \frac{3}{8} 83*Gini_B2 5 8 ∗ 0.48 \frac{5}{8}*0.48 85∗0.48 3 8 ∗ 0 \frac{3}{8}*0 83∗00.3
介绍完了有效的分类规则我们再来看看第二个重点树的形式。 下面简单画一下二层分类树。 主流的决策树分类类别可划分为
D3(Iterative Dichotomiser 3) 、C4.5、C5.0决策树CARTClassification and Regression Trees决策树CHAIDChi-square automatic interaction detection树
下面我们分别来看看决策树构建重点问题
1. 决策树的生长方向
决策树生长的方向也就是令每个划分出来的子集纯度越来越高的方向
2. 如何挑选有效的分类规则
选择信息增益最大的
假设我们有age列 首先逐列对特征进行数值排序 然后寻找特征不同取值之间的中间点为切点 N个取值有N-1种划分方式 这里有10个取值所以有9种划分方式将数据集一分为二。 假设我们以10和9的中间点为划分方式 10 9 2 9.5 \frac{109}{2}9.5 21099.5 则我们可以以age是否小于等于9.5为划分规则将数据集一分为二。
Notes: 1.CART(二叉树用这种方法同时处理连续变量预测值是划分后子数据集的均值和离散变量; 2. C4.5连续变量用这种方式离散变量用列的取值。
信息增益的计算 CART Gain Gini(父节点- Gini(子节点 ID3和C4.5 Gain Entropy(父节点- Entropy(子节点
3. 如何停止迭代生长
收敛条件 1两轮迭代损失函数的差值小于某个值 2限制最大迭代次数也就是约束树最多生长几层