大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。
Jetbrains全系列IDE稳定放心使用
概念
定义在特征空间与类空间上的条件概率分布,即给定特征条件下类的条件概率分布;也可以认为是if-then规则的集合
优点
模型具有可读性,分类速度快。
模型
首先,介绍一下决策树模型:
由结点和有向边组成,结点又可分为内部结点和叶结点。内部结点表示一个特征或属性,叶结点表示一个类。
决策树与条件概率分布
决策树所表示的条件概率分布由各个单元给定条件下的类的条件概率分布组成。若X表示特征的随机变量,取值于给定划分下单元的集合,Y表示类的随机变量,取值于类的集合,则该条件概率分布可以表示为P(Y|X)。
各叶结点(单元)上的条件概率往往偏向于某一类,即属于某一类的概率较大。
决策树本质
从训练数据集中归纳出一组分类规则。
步骤
决策树的学习常包含三个步骤:
特征选择
决策树的生成
决策树的剪枝
特征选择
是决定用哪个特征来划分特征空间。三种方法:
信息增益
信息增益比
基尼指数
决策树的生成
基本方法,从根结点出发,对结点计算所有可能的特征的信息增益(或信息增益比或基尼指数),选择信息增益值(或信息增益比或基尼指数)较大的特征作为结点的特征。
几种选择标准的不同(ID3, C4.5, CART)可参考:决策树
决策树的剪枝
通过极小化决策树整体的损失函数或代价函数来实现。
两者的不同:
决策树的生成只考虑了通过提高信息增益或信息增益比对数据进行更好的拟合,而剪枝通过优化损失函数还减小了模型的复杂度。
决策树生成学习局部的模型,而决策树剪枝学习整体的模型。
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/179599.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...