LR模型详解_GARCH模型

LR模型详解_GARCH模型1、逻辑回归逻辑回归假设数据服从伯努利分布,通过极大化似然函数方法,运用梯度下降来求解参数,来达到将数据二分目的。2、算法推导对数几率函数:是一种Sigmoid函数,通过此函数来输出类别概率。对数几率函数为:,其中y代表的是样本视为正样本的可能性,则1-y为视为负样本的可能性。对数几率:定义为,其中y/(1-y)称为比率。决策边界:作用在n维空间,将不同样本分开的平面或曲面,在逻辑回归中,决策边界对应$wx+b=0。3、逻辑参数估计3.1、使用极大似…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE稳定放心使用

目录

 

1、逻辑回归

2、算法推导

3、逻辑参数估计

3.1、使用极大似然法进行参数估计

3.2、逻辑回归的损失函数

4、逻辑回归的梯度下降

5、多分类逻辑回归

6、逻辑回归的欠、过拟合

6.1、解决过拟合和欠拟合问题

6.2、LR 正则化

6.2.1、L1正则化

6.2.2、 L2 正则化

6.3 、L1正则化和L2正则化的区别

7、LR与最大熵模型的关系

8、逻辑回归的优缺点

9、逻辑回归面对线性不可分数据

10、逻辑回归通常稀疏的原因

11、逻辑回归和线性回归的异同


1、逻辑回归

逻辑回归假设数据服从伯努利分布,通过极大化似然函数方法,运用梯度下降来求解参数,来达到将数据二分目的。

2、算法推导

对数几率函数:是一种Sigmoid函数,通过此函数来输出类别概率。

对数几率函数为LR模型详解_GARCH模型  ,其中y  代表的是样本视为正样本的可能性,则 1-y 为视为负样本的可能性。

对数几率:定义为 LR模型详解_GARCH模型,其中 y/(1-y) 称为比率。

决策边界:作用在 n 维空间,将不同样本分开的平面或曲面,在逻辑回归中,决策边界对应$ wx+b=0 。

3、逻辑参数估计

3.1、使用极大似然法进行参数估计

LR模型详解_GARCH模型

现学习目标是对参数 w 和b 进行参数估计,使得逻辑回归模型能尽可能符合数据集分布

LR模型详解_GARCH模型

现在,即对对数似然函数求极大值,即以对数似然函数为目标的最优化问题。 L(w) 是关于 w 的高阶连续可导凸函数,根据凸优化理论,可采用梯度下降法,牛顿法等优化方法求解。

3.2、逻辑回归的损失函数

逻辑回归的损失函数是交叉熵损失函数,交叉熵主要用于度量分布的差异性

LR模型详解_GARCH模型

4、逻辑回归的梯度下降

LR模型详解_GARCH模型

5、多分类逻辑回归

一般逻辑回归是一个二分类模型,可推广至多分类

假设:离散型随机变量 y 的取值集合是 {1,2,…K} ,共有 k 类,则多分类逻辑回归模型的输出概率为:

LR模型详解_GARCH模型

其中,注意  p(y=k|x)是一个取 1 到  k-1类其中一类, K 是指第 K 类, p(y=K|x) 便是由1减去其他k取值的概率就是第K类的概率。

LR模型详解_GARCH模型

二阶逻辑回归的参数估计法也可推广到多项逻辑回归。

6、逻辑回归的欠、过拟合

6.1、解决过拟合和欠拟合问题

解决LR回归欠拟合

  • 增加特征的维度

解决LR的过拟合

  • 减少特征的数量,可人工特征选择,也可降维等模型算法选择
  • 正则化(加入 L1,L2 罚项)
  • 逐渐减小梯度下降学习率 

6.2、LR 正则化

6.2.1、L1正则化

LASSO 回归,相当于为模型添加了这样一个先验知识:w服从零均值拉普拉斯分布。

拉普拉斯分布:
LR模型详解_GARCH模型

等价于原始的cross−entropy后面加上了L1正则,因此L1正则的本质其实是为模型增加了“模型参数服从零均值拉普拉斯分布”这一先验知识。

6.2.2、 L2 正则化

Ridge 回归,相当于为模型添加了这样一个先验知识:w服从零均值正态分布。

LR模型详解_GARCH模型

等价于原始的cross−entropy后面加上了L2正则,因此L2正则的本质其实是为模型增加了“模型参数服从零均值正态分布”这一先验知识。

6.3 、L1正则化和L2正则化的区别

  1. 如上面所讲,两者引入的关于模型参数的先验知识不一样。
  2. L1偏向于使模型参数变得稀疏(但实际上并不那么容易),L2偏向于使模型每一个参数都很小,但是更加稠密,从而防止过拟合。

L1偏向于稀疏,L2偏向于稠密,看下面两张图,每一个圆表示loss的等高线,即在该圆上loss都是相同的,可以看到L1更容易在坐标轴上达到,而L2则容易在象限里达到。

LR模型详解_GARCH模型       LR模型详解_GARCH模型

                                 L1                                                                                   L2

7、LR与最大熵模型的关系

 

先说结论,LR与最大熵模型是等价的,下面证明这一点。

LR模型详解_GARCH模型

将最大熵模型写成约束问题:

LR模型详解_GARCH模型

LR模型详解_GARCH模型

 

8、逻辑回归的优缺点

LR优点

  1. 直接对分类的可能性建模,无需事先假设数据分布,避免了假设分布不准确带来的问题
  2. 不仅预测出类别,还可得到近似概率预测
  3. 对率函数是任意阶可导凸函数,有很好得数学性质,很多数值优化算法可直接用于求取最优解
  4. 容易使用和解释,计算代价低
  5. LR对时间和内存需求上相当高效
  6. 可应用于分布式数据,并且还有在线算法实现,用较小资源处理较大数据
  7. 对数据中小噪声鲁棒性很好,并且不会受到轻微多重共线性影响
  8. 因为结果是概率,可用作排序模型

LR缺点

  1. 容易欠拟合,分类精度不高
  2. 数据特征有缺失或特征空间很大时效果不好

9、逻辑回归面对线性不可分数据

逻辑回归本质上是一个线性模型,可通过:

  1. 利用特殊核函数,对特征进行变换把低维空间转换到高维空间,使用组合特征映射(如多项式特征)。但组合特征泛化能力较弱
  2. 扩展LR算法,提出FM算法

10、逻辑回归通常稀疏的原因

  1. 分类特征通常采用one-hot转换成数值特征,产生大量稀疏
  2. 一般很少直接将连续值作为逻辑回归模型输入,而是将连续特征离散化

LR一般需要连续特征离散化原因

  1. 离散特征的增加和减少都很容易,易于模型快速迭代
  2. 稀疏向量内积乘法速廈快,计算结果方便存储,容易扩展
  3. 离散化的特征对异常数据有很强的鲁棒性(比如年龄为300异常值可归为年龄>30这一段
  4. 逻辑回归属于广义线性模型,表达能力受限。单变量离散化为N个后,每个变量有单独的权重,相当于对模型引入了非线性,能够提升模型表达能力,加大拟合
  5. 离散化进行特征交叉,由 M+N 个变量为 M*N 个变量(将单个特征分成 M 个取值),进一步引入非线性,提升表达能力
  6. 特征离散化后,模型会更稳定(比如对用户年龄离散化,20-30作为一个区间,不会因为用户年龄,增加一岁变成完全不同的人,但区间相邻处样本会相反,所以怎样划分区间很重要)
  7. 特征离散化后,简化了LR模型作用,降低模型过拟合风险

11、逻辑回归和线性回归的异同

相同之处

  • 都使用了极大似然估计来对样本建模。线性回归使用最小二乘法,实际上就是在自变量 x 和参数 w 确定,因变量 y 服从正态分布的假设下,使用最大似然估计的一个化简。逻辑回归通过对似然函数的学习,得到最佳参数 w
  • 二者在求解参数的过程中,都可以使用梯度下降的方法

不同之处

  • 逻辑回归处理的是分类问题,线性回归处理的是回归问题
  • 逻辑回归中因变量取值是一个二元分布,模型学习得出的是 E[y|x,w] ,即给定自变量和参数后,得到因变量的期望。而线性回归实际上求解的是 y=wx ,是对假设的真实关系 y=wx+e 的一个近似,其中e 是误差项
  • 逻辑回归中因变量是离散的,线性回归中的因变量是连续的。并在自变量与参数 w 确定情况下,逻辑回归可以看作广义线性模型在因变量 y 服从二元分布时一个特殊情况,而使用最小二乘法求解线性回归时,我们认为因变量 y 服从正态分布

 

参考网址:

https://blog.csdn.net/songbinxu/article/details/79633790 (较深入的逻辑回归介绍)

https://zhuanlan.zhihu.com/p/56900935 (较基础的逻辑回归介绍)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/182292.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

  • f1-score是什么_python概念题

    f1-score是什么_python概念题一、F1score概念?F1score是分类问题的一个衡量指标,一些多分类问题的机器学习竞赛,常把F1score作为最终评测的方法。它是精确率和召回率的调和平均数,取值0-1之间。F1score认为召回率和精确率同样重要,而F2认为召回率的重要程度是精确率的2倍,F0.5则认为召回率的重要程度是精确率的一半。要明确几个概念TP(TruePositive):被判定为正样本,实际为正样本 TN(TrueNegative):被判定为负样本,实际为负样本 FP(FalseP

    2022年10月14日
  • 虚拟存储器中页面置换算法的实现课程设计_段页式存储管理方式的内存地址为

    虚拟存储器中页面置换算法的实现课程设计_段页式存储管理方式的内存地址为设计目的 通过请求页式存储管理中页面置换算法模拟程序,了解虚拟存储技术的特点,掌握请求页式存储管理的页面置换算法。 设计内容 阅读教材《计算机操作系统》第四章,掌握存储器管理相关概念和原理。模拟实现页式虚拟存储管理的三种页面置换算法(OPT、FIFO和LRU),并通过比较性能得出结论。前提:(1)页面分配采用固定分配局部置换。(2)作业的页面走向…

  • onedrive免费扩容25t_onedrive怎么免费扩容1T

    onedrive免费扩容25t_onedrive怎么免费扩容1TOneDrive存储我们都知道没有开office365,自己onedrive的储存空间只有5GB,onenote做笔记以及用onedrive同步文档空间不够,但是又不想开office365;所以在网上看到别人说onedrive可以推荐别人注册,可以扩容10GB;加起来一共15GB,用来做笔记完全够用;或许有大佬会说可以弄到Office教育版的微软账号,有5T或1T的存储空间,但是这个会涉及到账号里面文档的安全性,这种账号是属于教育机构的,全局管理员可以有权查看里面储存的文件并且有权删去账号,这样的

  • 【博弈论】常见总结「建议收藏」

    【博弈论】常见总结「建议收藏」每次看到博弈论的题目就很脑阔疼平衡状态,又称作奇异局势。当面对这个局势时则会失败。任意非平衡态经过一次操作可以变为平衡态。先手能够在初始为非平衡的游戏中取胜,后手能够在初始为平衡的游戏中取胜。SG函数待补两个博客12来源12一、巴仕博弈(BashGame)1堆题目HDU1846有一堆物品,两个人轮流从这堆物品中取物,规定每次至少取一个,最多取m个。最后取光…

    2022年10月15日
  • 运用平面向量的坐标求内积_向量数量积推导过程

    运用平面向量的坐标求内积_向量数量积推导过程Forpersonaluseonlyinstudyandresearch;notforcommercialuse平面向量内积的坐标运算与距离公式德清乾元职高朱见锋【教材分析】:本课是在平面向量坐标运算、内积定义基础上学习的,主要知识是平面向量内积的坐标运算与平面内两点间的距离公式,是后面学习曲线方程的重要公式和推导依据,是进一步学习相关数学知识的重要基础。【教学目标】1.掌握平面向量内积的坐标表示…

  • TiDB 在银行核心金融领域的研究与两地三中心实践

    TiDB 在银行核心金融领域的研究与两地三中心实践作者介绍:于振华,北京银行软件开发部资深架构师,长期从事银行核心系统研发、规划,参与过多个核心信息系统建设工作,包括一、二代支付系统、第四代银行核心系统建设、分布式核心系统建设等企业级项目工作。当前主要研发方向集中在构建先进、高效、面向OLTP的银行交易系统,提升银行信息系统服务能力。本文整理自于振华老师在TiDBDevCon2019上的演讲实录,演讲主题为《TiDB在…

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号