机器学习(1):线性回归概念

ops/2025/1/16 14:55:21/

1 线性回归基础

1.1 什么是线性

        例如:汽车每小时60KM,3小时可以行使多长距离?已知汽车的速度,则汽车的行使距离只与时间唯一相关。在二元的直角坐标系中,描出这一关系的图是一条直线,所以称为线性关系。

        线性特点是一个事物唯一由另一个事物决定。

1.2 什么是回归

        那么,这个回归究竟是什么意思呢?其实回归算法是相对分类算法而言的,与我们想要预测的目标变量y的值类型有关。如果目标变量y是分类型变量,如预测用户的性别(男、女),预测月季花的颜色(红、白、黄……),预测是否患有肺癌(是、否),那我们就需要用分类算法去拟合训练数据并做出预测;如果y是连续型变量,如预测用户的收入(4千,2万,10万……),预测员工的通勤距离(500m,1km,2万里……),预测患肺癌的概率(1%,50%,99%……),我们则需要用回归模型。

        有时分类问题也可以转化为回归问题,例如刚刚举例的肺癌预测,我们可以用回归模型先预测出患肺癌的概率,然后再给定一个阈值,例如50%,概率值在50%以下的人划为没有肺癌,50%以上则认为患有肺癌。这种分类型问题的回归算法预测,最常用的就是逻辑回归,后面我们会讲到。

2 一元线性回归

        线性回归可以说是用法非常简单、用处非常广泛、含义也非常容易理解的一类算法,作为机器学习的入门算法非常合适。我们上中学的时候,都学过二元一次方程,我们将y作为因变量,x作为自变量,得到方程:

y=β0+β1x

        当给定参数β0和β1的时候,画在坐标图内是一条直线(这就是“线性”的含义)。当我们只用一个x来预测y,就是一元线性回归,也就是在找一个直线来拟合数据。比如,我有一组数据画出来的散点图,横坐标代表广告投入金额,纵坐标代表销售量,线性回归就是要找一条直线,并且让这条直线尽可能地拟合图中的数据点。

        这里我们得到的拟合方程是y = 0.0512x + 7.1884,此时当我们获得一个新的广告投入金额后,我们就可以用这个方程预测出大概的销售量。

        数学理论的世界是精确的,譬如你代入x=0就能得到唯一的 y^ ,y^=7.1884(y上面加一个小帽子hat,表示这个y^不是我们真实观测到的,而是估计值)。但现实世界中的数据就像这个散点图,我们只能尽可能地在杂乱中寻找规律。用数学的模型去拟合现实的数据,这就是统计。统计不像数学那么精确,统计的世界不是非黑即白的,它有“灰色地带”,但是统计会将理论与实际间的差别表示出来,也就是“误差”。因此,统计世界中的公式会有一个小尾巴 μ ,用来代表误差,即:

y=β0+β1x+μ

3.损失函数

        那既然是用直线拟合散点,为什么最终得到的直线是y = 0.0512x + 7.1884,而不是下图中的y = 0.0624x + 5呢?这两条线看起来都可以拟合这些数据啊?毕竟数据不是真的落在一条直线上,而是分布在直线周围,所以我们要找到一个评判标准,用于评价哪条直线才是最“合适”的。

        我们先从残差说起。残差说白了就是真实值和预测值间的差值(也可以理解为差距、距离),用公式表示是:

e=y−y^

        对于某个广告投入 xi ,我们有对应的实际销售量 yi ,和预测出来的销售量yi^(音:yihat)(通过将xi代入公式y=β0+β1x计算得到),计算 ei=yi−y^i 的值,再将其平方(为了消除负号),对于我们数据中的每个点如此计算一遍,再将所有的 ei2相加,就能量化出拟合的直线和实际之间的误差。用公式表示就是:

Q=∑1n(yi−y^i)2=∑1n(yi−(β^0+β^1xi))2

        这个公式是残差平方和,即SSE(Sum of Squares for Error),在机器学习中它是回归问题中最常用的损失函数

        现在我们知道了损失函数是衡量回归模型误差的函数,也就是我们要的“直线”的评价标准。这个函数的值越小,说明直线越能拟合我们的数据。如果还是觉得难理解,我下面就举个具体的例子。

        假设我们有一组样本,建立了一个线性回归模型f(x),

  • 样本A:公司投入了x=1000元做广告,销售量为y=60,f(x=1000)算出来是50,有-10的偏差。
  • 样本B:x=2000,销售量为y=95,f(x=2000)=100,偏差为5。
  • 样本C:x=3000,销售量为y=150,f(x=2000)=150,偏差为0哦,没有偏差

        要计算A、B、C的整体偏差,因为有正有负,所以做个平方,都弄成正的,然后再相加,得到总偏差,也就是平方损失,是125。

4 最小二乘法与梯度下降法

4.1 最小二乘法

        我们不禁会问,这个β0和β1的具体值究竟是怎么算出来的呢?我们知道,两点确定一线,有两组x,y的值,就能算出来β0和β1。但是现在我们有很多点,且并不正好落在一条直线上,这么多点每两点都能确定一条直线,这到底要怎么确定选哪条直线呢?

        当给出两条确定的线,如y = 0.0512x + 7.1884,y = 0.0624x + 5时,我们知道怎么评价这两个中哪一个更好,即用损失函数评价。那么我们试试倒推一下?

        给定一组样本观测值xi,yi(i=1,2,…n),要求回归函数尽可能拟合这组值。普通最小二乘法给出的判断标准是:残差平方和的值达到最小。我们再来看一下残差平方和的公式:

Q=∑1n(yi−y^i)2=∑1n(yi−(β^0+β^1xi))2

        这个公式是一个二次方程,我们知道一元二次方程差不多长下图这样:

        上面公式中 β^0 和 β^1 未知,有两个未知参数的二次方程,画出来是一个三维空间中的图像,类似下面:

        还记得微积分知识的话,就知道导数为0时,Q取最小值,因此我们分别对β^0和β^1求偏导并令其为0:

∂Q∂β0=2∑1n(yi−β0^−β1^xi)=0

∂Q∂β1=2∑1n(yi−β0^−β1^xi)xi=0

        xi,yi(i=1,2,…n)都是已知的,全部代入上面两个式子,就可求得β^0和β^1的值啦。这就是最小二乘法,“二乘”是平方的意思。

        线性回归对一个或多个自变量之间关系进行建模的方法。以上举的例子是一维的例子(x只有一个),如果有两个特征,就是二元线性回归,要拟合的就是二维空间中的一个平面。如果有多个特征,那就是多元线性回归

y=β0+β1x1+β2x2+⋯+βpxp

        最后再提醒一点,做线性回归,不要忘了前提假设是y和x呈线性关系,如果两者不是线性关系,就要选用其他的模型啦。

4.2 梯度下降法 

 梯度下降法的基本思想可以类比为一个下山的过程,如下图所示函数看似为一片山林,红色的是山林的高点,蓝色的为山林的低点,蓝色的颜色越深,地理位置越低,则图中有一个低点,一个最低点。

        假设这样一个场景:一个人被困在山上(图中红圈的位置),需要从山上下来(找到山的最低点,也就是山谷),但此时山上的浓雾很大,导致可视度很低。因此,下山的路径就无法确定,他必须利用自己周围的信息去找到下山的路径。这个时候,他就可以利用梯度下降算法来帮助自己下山。具体来说就是,以他当前的所处的位置为基准,寻找这个位置最陡峭的地方,然后朝着山的高度下降的方向走,然后每走一段距离,都反复采用同一个方法,最后就能成功的抵达山谷。

        假设这座山最陡峭的地方是无法通过肉眼立马观察出来的,而是需要一个复杂的工具来测量,同时,这个人此时正好拥有测量出最陡峭方向的工具。所以,此人每走一段距离,都需要一段时间来测量所在位置最陡峭的方向,这是比较耗时的。那么为了在太阳下山之前到达山底,就要尽可能的减少测量方向的次数。这是一个两难的选择,如果测量的频繁,可以保证下山的方向是绝对正确的,但又非常耗时,如果测量的过少,又有偏离轨道的风险。所以需要找到一个合适的测量方向的频率(多久测量一次),来确保下山的方向不错误,同时又不至于耗时太多,在算法中我们成为步长。

        按照梯度下降算法的思想,它将按如下操作达到最低点:

  1. 明确自己现在所处的位置
  2. 找到相对于该位置而言下降最快的方向
  3. 沿着第二步找到的方向走一小步,到达一个新的位置,此时的位置肯定比原来低
  4. 回到第一步
  5. 终止于最低点

        按照以上5步,最终达到最低点,这就是梯度下降的完整流程。当然你可能会说,上图不是有不同的路径吗?是的,因为上图并不是标准的凸函数,往往不能找到最小值,只能找到局部极小值。所以你可以用不同的初始位置进行梯度下降,来寻找更小的极小值点。

4.3 总结

         最小二乘法和梯度下降法都是经典的学习算法,在给定已知数据的前提下利用求导算出一个模型(函数),使得损失函数值最小,后对给定的新数据进行估算预测。两者的区别:

  • 损失函数不同:梯度下降可以选取其它损失函数;而最小二乘法一定是平方损失函数。
  • 实现方法不同:最小二乘法是直接求导找出全局最小;而梯度下降是一种迭代法。
  • 效果不同:最小二乘法一定是全局最小,但计算繁琐,且复杂情况下未必有解;梯度下降迭代计算简单,但找到的一般是局部最小,只有在目标函数是凸函数时才是全局最小,到最小点附近收敛速度会变慢,且对初始点的选择极为敏感。

http://www.ppmy.cn/ops/150577.html

相关文章

炸砖块游戏的最终图案

描述 小红正在玩一个“炸砖块”游戏,游戏的规则如下:初始有一个 n * m 的砖块矩阵。小红会炸 k 次,每次会向一个位置投炸弹,如果这个位置有一个砖块,则砖块消失,上方的砖块向下落。小红希望你画出最终砖块的图案。 输入描述 第一行输入三个正整数 n, m, k,代表矩阵的行…

python创建pdf水印,希望根据文本长度调整水印字体大小,避免超出页面

为了根据文本长度动态调整水印字体大小,可以先测量文本长度,然后根据页面宽度和高度动态计算合适的字体大小。以下是修改后的代码: from reportlab.pdfgen import canvas from reportlab.lib.pagesizes import letter from reportlab.pdfbas…

Unity3D 移动端CPU端性能调优详解

前言 在Unity3D开发中,特别是在移动端,性能优化至关重要。CPU主要负责逻辑运算、物理计算和碰撞检测等核心任务。优化CPU性能不仅能提升游戏的流畅度,还能减少电量消耗和发热问题。本文将详细介绍Unity3D移动端CPU端的性能调优技术&#xff…

DATACOM-防火墙-复习-实验

防火墙 概述配置实验参考 概述 与路由器对比 路由器防火墙功能寻址、流量转发、路由流量控制、安全区域隔离防护硬件-相较于路由器,多了SPU,用于DDoS攻击防范/匹配会话/状态检测/认证策略/安全策略/NAT 策略/内容安全带宽策略等 发展 安全区域 防火墙…

用sklearn运行分类模型,选择AUC最高的模型保存模型权重并绘制AUCROC曲线(以逻辑回归、随机森林、梯度提升、MLP为例)

诸神缄默不语-个人CSDN博文目录 文章目录 1. 导入包2. 初始化分类模型3. 训练、测试模型,绘图,保存指标 1. 导入包 from sklearn.linear_model import LogisticRegression from sklearn.ensemble import RandomForestClassifier, GradientBoostingClass…

SEO优化与版权保护:提升WordPress网站内容安全和价值

保护网站内容不仅仅是为了防止盗窃,更重要的是确保你的网站能够在搜索引擎中占据有利位置。通过结合SEO优化和版权保护,你可以提升网站的内容安全性,并进一步提升其在搜索引擎中的价值。 1. 版权保护如何影响SEO 版权保护对SEO有直接影响。…

2501,wtl显示html

原文 在MFC程序中有专门封装的CHTMLView来显示超文本文件,如果在对话框中显示网页可用CDHTMLDialog,甚至可实现多页超文本向导风格的对话框,但是在WTL中却没有单独封装超文本的对应控件,这是因为COM组件的使用和编写本来就是ATL的强项,WTL扩展的是ATL欠缺的桌面应用的功能部分…

风水算命系统架构与功能分析

2015工作至今,10年资深全栈工程师,CTO,擅长带团队、攻克各种技术难题、研发各类软件产品,我的代码态度:代码虐我千百遍,我待代码如初恋,我的工作态度:极致,责任&#xff…