【机器学习】线性回归模型详解

news/2024/11/14 21:34:34/

PS:本文有一定阅读门槛,如果有不明白的地方欢迎评论询问!

1 模型概述

接下来我们将要学习我们的第一个模型——线性回归。比如说我需要根据数据预测某个面积的房子可以卖多少钱
在这里插入图片描述
接下来我们会用到以下符号:

  • m:训练样本数量
  • x:输入值,又称为属性值
  • y:输出值,是我们需要的结果

我们会用 ( x , y ) (x,y) (x,y)表示一整个训练样本,使用 ( x ( i ) , y ( i ) ) (x^{(i)},y^{(i)}) (x(i),y(i))来表示第i个样例
我们将上图用表格表示出来如下:
在这里插入图片描述
那么线性回归的预测模型如下:
在这里插入图片描述
训练集输入到学习算法中,然后学习算法会根据数据训练出函数h。作为一个线性回归模型,其输出的h应该是 h ( x ) = θ 0 + θ 1 x h(x)=\theta_0+\theta_1x h(x)=θ0+θ1x,图像为一条直线。得到函数h后,我们只需要输入房屋的大小,就可以得到估算的价格

2 代价函数

以上面的 h ( x ) = θ 0 + θ 1 x h(x)=\theta_0+\theta_1x h(x)=θ0+θ1x为例子,不同的 θ 0 \theta_0 θ0和不同的 θ 1 \theta_1 θ1会得出不同的假设函数,我们需要做的是选择出恰当的值,使得假设函数和数据集中的点更好地拟合,也就是说对于样本 ( x i , y i ) (x_i, y_i) (xi,yi),值 ∣ h ( x i ) − y i ∣ |h(x_i)-y_i| h(xi)yi越小越好,进一步精确地定义我们要解决的问题就是,在让 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1尽量小的情况下, ∣ h ( x i ) − y i ∣ |h(x_i)-y_i| h(xi)yi越小越好,这是一个最小化问题。

那么我们用以下式子衡量假设函数的优劣:
J = 1 2 m ∑ i = 1 m h θ ( x ( i ) − y ( i ) ) 2 J = \frac{1}{2m}\sum_{i=1}^m h_\theta(x^{(i)}-y^{(i)})^2 J=2m1i=1mhθ(x(i)y(i))2
其中i表示的是第i个样例 ,总共有m个样例,这就是线性回归的代价函数,这个函数的值越小越好,接下来我们会详细剖析代价函数

我们先只考虑 h ( x ) = θ 1 x h(x)=\theta_1x h(x)=θ1x的情况,也就是 θ 1 = 0 \theta_1=0 θ1=0,那么如果数据集为(1,1),(2,2),(3,3),那么以 θ 1 \theta_1 θ1为横坐标,以 J ( θ 1 ) J(\theta_1) J(θ1)为纵坐标,可以画出如下图像
在这里插入图片描述
可以看出 θ 1 = 1 \theta_1=1 θ1=1的时候 J ( θ 1 ) J(\theta_1) J(θ1)最小

当我们同时考虑 θ 1 \theta_1 θ1 θ 0 \theta_0 θ0的时候,得到的代价函数则是一个类似于等高线图的三维图像
在这里插入图片描述
当然,我们也可以使用等高线标出:
在这里插入图片描述
在图中,圆心部分是J值最小的部分,也就是拟合得最好的 θ 1 \theta_1 θ1 θ 0 \theta_0 θ0的取值,我们知道了J的图像之后,那么我们编写的算法的目标就是如何找到J的最小值

3 梯度下降

梯度下降是十分常用的算法,不仅仅是线性回归,其他机器学习算法中也会频繁用到。

假设我们现在有一个函数 J ( θ 0 , θ 1 ) J(\theta_0, \theta_1) J(θ0,θ1)(不一定是线性回归的代价函数),需要找出其最小值 m i n J ( θ 0 , θ 1 ) min J(\theta_0, \theta_1) minJ(θ0,θ1)

首先我们给 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1赋予初值,通常都是0,梯度下降需要做的事情就是不断微调两个值,从而找出J的最小值或者局部最小值。假设函数J图像如下:
在这里插入图片描述
我们可以将图像想象成两个山,并且点站在了红色的山顶上,梯度下降就是环顾四周,看看哪个方向下山是最快的,也可以理解为斜率最大的方向。然后试探着迈出一步后,再重复上述步骤,直到找到一个地方,四周围的点集都要比该点高,那么这就是一个局部最优解或最优解,示例如下图

在这里插入图片描述
这很像算法课里的贪心思想是不是!既然是贪心,那么得到的就可能不是最优解,比如下面的例子:
在这里插入图片描述
如果我们更改一下起始点,那么按照上述的方法可能到达的地方就并非是J的最优解,而只是一个局部最优解。我们也可以看到,更改起始点会得到不同的局部最优解

梯度下降的数学定义如下:
在这里插入图片描述
我们会反复做这一步,直到收敛。其中:=为赋值运算符, α \alpha α表示学习率,用来控制梯度下降时我们迈的步子有多大,以后会细讲。后面的 ∂ ∂ θ j J ( θ 0 , θ 1 ) \frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1) θjJ(θ0,θ1)则是一个导数,后面的则是指明了更新的条件,当j=0或者j=1的时候更新 ,更新的时候需要同时更新 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1。下面的Simultaneous update表明了其更新的过程,首先经值暂存于temp0和temp1中,然后将这两个值依次赋予 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1

假设我们的最小化参数只有 θ 1 \theta_1 θ1,并且 J ( θ 0 ) J(\theta_0) J(θ0)的曲线如下:
在这里插入图片描述
如果我们从 θ 1 \theta_1 θ1处开始梯度下降,那么梯度下降要做的就是不断地更新 θ 1 : = θ 1 − ∂ ∂ θ 1 J ( θ 1 ) \theta_1 := \theta_1-\frac{\partial}{\partial\theta_1}J(\theta_1) θ1:=θ1θ1J(θ1),可以看出,这是一个递归的过程。仔细看这个公式,其中 ∂ ∂ θ 1 J ( θ 1 ) \frac{\partial}{\partial\theta_1}J(\theta_1) θ1J(θ1)是当前 θ 1 \theta_1 θ1所在位置的导数,也可以简单理解为点 ( θ 1 , J ( θ 1 ) ) (\theta_1, J(\theta_1)) (θ1,J(θ1))的斜率,那么如果 α \alpha α越大, θ 1 \theta_1 θ1变化得也越快。以上图为例子,其 θ 1 \theta_1 θ1所在位置的导数为正数,那么 θ 1 \theta_1 θ1会减小;如果 θ 1 \theta_1 θ1所在位置的导数为负数(比如下图的情况),那么 θ 1 \theta_1 θ1会逐渐增大

在这里插入图片描述
上述两个例子说明,无论是什么情况,他都会趋向于走向J值更小的位置,如果已经到达了J值最小的位置,那么该位置的导数 ∂ ∂ θ 1 J ( θ 1 ) = 0 \frac{\partial}{\partial\theta_1}J(\theta_1)=0 θ1J(θ1)=0,此时的 θ 1 : = θ 1 − ∂ ∂ θ 1 J ( θ 1 ) \theta_1 := \theta_1-\frac{\partial}{\partial\theta_1}J(\theta_1) θ1:=θ1θ1J(θ1)就不会发生变化,另外,当 θ 1 \theta_1 θ1靠近最优解的时候,由于导数逐渐变小,其每次迈出的步子也越来越小。对于 α \alpha α值,如果学习速率太小,那么他需要很多次递归才能到达最低点;如果学习速率太大,那他会很有可能越过最低点,甚至会导致无法收敛或者直接就发散了。
在这里插入图片描述
当然,在这个图像里只有一个局部最优解,这个局部最优解就是整体最优解,如果我们换一个图像会怎么样。
在这里插入图片描述
如果是上述图像,也许我们到达了 θ 1 \theta_1 θ1的位置,这个位置是一个局部最优点,但是他并非是全局的最优解

将上面的过程推广开来,假设函数为 J ( θ 1 , θ 2 , θ 3 . . . . θ n ) J(\theta_1,\theta_2,\theta_3....\theta_n) J(θ1,θ2,θ3....θn),也可以应用梯度下降求出其最小值

4 线性回归中的梯度下降

本节将会用梯度函数和代价函数相结合,得到线性回归的算法,这可以用直线拟合数据。我们上文说到,线性回归的模型函数是 J = 1 2 m ∑ i = 1 m h θ ( x ( i ) − y ( i ) ) 2 J = \frac{1}{2m}\sum_{i=1}^m h_\theta(x^{(i)}-y^{(i)})^2 J=2m1i=1mhθ(x(i)y(i))2然后其梯度下降的函数为
θ j : = θ j − α ∂ ∂ θ j J ( θ 0 , θ 1 ) \theta_j := \theta_j-\alpha\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1) θj:=θjαθjJ(θ0,θ1)将两者合并后可得出 α ∂ ∂ θ j J ( θ 0 , θ 1 ) = α ∂ ∂ θ j 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 \alpha\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1)=\alpha\frac{\partial}{\partial\theta_j}\frac{1}{2m}\sum_{i=1}^m (h_\theta(x^{(i)})-y^{(i)})^2 αθjJ(θ0,θ1)=αθj2m1i=1m(hθ(x(i))y(i))2
又因为函数 h θ ( x ( i ) ) = θ 0 + θ 1 x ( i ) h_\theta(x^{(i)})=\theta_0+\theta_1x^{(i)} hθ(x(i))=θ0+θ1x(i),所以
α ∂ ∂ θ j J ( θ 0 , θ 1 ) = α ∂ ∂ θ j 1 2 m ∑ i = 1 m ( θ 0 + θ 1 x ( i ) − y ( i ) ) 2 \alpha\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1)=\alpha\frac{\partial}{\partial\theta_j}\frac{1}{2m}\sum_{i=1}^m (\theta_0+\theta_1x^{(i)}-y^{(i)})^2 αθjJ(θ0,θ1)=αθj2m1i=1m(θ0+θ1x(i)y(i))2接着我们就计算导数 ∂ ( 1 2 m ∑ i = 1 m ( θ 0 + θ 1 x ( i ) − y ( i ) ) 2 ) ∂ θ j \frac{\partial(\frac{1}{2m}\sum_{i=1}^m (\theta_0+\theta_1x^{(i)}-y^{(i)})^2)}{\partial\theta_j} θj(2m1i=1m(θ0+θ1x(i)y(i))2)如果是对 θ 0 \theta_0 θ0求偏导可以得出 ∂ ∂ θ 0 J ( θ 0 , θ 1 ) = 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) \frac{\partial}{\partial\theta_0}J(\theta_0,\theta_1)=\frac{1}{m}\sum_{i=1}^m (h_\theta(x^{(i)})-y^{(i)}) θ0J(θ0,θ1)=m1i=1m(hθ(x(i))y(i)) θ 1 \theta_1 θ1求偏导可得 ∂ ∂ θ 1 J ( θ 0 , θ 1 ) = 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) ∗ x ( i ) \frac{\partial}{\partial\theta_1}J(\theta_0,\theta_1)=\frac{1}{m}\sum_{i=1}^m (h_\theta(x^{(i)})-y^{(i)})*x{(i)} θ1J(θ0,θ1)=m1i=1m(hθ(x(i))y(i))x(i)综上所述,可以知道最终 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1的计算公式为
θ 0 : = θ 0 − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) \theta_0 := \theta_0-\alpha\frac{1}{m}\sum_{i=1}^m (h_\theta(x^{(i)})-y^{(i)}) θ0:=θ0αm1i=1m(hθ(x(i))y(i)) θ 1 : = θ 1 − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) ∗ x ( i ) \theta_1 := \theta_1-\alpha\frac{1}{m}\sum_{i=1}^m (h_\theta(x^{(i)})-y^{(i)})*x^{(i)} θ1:=θ1αm1i=1m(hθ(x(i))y(i))x(i)

还有一个问题就是,我们知道,代价函数可能会有数个局部最优解,梯度下降的起始点会使得梯度下降的结果导向不同的局部最优解。如下图所示
在这里插入图片描述
但是实际上我们在线性回归中并不需要考虑这个问题,因为线性回归的代价函数总是一个弓形函数,它只有一个全局最优。
在这里插入图片描述
当你使用线性回归计算这种代价函数的梯度下降,他总会收敛到全局最优,因为他只有一个最优解

上面介绍的算法又称为Batch梯度下降算法,其含义是梯度下降的每一步都会考虑整个数据集的数据。与之相对的是,某些算法在进行梯度下降时会只考虑数据集中的部分子集,比如说和当前点相关性较大的数据


http://www.ppmy.cn/news/78355.html

相关文章

Flutter控件之Tab选项卡封装

Tab选项卡,这是一个非常常见且权重很高的一个组件,随便打开一个App,比如CSDN,如下图,首页顶部就是一个Tab选项卡,这个功能可以说,几乎每个App都会存在。 在Android中,我们可以使用Ta…

EduSoho 网校系统部署

目录 一、初始化环境二、安装 Nginx三、安装 MySQL四、安装 PHP五、上线 EduSoho六、验证FAQ 一、初始化环境 1、安装wget 如果系统已安装wget,请跳过此步骤 yum install wget2、关闭防火墙/Selinux systemctl stop firewalld.service systemctl disable firewalld.service…

华为ACL(基本的高级的基于时间的自反的都有)

第12章:ACL 随着网络的飞速发展,网络安全和网络服务质量QoS (Quality of Service)问题日益突出。访问控制列表 (ACL, Access Control List)是与其紧密相关的一个技术。ACL可以通过对网络中报文流的精确识别,与其他技术结合,达到控制网络访问行为、防止网络攻击和提高网络带…

助力工业物联网,工业大数据之ODS层构建:申明分区代码及测试【十】

文章目录 知识点13:ODS层构建:申明分区代码及测试知识点14:ODS层与DWD层区别知识点15:DWD层构建:需求分析知识点16:DWD层构建:建库实现测试知识点17:DWD层构建:建表实现测…

【2023】某python语言程序设计跟学第八周内容

目录 1.实例:体育竞技分析1.1.问题分析1.2.自顶向下和自底向上1.3.体育竞技分析 2.python程序设计思维2.1.计算思维与程序设计2.2.计算生态与python语言2.3.用户体验与软件产品2.4.基本的程序设计模式 3.Python第三方库安装3.1.看见更大的Python世界3.2.pip安装方式…

数字音频接口I2S-PDM-TDM-PCM

主要分类:模拟、数字(I2S、PCM、PDM、TDM) 模拟音频,就是功放输出的,驱动音箱和喇叭的音频。模拟麦克风采样回来的数据也是模拟音频。通常会有单端或差分两种信号。 数字音频,不能直接驱动喇叭&#xff0…

3、Ray-分布式任务调度和依赖管理

3、Ray-分布式任务调度和依赖管理 导航 1.简介和背景 2.Ray的基本概念和核心组件 3.分布式任务调度和依赖管理 4.对象存储和数据共享 5.Actor模型和并发编程 6.Ray的高级功能和扩展性 7.使用Ray构建分布式应用程序的案例研究 8.Ray社区和资源 9.核心框架介绍 10.

windows先的conda环境复制到linux环境

如果是迁移的环境一致:同是windows或同是linux直接用这个命令即可: conda create -n new_env_name --clone old_env_path 如果是window的环境迁移到linux这种跨环境就不能用上面的方法,网上这方面的资料也很多,记录一下我的…