【机器学习】分类问题和逻辑(Logistic)回归算法详解

news/2024/11/22 20:34:59/

在阅读本文前,请确保你已经掌握代价函数、假设函数等常用机器学习术语,最好已经学习线性回归算法,前情提要可参考https://blog.csdn.net/weixin_45434953/article/details/130593910

分类问题是十分广泛的一个问题,其代表问题是:

  • 一个邮件是否为垃圾邮件
  • 一个肿瘤是否为恶性肿瘤

我们通常用y来表示分类结果,其中最简单y值集合为 0 , 1 {0,1} 0,1,比如对于一个邮件是否为垃圾邮件,有“是垃圾邮件(1)”和“不是垃圾邮件(0)”两种y的取值。假设以肿瘤大小为x轴,是否为恶性肿瘤为y轴,并且有如下一个数据集:
在这里插入图片描述
很显然,这个数据集合是无法使用之前学习的线性回归集合进行拟合的。因为一旦将直线延长,就会出现一个大概率是恶性肿瘤的数据被判定为良性,如下图所示
在这里插入图片描述
要解决这个问题,可以使用logistic回归算法,下面我们将会学习这个算法。

Logistic回归算法

作为一个回归算法,Logistics回归算法当然也有假设函数 h θ ( x ) = θ T x h_\theta(x)=\theta^Tx hθ(x)=θTx(其中x是一个向量),我们将数据集输入到x中,最后会输出个预测结果y。当然,由于我们要解决的是分类问题,如上面分析所示,我们的 h θ ( x ) h_\theta(x) hθ(x)的取值应该是位于 [ 0 , 1 ] [0,1] [0,1]之间,而传统的 h θ ( x ) h_\theta(x) hθ(x)函数的取值范围是整个实数域,因此我们要改造下 h θ ( x ) h_\theta(x) hθ(x)函数,让他的取值范围落在 [ 0 , 1 ] [0,1] [0,1]之间。因此我们定义Logistic回归算法的 h θ ( x ) h_\theta(x) hθ(x)函数如下所示:
h θ ( x ) = g ( θ T x ) (1) h_\theta (x)=g(\theta^T x)\tag{1} hθ(x)=g(θTx)(1) g ( z ) = 1 1 + e − z (2) g(z)=\frac{1}{1+e^{-z}}\tag{2} g(z)=1+ez1(2)上面的2式被称之为Logistic函数,或者称为Sigmoid函数。该函数的图像如下:
在这里插入图片描述
对于 z ∈ R z\in R zR,Logistics函数的取值范围是 [ 0 , 1 ] [0,1] [0,1],因此,将(1)(2)结合起来可以得到 h θ ( x ) = 1 1 + e − θ T x h_\theta(x)=\frac{1}{1+e^{-\theta^T x}} hθ(x)=1+eθTx1该函数的取值范围为[0,1]

我们需要做的,和之前线性回归一样,就是选定合适的参数 θ \theta θ来拟合我们的数据,从而在输入一定特征x的时候,可以获得正确的输出结果y。我们知道分类问题的结果一般只有0或1,而假设函数 h θ ( x ) h_\theta(x) hθ(x)的结果则代表着在输入特征为x的情况下,y=1的概率是多少,比如说,向量 x 0 x_0 x0代表着0号肿瘤的所有特征, h θ ( x 0 ) = 0.7 h_\theta(x_0)=0.7 hθ(x0)=0.7也就意味着该肿瘤为恶行的几率为0.7。

决策界限

那么当 h θ ( x ) h_\theta(x) hθ(x)等于多少的时候,我们会认为y=1呢?一个最简单的办法就是:当 h θ ( x ) ≥ 0.5 h_\theta(x)\geq 0.5 hθ(x)0.5的时候,我们认为当前情况下y=1;当 h θ ( x ) < 0.5 h_\theta(x)<0.5 hθ(x)<0.5的时候,我们认为y=0。我们再观察回Logistics函数,可以发现,当 z ≥ 0 z\geq0 z0的时候 h θ ( x ) ≥ 0.5 h_\theta(x)\geq 0.5 hθ(x)0.5,也就是当 θ T x ≥ 0 \theta^T x\geq0 θTx0

现在假设我们有如下的数据集,并且假设函数 h θ ( x ) h_\theta(x) hθ(x)如下:
在这里插入图片描述
我们假设 θ 0 = − 3 , θ 1 = 1 , θ 2 = 1 \theta_0=-3, \theta_1=1, \theta_2=1 θ0=3,θ1=1,θ2=1,那么我们可以在数据集上画出这样的一条线:
在这里插入图片描述
这将平面分为了两部分,其中在直线之下的会使得 h θ ( x ) < 0.5 h_\theta(x)<0.5 hθ(x)<0.5,我们会估计落在这部分的数据y=0。这一条切分平面的直线,我们称之为决策边界

Logistic下的代价函数

接下来我们需要分析Logistics回归算法的代价函数,让我们来复习下,代价函数主要是用来衡量算法输出结果和实际的正确值的拟合程度,代价函数 J ( θ ) J(\theta) J(θ)主要作用就是找到合适的 θ \theta θ值,使得代价函数 J ( θ ) J(\theta) J(θ)最小,从而使得算法拟合效果最优。 一般的代价函数表达式如下:
J ( θ ) = 1 m ∑ i = 1 n 1 2 C o s t ( h θ ( x ( i ) ) , y ) J(\theta)=\frac{1}{m}\sum_{i=1}^n\frac{1}{2}Cost(h_\theta(x^{(i)}),y) J(θ)=m1i=1n21Cost(hθ(x(i)),y)我们之前学习的线性回归算法的Cost函数为 C o s t ( h θ ( x ( i ) ) , y ) = ( h θ ( x ( i ) ) − y ( i ) ) 2 Cost(h_\theta(x^{(i)}),y) = (h_\theta(x_{(i)})-y_{(i)})^2 Cost(hθ(x(i)),y)=(hθ(x(i))y(i))2但是如果在Logistics中使用这种Cost函数会导致代价函数为一个非凸函数,这主要是因为Logistics的假设函数 h θ ( x ) h_\theta(x) hθ(x)中含有指数项的原因,在这不展开阐述,总之,其函数可能会类似于下图的形状。
在这里插入图片描述
可以看到上面有很多的局部最优值,如果使用梯度下降函数,它在大多数情况是无法拟合到最优值的。那么我们的需求就很清晰了,我们希望可以找到一个Cost函数,可以使得 J ( θ ) J(\theta) J(θ)的函数是一个凸函数,或者单弓型函数。那么实际上,他的Cost函数如下:
C o s t ( h θ ( x ( i ) ) , y ) = { − l o g ( h θ ( x ) ) i f y = 1 − l o g ( 1 − h θ ( x ) ) i f y = 0 \begin{equation} Cost(h_\theta(x^{(i)}),y) = \begin{cases} -log(h_\theta(x))& if\: y=1\\ -log(1-h_\theta(x))& if\: y=0\\ \end{cases} \end{equation} Cost(hθ(x(i)),y)={log(hθ(x))log(1hθ(x))ify=1ify=0
看起来式子十分复杂,但是容我仔细分析下:上文提到,h(x)代表的是算法认为y=1的概率是多少,并且 h ( x ) ∈ [ 0 , 1 ] h(x)\in [0,1] h(x)[0,1],那么当y=1的时候,Cost曲线如下图所示:
在这里插入图片描述
当h(x)越接近1,Cost函数的值越接近0,这样得出来的代价函数也越小。也就是在真实结果y=1的情况下,如果h(x)=1,也就是函数认为该实例一定为1,证明它完全预测成功了,那么Cost=0,最终得出的代价函数也会非常小,即使h(x)=0.9,也就是函数认为有90%的概率该实例为1,那Cost的值还不到0.05,最终代价函数的增加幅度也很小,因为它确实也大概率预测成功了。如果他对于一个y=1的实例预测值为0,也就是他认为该实例不可能为1,那么Cost函数将会狠狠地"惩罚"这个学习算法,Cost的值会直接趋于无穷大,从而导致代价函数也无穷大,很明显,这是一个很糟糕的 θ \theta θ取值

反之,如果y=0的时候其函数图像如下:
在这里插入图片描述
很显然,这和上面刚好相反。举一反三即可。

代价函数的简化和梯度下降

上面的Logistics代价函数可以总结为两个式子:
J ( θ ) = 1 m ∑ i = 1 n 1 2 C o s t ( h θ ( x ( i ) ) , y ) (1) J(\theta)=\frac{1}{m}\sum_{i=1}^n\frac{1}{2}Cost(h_\theta(x^{(i)}),y)\tag{1} J(θ)=m1i=1n21Cost(hθ(x(i)),y)(1)
C o s t ( h θ ( x ( i ) ) , y ) = { − l o g ( h θ ( x ) ) i f y = 1 − l o g ( 1 − h θ ( x ) ) i f y = 0 (2) \begin{equation} Cost(h_\theta(x^{(i)}),y) = \begin{cases} -log(h_\theta(x))& if\: y=1\\ -log(1-h_\theta(x))& if\: y=0\\ \end{cases} \end{equation}\tag{2} Cost(hθ(x(i)),y)={log(hθ(x))log(1hθ(x))ify=1ify=0(2)
当然,由于y只有等于1或者等于0两种取值,我们可以将2式简化为如下形式: C o s t ( h θ ( x ( i ) ) , y ) = − y l o g ( h θ ( x ) ) − ( 1 − y ) l o g ( 1 − h θ ( x ) ) (3) Cost(h_\theta(x^{(i)}),y)=-ylog(h_\theta(x))-(1-y)log(1-h_\theta(x))\tag{3} Cost(hθ(x(i)),y)=ylog(hθ(x))(1y)log(1hθ(x))(3)观察可以知道,3式和2式是等价的。

将他们合起来就得到了代价函数 J ( θ ) J(\theta) J(θ) J ( θ ) = 1 m ∑ i = 1 n 1 2 [ − y l o g ( h θ ( x ) ) − ( 1 − y ) l o g ( 1 − h θ ( x ) ) ] J(\theta)=\frac{1}{m}\sum_{i=1}^n\frac{1}{2}[-ylog(h_\theta(x))-(1-y)log(1-h_\theta(x))] J(θ)=m1i=1n21[ylog(hθ(x))(1y)log(1hθ(x))]

求得最小代价函数的任务自然就交给了梯度下降算法,对于每一个变量 θ j \theta_j θj反复采取以下式子处理: θ j : = θ j − α ∂ ∂ θ j J ( θ ) \theta_j := \theta_j-\alpha\frac{\partial}{\partial\theta_j}J(\theta) θj:=θjαθjJ(θ)另外我们已经知道 J ( θ ) J(\theta) J(θ),对导数进行计算可以得出 ∂ ∂ θ j J ( θ ) = 1 m ∑ i = 1 n ( h θ ( x ( i ) − y ( i ) ) x j ( i ) \frac{\partial}{\partial\theta_j}J(\theta)=\frac{1}{m}\sum_{i=1}^n(h_\theta(x^{(i)}-y{(i)})x_j^{(i)} θjJ(θ)=m1i=1n(hθ(x(i)y(i))xj(i)则可以得出梯度下降的实际函数为 θ j : = θ j − α 1 m ∑ i = 1 n ( h θ ( x ( i ) − y ( i ) ) x j ( i ) \theta_j := \theta_j-\alpha\frac{1}{m}\sum_{i=1}^n(h_\theta(x^{(i)}-y{(i)})x_j^{(i)} θj:=θjαm1i=1n(hθ(x(i)y(i))xj(i)由于我们的代价函数已经是一个凹函数了,那梯度下降是可以得到最优值的。上述的例子中,为了方便理解, θ \theta θ中只有一个值,一个数据实例中也只有一个特征x来用于预测y的取值,实际上运用的时候, θ \theta θ可以是一个含有多个元素的向量,当数据集给出若干个特征 x i x_i xi的时候,可以用Logistics来进行拟合

之前我们介绍了二元分类问题,但是现实的很多分类问题并非是只需要将某一事物分类成两类,而是要划分为好多种类别。比如天气预报需要根据天气数据,将天气大致分为晴天、阴天、下雨、下雪等若干类别。下面我们开始介绍一对多分类问题的基本原理。

多元分类问题

在这里插入图片描述
假设我们需要将数据集中的数据分为三类:正方形、三角形和叉。那么我们采取的做法是,将正方形和叉视作一类,将三角形分离出来,然后将三角形和叉视作一类,使用一个二元分类算法将正方形分离出来,再将三角形和正方形视作一类,将叉分离出来。

上述的做法使用了3次二元分类算法,最终将三个类别分离了出来。


http://www.ppmy.cn/news/118061.html

相关文章

JS字符串处理:split和replace

题目1.现在有一个字符串"Rome was not built in a day"&#xff0c;请用程序统计该字符串中有多少个单词。注&#xff1a;单词与单词之间是以空格隔开的。 测试代码 var str3 "Rome was not built in a day"var str3_arr str3.split(" ");docu…

UE4蓝图学习篇(九)-- 人物重定向

在平常的游戏制作或者项目练习过程中&#xff0c;我们想使用其他比较好看的模型&#xff0c;但是却想使用小白人的动画&#xff0c;这个时候要怎么去处理呢&#xff1f; 这个时候就需要使用到重定向功能&#xff0c;让两者使用同一套骨骼&#xff0c;把小白人动画重定向到我们…

判断当前页面是否有元素被iframe嵌套

我当时的场景&#xff1a;在某一页面判断该页面有没有元素是被iframe嵌套的&#xff0c;根据是否被嵌套做页面其他 逻辑处理 我是用的方法二解决的问题&#xff1a;top.frames.length>0 &#xff0c;大于0 就是有被嵌套的&#xff0c;等于0就是没有被嵌套 方法一&#xff1…

Oracle非分区表的重组

Oracle非分区表 一、概念 非分区表&#xff08;Non-partitioned table&#xff09;是指在创建表时没有使用分区&#xff08;Partitioning&#xff09;功能进行数据划分的表。分区表是将表中的数据按照某个特定的列或表达式进行划分&#xff0c;并存储在不同的分区中。而非分区…

【网络】新华三H3C交换机 抓包|H3C交换机文档

目录 前言 H3C交换机抓包&#xff1a; H3C简单FTP上传和下载文件 流镜像配置命令 2.1.1 mirror-to cpu 2.1.2 mirror-to interface 相关命令 更多ACL例子 ACL显示和维护 删除ACL 删除规则 删除classer 清楚统计信息 H3C交换机文档下载地址 前言 术语&#xff1a; ACL: 访问控…

133、H3C交换机恢复出厂和各种基本配置

一、不知道密码如何恢复出厂设置 1、 开机启动,Ctrl+B进入bootrom菜单,选择恢复出厂设置 2、用com线连上电脑,用超级终端进入,然后重启电脑,看提示按ctrl+b进入bootrom模式,然后按照菜单提示删除flash中的.cfg文件,然后重启就可以了。或者进入后键入命令 reset save …

rrpp协议如何修改_H3C 中低端以太网交换机 可靠性典型配置指导-6W100

1RRPP典型配置指导(支持保护VLAN) 为了兼容不支持保护VLAN配置的RRPP版本,在使用旧版本配置文件启动设备后,RRPP域保护所有的VLAN。 城域网和企业网大多采用环网来构建以提高可靠性,但环上任意一个节点发生故障都会影响业务。环网采用的技术一般是RPR或以太网环。RPR需要专用…

[华三] IPv6技术白皮书(V1.00)

IPv6技术白皮书(V1.00) http://www.h3c.com/cn/d_200802/605649_30003_0.htm H3C S7500E IPv6技术白皮书 关键词:IPv6,隧道 摘 要:本文介绍了IPv6的产生背景、技术要点和组网策略。 缩略语: 缩略语 英文全名 中文解释 ND Neighbour Discovery Protocol 邻居发现协议 PMT…