李宏毅结构化学习 03

ops/2024/9/24 22:25:48/

文章目录

  • 一、Sequence Labeling 问题概述
  • 二、Hidden Markov Model(HMM)
  • 三、Conditional Random Field(CRF)
  • 四、Structured Perceptron/SVM
  • 五、Towards Deep Learning

一、Sequence Labeling 问题概述

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


二、Hidden Markov Model(HMM)

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
上图 training data 中的黑色字为x,即文字序列。红色字为 y ^ \hat y y^,即词性序列。


在这里插入图片描述
c o u n t ( s ) count(s) count(s)为训练数据中所有 s s s的个数。
c o u n t ( s → s ′ ) count(s \to s') count(ss)为训练数据中所有 s 后面接 s ′ s后面接s' s后面接s的个数。
c o u n t ( s → t ) count(s \to t) count(st)为训练数据中所有word t t t的标签为 s s s的个数。
P ( y 1 ∣ s t a r t ) P(y_1|start) P(y1start)为标签 y 1 y_1 y1在句首出现的个数,除以句子总个数。
P ( e n d ∣ y L ) P(end|y_L) P(endyL)为标签 y L y_L yL在句尾出现的个数,除以 y L y_L yL总个数。


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
这里 N → V → a N \to V \to a NVa并没有在训练数据中出现过,但是计算的概率反而比训练数据中出现过一次的 N → D → a N \to D \to a NDa高。所以HMM会脑补一些没有出现过的数据。


HMM产生这种脑补的情况是因为转移概率和发射概率是相互独立的。解决这个问题的方法是用一个更复杂的模型去处理这个问题。用CRF也可以处理这个问题。
在这里插入图片描述

三、Conditional Random Field(CRF)

在这里插入图片描述
因为 exp ⁡ ( w ⋅ ϕ ( x , y ) ) \exp (w \cdot \phi (x,y)) exp(wϕ(x,y))可能大于1,所以无法把它当成概率,只能说 P ( x , y ) P(x,y) P(x,y)正比于它。
因为 ∑ y ′ ∈ Y exp ⁡ ( w ⋅ ϕ ( x , y ′ ) ) \sum_{y' \in \mathbb{Y}} \exp(w \cdot \phi(x,y')) yYexp(wϕ(x,y))由于和变量 y ′ y' y没有关系,只和 x x x有关系,所以简记为 Z ( x ) Z(x) Z(x)


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
红色的向量中的每一维都依赖于 ( x , y ) (x,y) (x,y),所以可以认为它是这个向量所形成的特征,记为 ϕ ( x , y ) \phi(x,y) ϕ(x,y)


在这里插入图片描述
由于w的元素可正可负,当为正数的时候,求EXP,就会大于1。并且例如,给定s,求和所有的t,我们也无法保证等于1。所以我们说 P ( x , y ) \text P(x,y) P(x,y)正比于 exp ⁡ ( w ⋅ ϕ ( x , y ) ) \exp(w \cdot \phi (x,y)) exp(wϕ(x,y)),而不说等于。


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
Part 2 的维度大小:|S|个tag中的每个tag后面都能再接|S|个tag,所以是|S| × \times ×|S|。然后start后面能接|S|个tag,end前面能接|S|个tag,所以是2|S|。
CRF比HMM强的点在于,可以自己定义 ϕ ( x , y ) \phi(x,y) ϕ(x,y)


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


横轴表示HMM犯错的百分比,纵轴表示CRF犯错的百分比。如果点在 45 ° 45 \degree 45°对角线左侧,表示HMM表现比较好;在 45 ° 45 \degree 45°对角线右侧,表示CRF表现比较好。
在这里插入图片描述


在这里插入图片描述


四、Structured Perceptron/SVM

在这里插入图片描述


在这里插入图片描述
如果CRF中,另学习率为1,那么两者参数迭代的公式是相近的。其中Strucured Perceptron参数迭代公式中,减掉的最后一项 ϕ ( x n , y ~ n ) \phi (x^n, \widetilde y^n) ϕ(xn,y n)是其概率最大的一项。而CRF减掉的最后一项,则是所有 ϕ ( x n , y ′ ) \phi(x^n,y') ϕ(xn,y)与其概率的加权之和。


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


五、Towards Deep Learning

在这里插入图片描述


在这里插入图片描述


可以将 P ( x l , y l ) \text P(x_l,y_l) P(xl,yl)用神经网络,例如RNN的输出进行替换。
在这里插入图片描述
因为用HMM做inference的时候是给定x,看哪一个y可以让这个概率最大。所以x是给定的,不管 P ( x l ) \text P(x_l) P(xl)是多少,都不会影响最后得到的y了。故,不用管 P ( x l ) \text P(x_l) P(xl)了。


也有如下应用:
在这里插入图片描述
上图中的x不再是input的,而是RNN的output。


在这里插入图片描述


http://www.ppmy.cn/ops/115491.html

相关文章

AI+教育|拥抱AI智能科技,让课堂更生动高效

AI在教育领域的应用正逐渐成为现实,提供互动性强的学习体验,正在改变传统教育模式。AI不仅改变了传统的教学模式,还为教育提供了更多的可能性和解决方案。从个性化学习体验到自动化管理任务,AI正在全方位提升教育质量和效率。随着…

二阶滤波算法总结(对RC滤波算法整理的部分修正和完善)

文章目录 1、一阶低通滤波2、一阶高通滤波3、二阶低通滤波器3.1 二阶RC低通滤波器的连续域数学模型3.2 二阶RC低通滤波器的算法推导3.3 matlab仿真 4、二阶高通滤波器4.1 二阶RC高通滤波器的连续域数学模型4.2 二阶RC高通滤波器的算法推导4.3 matlab仿真 5、陷波滤波6、带通滤波…

Redis数据结构之list列表

一.list列表 列表相当于数组或者顺序表 它里面的元素是有序的,也就是可以通过下标进行访问。这里的有序的含义是要根据上下文区分的,有的时候,有序指的是升序/降序,有的时候有序指的是顺序很关键,俩个元素交换后就不…

6-1 jmu-Java-04面向对象进阶-01-接口-匿名内部类ActionListener

分数 10 全屏浏览 切换布局 作者 郑如滨 单位 集美大学 已有MyStarter类(你无需编写,直接使用),其具有:构造函数:public MyStarter(ActionListener ac)方法:start()启动任务 ###main方法执行流程: 输…

Qt开发技巧(四)“tr“使用,时间类使用,Qt容器取值,类对象的删除,QPainter画家类,QString的转换,用好 QVariant类型

继续讲一些Qt技巧操作 1.非必要不用"tr" 如果程序运行场景确定是某一固定语言,就不需要用tr,"tr"之主要针对多语种翻译的,因为tr的本意是包含英文,然后翻译到其他语言比如中文,不要滥用tr,如果没有…

el-upload如何自定展示上传的文件

Element UI 中,el-upload 组件支持通过插槽(slot)来自定义文件列表的展示方式。这通常是通过 file-list 插槽来实现的。下面是一个使用 el-upload 组件并通过 file-list 插槽来自定义文件列表展示的完整示例代码。 在这个示例中,…

2017年国赛高教杯数学建模C题颜色与物质浓度辨识解题全过程文档及程序

2017年国赛高教杯数学建模 C题 颜色与物质浓度辨识 比色法是目前常用的一种检测物质浓度的方法,即把待测物质制备成溶液后滴在特定的白色试纸表面,等其充分反应以后获得一张有颜色的试纸,再把该颜色试纸与一个标准比色卡进行对比&#xff0c…

牛客小白月赛101(A~E)

文章目录 写在前面A tb的区间问题思路code B tb的字符串问题思路code C tb的路径问题思路code D tb的平方问题思路code E tb的数数问题思路code 牛客小白月赛101 写在前面 最近几天没怎么刷题,昨天晚上打的这场牛客月赛打的很烂,隔几天不刷题感觉自己的…