【NLP】文本预处理的概念、处理方法、数学公式

server/2024/10/22 18:44:41/

文章目录

  • 1、简介及其作用
  • 2、文本处理的基本方法
    • 2.1、分词
    • 2.2、词性标注
    • 2.3、命名实体识别(NER)
  • 3、文本张量表示方法
    • 3.1、One-Hot 编码
    • 3.2、Word2Vec
    • 3.3、词嵌入(Word Embedding)
  • 4、文本语料的数据分析
    • 4.1、标签数量分布
    • 4.2、句子长度分布
    • 4.3、词频统计与关键词词云
  • 5、文本特征处理
    • 5.1、添加 n-gram 特征
    • 5.2、文本长度规范
  • 6、数据增强方法
  • 7、文本预处理的具体实例
  • 8、小结

🍃作者介绍:双非本科大三网络工程专业在读,阿里云专家博主,专注于Java领域学习,擅长web应用开发、数据结构和算法,初步涉猎人工智能和前端开发。
🦅个人主页:@逐梦苍穹
📕所属专栏:人工智能
🌻gitee地址:xzl的人工智能代码仓库
✈ 您的一键三连,是我创作的最大动力🌹

1、简介及其作用

自然语言处理(NLP)任务中,文本预处理是至关重要的一步。
未经处理的原始文本通常杂乱无章,无法直接用于机器学习模型。
通过一系列预处理步骤,文本被转化为规范化的数据格式,从而满足模型输入的要求。
此外,科学的文本预处理还能够有效指导模型超参数的选择,提升模型的评估指标,进而增强整体性能。
本文主要内容:

1. 文本处理的基本方法
2. 文本张量表示方法
3. 文本语料的数据分析
4. 文本特征处理
5. 数据增强方法

在实际生产应用中,我们最常使用的两种语言是中文和英文,因此文本预处理部分的内容都将针对这两种语言进行讲解。

2、文本处理的基本方法

2.1、分词

定义:将连续的文本序列分割成词语序列,是文本预处理的第一步,特别是在中文中。
方法

  • 基于规则的分词:使用语言学规则和词典进行分词。
  • 基于统计的分词:利用统计模型(如 n − g r a m n-gram ngram H M M HMM HMM)进行分词。
  • 基于深度学习的分词:使用神经网络模型(如 B i L S T M − C R F BiLSTM-CRF BiLSTMCRF B E R T BERT BERT)进行分词。

数学表示
T T T 为输入的文本序列, w 1 , w 2 , … , w n w_1, w_2, \ldots, w_n w1,w2,,wn 为分词结果;
分词过程可以表示为: T → { w 1 , w 2 , … , w n } T \rightarrow \{w_1, w_2, \ldots, w_n\} T{w1,w2,,wn}

2.2、词性标注

定义:为每个词语标注其词性(如名词、动词、形容词等)。
方法

  • 基于规则的方法:使用预定义的规则和词典。
  • 基于统计的方法:如 H M M HMM HMM C R F CRF CRF
  • 基于深度学习的方法:如 B i L S T M − C R F BiLSTM-CRF BiLSTMCRF 模型。

数学表示
w i w_i wi 为词语, t i t_i ti 为对应的词性标签
词性标注过程可以表示为: { w 1 , w 2 , … , w n } → { ( w 1 , t 1 ) , ( w 2 , t 2 ) , … , ( w n , t n ) } \{w_1, w_2, \ldots, w_n\} \rightarrow \{(w_1, t_1), (w_2, t_2), \ldots, (w_n, t_n)\} {w1,w2,,wn}{(w1,t1),(w2,t2),,(wn,tn)}

2.3、命名实体识别(NER)

定义:识别并分类文本中的实体,如人名、地名、组织名等。
方法

  • 基于规则的方法:使用预定义的规则和词典。
  • 基于统计的方法:如 C R F CRF CRF
  • 基于深度学习的方法:如 B i L S T M − C R F BiLSTM-CRF BiLSTMCRF T r a n s f o r m e r Transformer Transformer 模型。

数学表示
T T T 为输入的文本序列, E E E 为命名实体的集合。
N E R NER NER 过程可以表示为: T → { E 1 , E 2 , … , E m } T \rightarrow \{E_1, E_2, \ldots, E_m\} T{E1,E2,,Em}

3、文本张量表示方法

3.1、One-Hot 编码

定义:将每个词表示为一个高维向量,其中只有一个位置为1,其他位置为0。
方法

  • 构建词汇表 V V V,大小为 ∣ V ∣ |V| V
  • 对于词汇表中的每个词 w i w_i wi,构建一个长度为 ∣ V ∣ |V| V 的向量,其中第 i i i 个位置为1,其余位置为0。

数学表示
V V V 为词汇表, ∣ V ∣ |V| V 为词汇表的大小
对于词语 w i w_i wi 的 One-Hot 编码可以表示为: OneHot ( w i ) = [ 0 , 0 , … , 1 , … , 0 ] \text{OneHot}(w_i) = [0, 0, \ldots, 1, \ldots, 0] OneHot(wi)=[0,0,,1,,0]
其中,只有第 i i i 个位置为1,其余位置为0。

3.2、Word2Vec

定义:通过神经网络将词语映射到低维向量空间,捕捉词语的语义相似性。
方法

  • Skip-gram:通过预测上下文词来训练词向量。
  • CBOW(Continuous Bag of Words):通过上下文词预测目标词来训练词向量。

数学表示
w w w 为目标词, C ( w ) C(w) C(w) 为上下文词的集合。 S k i p Skip Skip- g r a m gram gram 模型的目标是最大化以下概率:
∏ w ∈ Corpus ∏ c ∈ C ( w ) P ( c ∣ w ) \prod_{w \in \text{Corpus}} \prod_{c \in C(w)} P(c|w) wCorpuscC(w)P(cw)

这个公式是表示累积
其中, P ( c ∣ w ) P(c|w) P(cw) 是通过 s o f t m a x softmax softmax 函数计算的:
P ( c ∣ w ) = exp ⁡ ( v c ⋅ v w ) ∑ i = 1 ∣ V ∣ exp ⁡ ( v i ⋅ v w ) P(c|w) = \frac{\exp(v_c \cdot v_w)}{\sum_{i=1}^{|V|} \exp(v_i \cdot v_w)} P(cw)=i=1Vexp(vivw)exp(vcvw)

所以表示为: ∏ w ∈ Corpus ∏ c ∈ C ( w ) exp ⁡ ( v c ⋅ v w ) ∑ i = 1 ∣ V ∣ exp ⁡ ( v i ⋅ v w ) \prod_{w \in \text{Corpus}} \prod_{c \in C(w)} \frac{\exp(v_c \cdot v_w)}{\sum_{i=1}^{|V|} \exp(v_i \cdot v_w)} wCorpuscC(w)i=1Vexp(vivw)exp(vcvw)

3.3、词嵌入(Word Embedding)

定义:通过深度学习模型(如 G l o V e GloVe GloVe F a s t T e x t FastText FastText)训练的词向量,能够捕捉词语的复杂语义关系。
数学表示
W W W 为词汇表, d d d 为词向量的维度。
词嵌入过程可以表示为将每个词 w w w 映射到一个 d d d 维向量 v w v_w vw w → v w ∈ R d w \rightarrow v_w \in \mathbb{R}^d wvwRd

4、文本语料的数据分析

4.1、标签数量分布

定义:分析数据集中各类标签的数量分布,评估数据的平衡性。
方法

  • 统计每个标签在数据集中出现的频率。
  • 绘制标签数量分布图,如条形图。

数学表示
y y y 为标签, n ( y ) n(y) n(y) 为标签 y y y 在数据集中出现的次数
标签数量分布可以表示为: { ( y 1 , n ( y 1 ) ) , ( y 2 , n ( y 2 ) ) , … , ( y k , n ( y k ) ) } \{(y_1, n(y_1)), (y_2, n(y_2)), \ldots, (y_k, n(y_k))\} {(y1,n(y1)),(y2,n(y2)),,(yk,n(yk))}

4.2、句子长度分布

定义:分析数据集中句子的长度分布,了解数据的整体结构。
方法

  • 统计每个句子的长度。
  • 绘制句子长度分布图,如直方图。

数学表示
s s s 为句子, l ( s ) l(s) l(s) 为句子 s s s 的长度。
句子长度分布可以表示为: { ( s 1 , l ( s 1 ) ) , ( s 2 , l ( s 2 ) ) , … , ( s n , l ( s n ) ) } \{(s_1, l(s_1)), (s_2, l(s_2)), \ldots, (s_n, l(s_n))\} {(s1,l(s1)),(s2,l(s2)),,(sn,l(sn))}

4.3、词频统计与关键词词云

定义:统计词语在数据集中出现的频率,生成关键词词云,帮助识别重要词语。
方法

  • 统计每个词语在数据集中出现的频率。
  • 利用 Python 库(如 N L T K NLTK NLTK W o r d C l o u d WordCloud WordCloud)生成词频统计和词云图。

数学表示
w w w 为词语, f ( w ) f(w) f(w) 为词语 w w w 在数据集中出现的频率。
词频统计可以表示为: { ( w 1 , f ( w 1 ) ) , ( w 2 , f ( w 2 ) ) , … , ( w m , f ( w m ) ) } \{(w_1, f(w_1)), (w_2, f(w_2)), \ldots, (w_m, f(w_m))\} {(w1,f(w1)),(w2,f(w2)),,(wm,f(wm))}

5、文本特征处理

5.1、添加 n-gram 特征

定义:将相邻 n n n 个词作为一个特征,捕捉局部词组信息。
方法:使用 Python 库(如 s c i k i t scikit scikit- l e a r n learn learn)生成 n n n-gram 特征。
数学表示
T T T 为文本序列, w i w_i wi 为词语。 n n n-gram 特征可以表示为:
{ ( w i , w i + 1 , … , w i + n − 1 ) } \{(w_i, w_{i+1}, \ldots, w_{i+n-1}) \} {(wi,wi+1,,wi+n1)}

5.2、文本长度规范

定义:规范文本长度,以确保输入张量的一致性。
方法:截断或填充文本,使其达到固定长度。
数学表示
T T T 为文本序列, L L L 为固定长度
规范文本长度可以表示为: T → T ′ T \rightarrow T' TT
其中, T ′ T' T 为长度为 L L L 的文本序列。

6、数据增强方法

回译数据增强法
定义:通过将文本翻译成另一种语言再翻译回来,生成新的变体。
方法:使用机器翻译工具(如 G o o g l e Google Google T r a n s l a t e Translate Translate A P I API API)进行回译。
数学表示
T T T 为原始文本, T ′ ; T'; T; 为回译后的文本
回译过程可以表示为: T → T ′ T \rightarrow T' TT

7、文本预处理的具体实例

7.1、中文文本预处理实例

  1. 分词:使用结巴分词( j i e b a jieba jieba)进行分词。
  2. 词性标注:使用 j i e b a . p o s s e g jieba.posseg jieba.posseg 进行词性标注。
  3. 命名实体识别:使用 H a n L P HanLP HanLP 进行命名实体识别。
  4. 文本向量化:使用 W o r d 2 V e c Word2Vec Word2Vec 进行词向量表示。
  5. 数据分析:统计标签数量分布、句子长度分布,生成关键词词云。
  6. 特征处理:添加 n n n-gram 特征,规范文本长度。
  7. 数据增强:使用 B a i d u Baidu Baidu 翻译 A P I API API 进行回译。

7.2、英文文本预处理实例

  1. 分词:使用 N L T K NLTK NLTK S p a C y SpaCy SpaCy 进行分词。
  2. 词性标注:使用 N L T K NLTK NLTK S p a C y SpaCy SpaCy 进行词性标注。
  3. 命名实体识别:使用 S p a C y SpaCy SpaCy S t a n f o r d Stanford Stanford N E R NER NER 进行命名实体识别。
  4. 文本向量化:使用 G l o V e GloVe GloVe F a s t T e x t FastText FastText 进行词向量表示。
  5. 数据分析:统计标签数量分布、句子长度分布,生成关键词词云。
  6. 特征处理:添加 n n n-gram 特征,规范文本长度。
  7. 数据增强:使用 G o o g l e Google Google 翻译 A P I API API 进行回译。

8、小结

通过这些预处理步骤,我们可以有效提升文本数据的质量,从而提高后续模型的性能和效果。
文本预处理不仅是NLP的基础环节,也是提升模型效果的重要手段。
每一步预处理都需要根据具体任务和数据特点进行调整和优化,以达到最佳效果。


http://www.ppmy.cn/server/98728.html

相关文章

Lombok的坑:VUE通过ajax.post请求向spring后台传参,部分属性接收不到。

一、问题:VUE通过ajax.post请求向spring后台传参,bAppId属性接收不到,其他的值均正常接收 实体类定义: VUE代码: JAVA代码: 二、原因 实体类使用lombok.Data的Data注解生成get/set,针对首字母小…

电脑开机后出现bootmgr is missing原因及解决方法

最近有网友问我为什么我电脑开机后出现bootmgr is missing,这个提示意思是:意思是启动管理器丢失,说明bootmgr损坏或者丢失,系统无法读取到这个必要的启动信息导致无法启动。原因有很多,比如我们采用的是uefi引导,而第…

【07】JVM是怎么实现invokedynamic的

在Java中,方法调用会被编译为invokeStatic,invokeSpecial,invokVirtual以及invokeInterface四种指令。这些指令与包含目标方法类名、方法名以及方法描述符的符号引用捆绑,在实际运行之前,JVM根据这个符号引用链接到具体…

天地图的基本使用

在index.html中引入天地图的js <script type"text/javascript" src"http://api.tianditu.gov.cn/api?v4.0&tk你的key"></script><template><div class"zx-view"><div id"mapDiv" style"width: 1…

Q-Dir vs 传统文件管理器:为何开发者更偏爱这款神器?

前言 在这个信息爆炸的时代&#xff0c;我们每天都在与海量的文件和文件夹打交道&#xff1b;你是否曾经为了找一个文件而翻遍了整个硬盘&#xff1f;是否因为繁琐的文件夹操作而头疼不已&#xff1f;今天&#xff0c;就让我小江湖带你走进一个全新的世界——Q-Dir&#xff0c;…

27_文件上传漏洞、upload-labs靶场安装、蚁剑安装、蚁剑使用、AntSword-Loader-v4.0.3安装使用、upload-labs通关

文件上传漏洞介绍 部署一下upload-labs靶场&#xff0c; 解压出来时会报毒&#xff0c;我关掉了防火墙&#xff0c;用的是新的600多KB&#xff0c;旧的那个有些bug 网盘&#xff1a;或者github下载 http://r4.sgwbox.com/fileshare/?tcidn3686A122601C5&codeZ19HfjOQSJ7Q…

Java中的反射

一、反射的概述 反射的引入&#xff1a; 问题&#xff1a;IDEA中的对象是怎么知道类有哪些属性&#xff0c;哪些方法的呢&#xff1f; 通过反射技术对象类进行了解剖得到了类的所有成员。 反射的概念 反射是一种机制&#xff0c;利用该机制可以在程序运行过程中对类进行解…

批发行业进销存-登录适配 android 横竖屏幕 源码CyberWinApp-SAAS 本地化及未来之窗行业应用跨平台架构

一、横竖屏切换的意义 以下是移动端横屏竖屏可切换在进销存中的一些重要应用&#xff1a; a、数据录入与查看 在录入商品信息、库存数量等大量数据时&#xff0c;横屏模式可以提供更宽阔的输入区域&#xff0c;减少输入错误。例如&#xff0c;在输入长串的商品编码或详细的商…