【Python机器学习】NLP分词——词的“情感”

server/2024/10/22 9:27:26/

目录

VADER:一个基于规则的情感分析器

朴素贝叶斯


无论NLP流水线中使用的是单个词、n-gram、词干还是词元作为词条,每个词条都包含了一些信息,这些信息中一个重要部分是词的情感,即一个词所唤起的总体感觉或感情。这种度量短语或者文本块的情感的任务称为情感分析,是NLP中的一个常见应用。在很多公司中,NLP工程师要做的最主要的工作就是情感分析。

类似于研究/分析用户对商品的反馈,机器不会有人类的那种倾向性,也没有人类的情感触发器。而且,并不仅仅是人类才可以处理自然语言文本和从中提取信息甚至意义,NLP流水线也能够快速客观地处理大量用户反馈,而不会出现什么倾向性。同时,NLP流水线能够输入文本的正向性或者负向性以及任何其他的情感质量的数值等级。

另一个常见的情感分析应用是垃圾邮件或钓鱼消息的过滤。我们也希望自己的聊天机器人能够判断聊天信息中的情感以便能够合理地回复消息。甚至更重要的一点是:我们希望聊天机器人在输出语句之前能够知道该语句的情感倾向,从而引导机器人输出更加亲和、友好的语句。我们需要机器人能够度量要说的任何话的得体程度从而决定是否需要回复。

要度量一段文本的情感产生所谓的倾向性数值,我们希望NLP流水线和情感分析算法输出单个从-1到+1之间的浮点数。

有两种情感分词的方法,分别是:

  • 基于规则的算法,规则由人来撰写;
  • 基于机器学习的模型,模型是机器从数据中学习而得到的。

第一种情感分析的方法使用用户设计的规则(有时称为启发式规则)来度量文本的情感。一个常用的基于规则的方法是在文本中寻找关键词,并将每个关键词映射到某部字典或者映射上的数值得分或权重,例如这部字典可以是Python的dict。我们在字典中可以使用分词后的词干、词元或者n-gram词条,而不只是词。算法中的规则将迭加文档中每个关键词在字典中的情感得分。显然,在文本上运行我们的算法之前,我们必须要手工构建一步关键词及每个关键词的情感得分的字典。

第二中基于机器学习的方法利用一系列标注语句或者文档来训练机器学习模型以产生规则。机器学习的情感模型在经过训练以后能够处理输入文本并输出该文本的一个情感数值得分,该得分就像正向倾向性、垃圾程度和钓鱼程度一样。对于机器学习方法,需要大量标注好“正确”情感得分的文本数据。推文数据往往被用于这类方法,因为推文中的哈希标签往往可用于构建“自标注”的数据集。

VADER:一个基于规则的情感分析器

VADER算法时最早被成功提出的基于规则的情感分析算法,很多NLP包实现的是该算法的某种形式。NLTK包中的nltk.sentiment.vader实现了VADER算法。

下面是使用vaderSentiment的代码:

from vaderSentiment.vaderSentiment import SentimentIntensityAnalyzersa=SentimentIntensityAnalyzer()
print(sa.lexicon)

上述代码呈现的是分词器最擅长处理的标点符合和表情符号,这样VADER才能更好地工作。如果在流水线中词干还原工具(或词形归并工具),需要将该工具也用于VADER词库,使单个词干或词元中的所有词的得分组合起来。

print([(tok,score) for tok,score in sa.lexicon.items()])

在VADER定义的7500个词条中,只有3个包含空格,其中两个实际上是n-gram,另一个是表达“kiss”的表情符号。

print(sa.polarity_scores(text="Python is very readable and it's great for NLP."))

VADER算法用3个不同的分数(正向、负向和中立)来表达情感极性的强度,然后将它们组合在一起得到一个复合的情感倾向性得分。

print(sa.polarity_scores(text="Python is not a bad choice for most applications."))

下面看上述基于规则的方法在前面提到的语句上的应用结果如何:

corpus=["Absolutely perfect! Love it! :-) :-) :-)","Horrible! Completely useless. :(","It was OK. Some good and some bad things."]
for doc in corpus:scores=sa.polarity_scores(doc)print('{:+}:{}'.format(scores['compound'],doc))

VADER的唯一不足在于,它只关注其词库中的7500个词条,而非文档中的所有词。

朴素贝叶斯

朴素贝叶斯模型视图从一系列文档集合中寻找对目标(输出)变量有预测作用的关键词。当目标变量是要预测的情感时,模型将寻找那些能预测该情感的词,朴素贝叶斯模型的一个好处是:其内部的系数会将词或词条映射为类似于VADER中的情感得分。只有这时,我们才不必受限于让人来决定这些分数应该是多少,机器将寻找任何其认为的“最佳”得分。

对于任一机器学习算法,首先必须要有一个数据集,即需要一些已经标注好正向情感的文本文档。nlpia包中有4个不同的情感数据集:

from nlpia.data.loaders import get_data
movies=get_data('hutto_movies')
print(movies.head().round(2))

print(movies.describe().round(2))

可以看到,该数据集中,对电影的评分区间在-4到+4之间。

下面使用分词器对所有电影评论文本进行切分,从而得到每篇评论文本的词袋,然后将他们放入DataFrame中:

import pandas as pd
from nltk.tokenize import casual_tokenize
from collections import Counter
pd.set_option('display.width',75)
bags_of_words=[]
for text in movies.text:bags_of_words.append(Counter(casual_tokenize(text)))
df_bows=pd.DataFrame.from_records(bags_of_words)
df_bows=df_bows.fillna(0).astype(int)
print(df_bows.shape)
print(df_bows.head())

上述代码中,词袋表格可能会快速增长到很大的的规模,特别是在没有使用大小写归一化、停用词过滤、词干还原和词形归并过程时更是如此。在这里可以考虑插入上述降维工具观察对流水线的影响。

现在我们有了朴素贝叶斯模型所需要的所有数据,利用这些数据可以从自然语言文本中寻找那些预测情感的关键词:

from sklearn.naive_bayes import MultinomialNB
nb=MultinomialNB()
nb=nb.fit(df_bows,movies.sentiment>0)
predicted_s=list(nb.predict_proba(df_bows)*8-4)
print(predicted_s[:9])
ps=[]
for i in range(len(predicted_s)):ps.append(list(predicted_s[i])[1])
movies['predicted_sentiment']=ps
movies['error']=(movies.predicted_sentiment-movies.sentiment).abs()
print(movies.error.mean().round(1))
movies['sentiment_ispositive']=(movies.sentiment>0).astype(int)
movies['predicted_ispositive']=(movies.predicted_sentiment>0).astype(int)
print(movies['''sentiment predicted_sentiment sentiment_ispositive predicted_ispositive'''.split()].head(8))
print((movies.predicted_ispositive == movies.sentiment_ispositive).sum()/len(movies))

可以看到,最终的点赞评级的正确率是93.44%。

只需要短短的几行代码,就可以构建一个不错非情感分析器。我们不需要像VADER一样构建一个包含7500个词及其对应情感得分的列表,而只需要给出一些文本及其标注。这就是机器学习和NLP的优势所在。

在另一种数据上,如果想和上面一样构建一个实际的情感分析器,要对训练数据进行分割。如果强行对所有的文本点赞或点差,那么一个随机猜测的MAE大概在4左右,因此,上面的情感分析器大概比随机猜测好一半:

products=get_data('hutto_products')
bags_of_words=[]
for text in products.text:bags_of_words.append(Counter(casual_tokenize(text)))
df_product_bows=pd.DataFrame.from_records(bags_of_words)
df_product_bows=df_product_bows.fillna(0).astype(int)
df_all_bows=pd.concat([df_bows,df_product_bows],ignore_index=True)
#=df_bows.append(df_product_bows)
print(df_all_bows.columns)
df_product_bows=df_all_bows.iloc[len(movies):][df_bows.columns]
df_product_bows=df_product_bows.fillna(0).astype(int)
print(df_product_bows.shape)
print(df_bows.shape)from sklearn.naive_bayes import MultinomialNB
nb=MultinomialNB()
nb=nb.fit(df_bows,movies.sentiment>0)
products['ispos']=(products.sentiment>0).astype(int)
products['predicted_ispositive']=nb.predict(df_product_bows.values).astype(int)
print(products.head())
print((products.predicted_ispositive==products.ispos).sum()/len(products))

因此,上述朴素贝叶斯模型在预测商品评论是否正向(即点赞)时表现得很糟糕。造成如此糟糕效果的一个原因是,利用casual_tokenize从商品文本中得到的词汇表中有2546个词条不在电影评论中。这个数目大约占电影评论分词结果的10%,这些词在朴素贝叶斯模型中不会有任何权重或者得分。另外,朴素贝叶斯模型也没有像VADER一样处理否定词。我们必须要将n-gram放在分词器中才能够将否定词(如“not”、“never”)与其修饰的可能要用的正向词关联起来。


http://www.ppmy.cn/server/110302.html

相关文章

【逐行注释】容积卡尔曼滤波的MATLAB例程(三维CKF),无需下载,可直接复制代码到MATLAB上运行

文章目录 CKF完整源代码与注释程序运行结果绘图部分误差的统计特性计算与输出部分CKF CKF全称为容积卡尔曼滤波,相比于UKF(无迹卡尔曼滤波),拥有更合理的理论推导和鲁棒性,且在理论上比UKF的精度更高。 另有: 与EKF的对比程序:https://blog.csdn.net/callmeup/article/…

P1004 [NOIP2000 提高组] 方格取数

将先后两次路线当作一次走两条路&#xff0c;路线可以重复&#xff0c;但价值只能计数一次 k i1 j1 i2 j2 以下分别对每一步作了详细的注释 #include <iostream> #include <algorithm>using namespace std; const int N 10 9;int n,m; int g[N][N]; int f[2…

【GPT】Coze使用开放平台接口-【6】Dify 也来一遍

前面讲了 coze 的相关用法&#xff0c;这边想着用 Dify 也来一遍&#xff0c;刚开始的时候接触的是 Dify&#xff0c;后面才是 coze。Dify 和 coze 的侧重点不同&#xff0c;我个人是更倾向用 Dify 构建工作流就可以了&#xff0c;coze 还是相对全能。 本节用 Dify 也会创建插…

【原型模式】

原型模式 Prototype Pattern 属于创建型模式是指原型实例指定创建对象的种类&#xff0c;并且通过拷贝这些原型创建新的对象&#xff0c;调用者不需要知道任何创建细节&#xff0c;不调用构造函数关键点&#xff1a;不通过 new 关键字&#xff0c;而是通过方法去创建对象 原型模…

WHAT - 通过 react-use 源码学习 React(Lifecycles 篇)

目录 一、官方介绍1. Sensors2. UI3. Animations4. Side-Effects5. Lifecycles6. State7. Miscellaneous 二、源码学习示例&#xff1a;n. xx - yyLifecycles - useEffectOnceLifecycles - useEventLifecycles - useLifecyclesLifecycles - useMountedState & useUnmountPr…

爬虫技术抓取网站数据被限制怎么处理

爬虫技术用于抓取网站数据时&#xff0c;可能会遇到一些限制&#xff0c;常见的包括反爬机制、速率限制、IP封禁等。以下是应对这些情况的一些策略&#xff1a; 尊重robots.txt&#xff1a;每个网站都有robots.txt文件&#xff0c;遵循其中的规定可以避免触犯网站的抓取规则。 …

回调与观察者模式区分

回调是观察者的具体一个业务实现&#xff0c;其他地方也有回调实现。 观察者设计模式&#xff1a; 1、主题&#xff08;提供注册、解绑观察者、通知观察者&#xff09;2、观察者&#xff08;业务方继承3&#xff0c;每一个观察者业务的逻辑不一样&#xff09;3、观察者接口&a…

linux 内核网络分析 -- 分配并初始化socket

分配并初始化socket inet_creat()函数分配了一个sock结构&#xff0c;定义的代码在2.2中&#xff0c;分配工作是通过sk sk_alloc(net, PF_INET, GFP_KERNEL, answer_prot) 来完成的&#xff0c;将anwer_prot作为其prot参数使用&#xff0c;已经设置为tcp_prot &#xff0c; sy…