融合ChineseBERT和双向注意力流的中文商品评论方面情感分析
胡晓丽1, 张于贤2, 黄思睿3     
1. 桂林电子科技大学计算机与信息安全学院,广西桂林 541004;
2. 桂林电子科技大学商学院,广西桂林 541004;
3. 桂林电子科技大学,广西可信软件重点实验室,广西桂林 541004
摘要: 准确分类电商平台中用户评论所包含的多个方面的情感极性,能够提升购买决策的有效性。为此,提出一种融合ChineseBERT和双向注意力流(Bidirectional Attention Flow, BiDAF)的中文商品评论方面情感分析模型。首先,通过融合拼音与字形的ChineseBERT预训练语言模型获得评论文本和方面文本的词嵌入,并采用从位置编码和内存压缩注意力两个方面改进的Transformer来表征评论文本和方面文本的语义信息。然后,使用双向注意力流学习评论文本与方面文本的关系,找出评论文本和方面文本中关键信息所对应的词语。最后,将Transformer和双向注意力流的输出同时输入到多层感知机(Multilayer Perceptron, MLP)中,进行信息级联和情感极性的分类输出。测试结果表明,提出的模型在两个数据集上的准确率分别为82.90%和71.08%,F1分数分别为82.81%和70.98%。
关键词: 商品评论    方面情感分析    词嵌入模型    注意力机制    双向注意力流    
Aspect Sentiment Analysis for Chinese Commodity Reviews Based on ChineseBERT and Bidirectional Attention Flow
HU Xiaoli1, ZHANG Yuxian2, HUANG Sirui3     
1. School of Computer Science and Information Security, Guilin University of Electronic Technology, Guilin, Guangxi, 541004, China;
2. Business School, Guilin University of Electronic Technology, Guilin, Guangxi, 541004, China;
3. Guangxi Key Laboratory of Trusted Software, Guilin University of Electronic Technology, Guilin, Guangxi, 541004, China
Abstract: Accurately classifying the sentiment polarity of various aspects contained in user reviews in E-commerce platforms can improve the effectiveness of purchase decisions.Therefore, a sentiment analysis model of Chinese product reviews based on ChineseBERT and Bidirectional Attention Flow (BiDAF) is proposed.Firstly, the word embedding of the review text and the aspect text is obtained by the ChineseBERT pre-trained language model that integrates pinyin and glyph, and the semantic information of the review text and the aspect text is represented by the Transformer improved from two aspects of position coding and memory compression attention.Then, the bidirectional attention flow is used to learn the relationship between the review text and the aspect text, and find out the words corresponding to the key information in the review text and the aspect text.Finally, the outputs of Transformer and bidirectional attention flow are simultaneously input into Multilayer Perception (MLP) for information cascade and sentiment polarity classification output.The test results show that the accuracy of the proposed model on the two data sets is 82.90% and 71.08%, respectively, and the F1 scores are 82.81% and 70.98% respectively.
Key words: product reviews    aspect sentiment analysis    word embedding model    attention mechanism    bidirectional attention flow    

随着信息技术的发展,网上购买已经成为人们的主流购物方式之一。用户对网购的喜爱促进了天猫、京东等众多电商平台的发展,同时也加剧了电商平台之间的竞争。电子商务平台上的评论文本往往能比较客观真实地表达用户购买商品后的感受和看法,对其所含情感进行分析挖掘,能够有效促进电子商务平台的健康发展。对商品评论进行方面情感分析,对用户而言,能够增强用户对新购商品的了解程度和信任感,使其更好地做出购买决策;对商户而言,能够及时有效地发掘商品的“痒点”和“痛点”,使其进一步改进商品质量、提升服务水平、开展精准营销;对平台而言,能够将商户按优劣分类,实现商户的精准化、规范化管理。

最近,针对评论文本的情感分析大多为基于卷积神经网络(Convolutional Neural Networks, CNN)和长短期记忆网络(Long Short-Term Memory,LSTM)等深度学习的方法[1]。赵杨等[2]为了研究海淘移动电商平台的用户满意度,用支持向量机(Support Vector Machine, SVM)替换CNN文本分类模型中分类层的Softmax函数,提出CNN-SVM情感分类模型,增强了CNN模型的准确性和泛化能力。郝利栋等[3]为了增强CNN模型的特征抽取能力,提出多路融合的CNN模型,与CNN模型相比,其模型在商品评论情感分析任务中取得了更好的效果。王伟等[4]针对双向LSTM (BiLSTM)模型在文本情感分类中存在的上下文语义学习不充分和训练费时的问题,提出一种融合注意力机制的BiGRU模型。除了以上使用单个CNN或LSTM模型外,一些学者还对融合多个模型的方法进行了探索[5, 6]。韩虎等[7]融合CNN和LSTM两个模型,提出一种多粒度注意力层次神经网络模型,结果表明融合后得到的模型在文本情感分类任务中取得了更好的分类精确度。杜朋等[8]为了对电商平台上的商品评论进行分析,提出一种融合Transformer和CNN的模型,发现与BiLSTM模型相比,其模型准确率更高且训练消耗时间更短。此外,一些研究者发现通过改进神经网络中的词嵌入方式能够有效提升模型的性能[9]。厍向阳等[10]提出Sword2vect情感向量,与Word2Vec相比,Sword2vect能够更好地表示词语的上下文语义。颜礼蓉等[11]融合词性和词嵌入两种特征,解决了传统词嵌入模型存在的情景信息表征不足的问题。现有的商品评论情感分析主要以句子级的研究为主,不能细粒度地分析评论句子中各个方面的情感极性[12]。例如,在“新机到手外观变化不大,有点小失望。系统一如既往的好,性能提升较大。”这条针对手机的商品评论中,包含了“外观”和“系统”两个方面,且两个方面的情感极性不一致。在句子级的情感分析模型测试中发现,模型忽略了评论语句中对“外观”的相关消极描述,将整条评论划分在了积极的情感极性类别中。

针对现有句子级情感分析模型在处理包含多个方面,且每个方面的情感极性不一致的商品评论时,准确率较低的问题,本文提出一种融合ChineseBERT和双向注意力流(Bidirectional Attention Flow, BiDAF)的中文商品评论方面情感分析模型(ChineseBERT-BiDAF)。首先采用ChineseBERT获得上下文动态感知的中文词向量编码;然后采用改进型Transformer (I-Transformer)分别表征评论文本和方面文本的语义信息,同时,使用双向注意力流学习评论文本和方面文本的相互关系;最后采用多层感知机(Multilayer Perceptron, MLP)分类输出评论文本中某个方面相对应的情感极性。在SemEval-2016的手机和数码相机两个真实数据集上验证ChineseBERT-BiDAF在准确率和F1分数评价指标上的表现。

1 问题定义

中文商品评论方面情感分析任务定义如下:给定一条包含N个汉字词语的商品评论文本TS={ws1, ws2, …, wsN}和预先设定好的包含M个汉字词语的商品方面文本TA={wa1, wa2, …, waM},ChineseBERT-BiDAF的目标是判断TSTA上的情感极性。其中每个汉字词语可能包含一个或多个汉字,情感极性类别分为积极和消极两类。

2 方法

图 1为融合ChineseBERT和BiDAF的中文商品评论方面情感分析模型,主要包括ChineseBERT词编码输入层、I-Transformer语义表征层、BiDAF层和多层感知机(Multilayer Perceptron, MLP)情感极性分类层4个部分。

图 1 模型整体架构 Fig. 1 Overall model architecture

2.1 ChineseBERT词编码输入层

ChineseBERT词编码输入层能够将评论文本和方面文本中每个汉字词语映射到一个低维(d)向量空间中[13],以便于语义表征层的I-Transformer学习。ChineseBERT词编码输入层的输出分别是评论词向量序列VS={vs1, vs2, …, vsN}∈RN×d和方面词向量序列VA={va1, va2, …, vaM}∈RM×d

2.2 I-Transformer语义表征层

图 2所示,I-Transformer语义表征层由L层I-Transformer基本单元块组成。每个基本单元块主要包含位置编码、内存压缩注意力、层规范化和全连接神经网络4个组件。

图 2 I-Transformer基本单元块结构 Fig. 2 Basic unit structure of I-Transformer

2.2.1 位置编码

在商品评论情感分析时,评论文本中的词语顺序对语义的表达具有重要影响,同一词语在评论文本的不同位置表达的含义可能有很大差异。然而,与循环神经网络和卷积神经网络不同,Transformer模型采用纯注意力机制,本身不具备编码评论文本中词语绝对位置或相对位置的能力[14]。本文采用Complex-order方法额外编码评论文本的位置信息[15],解决原始Transformer模型中词向量与位置向量加和方式存在的位置独立性问题,能够表示评论文本中词语间的优先关系和邻接关系。Complex-order编码方式将词编码转换为一个以位置为自变量的连续函数,如式(1)所示。

$ f(i, p)=g_i(p) \in \mathbb{R}^D, $ (1)

式(1)中,gi(·)表示词向量索引到连续函数的映射,p为位置索引,D为连续函数集合。

2.2.2 内存压缩注意力

为了降低Transformer模型中多头注意力机制的计算复杂度,更好地处理长序列的商品评论文本,采用如图 3所示的内存压缩注意力替换原始的多头注意力[16]。内存压缩注意力通过限制查询(Q)和键(K)的点积,缩减多头注意力的规模和资源占用,计算公式如式(2)所示。在将令牌映射到QK和值(V)嵌入后,使用卷积步长来减少KV的数量。

$ \text { Attention }(Q, K, V)=\operatorname{softmax}\left(\frac{Q K^{\mathrm{T}}}{\sqrt{d_k}}\right) V, $ (2)
图 3 内存压缩注意力结构[16] Fig. 3 Structure of memory compression attention[16]

式(2)中,dk表示向量维度。

为了增强内存压缩注意力的表征能力,使模型能够学习到评论文本中单词的差别和关系,采用了类似于Transformer模型的多头注意力机制。使用不同的参数矩阵通过式(2)获得的多个注意力进行连接,如式(3)所示。

$ {\rm{MultiHead}}(Q, K, V) = {\mathop{\rm Concat}\nolimits} \left( {{\rm{hea}}{{\rm{d}}_1}, {\rm{hea}}{{\rm{d}}_2}, \cdots , {{{\mathop{\rm head}\nolimits} }_n}} \right){W^0}, $ (3)

式(3)中,headi表示内存压缩注意力在第i个头的输出,W0n个头线性输出的参数矩阵。

2.2.3 层规范化

为了确保模型的训练效率和稳定性,在I-Transformer结构中使用了如式(4)所示的层规范化操作。

$ \mathrm{LN}(x)=\gamma \frac{x-E[x]}{\sqrt{\operatorname{Var}[x]+\varepsilon}}+\beta, $ (4)

式(4)中,γβ为模型学习所得的参数,E[x]和Var[x]分别表示均值和方差,ε是避免分母为0。

2.2.4 全连接神经网络

在两个层规范化之间包含一个两层激活函数,为全连接神经网络,如式(5)所示。

$ \operatorname{FCNN}(X)=\operatorname{GELU}(L(L(X))) \text {, } $ (5)

式(5)中,L(·)表示线性变换,GELU(·)为激活函数。

评论词向量序列和方面词向量序列经过I-Transformer语义表征层后,分别生成式(6)所示的评论隐藏序列HS和式(7)所示的方面隐藏序列HA

$ H^S=\left[h_1^s, h_2^s, \cdots, h_N^s\right]=I-\text { Transformer }\left(V^S\right), $ (6)
$ H^A=\left[h_1^a, h_2^a, \cdots, h_M^a\right]=I-\text { Transformer }\left(V^A\right), $ (7)

式(6)和式(7)中,VSVA分别为评论词向量序列和方面词向量序列;hisdh(1≤iN),hiadh(1≤iM),dh为词向量维度。

2.3 双向注意力流层

双向注意力流从“评论到方面”“方面到评论”两个方向计算注意力,建立起评论序列和方面序列的相互关系,并融合两条序列信息[17]。为了计算这两个方向的注意力,首先通过式(8)计算方面序列和评论序列的相似性矩阵,该矩阵在计算两个方向的注意力时被共享使用。

$ S_{n m}=f\left(H_{: n}^S, H_{: m}^A\right) \in \mathbb{R}, $ (8)

式(8)中,Snm表示评论文本中第n个词与方面文本中第m个词的相似度,H: nS表示评论隐藏序列HS的第n列,H: mA表示方面隐藏序列HA的第m列,f(·)为式(9)计算得到的度量相似度的标量函数。

$ f\left(h^s, h^a\right)=w_s^{\mathrm{T}}\left[h^s ; h^a ; h^s \odot h^a\right], $ (9)

式(9)中,ws为待训练的权重矩阵,[·;·]表示向量间的行拼接,⊙表示向量间同位元素相乘。

2.3.1 从评论到方面注意力流

从评论到方面的注意力流如图 4所示,由图 4可以看出,对于评论文本中的每个词,方面文本中的哪些词与其相关性最大。按照式(10)、式(11)计算评论文本中每个词的注意力分数,并将其加权求和后作为该词蕴含评论语义的方面表示($\tilde{H}^A$)。

$ a_n=\operatorname{softmax}\left(S_{n_i}\right) \in \mathbb{R}^M, $ (10)
图 4 从评论到方面注意力流示意图 Fig. 4 Sketch map of review-to-aspect attention flow

式(10)中,an为评论文本中第n个词对方面文本的注意力权重,softmax(·)是归一化操作, Sn: 表示方面文本与评论文本相似矩阵的第n行。

$ \tilde{H}_{: n}^A=\sum\limits_m a_{n m} H_{: m}^A \in \mathbb{R}^{d^h \times M}, $ (11)

式(11)中,$\tilde{H}_{: n}^A$表示蕴含评论语义的方面文本矩阵的第n列,将其拼接后得到$\tilde{H}^A$

2.3.2 从方面到评论注意力流

从方面到评论的注意力流如图 5所示,由图 5可以看出,对于方面文本中的每个词,评论文本中的哪些词与其最相似。首先将相似矩阵S中每列的最大值取出后合并为一个新的向量(v),如式(12)。然后通过式(13)计算评论中每个词给对应方面整体分配的相似度。最后将$\tilde{h}^s$复制N次形成蕴含方面语义的评论表示($\tilde{H}^S$)。

$ v=\operatorname{softmax}\left(\max _{\mathrm{col}}(S)\right) \in \mathbb{R}^N, $ (12)
图 5 从方面到评论注意力流示意图 Fig. 5 Sketch map of aspect-to-review attention flow

式(12)中,maxcol(S)表示相似性矩阵中的元素最大值所在列,softmax(·)是归一化操作。

$ \tilde{h}^S=\sum\limits_n v_n H_{: n}^S \in \mathbb{R}^{d^h}, $ (13)

式(13)中,H: nS表示评论隐藏序列的第n列。

2.4 MLP情感极性分类层

MLP情感极性分类层的功能是级联BiDAF的输出[18],并将级联后的结果输入Softmax函数中求得商品评论的情感极性,如式(14)、式(15)所示。

$ R=\operatorname{MLP}\left(H^S, H^A, \tilde{H}^S, \tilde{H}^A\right), $ (14)
$ p=\operatorname{Softmax}(R)。$ (15)

模型采用交叉熵损失函数和L2正则化进行训练[19],如式(16)所示。

$ L=-\sum\limits_{i \in D} \sum\limits_{c \in C} y_i^c \log p_i^c+\lambda\|\theta\|^2, $ (16)

式(16)中,pic为模型预测的评论文本中方面对应的情感极性,yic为数据集中人工标注的评论文本中方面对应的情感极性,C为评论文本中蕴含的{积极,消极}两类情感极性,θ为模型参数,λ为控制L2正则化对模型影响程度的参数。

3 实验与结果分析 3.1 数据集与实验环境

在SemEval-2016任务五(https://alt.qcri.org/semeval2016/task5/)的手机和数码相机两个中文商品评论数据集上进行实验,实验数据集的统计信息如表 1所示。

表 1 数据集统计信息 Table 1 Statistical information of data set
情感极性
Emotional polarity
手机数据集
Data set on mobile phone
数码相机数据集
Data set on digital camera
训练数据集
Training data set
测试数据集
Test data set
训练数据集
Training data set
测试数据集
Test data set
Positive 758 310 809 344
Negative 575 219 450 137
Total 1 333 529 1 259 481

实验在谷歌Colab云环境进行,模型采用Python编程语言,在Pytorch开源深度学习框架下编程实现。ChineseBERT预训练模型选用base版本(https://github.com/ShannonAI/ChineseBert)。模型选用Adam优化函数,学习率设定为0.001,L2正则化系数λ设定为0.1。由于数据集规模较小,为了避免模型训练过程中出现过拟合问题,在模型中增加了丢弃率为0.1的dropout层。

3.2 评估指标和对比模型

选取准确率(ACC)和F1分数作为模型的评估指标。ACC为模型预测正确的样本数占总样本数的比率,如式(17)所示。

$ \mathrm{ACC}=\frac{\mathrm{TP}+\mathrm{TN}}{(\mathrm{TP}+\mathrm{TN})+(\mathrm{FP}+\mathrm{FN})}, $ (17)

式(17)中,TP表示模型预测和实际标注的情感极性均为积极,TN表示模型预测和实际标注的情感极性均为消极,FP表示实际标注情感为消极的样本被错误地预测为积极,FN表示实际标注情感为积极的样本被错误地预测为消极。

F1分数为精准率和召回率的倒数平均数,如式(18)所示。

$ F 1=\frac{2 P \times R}{P+R}, $ (18)

式(18)中,$P=\frac{\mathrm{TP}}{\mathrm{TP}+\mathrm{FP}}$为精准率,$R=\frac{\mathrm{TP}}{\mathrm{TP}+\mathrm{FN}}$为召回率,精准率和召回率计算公式中的TP、TN、FP、FN的含义与式(17)相同。

为了验证本文所提模型的准确性和可行性,选用以下4种模型进行对比实验。

LSTM[20]:将评论文本进行词向量编码后视为序列,输入LSTM模型进行情感极性判断。

IAN[21]:一种交互注意力神经网络模型。通过计算评论文本和方面文本的交互注意力,两者相互知晓对方文本中的重要词。首先使用LSTM模型获得评论文本和方面文本的隐藏层;然后使用平均池化获得方面隐藏层和评论隐藏层长度固定的向量表示,并通过交互注意力得到方面相关的评论表示和评论相关的方面表示;最后拼接评论表示和方面表示,输入Softmax层分类输出方面情感极性。

AOA[22]:与IAN模型类似,首先使用双向LSTM模型获得方面和评论的隐藏表示,然后通过Attention-over-Attention注意力模块获得方面相关的评论表示和评论相关的方面表示,最后输入Softmax层分类输出方面情感极性。

BERT[23]:将评论文本和方面文本按照“[CLS]评论文本[SEP]方面文本”的格式输入到BERT预训练模型中进行微调。

3.3 结果分析 3.3.1 对比实验

本文所提模型与4种对比模型在SemEval-2016任务五的手机和数码相机两个数据集上的ACC和F1分数如表 2所示。

表 2 5种模型对比结果 Table 2 Comparision results of five models
模型
Model
准确率(%)
ACC (%)
F1分数(%)
F1 score (%)
手机数据集
Data set on mobile phone
数码相机数据集
Data set on digital camera
手机数据集
Data set on mobile phone
数码相机数据集
Data set on digital camera
LSTM 81.24 81.05 69.40 69.00
IAN 81.63 81.49 69.78 69.72
AOA 81.95 81.77 70.06 69.94
BERT 82.65 82.43 70.76 70.30
This study 82.90 82.81 71.08 70.98

表 2可知,①本文所提模型在手机和数码相机两个数据集上的ACC和F1分数均高于对比模型,验证了通过改变词向量编码方式和引用注意力机制增强方面情感分析模型的可行性和有效性,与文献[22-23]的结论一致。②以上5种模型在手机数据集上的表现普遍优于在数码相机上的实验结果,可能是与数码相机数据集相比,手机数据集的数据规模更大、正负样本更加均衡,更有利于上述5种有监督模型取得更好的实验效果。③本文所提模型和BERT模型比其余的3种模型取得更好的结果,说明“无监督预训练+有监督微调”的模型比传统的有监督神经网络更适用于中文商品评论方面情感分析任务。

3.3.2 消融实验

为了验证本文提出的双向注意力流对中文商品评论方面情感分析的作用机理,针对双向注意力流进行消融实验,结果如表 3所示。

表 3 双向注意力流消融实验结果 Table 3 Results of bidirectional attention flow ablation experiment
模型Model 准确率(%)
ACC (%)
F1分数(%)
F1 score (%)
手机数据集
Data set on mobile phone
数码相机数据集
Data set on digital camera
手机数据集
Data set on mobile phone
数码相机数据集
Data set on digital camera
One-way attention flow of review-to-aspect 82.86 82.75 71.06 70.94
One-way attention flow of aspect-to-review 81.84 81.70 71.01 69.90
Bidirectional attention flow 82.90 82.81 71.08 70.98

表 3可知,无论是方面到评论还是评论到方面的单向注意力流,在两个数据集上的两种评价指标均低于双向注意力流,两种流向注意力共同作用的效果最好,表明双向注意力流机制对模型性能的提升有帮助,使用双向注意力机制比使用单个流向的注意力机制效果更好。此外,实验结果表明评论到方面单向注意力流的模型效果略高于方面到评论单向注意力流的模型,说明在中文评论方面情感分析任务中,方面与评论之间相似度高的关键词对模型整体的结果影响较大。

3.3.3 词向量编码选择

为了探究词向量编码对模型的影响机理,同时验证选择ChineseBERT作为模型词向量编码的合理性, 采用Word2vec、Glove、ELMo和BERT 4种词向量编码进行实验,结果如图 6所示。

图 6 词向量编码对模型性能的影响 Fig. 6 Effect of word vector coding on model performance

图 6可以看出,在5种词向量编码中,本文选用的ChineseBERT在两个数据集上的ACC和F1分数均取得最高的数值。这是因为ChineseBERT不仅具有BERT词向量编码的自身优势,而且在模型预训练的中文语料中融合了汉字特有的拼音和字形信息,获得了更加准确的词向量编码。此外,实验结果表明根据上下文动态编码的ELMo、BERT和ChineseBERT 3种模型,比Word2vec和Glove两种模型在中文评论方面情感分析任务中效果更好,可能是动态编码的词向量模型能够根据上下文信息差异化表征同义词,解决了评论文本中同义词存在的一词多义问题。

3.3.4 模型层数选择

为了探索模型层数对模型性能的影响,本文在[1, 5]区间内,以步长为1分别进行分组实验。实验时确保除模型层数不同外,其余部分均采用相同配置,实验结果如图 7所示。

图 7 模型层数对模型性能的影响 Fig. 7 Effect of model layers on model performance

图 7可以看出,在手机和数码相机两个数据集上,在[1, 3]区间内随着层数的增加,模型的ACC和F1值不断提升,说明随着层数的增加,模型对中文商品评论文本的语义理解更加正确。然而,在[3, 5]区间内随着层数的增加,模型的性能反而有所下降,其原因可能是ChineseBERT是基于海量数据集通过自监督得到的预训练语言模型,本文用来实验的标注数据集与之相比规模较小,过多的层数增加了模型的复杂度,从而导致模型性能的下降。因此本文模型的层数最终设定为3层。

3.3.5 模型训练时间对比

为了评估模型的时间消耗,将本文所提模型和4种对比模型在相同的实验硬件环境进行训练,5种模型在手机数据集上迭代一次所需时间如图 8所示。

图 8 模型迭代一次所需时间 Fig. 8 Time required for model iteration

图 8可知,本文所提模型在保持和BERT几乎相同的时间消耗前提下,具有更高的ACC和F1分数。这是因为本文所提模型虽然比BERT模型在双向注意力流训练时需要额外花费时间,但在语义表征层采用的I-Transformer与BERT所采用的Transformer相比,时间消耗更少。同时可以观测到,可以进行并行训练的本文所提模型和BERT模型的时间消耗低于不能并行训练的LSTM、IAN和AOA 3种模型。此外,对比实验结果可以发现,LSTM、IAN和AOA 3种模型的时间消耗是依次激增的,说明模型的时间消耗与添加的注意力机制的复杂度呈正相关。这是因为IAN和AOA模型为了提升LSTM模型的准确性,采取了分开训练方面文本和评论文本、增加注意力机制两种措施,且AOA模型采用了比IAN模型结构更加复杂的注意力机制。

4 结论

由于现有中文商品评论情感分析模型在处理包含多个方面,且每个方面的情感极性不一致的评论句子时准确率较低,本文提出一种面向中文商品评论的方面情感分析的模型(ChineseBERT-BiDAF)。首先使用ChineseBERT模型分别获得方面文本和评论文本的嵌入表示,然后采用I-Transformer分别学习方面和评论文本的语义信息,通过双向注意力流学习方面与评论语句的关系,找出方面文本与评论文本中的重要词组,并将其与语义信息组合,最后输入MLP情感极性分类层,获得方面对应的情感极性。实验结果验证了本文所提模型的有效性,下一步将构建中文商品评论语料库,并基于此训练专用于中文商品评论方面情感分析的ChineseBERT模型,以期进一步提升模型的性能。

参考文献
[1]
李洋, 董红斌. 基于CNN和BiLSTM网络特征融合的文本情感分析[J]. 计算机应用, 2018, 38(11): 3075-3080.
[2]
赵杨, 李齐齐, 陈雨涵, 等. 基于在线评论情感分析的海淘APP用户满意度研究[J]. 数据分析与知识发现, 2018, 23(11): 19-27.
[3]
郝利栋, 赵慧, 杨培丽. 基于多路融合卷积神经网络的网购商品情感分类[J]. 东华大学学报(自然科学版), 2018, 44(4): 555-559.
[4]
王伟, 孙玉霞, 齐庆杰, 等. 基于BiGRU-attention神经网络的文本情感分类模型[J]. 计算机应用研究, 2019, 36(12): 3558-3564.
[5]
白静, 李霏, 姬东鸿. 基于注意力的BiLSTM-CNN中文微博立场检测模型[J]. 计算机应用与软件, 2018, 35(3): 266-274.
[6]
YAN W, ZHOU L F, QIAN Z J, et al. Sentiment analysis of student texts using the CNN-BiGRU-AT model[J/OL]. Scientific Programming, 2021, 2021(Pt. 9): 8405623. https://doi.org/10.1155/2021/8405623.
[7]
韩虎, 刘国利, 孙天岳, 等. 多注意力层次神经网络文本情感分析[J]. 计算机工程与应用, 2020, 56(10): 100-105.
[8]
杜朋, 卢益清, 韩长风. 基于Transformer模型的商品评论情感分析[J]. 中文信息学报, 2021, 35(2): 125-132.
[9]
厍向阳, 杨瑞丽, 董立红. 基于Sword2vect的中文在线商品评价情感分析[J]. 西安科技大学学报, 2020, 40(3): 504-511.
[10]
厍向阳, 杨瑞丽. 融合深度特征的Sword2vect商品在线评价情感分析[J]. 计算机应用与软件, 2020, 37(6): 212-217.
[11]
颜礼蓉, 朱小栋, 陈曦. 基于双通道融合和BiLSTM-attention的评论文本情感分类算法[J]. 上海理工大学学报, 2021, 43(6): 597-605. DOI:10.13255/j.cnki.jusst.20210102001
[12]
冯超, 黎海辉, 赵洪雅, 等. 基于层次注意力机制和门机制的属性级别情感分析[J]. 中文信息学报, 2021, 35(10): 128-136.
[13]
SUN Z J, LI X Y, SUN X F, et al. Chinesebert: Chinese pretraining enhanced by glyph and pinyin information[Z/OL]. (2021-06-30)[2022-08-01]. https://doi.org/10.48550/arXiv.2106.16038.
[14]
VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[Z/OL]. (2017-06-12)[2022-08-01]. https://doi.org/10.48550/arXiv.1706.03762.
[15]
WANG B Y, ZHAO D H, LIOMA C, et al. Encoding word order in complex embeddings[Z/OL]. (2019-12-27)[2022-08-01]. https://doi.org/10.48550/arXiv.1912.12333.
[16]
LIU P J, SALEH M, POT E, et al. Generating wikipedia by summarizing long sequences[Z/OL]. (2018-01-30)[2022-08-01]. https://doi.org/10.48550/arXiv.1801.10198.
[17]
SEO M, KEMBHAVI A, FARHADI A, et al. Bidirectional attention flow for machine comprehension[Z/OL]. (2016-11-05)[2022-08-01]. https://doi.org/10.48550/arXiv.1611.01603.
[18]
TOLSTIKHIN I, HOULSBY N, KOLESNIKOV A, et al. Mlp-mixer: an all-mlp architecture for vision[Z/OL]. (2021-05-04)[2022-08-01]. https://doi.org/10.48550/arXiv.2105.01601.
[19]
XU Q N, ZHU L, DAI T, et al. Aspect-based sentiment classification with multi-attention network[J]. Neurocomputing, 2020, 388: 135-143.
[20]
HOCHREITER S, SCHMIDHUBER J. Long short- term memory[J]. Neural Computation, 1997, 9(8): 1735-1780.
[21]
MA D, LI S J, ZHANG X D, et al. Interactive attention networks for aspect-level sentiment classification[Z/OL]. (2017-09-04)[2022-08-01]. https://doi.org/10.48550/arXiv.1709.00893.
[22]
HUANG B, OU Y, CARLEY K M. Aspect level sentiment classification with attention-over-attention neural networks[C]//International Conference on Social Computing, Behavioral-Cultural Modeling and Prediction and Behavior Representation in Modeling and Simulation. Cham, Swizerland: Springer, 2018: 197-206.
[23]
DEVLIN J, CHANG M W, LEE K, et al. BERT: pre-training of deep bidirectional transformers for language understanding[Z/OL]. (2018-10-11)[2022-08-01]. https://doi.org/10.48550/arXiv.1810.04805.