文本数据处理方法、装置、电子设备及存储介质与流程

文档序号:19906907发布日期:2020-02-11 14:37
文本数据处理方法、装置、电子设备及存储介质与流程

本申请涉及自然语言处理技术领域,更具体地,涉及一种文本数据处理方法、装置、电子设备及存储介质。



背景技术:

情感分析是自然语言处理中的一项基本任务,可以用来挖掘用户的意见,进行数据分析、舆情监控等任务。情感分析又可分为情感信息的抽取、情感信息的分类以及情感信息的检索与归纳。其中,情感分类是指根据文本所表达的含义和情感信息将文本划分成褒扬的或贬义的两种或几种类型,是对文本作者倾向性和观点、态度的划分。但一个句子针对不同方面可能涉及多种不同的情感,目前在对包含多种情感或多个方面的文本进行情感分类时,存在局限性。



技术实现要素:

本申请提出了一种文本数据处理方法、装置、电子设备及存储介质,以改善上述缺陷。

第一方面,本申请实施例提供了一种文本数据处理方法,所述方法包括:获取待分类文本数据;从所述待分类文本数据中提取方面特征词;获取所述待分类文本数据的文本词向量表示以及所述方面特征词的方面特征词向量表示;将所述文本词向量表示和所述方面特征词向量表示分别输入目标神经网络,得到所述文本词向量表示的第一隐藏层含义和所述方面特征词向量表示的第二隐藏层含义,其中,所述目标神经网络被预先训练,用于根据输入的词向量表示,输出所述词向量表示的隐藏层含义;基于所述第一隐藏层含义和所述第二隐藏层含义,得到所述方面特征词的目标分类特征;根据所述方面特征词的目标分类特征,获取所述方面特征词的预测情感极性;根据所述预测情感极性对所述待分类文本数据进行情感分类,以得到所述方面特征词对应的情感分类结果并显示。

第二方面,本申请实施例还提供了一种文本数据处理装置,所述装置包括:文本获取模块,用于获取待分类文本数据;文本提取模块,用于从所述待分类文本数据中提取方面特征词;表示获取模块,用于获取所述待分类文本数据的文本词向量表示以及所述方面特征词的方面特征词向量表示;网络学习模块,用于将所述文本词向量表示和所述方面特征词向量表示分别输入目标神经网络,得到所述文本词向量表示的第一隐藏层含义和所述方面特征词向量表示的第二隐藏层含义,其中,所述目标神经网络被预先训练,用于根据输入的词向量表示,输出所述词向量表示的隐藏层含义;目标分类模块,用于基于所述第一隐藏层含义和所述第二隐藏层含义,得到所述方面特征词的目标分类特征;情感预测模块,用于根据所述方面特征词的目标分类特征,获取所述方面特征词的预测情感极性;情感分类模块,用于根据所述预测情感极性对所述待分类文本数据进行情感分类,以得到所述方面特征词对应的情感分类结果并显示。

第三方面,本申请实施例还提供了一种电子设备,包括:一个或多个处理器;存储器;一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个应用程序配置用于执行上述第一方面所述的方法。

第四方面,本申请实施例还提供了一种计算机可读取存储介质,计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行上述第一方面所述的方法。

本申请提供的文本数据处理方法、装置、电子设备及存储介质,通过获取待分类文本数据,然后从待分类文本数据中提取方面特征词,接着获取待分类文本数据的文本词向量表示以及方面特征词的方面特征词向量表示,并将文本词向量表示和方面特征词向量表示分别输入目标神经网络,得到文本词向量表示的第一隐藏层含义和方面特征词向量表示的第二隐藏层含义,其中,目标神经网络被预先训练,用于根据输入的词向量表示,输出词向量表示的隐藏层含义,然后基于第一隐藏层含义和第二隐藏层含义,得到方面特征词的目标分类特征,再根据方面特征词的目标分类特征,获取方面特征词的预测情感极性,最后根据预测情感极性对待分类文本数据进行情感分类,以得到方面特征词对应的情感分类结果并显示。由此,本申请提出了一种方面级别(aspectlevel)的基于神经网络的注意力机制模型,可以更好地获取方面特征词和待分类文本数据的交互信息并充分利用,从而提高方面级别文本情感分类的准确度。

附图说明

为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1示出了本申请一实施例提供的文本数据处理方法的方法流程图;

图2示出了本申请另一实施例提供的文本数据处理方法的方法流程图;

图3示出了本申请另一实施例提供的文本数据处理方法中步骤s2051至步骤s2053的方法流程图;

图4示出了本申请另一实施例提供的文本数据处理方法中步骤s2081至步骤s2083的方法流程图;

图5示出了本申请另一实施例提供的文本数据处理方法的流程示意图;

图6示出了本申请实施例提供的文本数据处理装置的模块框图;

图7示出了本申请实施例提供的电子设备的结构框图;

图8示出了本申请实施例的用于保存或者携带实现根据本申请实施例的文本数据处理方法的程序代码的存储单元。

具体实施方式

为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。

情感分类包括三种不同级别,分别是文档级别、句子级别和方面级别(aspectlevel)。其中,文档级情感分类将观点鲜明的文档(例如,产品评论)分类为整体积极的或消极的观点。它将整个文档当做基本的信息单元,并假定文档是观点鲜明的,包含对单个实体(例如,某个型号的手机)的观点。句子级情感分类对文档内单独的语句进行分类。然而,单独的句子不能假定为观点鲜明的。和文档级、语句级情感分类相比,方面级别的情感分类更加细粒化。它的任务是提取和总结人们对某实体的观点以及实体(也被称为目标、方面特征词(aspect))的特征。例如一篇产品评论,方面级别的情感分类的目的是分别总结对产品或事件不同方面的积极和消极观点。

当一个句子中存在多个方面特征词的情况下,为了分析不同方面特征词的情感极性,我们需要一个特定的模型来完成任务,这与传统的情感分类模型不同。例如,在评论句子“餐厅的食物味道很好,但是服务员的服务态度很差”中,有两个方面特征词:“味道”和“服务态度”,其中“味道”的情感极性是积极的,而“服务态度”的情感极性是消极的。该例子的整个句子的情感极性由积极和消极两种组成。如果我们不考虑方面特征词的信息,就很难判断这个句子的情感极性,这种类型的错误通常存在于一般的情感分类任务中。

目前,一般基于ian模型处理情感分类任务,该模型使用两个长短期记忆网络(longshort-termmemory,lstm)分别对方面特征词和它的上下文进行建模。它使用方面特征词和其上下文的隐藏状态为目标生成注意向量。基于这两个注意向量,进行运算得到最终的表示向量。具体步骤如下:

步骤一:获得方面特征词和其上下文的词嵌入矩阵。

步骤二:使用两个lstm来学习方面特征词和其上下文的词嵌入矩阵的隐藏语义,得到隐藏状态矩阵其中m为方面特征词长度,n为上下文语句长度。

步骤三:对ht和hc求平均得到tavg和cavg。将求得的方面特征词隐藏状态矩阵平均值tavg与其上下文隐藏状态矩阵hc,同时方面特征词的上下文隐藏状态矩阵平均值cavg与方面特征词隐藏状态矩阵ht通过计算,分别得到两个注意力向量其中γ是计分函数,用来计算对于上下文的重要程度。

步骤四:通过步骤三得到的注意力向量计算方面特征词和其上下文的表示向量,分别是:

步骤五:将tr与cr串联得到向量d用于最终的分类。

而上述方法忽略了句子与方面特征词之间的相互依赖性,在区分一个句子中不同方面的情感极性和提高情感分类的准确度方面仍有待改进,并且该模型不能从后往前编码信息序列。

因此,为了解决上述缺陷,本申请实施例提供了一种文本数据处理方法,该方法应用于电子设备,所述电子设备可以是智能手机、平板、电脑、可穿戴电子设备、服务器等可运行程序的设备。该方法在一个句子中有多个方面特征词时,能够克服文档级别和句子级别情感分类的局限性。如图1所示,具体地,该方法包括:s101至s107。

s101:获取待分类文本数据。

基于待分类文本获取待分类文本数据,待分类文本数据为待分类文本输入电子设备的数据形式。其中,待分类文本可以从互联网上获取,也可以从现有离线文本中得到。具体地,待分类文本可以是文档、句子,例如,待分类文本可以是句子“餐厅的食物味道很好,但是服务员的服务态度很差”。

s102:从待分类文本数据中提取方面特征词。

其中,方面特征词可以为文本中词性为名词的词语,例如在句子“餐厅的食物味道很好,但是服务员的服务态度很差”中方面特征词包括“味道”、“服务态度”。

作为一种实施方式,可以基于特征词提取模型从待分类文本数据中提取方面特征词,其中,特征词提取模型可基于斯坦福核心自然语言处理数据集(stanfordcorenlp)训练得到,斯坦福核心数据集是一个集成多种工具的自然语言处理(naturallanguageprocessing,nlp)工具集,工具包括词性标注(partofspeechtagger),包括标注有各单词词性的文本数据。利用训练得到的特征词提取模型可以从待分类文本数据中提取方面特征词。

s103:获取待分类文本数据的文本词向量表示以及方面特征词的方面特征词向量表示。

采用词嵌入技术(wordembedding,we)将待分类文本数据中的各单词转换为词向量矩阵,即转换为词向量表示。其中,词嵌入技术是词语的一种数值化表示方式,一般情况下会将一个词语映射到一个高维的向量中(词向量)来表示这个词语。

在一种实施方式中,可采用全局词向量(globalvectorsforwordrepresentation,glove)模型获得词向量矩阵,并以此得到文本词向量表示、方面特征词向量表示。具体地,基于glove模型,获取待分类文本数据的词向量矩阵,并以此作为待分类文本数据的文本词向量表示,获取方面特征词的词向量矩阵,并以此作为方面特征词的方面特征词向量表示。glove模型可同时考虑多个窗口(共现矩阵),引入了全局信息,并且计算更简单,可提高获取词向量表示的速度。

具体地,若给定一个长度为m的句子s,s=[w1;w2;…;wi;…;wm]和一个长度为n的方面特征词t,t=[wi;wi+1;…;wi+n+1],其中w表征待分类文本数据的词语,wi表征待分类文本数据中第i个词语。将s和t映射到由glove模型生成的词向量矩阵中,分别得到待分类文本数据的文本词向量表示s,s=[v1;v2;…;vi;…;vm]和方面特征词的方面特征词向量表示t,t=[vi;vi+1;…;vi+n+1]。例如,句子s“餐厅的食物味道很好,但是服务员的服务态度很差”中,句子s的长度m=13,w1=“餐厅”,w2=“的”,w3=“食物”,w4=“味道,w13=“差”。第一个方面特征词“味道”的长度n1=1;第二个方面词“服务态度”长度n2=2。

s104:将文本词向量表示和方面特征词向量表示分别输入目标神经网络,得到文本词向量表示的第一隐藏层含义和方面特征词向量表示的第二隐藏层含义。

其中,目标神经网络被预先训练,用于根据输入的词向量表示,输出词向量表示的隐藏层含义。目标神经网络可以为长短期记忆网络(longshort-termmemory,lstm)、双向长短期记忆网络(bi-lstm)、门控循环单元(gatedrecurrentunit,gru),在此不作限定。

将文本词向量表示和方面特征词向量表示分别输入目标神经网络,通过目标神经网络分别学习文本词向量表示和方面特征词向量表示的语义,输出文本词向量表示的第一隐藏层含义hs和方面特征词向量表示的第二隐藏层含义ht。

s105:基于第一隐藏层含义和第二隐藏层含义,得到方面特征词的目标分类特征。

基于第一隐藏层含义和第二隐藏层含义,得到待分类文本数据和方面特征词的初始表示,并基于两个初始表示通过softmax函数得到两个注意力矩阵,基于两个注意力矩阵得到更集中的表示,再结合待分类文本数据的初始表示,得到目标分类特征。

s106:根据方面特征词的目标分类特征,获取方面特征词的预测情感极性。

将目标分类特征视为最终的分类特征,并将其输入softmax函数以计算方面特征词具有某一情感极性的概率。其中,情感极性可包括“积极的(positive)”、“消极的(negative)”,实现二分类的情感分类任务,还可以进一步包括“中立的(neutral)”,实现三分类的情感分类任务。

具体地,在一种实施方式中,情感极性包括三种标签,c∈{p,n,o},(p代表positive,n代表negative,o代表neutral),根据方面特征词的目标分类特征,可获取方面特征词具有三种情感极性中每种情感极性的情感概率,具体分别为表征具有情感极性为“积极的”的积极情感概率pp、表征具有情感极性为“消极的”的消极情感概率pn、表征具有情感极性为“中立的”的中立情感概率po,将情感概率最高的情感极性确定为方面特征词的预测情感极性。若pn>pp>po,则预测情感极性为“消极的”。

在一些实施方式中,“积极的”情感极性还可进一步包括更细分的情感类别如开心、兴奋、感激等,同理“消极的”还可包括痛苦、仇恨、嫉妒等,在此不作限定。

s107:根据预测情感极性对待分类文本数据进行情感分类,以得到方面特征词对应的情感分类结果并显示。

根据预测情感极性,可获知方面特征词在待分类文本数据中的预测情感极性,以此对待分类文本数据进行情感分类,获得方面特征词对应的情感分类结果,并对情感分类结果进行显示,以使用户可获知。

例如,在句子“餐厅的食物味道很好,但是服务员的服务态度很差”中,针对方面特征词“味道”执行上述方法,可得到“味道”的预测情感极性为“积极的”,从而对待分类文本数据进行情感分类,得到“味道”的情感分类结果为积极的,并将该情感分类结果显示于电子设备,使得用户可获知情感分类结果。同理,针对方面特征词“服务态度”执行上述方法,可得到“服务态度”的预测情感极性为“消极的”,从而得到“服务态度”的情感分类结果为消极的,并进行显示。由此,可对待分类文本数据按方面特征词进行情感分类,分别得到每个方面特征词的预测情感极性及情感分类结果,实现基于方面级别的情感分类,从而忽略待分类文本数据和方面特征词之间的相互依赖性,在区分文本中不同方面的情感极性时可取得更高的准确度。

进一步地,在一些实施方式中,还可累计情感分类结果用于数据分析,并将数据分析结果显示于电子设备,使得用户可得到多个待分类文本数据的情感分类的统计情况。

本实施例通过获取待分类文本数据,然后从待分类文本数据中提取方面特征词,接着获取待分类文本数据的文本词向量表示以及方面特征词的方面特征词向量表示,并将文本词向量表示和方面特征词向量表示分别输入目标神经网络,得到文本词向量表示的第一隐藏层含义和方面特征词向量表示的第二隐藏层含义,其中,目标神经网络被预先训练,用于根据输入的词向量表示,输出词向量表示的隐藏层含义,然后基于第一隐藏层含义和第二隐藏层含义,得到方面特征词的目标分类特征,再根据方面特征词的目标分类特征,获取方面特征词的预测情感极性,最后根据预测情感极性对待分类文本数据进行情感分类,以得到方面特征词对应的情感分类结果并显示。由此,本申请提出了一种方面级别(aspectlevel)的基于神经网络的注意力机制模型,可以提高方面级别文本情感分类的准确度。

请参阅图2,示出了本申请实施例提供的一种文本数据处理方法,具体地,该方法包括:s201至s209。

s201:获取待分类文本数据。

s202:从待分类文本数据中提取方面特征词。

s203:获取待分类文本数据的文本词向量表示以及方面特征词的方面特征词向量表示。

于本实施例中,步骤s201至步骤s203的具体描述可参见上述实施例中的步骤s101至s103,在此不再赘述。

在一种实施方式中,步骤s203可通过下述代码实现:

s204:将文本词向量表示和方面特征词向量表示分别输入目标神经网络,得到文本词向量表示的第一隐藏层含义和方面特征词向量表示的第二隐藏层含义。

其中,目标神经网络为双向长短期记忆网络(bi-lstm),且目标神经网络包括第一神经网络和第二神经网络,第一神经网络和第二神经网络均基于bi-lstm构建得到。在一种实施方式中,第一神经网络、第二神经网络的隐藏层层数均为1。

在一种实施方式中,bi-lstm在隐藏层同时引入正向lstm单元和反向lstm单元,正向lstm单元捕获上文特征信息,而反向lstm单元捕获下文特征信息。与单向lstm相比,基于bi-lstm对词向量表示的隐藏层语义进行学习,可以捕捉待分类文本数据的双向语义依赖,捕获更多鲁棒的特征信息。

使用两个bi-lstm学习文本词向量表示和方面特征词向量表示的隐藏语义,得到文本词向量表示的第一隐藏层含义hs和方面特征词向量表示的第二隐藏层含义ht。

具体地,将文本词向量表示输入第一神经网络,得到文本词向量表示的第一隐藏层含义

将方面特征词向量表示输入第二神经网络,得到方面特征词向量表示的第二隐藏层含义

具体地例如,句子s“餐厅的食物味道很好,但是服务员的服务态度很差”中,句子长度m=13,方面特征词“味道”是句子s中的第4个词语,其长度n=1,则

在一种实施方式中,步骤s204可通过下述代码实现:

s205:基于第一隐藏层含义和第二隐藏层含义,得到第一矩阵和第二矩阵。

其中,第一矩阵为待分类文本数据对方面特征词的注意力矩阵,第二矩阵为方面特征词对待分类文本的注意力矩阵。

在一种实施方式中,基于第一隐藏层含义和第二隐藏层含义,通过softmax函数得到第一矩阵和第二矩阵。

具体地,步骤s205包括步骤s2051至步骤s2053,请参阅图3,图3示出了步骤s2051至步骤s2053的方法流程图,其中:

步骤s2051:对第一隐藏层含义和第二隐藏层含义分别求平均,得到待分类文本数据的文本初始表示和方面特征词的方面特征词初始表示。

对第一隐藏层含义hs和第二隐藏层含义ht分别求平均,得到待分类文本数据的文本初始表示和方面特征词的方面特征词初始表示

在一种实施方式中,步骤s2051可通过下述代码实现:

步骤s2052:将文本初始表示和方面特征词初始表示相乘得到初始矩阵。

将文本初始表示和方面特征词初始表示相乘得到初始矩阵m。

在一种实施方式中,步骤s2052可通过下述代码实现:

步骤s2053:将初始矩阵的行和列分别基于softmax函数,得到第一矩阵和第二矩阵。

将初始矩阵m的行和列分别通过softmax函数,得到两个注意力矩阵,分别为行对应的第一矩阵α和列对应的第二矩阵β。

在一种实施方式中,步骤s2053可通过下述代码实现:

s206:根据第一矩阵和第二矩阵,得到待分类文本数据和方面特征词的相互注意力。

根据第一矩阵和第二矩阵,得到更集中的表示,并基于更集中的表示得到待分类文本数据和方面特征词的相互注意力。

具体地,对第一矩阵和第二矩阵分别求平均,得到第一矩阵对应的第一表示和第二矩阵对应的第二表示。

对第一矩阵α和第二矩阵β分别求平均,得到更集中的表示,分别为第一矩阵α对应的第一表示和第二矩阵β对应的第二表示。

基于第一表示和第二表示,得到待分类文本数据和方面特征词的相互注意力。

基于第一表示和第二表示,将第一表示与第二表示相乘,得到待分类文本数据和方面特征词的相互注意力。由此,通过获取待分类文本数据和方面特征词的相互注意力,可更好地捕获待分类文本数据和方面特征词之间的交互信息,以提高对方面特征词在待分类文本数据中的情感分类准确性,即提高方面级别文本情感分类的准确度。

在一种实施方式中,步骤s206可通过下述代码实现:

s207:基于相互注意力,得到方面特征词的目标分类特征。

根据待分类文本的文本初始表示和相互注意力,得到所述方面特征词的目标分类特征。具体地,将文本初始表示和相互注意力相乘,得到方面特征词的目标分类特征γ。

在一种实施方式中,步骤s207可通过下述代码实现:

s208:根据方面特征词的目标分类特征,获取方面特征词的预测情感极性。

根据方面特征词的目标分类特征,通过softmax函数获取方面特征词的预测情感极性。

具体地,步骤s208包括步骤s2081至步骤s2083,请参阅图4,图4示出了步骤s2081至步骤s2083的方法流程图,其中:

步骤s2081:将方面特征词的目标分类特征输入预设函数。

将方面特征词的目标分类特征γ输入预设函数x=wl+γ+bl,其中,wl是权重矩阵,bl是偏置项。

步骤s2082:基于softmax函数,获取方面特征词对应每一类情感极性的情感概率。

将得到的x输入到softmax函数中以计算方面特征词具有每一类情感极性的概率。其中,情感极性包括“积极的”、“消极的”,在一些实施方式中,还可包括“中立的”。

具体地,若情感极性包括三种标签,c∈{p,n,o},(p代表positive,n代表negative,o代表neutral),基于softmax函数,方面特征词在待分类文本数据中具有情感极性为c的概率pc可以表示为由此,可分别计算出具有情感极性为“积极的”的积极情感概率pp、具有情感极性为“消极的”的消极情感概率pn、以及具有情感极性为“中立的”的中立情感概率po。

步骤s2083:将情感概率最高的情感极性确定为方面特征词的预测情感极性。

方面特征词对应每一类情感极性的情感概率,将情感概率最高的情感极性确定为方面特征词的预测情感极性。

s209:根据预测情感极性对待分类文本数据进行情感分类,以得到方面特征词对应的情感分类结果并显示。

于本实施例中,步骤s209的具体描述可参见前述实施例中的步骤s107,在此不再赘述。

下面以图5所示为例对本实施例提供的文本数据处理方法进行示例性的说明:

如图5所示,图5示出了本申请实施例提供的文本数据处理方法的一种流程示意图。具体地,以待分类文本数据是句子为例进行说明。

给定一个长度为m的句子s,s=[w1;w2;…;wi;…;wm]和一个长度为n的方面特征词t,t=[wi;wi+1;…;wi+n+1],其中w表征句子的词语,wi表征句子中第i个词语。将s和t映射到由glove模型生成的词向量矩阵中,分别得到句子的文本词向量表示s,s=[v1;v2;…;vi;…;vm]和方面特征词的方面特征词向量表示t,t=[vi;vi+1;…;vi+n+1]。

将文本词向量表示s输入bi-lstm,得到文本词向量表示的第一隐藏层含义将方面特征词向量表示t输入第二神经网络,得到方面特征词向量表示的第二隐藏层含义

对第一隐藏层含义hs和第二隐藏层含义ht分别求平均,得到句子的文本初始表示和方面特征词的方面特征词初始表示然后,将文本初始表示和方面特征词初始表示相乘得到初始矩阵m,再将初始矩阵m的行和列分别通过softmax函数,得到两个注意力矩阵,分别为行对应的第一矩阵α和列对应的第二矩阵β。对第一矩阵α和第二矩阵β分别求平均,得到更集中的表示,分别为第一矩阵α对应的第一表示和第二矩阵β对应的第二表示。基于第一表示和第二表示,将第一表示与第二表示相乘,得到句子和方面特征词的相互注意力,将文本初始表示和相互注意力相乘,得到方面特征词的目标分类特征γ。

将方面特征词的目标分类特征γ输入预设函数x=wl+γ+bl,其中,wl是权重矩阵,bl是偏置项。将得到的x输入到softmax函数中以计算方面特征词具有某一类情感极性的概率。方面特征词在待分类文本数据中具有情感极性为c的概率pc可以表示为最后,将情感概率最高的情感极性确定为方面特征词的预测情感极性,根据预测情感极性对句子进行方面级别的情感分类。

以上为对句子中一个方面特征词的情感分类,按照上述步骤,可对句子中其他方面特征词进行情感分类,并最终得到句子中每个方面特征词的预测情感极性及其对应的情感分类结果。

进一步地,可将得到的每个方面特征词对应的情感分类结果进行显示,以使用户获知句子基于方面级别的情感分类结果,获知更细粒度和准确的分类结果。

由此,本实施例基于方面级别的情感分类能够克服文档级别和句子级别情感分类的局限性,通过使用双向长短期记忆网络(bi-lstm),捕捉句子的双向语义依赖;并提出一个新的基于神经网络的注意力机制模型,可以更好地获取方面特征词和句子的交互信息并加以充分利用,从而提高分类模型的准确性,解决一个句子中存在多个方面特征词导致对句子的情感极性和不同方面特征词的情感极性的分类不准确问题。

需要说明的是,上述步骤中未详细描述的部分,可参考前述实施例,在此不再赘述。

本实施例提供的文本数据处理方法,在前述实施例的基础上,通过使用双向长短期记忆网络(bi-lstm),捕捉待分类文本数据的双向语义依赖;并提出一个新的基于神经网络的注意力机制模型,获取方面特征词和待分类文本数据的相互注意力,可以更好地获取方面特征词和待分类文本数据的交互信息并加以充分利用,从而提高文本情感分类的准确性,解决一个句子中存在多个方面特征词导致对句子的情感极性和不同方面特征词的情感极性的分类不准确问题。

请参阅图6,其示出了本申请实施例提供的一种文本数据处理装置的结构框图,该文本数据处理装置600可以包括:文本获取模块610、文本提取模块620、表示获取模块630、网络学习模块640、目标分类模块650、情感预测模块660和情感分类模块670。

文本获取模块610,用于获取待分类文本数据;

文本提取模块620,用于从所述待分类文本数据中提取方面特征词;

表示获取模块630,用于获取所述待分类文本数据的文本词向量表示以及所述方面特征词的方面特征词向量表示;

网络学习模块640,用于将所述文本词向量表示和所述方面特征词向量表示分别输入目标神经网络,得到所述文本词向量表示的第一隐藏层含义和所述方面特征词向量表示的第二隐藏层含义,其中,所述目标神经网络被预先训练,用于根据输入的词向量表示,输出所述词向量表示的隐藏层含义;

目标分类模块650,用于基于所述第一隐藏层含义和所述第二隐藏层含义,得到所述方面特征词的目标分类特征;

情感预测模块660,用于根据所述方面特征词的目标分类特征,获取所述方面特征词的预测情感极性;

情感分类模块670,用于根据所述预测情感极性对所述待分类文本数据进行情感分类,以得到所述方面特征词对应的情感分类结果并显示。

进一步地,所述目标神经网络包括双向长短期记忆网络。

进一步地,所述目标神经网络包括第一神经网络和第二神经网络,所述网络学习模块640包括:第一学习单元以及第二学习单元,其中:

第一学习单元,用于将所述文本词向量表示输入所述第一神经网络,得到所述文本词向量表示的第一隐藏层含义;

第二学习单元,用于将所述方面特征词向量表示输入所述第二神经网络,得到所述方面特征词向量表示的第二隐藏层含义。

进一步地,所述目标分类模块650包括:矩阵获取单元、注意获取单元以及特征获取单元,其中:

矩阵获取单元,用于基于所述第一隐藏层含义和所述第二隐藏层含义,得到第一矩阵和第二矩阵,其中,所述第一矩阵为所述待分类文本数据对所述方面特征词的注意力矩阵,所述第二矩阵为所述方面特征词对所述待分类文本数据的注意力矩阵;

注意获取单元,用于根据所述第一矩阵和所述第二矩阵,得到所述待分类文本数据和所述方面特征词的相互注意力;

特征获取单元,用于基于所述相互注意力,得到所述方面特征词的目标分类特征。

进一步地,所述矩阵获取单元包括:初始表示子单元、初始矩阵子单元以及矩阵获取子单元,其中:

初始表示子单元,用于对所述第一隐藏层含义和所述第二隐藏层含义分别求平均,得到所述待分类文本数据的文本初始表示和所述方面特征词的方面特征词初始表示;

初始矩阵子单元,用于将所述文本初始表示和所述方面特征词初始表示相乘得到初始矩阵;

矩阵获取子单元,用于将所述初始矩阵的行和列分别基于softmax函数,得到所述第一矩阵和所述第二矩阵。

进一步地,所述注意获取单元包括:平均子单元以及注意子单元,其中:

平均子单元,用于对所述第一矩阵和所述第二矩阵分别求平均,得到所述第一矩阵对应的第一表示和所述第二矩阵对应的第二表示;

注意子单元,用于基于所述第一表示和所述第二表示,得到所述待分类文本数据和所述方面特征词的相互注意力;

进一步地,所述特征获取单元包括:目标子单元,其中:

目标子单元,用于根据所述待分类文本数据的文本初始表示和所述相互注意力,得到所述方面特征词的目标分类特征。

进一步地,所述情感预测模块660包括:特征输入单元、概率获取单元以及极性确定单元,其中:

特征输入单元,用于将所述方面特征词的目标分类特征输入预设函数;

概率获取单元,用于基于softmax函数,获取所述方面特征词对应每一类情感极性的情感概率;

极性确定单元,用于将情感概率最高的情感极性确定为所述方面特征词的预测情感极性。

本申请实施例提供的文本数据处理装置用于实现前述方法实施例中相应的文本数据处理方法,并具有相应的方法实施例的有益效果,在此不再赘述。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在本申请所提供的几个实施例中,模块相互之间的耦合可以是电性,机械或其它形式的耦合。

另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。

请参考图7,其示出了本申请实施例提供的一种电子设备的结构框图。该电子设备700可以是智能手机、平板电脑、电脑、电子书、可穿戴电子设备、服务器等能够运行应用程序的电子设备。本申请中的电子设备700可以包括一个或多个如下部件:处理器710、存储器720、以及一个或多个应用程序,其中一个或多个应用程序可以被存储在存储器720中并被配置为由一个或多个处理器710执行,一个或多个程序配置用于执行如前述方法实施例所描述的方法。

处理器710可以包括一个或者多个处理核。处理器710利用各种接口和线路连接整个电子设备700内的各个部分,通过运行或执行存储在存储器720内的指令、程序、代码集或指令集,以及调用存储在存储器720内的数据,执行电子设备700的各种功能和处理数据。可选地,处理器710可以采用数字信号处理(digitalsignalprocessing,dsp)、现场可编程门阵列(field-programmablegatearray,fpga)、可编程逻辑阵列(programmablelogicarray,pla)中的至少一种硬件形式来实现。处理器710可集成中央处理器(centralprocessingunit,cpu)、图像处理器(graphicsprocessingunit,gpu)和调制解调器等中的一种或几种的组合。其中,cpu主要处理操作系统、用户界面和应用程序等;gpu用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器710中,单独通过一块通信芯片进行实现。

存储器720可以包括随机存储器(randomaccessmemory,ram),也可以包括只读存储器(read-onlymemory)。存储器720可用于存储指令、程序、代码、代码集或指令集。存储器720可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储电子设备700在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。

则如果上述图6所示的文本数据处理装置中的各个单元作为程序包等函数模块的话,该文本数据处理装置内的各个单元存储在存储器720内,能够被处理器调用,并执行对应的功能。

请参考图8,其示出了本申请实施例提供的一种计算机可读取存储介质的结构框图。该计算机可读取存储介质800中存储有程序代码810,所述程序代码810可被处理器调用执行上述方法实施例中所描述的方法。

计算机可读取存储介质800可以是诸如闪存、eeprom(电可擦除可编程只读存储器)、eprom、硬盘或者rom之类的电子存储器。可选地,计算机可读取存储介质800包括非易失性计算机可读介质(non-transitorycomputer-readablestoragemedium)。计算机可读取存储介质800具有执行上述方法中的任何方法步骤的程序代码810的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码810可以例如以适当形式进行压缩。

最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

再多了解一些
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1
广东快乐十分