情感分析

来自集智百科 - 伊辛模型
跳到导航 跳到搜索


文本情感分析(也称为意见挖掘)是指用自然语言处理、文本挖掘以及计算机语言学等方法来识别、提取、量化和研究原素材中的情感状态和主观信息。情感分析被广泛应用于来源于用户的素材,如评论和调查回复,在线和社交媒体;也被应用于来源于卫生保健的素材,其应用范围涵盖了从市场营销到客户服务到临床医学的各个方面。

案例

情感分析的目的和挑战可以通过一些简单的例子来说明。


简单例子

  • Coronet 拥有全天式游艇中最好的航线。
  • Bertram有一个深v型的船身,可以轻松通过海洋。
  • 来自佛罗里达州的20世纪80年代的粉彩全天式游艇很丑。
  • 我不喜欢旧的游艇。


更具挑战性的例子

  • 我不是不喜欢游艇(I do not dislike cabin cruisers)。(否定处理)
  • 不喜欢船不是我真正的爱好(Disliking watercraft is not really my thing)。(否定,倒置的词序)
  • 有时候我真的很讨厌肋骨(Sometimes I really hate RIBs)。(状语修饰感情)
  • 我真的真的很喜欢在这种天气出去(I'd really truly love going out in this weather)!(可能是讽刺)
  • Chris Craft比Limestone好看(Chris Craft is better looking than Limestone)。(两个品牌,识别目标的态度是困难的)。
  • Chris Craft比Limestone好看,但的适航性和可靠性更突出(Chris Craft is better looking than Limestone, but Limestone projects seaworthiness and reliability)。(两种态度,两个品牌)。
  • 这部电影有很多令人不安的情节,非常令人感到惊奇(The movie is surprising with plenty of unsettling plot twists)。(在某些领域中贬义褒用)。
  • 你应该看看他们的甜点菜单(You should see their decadent dessert menu)。(最近某些态度术语的极性在一些领域中发生了改变)
  • 我喜欢自己的手机,但不会向任何同事推荐(I love my mobile but would not recommend it to any of my colleagues)。(有保留的积极情绪,很难归类)


类型

情感分析的最底层的任务是识别给定的情感评论文本中的极性倾向是正面的、负面的还是中性的。按照处理文本的粒度不同,情感分析可以分为篇章级、句子级和词语级三个研究层次。高级的“超极性”情感分类研究关注有如情绪状态等,如享受、愤怒、厌恶、悲伤、恐惧和惊讶。[1]


情感分析的先驱包括 the General Inquirer[2] 这为文本和心理学研究中的量化模式提供了线索,即根据对一个人的语言行为的分析来研究其心理状态。[3]


随后,Volcani和Fogel在一项专利中描述的方法专门研究了情感并根据不同的情感尺度识别了文本中的单个单词和短语。一个基于他们的研究建立的称为EffectCheck的系统则提供了同义词,可以用来增加或减少在每个尺度的诱发情绪的水平。


之后许多的研究都没有那么复杂,仅仅使用了正负面的情感极性视角,比如Turney[4]和Pang[5] 分别使用了不同的方法来识别产品评论和电影评论的极性。这项工作是在篇章级的粒度层次进行的。人们还可以在多层次上对篇章的极性进行分类,Pang[6] 和Snyder[7]等人曾尝试这样做:Pang和Lee[6]拓展了仅仅将电影评论分为正面或负面的基本任务,并以三星或四星的尺度预测电影的评级;而Snyder[7] 对餐馆评论进行了深入分析,预测特定餐馆的各个方面的评级,例如食物和氛围(以五星的尺度)。


在2004年AAAI春季研讨会上,语言学家、计算机科学家和其他感兴趣的研究人员首次将各种方法——学习、词汇、基于知识等——结合起来,提出了共享任务和基准数据集,以便对文本中的情感、吸引力、主观性和情感进行系统的计算研究。[8]


尽管在大多数统计分类方法中,根据中性文本位于二元分类器边界附近的假设,中性类常常忽略了,但一些研究者建议在每个极性问题中必须确定三个类别。此外,研究也证明引入中立类可以提高某些分类器的整体准确率,如最大熵(Max Entropy)[9] 和支持向量机(SVMs)[10] 等特定分类器。原则上由两种方法可以进行中性分类。一是,算法首先识别出中性分类后将其过滤,再根据正面和负面的情感二分类对其他内容进行评估。二是,一步构建包含中性、正面和负面三种类别的分类。[11] 第二种方法通常会涉及到估计所有类别的概率分布(比如NLTK实现的naive Bayes分类器)。是否以及如何使用中性分类取决于数据的性质:如果数据被清晰地分类为中性、正面和负面的语言,那么过滤掉中性语言并关注正面和负面情感的极性是有意义的。相比之下,如果数据大部分是中性的,对正面和负面影响的偏差很小,这种策略就会使其更难明确区分两极。


另一种不同的识别情感的方法是使用一个量表系统,在这个系统中负面、中性和正面相关的词语被赋予了-10到+10的取值,代表着从最负面到最正面,或者是简单地从0到正面的上限,如+4。这使得我们能够根据环境(通常是在句子语境的层次上)调整特定语言的情感极性程度。当使用自然语言处理对一段非结构化文本进行分析时,基于情感词与概念的关联方式及其相关分数,对指定环境中的每个概念进行评分。[12][13][14]。这使得人们可以对情感有更深入的理解,因为现在依据相周围可能发生的变化调整一个概念的情感程度,例如,强化、缓和或否定概念所表达的情感的词语会影响它的得分。或者,如果目的是确定文本中的情感而不是文本的整体极性和强度,则可以给文本一个正面和负面的情感强度得分。[15]


还有各种其他类型的情感分析,如功能/属性为基础的情感分析、分级情感分析(正面、负面、中性) 、多语言情感分析和情感识别。


主观性/客观性识别

这一任务被普遍地定义为将给定的文本识别为主观和客观两个类别。[16]这个问题有时甚至比极性分类更加难以解决。[17]词或短语的主观性取决于特定的上下文语境,客观的篇章有时候又包含了主观的句子(比如,一篇新闻中引用了其他人的观点)。此外,正如Su[18]所提到的,结果在很大程度上依赖于注释文本时使用的主观性的定义。然而,Pang[19]的研究表明,在对篇章文本进行极性分类之前去掉文本中的客观句子有助于提高模型的表现。


客观指的是具有事实信息的事件。[20]

  • 客观句的例子:“要当选美国总统,候选人必须年满35岁。”

主观这个术语描述的事件包含各种形式的非事实信息,如个人意见、判断和预测。也被Quirk等人称为“私人状况(private states)”。[21]在下面的例子中,它反映了“我们美国人”这样一个私人状态。此外,被评论的目标实体可以是从有形到无形的话题事项等多种形式(Liu,2010)。[22] 此外,刘(2010)还观察到三种类型的态度: 1)正面的观点,2)中性的观点,3)负面的观点。[22]

  • 主观句的例子:“我们美国人需要选出一位成熟且能够做出明智决定的总统。”

这种分析是一个分类的问题。[23]


每个类别的单词或短语指标集合都是为了在未注释的文本上找到理想的模式而定义的。对于主观表达,已经建立了一个不同的单词列表。Riloff等人(2003)指出,语言学家和自然语言处理领域的多位研究人员已经开发出了单词或短语的主观指标列表。[24]必须为测量给定的表达方式创建一个提取规则的字典是非常必要的。多年来,在主观性识别方面,从1999年的手工特征提取发展到了2005年的自动特征学习。[25]目前,自动学习方法可以进一步分为监督学习和无监督学习。利用机器学习对文本进行注释和去注释的模式提取方法已经成为学术界研究的热点。


然而,研究人员认识到在为表达方式分类制定一套固定的规则集方面存在一些挑战。规则开发中的大部分挑战源于文本信息的性质。一些研究人员已经认识到了六个挑战: 1)隐喻性的表达,2)写作中的差异,3)上下文敏感性,4)时间敏感性,5)代表性词用法较少,6)不断增长的数量。

  1. 隐喻性的表达:文本中包含隐喻性的表达可能会影响抽取的表现。[26]此外,隐喻可能采取不同的形式,这会增加识别的难度。
  2. 写作中的差异:对于从互联网上获得的文本,目标文本数据的写作差异涉及不同的写作类型和风格 。
  3. 上下文敏感性:根据前后句的主观性或客观性,分类会有所不同。[23]
  4. 时间敏感性:该任务受到某些文本数据的时间敏感属性的挑战。如果一群研究人员想要确认新闻中的事实,他们需要比新闻变得过时的更长的时间进行交叉验证。
  5. 代表性词用法较少:关键提示词使用的次数很少。
  6. 不断增长的数量:这项任务还受到大量文本数据的挑战。文本数据的不断增长性使得研究人员很难按时完成任务。


现有的研究主要集中于篇章级的分类。然而,篇章级分类的准确性常常较低。这是因为一篇文章可能涉及不同类型的表达方式。研究数据表明,一组预计以客观表达为主的新闻文章的分类结果显示,这组新闻文章的主观表达占40% 以上。[20]


为了克服这些挑战,研究人员总结认为,分类效力取决于模式学习者的精确度。而用大量的标记数据训练的学习者比那些用不太全面的主观特征训练的学习者表现得更好而且。然而,执行此类工作的主要障碍之一是需要人工手动生成一个大体量的带标记的句子数据集。与自动学习相比,人工标记的方法不那么受欢迎,原因主要有三个:

  1. 理解上的差异。在人工标记过程中,标记者之间会受限于语言的模糊性,从而可能出现对例子是主观还是客观的判断分歧。
  2. 人为错误。人工标记是一项细致的工作,需要精力高度集中才能完成。
  3. 耗时长。人工注释是一项繁重的工作。Riloff(1996)的调查研究表明,一个标记者完成160篇文本标记需要8个小时。[27]


上面所有提到的这些原因都会影响主客观分类的效率和效果。因此,研究者设计了两种自举算法(bootstrapping methods),这两种方法的目的是从未标记的文本数据中学习语言模式。两种方法都以少量种子词和大量未标记的文本语料开始。

  1. Meta-Bootstrapping(Riloff & Jones,1999)。[28] 第一步: 根据预定义的规则生成提取模式,并根据每个模式所包含的种子词数量生成提取模式。第二步: 将分数排名前5的单词标记并添加到语义字典中。重复上述方法。
  2. Basilisk (Bootstrapping Approach to SemantIc Lexicon inducing using SemantIc Knowledge) (Thelen & Riloff,2002)。[29] 第一步: 生成抽取模式;第二步: 将最好的模式从模式池移动到候选种子词池。第三步: 将分数排名前10的单词标记并添加到语义字典中。重复上述方法。


总体而言,这些算法突出了主观性和客观性识别任务中模式自动识别和提取的需要。


主观和客观分类器可以增强自然语言处理的服务应用。该分类器的主要好处之一是,它使数据驱动的决策过程在各个行业中得到普及。据Liu介绍,主观和客观识别的应用已经在商业、广告、体育和社会科学中得到了实践。[30]

  • 在线评论分类:在商业行业,分类器帮助公司更好地理解产品的反馈和对评论背后逻辑的推理。
  • 股票价格预测:在金融行业,分类器通过处理从社会媒体获得的过程辅助信息和从互联网获得的其他文本信息来辅助预测模型。过去Dong等对日本股票价格的研究表明,带有主观和客观模块的模型可能比没有主客观模块的模型表现更好。[31]
  • 社交媒体分析。
  • 学生意见分类。[32]
  • 篇章总结: 分类器可以提取目标制定的评论,并收集一个特定实体的意见。
  • 复杂问题回答:分类器可以对复杂的问题进行分类,包括语言主体、目标和重点目标。在Yu等(2003)的研究中,研究人员开发了一个句子和篇章级别的聚类用来识别意见块。[33]
  • 特定领域的应用。
  • 电子邮件分析: 主观和客观分类器通过追踪目标单词的语言模式来检测垃圾邮件。

基于功能/属性的情感分析

一个更加优化的分析模型叫做“功能/属性为基础的情感分析(feature/aspect-based sentiment analysis)”。这是指判定针对一个实体在某一个方面或者某一功能下表现出来的意见或是情感, 实体可能是一个手机、一个数码相机或者是一个银行[34] 。“功能”或者“属性”是一件实体的某个属性或者组成部分,例如手机的屏幕、参观的服务或者是相机的图像质量等。不同的特征会产生不同的情感反应,比如一个酒店可能有方便的位置,但食物却很普通。[35]这个问题涉及到若干个子问题,譬如,识别相关的实体,提取它们的功能或属性,然后判断对每个特征/方面表达的意见是正面的、负面的还是中性的。[36] 特征的自动识别可以通过语法方法、主题建模[37][38]或深度学习来实现。[39][40] 更多关于这个层面的情感分析的讨论可以参照NLP手册“情感分析和主观性(Sentiment Analysis and Subjectivity)”这一章。[22]

方法和特征

现有的情感分析的方法主要可以分成三类:基于知识的技术 knowledge-based techniques、统计方法 statistical methods和混合方法 hybrid approaches。[41]基于知识的技术根据明确的情感词 如快乐、悲伤、害怕和无聊的存在对文本进行分类。[42]一些知识库不仅列出了明显的情感,而且还赋予了任意词汇与特定情感可能的“亲和性”。[43]统计方法通过调控机器学习中的元素,比如潜在语意分析 latent semantic analysis,SVM support vector machines,词袋 bag of words, Pointwise Mutual Information for Semantic Orientation[4]和深度学习 depp learning等等。一些复杂的方法意在检测出情感持有者 比如,保持情绪状态的那个人和情感目标 比如,让情感持有者产生情绪的实体。[44] 语法依赖关系是通过对文本的深度解析得到的。[45]与单纯的语义技术不同的是,混合算法的思路利用了知识表达 knowledge representation的元素,比如知识本体 ontologies、语意网络 semantic networks,因此这种算法也可以检测到文字间比较微妙的情感表达。例如, 通过分析一些没有明确表达相关信息的概念与明确概念的隐性的联系来获取所求信息。[46]要想挖掘在某语境下的意见,或是获取被给予意见的某项功能,需要使用到语法之间的关系。语法之间互相的关联性经常需要通过深度解析文本来获取。


有很多开源软件工具以及一系列免费和付费的情感分析工具利用机器学习、统计学方法和自然语言处理的技术,对大型文本语料进行情感分析, 这些大型文本语料包括网页、网络新闻、互联网在线讨论群组、网络在线评论、网络博客和社交媒介。[47] 另一方面,基于知识的系统利用公开可用的资源,提取与自然语言概念相关的语义和情感信息。该系统可以帮助执行情感常识推理。[48]此外,情感分析也可以在视觉内容层面上进行,例如多模态情感分析 multimodal sentiment analysis中对图像和视频进行分析。这方面的第一种方法是SentiBank。[49] SentiBank方法利用形容词-名词对来代表视觉内容的属性。另外,绝大多数的情感分类方法都依赖于词袋模型 bag-of-words model,它忽略上下文语境、语法甚至是语序。根据词语如何构成较长短语的意义来分析情感的方法显示出了更好的效果,[50] 但它们会也会导致产生额外的标识成本。


在情感分析中,需要有人工分析的成分。因为自动化系统无法分析评论者个人的历史倾向,也无法分析平台的历史倾向,这往往导致对表达的情感的错误分类。自动化情感分类器通常能够识别大约23% 被人类正确分类的评论。[51]然而,人们往往不同意这种说法,并认为自动化情感分类器最终可以达到的与人类一致的判断上限。[52]

评估

原则上来说,情感分析系统的准确性就是它与人类判断的一致性程度。这通常由基于负面和正面文本这两个目标类别识别的查准率和查全率的变量来衡量的。这通常是衡量的不同措施的基础上的准确率召回率,超过两个目标类别的消极和积极的文本。然而,根据现有研究,人类评分员之间通常只有80%[53]的几率是达成一致的(参见评分者之间的信度Inter-rater reliability)。因此,一个情感分类的程序如果能够达到70%的准确率,那么尽管这样的准确率这听起来还不算引人注目,但它的表现已经和人工识别的表现得几乎一样好。同时需要注意的是,因为人类本身对任何情感分类的答案都可能有很大的不同意见,如果一个程序有100%的准确率,人类仍然会有20%的可能不同意其判断的结果。[54]


另一方面,计算机系统会犯与人类评分者非常不同的错误,因此这些数字并不完全可比。例如,计算机系统在处理否定句、夸张句、笑话或讽刺句时会遇到困难,而这些句子对人类读者来说通常很容易处理,也就是说计算机系统所犯的一些错误在人类看来通常会显得过于幼稚。总的来说,学术研究中定义的情感分析在实际商业任务中的效用受到了质疑,主要是因为对于担心公众话语对品牌或企业声誉的影响的客户来说,从负面到正面的简单的单维度情感模型几乎没有提供什么可操作的信息。[55][56][57]


为了更好地适应市场需求,情感分析的评估已转向更多基于任务的措施,这些措施是与公关机构和市场研究专业人士的代表共同制定的。例如,RepLab评估数据集中较少考虑的文本内容,而更多地关注文本对品牌声誉问题的影响。[58][59][60]


由于情感分析的评估越来越多地基于特定任务,每个分类器的都需要一个单独的训练模型来实现更准确地识别给定数据集的情感表达。


Web 2.0

博客和社交网络等社交媒体的兴起激发了人们对情感分析的兴趣。随着评论、评级、推荐和其他形式的网络在线表达的激增,网络在线评论语料已经变成了一种虚拟货币,企业可以借此来推销自己的产品、寻找新的机会和管理自己的声誉。随着企业寻求将过滤噪音、理解对话、识别相关内容并采取适当行动的过程的自动化程度加深,许多企业将目光投向了情感分析领域。[61]使问题进一步复杂化的是匿名社交媒体平台的崛起,如4chan和Reddit。[62]如果说web 2.0完全是关于民主化发布,那么web的下一个阶段很可能是基于对所有正在发布的内容的民主化数据挖掘。[63]


在研究中,朝着这个目标迈出了一步。目前,世界各地大学的几个研究团队正致力于通过情感分析来了解网络社区中的情感动态。[64]例如,CyberEmotions项目最近发现了负面情绪在推动社交网络讨论中的作用。[65]


问题是,大多数情感分析算法使用简单的术语来表达关于产品或服务的情感。然而,受到文化因素、语言上的细微差别以及不同的语境的影响,将文本字符串转换成简单的赞成或反对的情感变得极其困难。[61]事实上,人类经常对文本的情感产生分歧,这一事实说明了计算机要做好这项工作是一项多么艰巨的任务。文本字符串越短,难度就越大。


尽管短文字符串可能是个问题,但对微型博客的情感分析已经表明,Twitter可以被视为一个有效的政治情感在线指标。Twitter的政治情感分析表显示它与政党和政客的政治立场非常吻合,这表明推特信息的内容合理地反映了线下的政治格局。[66][67]此外,Twitter上的情感分析也被证明可以捕捉到,在全球范围内人类生殖周期背后的公众情感以及其他与公共健康相关的问题(如药物不良反应)背后的公共情感。[68]


推荐系统中的应用

对于一个推荐系统来说,情感分析已经被证明是一种有价值的技术。推荐系统的目的是预测目标用户对某个项目的偏好。主流推荐系统是基于显性数据集工作的。例如,协同过滤(collaborative filtering)基于评分矩阵工作,基于内容的过滤(content-based filtering)基于项目元数据工作。


在许多社交网络服务或电子商务网站,用户可以对商品提供文本评论、意见或反馈。这些用户生成的文本提供了丰富的用户对众多产品和商品的情感意见。对于一个商品而言,这样的文本可以同时显示商品的相关功能/属性以及用户对每个特性的看法。[69]在基于内容的过滤中,文本中描述的商品的功能/属性与元数据起着同样的作用,但前者对推荐系统更有价值。由于用户在评论中广泛提到这些特性,它们可以被视为能够显著影响用户对产品的体验的最关键的特性,而产品的元数据(通常由生产者而不是消费者提供)则可能忽略用户关心的特性。对于具有共同特征的不同商品,用户可能会有不同的情感意见。而且,同一个商品的不同特性也可能会得到不同用户不同的情感意见。用户对特征的情感可以看作是一个多维度的评分分值,它反映了用户对商品的偏好。


基于功能/属性和从用户生成的文本中提取的情感,可以构造一个混合推荐系统。[70] 向用户推荐候选商品的动机有两种。第一种动力是候选商品与用户偏好商品具有许多共同特征,[71]第二种动机是候选商品在其特征上获得了高度的情感评价。对于一个偏好商品来说,有理由相信具有相同特性的商品将具有类似的功能或实用性。因此,这些商品也将有可能被用户所青睐。另一方面,对于两个候选商品的共同特征,其他用户可能给予其中一个正面的评价,而给予另一个负面的评价。显然,应该向用户推荐评价较高的商品。基于这两种动机,可以为每个候选商品建立相似度和情感评分的组合排序评分。[70]


除了情感分析本身的困难之外,对评论或反馈进行情感分析还面临着垃圾评论和有偏见的评论的挑战。其中一个工作方向是评估每条评论的有用性,[72]因为粗劣的评论或反馈对推荐系统几乎没有任何帮助。此外,评论可能被刻意设计成阻碍目标产品销售,因此即使它写得很好也会对推荐系统造成伤害。


研究人员还发现,应该用不同的方法处理用户生成的长文本和短文本。一个有趣的结果表明,短形式的评论有时比长形式的评论更有帮助,[73]因为它更容易过滤掉短形式文本中的干扰。对于长文本而言,文本长度的增长并不总是带来文本中特征或情感数量的相应增加。


Lamba和Madhusudhan[74]介绍了一种新的方法,即通过重新打包Twitter等社交媒体平台的情感分析结果,并以不同的形式提供基于时间的综合服务,来满足当今图书馆用户的信息需求。此外,他们还提出了一种利用社交媒体挖掘和情感分析在图书馆进行营销的新方法。

参阅

  • 情感识别
  • 市场情感
  • 文体学


参考文献

  1. Vong Anh Ho, Duong Huynh-Cong Nguyen, Danh Hoang Nguyen, Linh Thi-Van Pham, Duc-Vu Nguyen, Kiet Van Nguyen, Ngan Luu-Thuy Nguyen. "Emotion Recognition for Vietnamese Social Media Text". In Proceedings of the 2019 International Conference of the Pacific Association for Computational Linguistics (PACLING 2019), Hanoi, Vietnam (2019).
  2. Stone, Philip J., Dexter C. Dunphy, and Marshall S. Smith. "The general inquirer: A computer approach to content analysis." MIT Press, Cambridge, MA (1966).
  3. Gottschalk, Louis August, and Goldine C. Gleser. The measurement of psychological states through the content analysis of verbal behavior. Univ of California Press, 1969.
  4. 4.0 4.1 Turney, Peter (2002). "Thumbs Up or Thumbs Down? Semantic Orientation Applied to Unsupervised Classification of Reviews". Proceedings of the Association for Computational Linguistics. pp. 417–424. arXiv:cs.LG/0212032.
  5. Pang, Bo; Lee, Lillian; Vaithyanathan, Shivakumar (2002). "Thumbs up? Sentiment Classification using Machine Learning Techniques". Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP). pp. 79–86.
  6. 6.0 6.1 Pang, Bo; Lee, Lillian (2005). "Seeing stars: Exploiting class relationships for sentiment categorization with respect to rating scales". Proceedings of the Association for Computational Linguistics (ACL). pp. 115–124.
  7. 7.0 7.1 Snyder, Benjamin; Barzilay, Regina (2007). "Multiple Aspect Ranking using the Good Grief Algorithm". Proceedings of the Joint Human Language Technology/North American Chapter of the ACL Conference (HLT-NAACL). pp. 300–307.
  8. Qu, Yan, James Shanahan, and Janyce Wiebe. "Exploring attitude and affect in text: Theories and applications." In AAAI Spring Symposium) Technical report SS-04-07. AAAI Press, Menlo Park, CA. 2004.
  9. Vryniotis, Vasilis (2013). The importance of Neutral Class in Sentiment Analysis.
  10. Koppel, Moshe; Schler, Jonathan (2006). "The Importance of Neutral Examples for Learning Sentiment". Computational Intelligence 22. pp. 100–109. CiteSeerX 10.1.1.84.9735.
  11. Ribeiro, Filipe Nunes; Araujo, Matheus (2010). "A Benchmark Comparison of State-of-the-Practice Sentiment Analysis Methods". Transactions on Embedded Computing Systems. 9 (4).
  12. Taboada, Maite; Brooke, Julian (2011). "Lexicon-based methods for sentiment analysis". Computational Linguistics. 37 (2): 272–274. CiteSeerX 10.1.1.188.5517. doi:10.1162/coli_a_00049.
  13. Augustyniak, Łukasz; Szymański, Piotr; Kajdanowicz, Tomasz; Tuligłowicz, Włodzimierz (2015-12-25). "Comprehensive Study on Lexicon-based Ensemble Classification Sentiment Analysis". Entropy (in English). 18 (1): 4. Bibcode:2015Entrp..18....4A. doi:10.3390/e18010004.
  14. Mehmood, Yasir; Balakrishnan, Vimala (2020-01-01). "An enhanced lexicon-based approach for sentiment analysis: a case study on illegal immigration". Online Information Review. 44 (5): 1097–1117. doi:10.1108/OIR-10-2018-0295. ISSN 1468-4527.
  15. Thelwall, Mike; Buckley, Kevan; Paltoglou, Georgios; Cai, Di; Kappas, Arvid (2010). "Sentiment strength detection in short informal text". Journal of the American Society for Information Science and Technology. 61 (12): 2544–2558. CiteSeerX 10.1.1.278.3863. doi:10.1002/asi.21416.
  16. Pang, Bo; Lee, Lillian (2008). "4.1.2 Subjectivity Detection and Opinion Identification". Opinion Mining and Sentiment Analysis. Now Publishers Inc. http://www.cs.cornell.edu/home/llee/opinion-mining-sentiment-analysis-survey.html. 
  17. Mihalcea, Rada; Banea, Carmen; Wiebe, Janyce (2007). "Learning Multilingual Subjective Language via Cross-Lingual Projections" (PDF). Proceedings of the Association for Computational Linguistics (ACL). pp. 976–983. Archived from the original (PDF) on 2010-07-08.
  18. Su, Fangzhong; Markert, Katja (2008). "From Words to Senses: a Case Study in Subjectivity Recognition" (PDF). Proceedings of Coling 2008, Manchester, UK.
  19. Pang, Bo; Lee, Lillian (2004). "A Sentimental Education: Sentiment Analysis Using Subjectivity Summarization Based on Minimum Cuts". Proceedings of the Association for Computational Linguistics (ACL). pp. 271–278.
  20. 20.0 20.1 Wiebe, Janyce; Riloff, Ellen (2005). Gelbukh, Alexander (ed.). "Creating Subjective and Objective Sentence Classifiers from Unannotated Texts". Computational Linguistics and Intelligent Text Processing. Lecture Notes in Computer Science (in English). Berlin, Heidelberg: Springer. 3406: 486–497. doi:10.1007/978-3-540-30586-6_53.
  21. Quirk, Randolph; Greenbaum, Sidney; Geoffrey, Leech; Jan, Svartvik (1985). A Comprehensive Grammar of the English Language (General Grammar). Longman. pp. 175–239. ISBN 1933108312. 
  22. 22.0 22.1 22.2 Liu, Bing (2010). "Sentiment Analysis and Subjectivity" (PDF). In Indurkhya, N.; Damerau, F. J. (eds.). Handbook of Natural Language Processing (Second ed.).
  23. 23.0 23.1 Pang, Bo; Lee, Lillian (2008-07-06). "Opinion Mining and Sentiment Analysis". Foundations and Trends in Information Retrieval (in English). 2 (1–2): 1–135. doi:10.1561/1500000011. ISSN 1554-0669.
  24. Riloff, Ellen; Wiebe, Janyce (2003-07-11). "Learning extraction patterns for subjective expressions". Proceedings of the 2003 Conference on Empirical Methods in Natural Language Processing. EMNLP '03. USA: Association for Computational Linguistics. 10: 105–112. doi:10.3115/1119355.1119369.
  25. Chaturvedi, Iti; Cambria, Erik; Welsch, Roy E.; Herrera, Francisco (November 2018). "Distinguishing between facts and opinions for sentiment analysis: Survey and challenges" (PDF). Information Fusion. 44: 65–77. doi:10.1016/j.inffus.2017.12.006 – via Elsevier Science Direct.
  26. Wiebe, Janyce; Riloff, Ellen (July 2011). "Finding Mutual Benefit between Subjectivity Analysis and Information Extraction". IEEE Transactions on Affective Computing. 2 (4): 175–191. doi:10.1109/T-AFFC.2011.19. ISSN 1949-3045.
  27. Riloff, Ellen (1996-08-01). "An empirical study of automated dictionary construction for information extraction in three domains". Artificial Intelligence (in English). 85 (1): 101–134. doi:10.1016/0004-3702(95)00123-9. ISSN 0004-3702.
  28. Riloff, Ellen; Jones, Rosie (July 1999). "Learning dictionaries for information extraction by multi-level bootstrapping" (PDF). AAAI '99/IAAI '99: Proceedings of the Sixteenth National Conference on Artificial Intelligence and the Eleventh Innovative Applications of Artificial Intelligence Conference Innovative Applications of Artificial Intelligence: 474–479.
  29. Thelen, Michael; Riloff, Ellen (2002-07-06). "A bootstrapping method for learning semantic lexicons using extraction pattern contexts". Proceedings of the ACL-02 Conference on Empirical Methods in Natural Language Processing - Volume 10. EMNLP '02. USA: Association for Computational Linguistics. 10: 214–221. doi:10.3115/1118693.1118721.
  30. Liu, Bing (2012-05-23). "Sentiment Analysis and Opinion Mining". Synthesis Lectures on Human Language Technologies. 5 (1): 1–167. doi:10.2200/S00416ED1V01Y201204HLT016. ISSN 1947-4040.
  31. Deng, Shangkun; Mitsubuchi, Takashi; Shioda, Kei; Shimada, Tatsuro; Sakurai, Akito (December 2011). "Combining Technical Analysis with Sentiment Analysis for Stock Price Prediction". 2011 IEEE Ninth International Conference on Dependable, Autonomic and Secure Computing. IEEE: 800–807. doi:10.1109/dasc.2011.138.
  32. Nguyen, Kiet Van; Nguyen, Vu Duc; Nguyen, Phu X.V.; Truong, Tham T.H.; Nguyen, Ngan L-T. (2018-10-01). "UIT-VSFC: Vietnamese Students' Feedback Corpus for Sentiment Analysis". 2018 10th International Conference on Knowledge and Systems Engineering (KSE). Vietnam: IEEE: 19–24. doi:10.1109/KSE.2018.8573337.
  33. Yu, Hong; Hatzivassiloglou, Vasileios (2003-07-11). "Towards answering opinion questions: separating facts from opinions and identifying the polarity of opinion sentences". Proceedings of the 2003 Conference on Empirical Methods in Natural Language Processing. EMNLP '03. USA: Association for Computational Linguistics: 129–136. doi:10.3115/1119355.1119372.
  34. Hu, Minqing; Liu, Bing (2004). "Mining and Summarizing Customer Reviews". Proceedings of KDD 2004.
  35. Cataldi, Mario; Ballatore, Andrea; Tiddi, Ilaria; Aufaure, Marie-Aude (2013-06-22). "Good location, terrible food: detecting feature sentiment in user-generated reviews". Social Network Analysis and Mining. 3 (4): 1149–1163. CiteSeerX 10.1.1.396.9313. doi:10.1007/s13278-013-0119-7. ISSN 1869-5450.
  36. Liu, Bing; Hu, Minqing; Cheng, Junsheng (2005). "Opinion Observer: Analyzing and Comparing Opinions on the Web". Proceedings of WWW 2005.
  37. Zhai, Zhongwu; Liu, Bing; Xu, Hua; Jia, Peifa (2011-01-01). Huang, Joshua Zhexue. ed. Constrained LDA for Grouping Product Features in Opinion Mining. Lecture Notes in Computer Science. Springer Berlin Heidelberg. pp. 448–459. ISBN 978-3-642-20840-9. 
  38. Titov, Ivan; McDonald, Ryan (2008-01-01). Modeling Online Reviews with Multi-grain Topic Models. WWW '08. New York, NY, USA: ACM. pp. 111–120. arXiv:0801.1063. ISBN 978-1-60558-085-2. 
  39. Poria, Soujanya; et al. (2016). "Aspect extraction for opinion mining with a deep convolutional neural network". Knowledge-Based Systems. 108: 42–49. doi:10.1016/j.knosys.2016.06.009.
  40. Ma, Yukun; et al. (2018). "Targeted aspect-based sentiment analysis via embedding commonsense knowledge into an attentive LSTM". Proceedings of AAAI. pp. 5876–5883.
  41. Cambria, E; Schuller, B; Xia, Y; Havasi, C (2013). "New avenues in opinion mining and sentiment analysis". IEEE Intelligent Systems. 28 (2): 15–21. CiteSeerX 10.1.1.688.1384. doi:10.1109/MIS.2013.30.
  42. Ortony, Andrew; Clore, G; Collins, A (1988). The Cognitive Structure of Emotions. Cambridge Univ. Press. http://www.cogsci.northwestern.edu/courses/cg207/readings/Cognitive_Structure_of_Emotions_exerpt.pdf. 
  43. Stevenson, Ryan; Mikels, Joseph; James, Thomas (2007). "Characterization of the Affective Norms for English Words by Discrete Emotional Categories" (PDF). Behavior Research Methods. 39 (4): 1020–1024. doi:10.3758/bf03192999. PMID 18183921.
  44. Kim, S. M.; Hovy, E. H. (2006). "Identifying and Analyzing Judgment Opinions." (PDF). Proceedings of the Human Language Technology / North American Association of Computational Linguistics conference HLT-NAACL 2006. New York, NY. Archived from the original (PDF) on 2011-06-29.
  45. Dey, Lipika; Haque, S. K. Mirajul (2008). "Opinion Mining from Noisy Text Data". Proceedings of the second workshop on Analytics for noisy unstructured text data, p.83-90.
  46. Cambria, E; Hussain, A (2015). Sentic Computing: A Common-Sense-Based Framework for Concept-Level Sentiment Analysis. Springer. ISBN 9783319236544. http://springer.com/9783319236544. 
  47. Akcora, Cuneyt Gurcan; Bayir, Murat Ali; Demirbas, Murat; Ferhatosmanoglu, Hakan (2010). "Identifying breakpoints in public opinion". SigKDD, Proceedings of the First Workshop on Social Media Analytics.
  48. Sasikala, P.; Mary Immaculate Sheela, L. (December 2020). "Sentiment analysis of online product reviews using DLMNN and future prediction of online product using IANFIS". Journal of Big Data (in English). 7 (1): 33. doi:10.1186/s40537-020-00308-7. ISSN 2196-1115.
  49. Borth, Damian; Ji, Rongrong; Chen, Tao; Breuel, Thomas; Chang, Shih-Fu (2013). "Large-scale Visual Sentiment Ontology and Detectors Using Adjective Noun Pairs". Proceedings of ACM Int. Conference on Multimedia. pp. 223–232.
  50. Socher, Richard; Perelygin, Alex; Wu, Jean Y.; Chuang, Jason; Manning, Christopher D.; Ng, Andrew Y.; Potts, Christopher (2013). "Recursive deep models for semantic compositionality over a sentiment treebank". In Proceedings of EMNLP: 1631–1642. CiteSeerX 10.1.1.593.7427.
  51. "Case Study: Advanced Sentiment Analysis". Retrieved 18 October 2013.
  52. Mozetič, Igor; Grčar, Miha; Smailović, Jasmina (2016-05-05). "Multilingual Twitter Sentiment Classification: The Role of Human Annotators". PLOS ONE. 11 (5): e0155036. arXiv:1602.07563. Bibcode:2016PLoSO..1155036M. doi:10.1371/journal.pone.0155036. ISSN 1932-6203. PMC 4858191. PMID 27149621.
  53. Ogneva, M. "How Companies Can Use Sentiment Analysis to Improve Their Business". Mashable. Retrieved 2012-12-13.
  54. Roebuck, K. (2012-10-24). Sentiment Analysis: High-impact Strategies - What You Need to Know: Definitions, Adoptions, Impact, Benefits, Maturity, Vendors. ISBN 9781743049457. https://books.google.com/books?id=kqsNBwAAQBAJ. 
  55. Karlgren, Jussi, Magnus Sahlgren, Fredrik Olsson, Fredrik Espinoza, and Ola Hamfors. "Usefulness of sentiment analysis." In European Conference on Information Retrieval, pp. 426-435. Springer Berlin Heidelberg, 2012.
  56. Karlgren, Jussi. "The relation between author mood and affect to sentiment in text and text genre." In Proceedings of the fourth workshop on Exploiting semantic annotations in information retrieval, pp. 9-10. ACM, 2011.
  57. Karlgren, Jussi. "Affect, appeal, and sentiment as factors influencing interaction with multimedia information." In Proceedings of Theseus/ImageCLEF workshop on visual information retrieval evaluation, pp. 8-11. 2009.
  58. Amigó, Enrique, Adolfo Corujo, Julio Gonzalo, Edgar Meij, and Maarten de Rijke. "Overview of RepLab 2012: Evaluating Online Reputation Management Systems." In CLEF (Online Working Notes/Labs/Workshop). 2012.
  59. Amigó, Enrique, Jorge Carrillo De Albornoz, Irina Chugur, Adolfo Corujo, Julio Gonzalo, Tamara Martín, Edgar Meij, Maarten de Rijke, and Damiano Spina. "Overview of replab 2013: Evaluating online reputation monitoring systems." In International Conference of the Cross-Language Evaluation Forum for European Languages, pp. 333-352. Springer Berlin Heidelberg, 2013.
  60. Amigó, Enrique, Jorge Carrillo-de-Albornoz, Irina Chugur, Adolfo Corujo, Julio Gonzalo, Edgar Meij, Maarten de Rijke, and Damiano Spina. "Overview of replab 2014: author profiling and reputation dimensions for online reputation management." In International Conference of the Cross-Language Evaluation Forum for European Languages, pp. 307-322. Springer International Publishing, 2014.
  61. 61.0 61.1 Wright, Alex. "Mining the Web for Feelings, Not Facts", New York Times, 2009-08-23. Retrieved on 2009-10-01.
  62. "Sentiment Analysis on Reddit". 2014-09-30. Retrieved 10 October 2014.
  63. Kirkpatrick, Marshall. ", ReadWriteWeb, 2009-04-15. Retrieved on 2009-10-01.
  64. CORDIS. "Collective emotions in cyberspace (CYBEREMOTIONS)", European Commission, 2009-02-03. Retrieved on 2010-12-13.
  65. Condliffe, Jamie. "Flaming drives online social networks ", New Scientist, 2010-12-07. Retrieved on 2010-12-13.
  66. Wood, Ian B.; Varela, Pedro L.; Bollen, Johan; Rocha, Luis M.; Gonçalves-Sá, Joana (2017). "Human Sexual Cycles are Driven by Culture and Match Collective Moods". Scientific Reports. 7 (1): 17973. arXiv:1707.03959. Bibcode:2017NatSR...717973W. doi:10.1038/s41598-017-18262-5. PMC 5740080. PMID 29269945.
  67. Tumasjan, Andranik; O.Sprenger, Timm; G.Sandner, Philipp; M.Welpe, Isabell (2010). "Predicting Elections with Twitter: What 140 Characters Reveal about Political Sentiment". "Proceedings of the Fourth International AAAI Conference on Weblogs and Social Media"
  68. Korkontzelos, Ioannis; Nikfarjam, Azadeh; Shardlow, Matthew; Sarker, Abeed; Ananiadou, Sophia; Gonzalez, Graciela H. (2016). "Analysis of the effect of sentiment analysis on extracting adverse drug reactions from tweets and forum posts". Journal of Biomedical Informatics. 62: 148–158. doi:10.1016/j.jbi.2016.06.007. PMC 4981644. PMID 27363901.
  69. Tang, Huifeng; Tan, Songbo; Cheng, Xueqi (2009). "A survey on sentiment detection of reviews" (PDF). Expert Systems with Applications. 36 (7): 10760–10773. doi:10.1016/j.eswa.2009.02.063. Archived from the original (PDF) on 2018-05-24.
  70. 70.0 70.1 Jakob, Niklas, et al. "Beyond the stars: exploiting free-text user reviews to improve the accuracy of movie recommendations." Proceedings of the 1st international CIKM workshop on Topic-sentiment analysis for mass opinion. ACM, 2009.
  71. Minqing, Hu; Liu, Bing (2004). "Mining opinion features in customer reviews" (PDF). AAAI. 4 (4). Archived from the original (PDF) on 2018-05-24.
  72. Liu, Yang; Huang, Xiangji; An, Aijun; Yu, Xiaohui (2008). "Modeling and predicting the helpfulness of online reviews". ICDM'08. Eighth IEEE international conference on Data mining. IEEE. pp. 443–452. ISBN 978-0-7695-3502-9. http://www.yorku.ca/xhyu/papers/ICDM2008.pdf. 
  73. Bermingham, Adam; Smeaton, Alan F. (2010). Classifying sentiment in microblogs: is brevity an advantage?. pp. 1833. ISBN 9781450300995. http://doras.dcu.ie/15663/1/cikm1079-bermingham.pdf. 
  74. Lamba, Manika; Madhusudhan, Margam (2018). "Application of sentiment analysis in libraries to provide temporal information service: a case study on various facets of productivity". Social Network Analysis and Mining. 8 (1): 1–12. doi:10.1007/s13278-018-0541-y.


编者推荐

集智课程

情感分析(一)

情感分析(一)讲师李嫣然。
香港理工大学在读博士生,集智科学家社群成员,著名公众号"程序媛的日常" 的运营者之一,人称小S。
研究方向为自然语言处理中的语义表达和语言生成,致力于利用深度学习、认知科学等相关领域的方法和成果探究人类语言习得和语言表达的奥秘。

如果一个人发表这样评论:“这个加湿器看起来不错,用起来差点”,该如何定义其对这款产品的情感?对类似问题的分析,需要用到细粒度情感分析的方法。基于属性的情感分析是一种细粒度的情感分析任务,比传统的句子级别、文章级别的情感分析任务更加复杂,首先需要识别句子或文章讨论的属性,然后识别具体属性的情感极性,得出结论。细粒度的情感分析具有巨大的商业应用价值,使其成为 NLP 实战竞赛项目的热门赛题。本课程中,将讲解基于属性的细粒度情感分析该如何实施。

课程大纲:

  • 多分类:情感分析的基础
  • 细粒度:基于属性的细粒度情感分析
  • 多媒介:社交网络等用户生成文本的情感分析


情感分析(二)

在移动互联网时代,人们已经习惯于在网络上表达对事物的评价,比如外卖平台对商家、菜品的评价,购物网站对商品的评价,社交媒体的话题出现等。这些评价中具有巨大的商业价值,其隐藏的情感,可以帮助决策者做出可靠的选择。情感分析具有巨大的工业应用价值。


本课程中,尹相志老师将分享在餐饮、服饰、汽车等领域的情感分析项目落地经验。

课程大纲:

  • 文字情绪分类的主要思路
  • 文字情绪分类以及如何标注数据
  • 通篇文章情绪与逐字情绪
  • 基于RNN与CNN的 Seq2Seq 情绪建模

集智文章

情感分析:一个非技术性的技术指南

一般来说,在文本分析中,情感分析旨在确定文章的正面、负面或中性的意见极性。 这听起来很直接,但事实上,这是一个复杂且具有挑战性的任务。

情绪是一个非常主观的事情。不同的读者在阅读同一篇文章时可能会有不同的反应。以往的研究表明,不同人对文本情感的典型认同低于 85%。根据我们自己的经验,这个数字对于更复杂的话题甚至更低。例如,在我们的一个项目中,分析社交媒体的用户对股票交易的看法,参与者之间达成共识的仅仅占不到 65%。由于任何自动化情感分析引擎的准确性都是相对于人为判断(所谓的黄金标准)进行衡量的,因此重要的是要根据多个注释者相互同意的标注数据进行衡量,而不是仅依赖唯一的注释者;同样重要的是:85%(即人类情感共识水平)通常被认为是任何自动化情绪分析引擎的准确性的理论上限。针对一个小型封闭的测试数据集,或者基于一个人的判断,引擎可以达到高于 85% 甚至 90% 的情感分析准确度。然而,在针对开放领域数据的时候,任何超过 90% 分析准确率的说法都更像是幻想,而不具有现实性。







本中文词条由KuangmyMoonscar参与编译和审校,糖糖编辑,如有问题,欢迎在讨论页面留言。


本词条内容源自wikipedia及公开资料,遵守 CC3.0协议。