更改

跳到导航 跳到搜索
删除43字节 、 2021年8月22日 (日) 23:20
无编辑摘要
第138行: 第138行:  
=== 面部情感检测 ===
 
=== 面部情感检测 ===
   −
面部表情的检测和处理通过[[wikipedia:Optical_flow|'''光流''']]、'''隐马尔可夫模型'''、'''神经网络'''或'''主动外观模型'''等多种方法实现。可以组合或融合多种模态(多模态识别,例如面部表情和语音韵律<ref name="face-prosody">{{cite conference | url = http://www.image.ece.ntua.gr/php/savepaper.php?id=447 | first1 = G. | last1 = Caridakis | first2 = L. | last2 = Malatesta | first3 = L. | last3 = Kessous | first4 = N. | last4 = Amir | first5 = A. | last5 = Raouzaiou | first6 = K. | last6 = Karpouzis | title = Modeling naturalistic affective states via facial and vocal expressions recognition | conference = International Conference on Multimodal Interfaces (ICMI'06) | location = Banff, Alberta, Canada | date = November 2–4, 2006 }}</ref>、面部表情和手势<ref name="face-gesture">{{cite book | chapter-url = http://www.image.ece.ntua.gr/php/savepaper.php?id=334 | first1 = T. | last1 = Balomenos | first2 = A. | last2 = Raouzaiou | first3 = S. | last3 = Ioannou | first4 = A. | last4 = Drosopoulos | first5 = K. | last5 = Karpouzis | first6 = S. | last6 = Kollias | chapter = Emotion Analysis in Man-Machine Interaction Systems | editor1-first = Samy | editor1-last = Bengio | editor2-first = Herve | editor2-last = Bourlard | title = Machine Learning for Multimodal Interaction | series = [[Lecture Notes in Computer Science]] | volume = 3361| year = 2004 | pages = 318–328 | publisher = Springer-Verlag }}</ref>,或用于多模态数据和元数据分析的带有语音和文本的面部表情),以提供对受试者情绪的更可靠估计。Affectiva 是一家与情感计算直接相关的公司(由 Rosalind Picard 和 Rana El Kaliouby 共同创办) ,旨在研究面部情感检测的解决方案和软件。
+
面部表情的检测和处理通过[[wikipedia:Optical_flow|'''光流''']]、'''隐马尔可夫模型'''、'''神经网络'''或'''主动外观模型'''等多种方法实现。可以组合或融合多种模态(多模态识别,例如面部表情和语音韵律<ref name="face-prosody">{{cite conference | url = http://www.image.ece.ntua.gr/php/savepaper.php?id=447 | first1 = G. | last1 = Caridakis | first2 = L. | last2 = Malatesta | first3 = L. | last3 = Kessous | first4 = N. | last4 = Amir | first5 = A. | last5 = Raouzaiou | first6 = K. | last6 = Karpouzis | title = Modeling naturalistic affective states via facial and vocal expressions recognition | conference = International Conference on Multimodal Interfaces (ICMI'06) | location = Banff, Alberta, Canada | date = November 2–4, 2006 }}</ref>、面部表情和手势<ref name="face-gesture">{{cite book | chapter-url = http://www.image.ece.ntua.gr/php/savepaper.php?id=334 | first1 = T. | last1 = Balomenos | first2 = A. | last2 = Raouzaiou | first3 = S. | last3 = Ioannou | first4 = A. | last4 = Drosopoulos | first5 = K. | last5 = Karpouzis | first6 = S. | last6 = Kollias | chapter = Emotion Analysis in Man-Machine Interaction Systems | editor1-first = Samy | editor1-last = Bengio | editor2-first = Herve | editor2-last = Bourlard | title = Machine Learning for Multimodal Interaction | series = Lecture Notes in Computer Science| volume = 3361| year = 2004 | pages = 318–328 | publisher = Springer-Verlag }}</ref>,或用于多模态数据和元数据分析的带有语音和文本的面部表情),以提供对受试者情绪的更可靠估计。Affectiva 是一家与情感计算直接相关的公司(由 Rosalind Picard 和 Rana El Kaliouby 共同创办) ,旨在研究面部情感检测的解决方案和软件。
    
==== 面部表情数据库 ====
 
==== 面部表情数据库 ====
第223行: 第223行:       −
身体姿态检测已经提出了许多方法<ref name="JK">J. K. Aggarwal, Q. Cai, Human Motion Analysis: A Review, Computer Vision and Image Understanding, Vol. 73, No. 3, 1999</ref> 。 一些文献提出了姿势识别的两种不同方法:基于 3D 模型和基于外观<ref name="Vladimir">{{cite journal | first1 = Vladimir I. | last1 = Pavlovic | first2 = Rajeev | last2 = Sharma | first3 = Thomas S. | last3 = Huang | url = http://www.cs.rutgers.edu/~vladimir/pub/pavlovic97pami.pdf | title = Visual Interpretation of Hand Gestures for Human–Computer Interaction: A Review | journal = [[IEEE Transactions on Pattern Analysis and Machine Intelligence]] | volume = 19 | issue = 7 | pages = 677–695 | year = 1997 | doi = 10.1109/34.598226 }}</ref>。最重要的方法是利用人体关键部位的三维信息,获得手掌位置、关节角度等重要参数。另一方面,基于外观的系统直接使用图像或视频进行解释。手势一直是身体姿态检测方法的共同焦点<ref name="Vladimir" />。
+
身体姿态检测已经提出了许多方法<ref name="JK">J. K. Aggarwal, Q. Cai, Human Motion Analysis: A Review, Computer Vision and Image Understanding, Vol. 73, No. 3, 1999</ref> 。 一些文献提出了姿势识别的两种不同方法:基于 3D 模型和基于外观<ref name="Vladimir">{{cite journal | first1 = Vladimir I. | last1 = Pavlovic | first2 = Rajeev | last2 = Sharma | first3 = Thomas S. | last3 = Huang | url = http://www.cs.rutgers.edu/~vladimir/pub/pavlovic97pami.pdf | title = Visual Interpretation of Hand Gestures for Human–Computer Interaction: A Review | journal = IEEE Transactions on Pattern Analysis and Machine Intelligence | volume = 19 | issue = 7 | pages = 677–695 | year = 1997 | doi = 10.1109/34.598226 }}</ref>。最重要的方法是利用人体关键部位的三维信息,获得手掌位置、关节角度等重要参数。另一方面,基于外观的系统直接使用图像或视频进行解释。手势一直是身体姿态检测方法的共同焦点<ref name="Vladimir" />。
    
=== 生理检测 ===
 
=== 生理检测 ===
第268行: 第268行:  
===== 方法 =====
 
===== 方法 =====
   −
方法主要基于面部颜色的变化。 Delaunay 三角剖分用于创建三角形局部区域。 其中一些三角形定义了嘴和眼睛的内部(巩膜和虹膜), 使用左三角区域的像素来创建特征向量<ref name="face" />。它表明,将标准 RGB 颜色空间的像素颜色转换为 oRGB 颜色空间<ref name="orgb">M. Bratkova, S. Boulos, and P. Shirley, [https://ieeexplore.ieee.org/document/4736456 oRGB: a practical opponent color space for computer graphics], IEEE Computer Graphics and Applications, 29(1):42–55, 2009.</ref>或 LMS 通道等颜色空间在处理人脸时表现更好<ref name="mec">Hadas Shahar, [[Hagit Hel-Or]], [http://openaccess.thecvf.com/content_ICCVW_2019/papers/CVPM/Shahar_Micro_Expression_Classification_using_Facial_Color_and_Deep_Learning_Methods_ICCVW_2019_paper.pdf Micro Expression Classification using Facial Color and Deep Learning Methods], The IEEE International Conference on Computer Vision (ICCV), 2019, pp. 0–0.</ref>。因此,将上面的矢量映射到较好的颜色空间,并分解为红绿色和黄蓝色通道。然后使用深度学习的方法来找到等效的情绪。
+
方法主要基于面部颜色的变化。 Delaunay 三角剖分用于创建三角形局部区域。 其中一些三角形定义了嘴和眼睛的内部(巩膜和虹膜), 使用左三角区域的像素来创建特征向量<ref name="face" />。它表明,将标准 RGB 颜色空间的像素颜色转换为 oRGB 颜色空间<ref name="orgb">M. Bratkova, S. Boulos, and P. Shirley, [https://ieeexplore.ieee.org/document/4736456 oRGB: a practical opponent color space for computer graphics], IEEE Computer Graphics and Applications, 29(1):42–55, 2009.</ref>或 LMS 通道等颜色空间在处理人脸时表现更好<ref name="mec">Hadas Shahar, Hagit Hel-Or, [http://openaccess.thecvf.com/content_ICCVW_2019/papers/CVPM/Shahar_Micro_Expression_Classification_using_Facial_Color_and_Deep_Learning_Methods_ICCVW_2019_paper.pdf Micro Expression Classification using Facial Color and Deep Learning Methods], The IEEE International Conference on Computer Vision (ICCV), 2019, pp. 0–0.</ref>。因此,将上面的矢量映射到较好的颜色空间,并分解为红绿色和黄蓝色通道。然后使用深度学习的方法来找到等效的情绪。
    
=== 视觉审美 ===
 
=== 视觉审美 ===
第282行: 第282行:  
=== 医疗 ===
 
=== 医疗 ===
   −
社会机器人,以及越来越多的机器人在医疗保健中的应用都受益于情感意识,因为它们可以更好地判断用户和病人的情感状态,并适当地改变他们的行为。在人口老龄化日益严重和缺乏年轻工人的国家,这一点尤为重要<ref name=":19">{{Cite book|title=Heart of the Machine: Our Future in a World of Artificial Emotional Intelligence|last=Yonck|first=Richard|publisher=Arcade Publishing|year=2017|location=New York|pages=150–153|oclc=956349457}}</ref>。
+
社会机器人,以及越来越多的机器人在医疗保健中的应用都受益于情感意识,因为它们可以更好地判断用户和病人的情感状态,并适当地改变他们的行为。在人口老龄化日益严重和缺乏年轻工人的国家,这一点尤为重要<ref name=":19">{{Cite book|title=Heart of the Machine: Our Future in a World of Artificial Emotional Intelligence|last=Yonck|first=Richard|publisher=Arcade Publishing|year=2017|location=New York|pages=150–153}}</ref>。
    
情感计算也被应用于交流技术的发展,以供孤独症患者使用<ref name=":20">[http://affect.media.mit.edu/projects.php Projects in Affective Computing]</ref>。情感计算项目文本中的情感成分也越来越受到关注,特别是它在所谓的情感或'''情感互联网'''中的作用<ref name=":21">Shanahan, James; Qu, Yan; Wiebe, Janyce (2006). ''Computing Attitude and Affect in Text: Theory and Applications''. Dordrecht: Springer Science & Business Media. p. 94.</ref>。
 
情感计算也被应用于交流技术的发展,以供孤独症患者使用<ref name=":20">[http://affect.media.mit.edu/projects.php Projects in Affective Computing]</ref>。情感计算项目文本中的情感成分也越来越受到关注,特别是它在所谓的情感或'''情感互联网'''中的作用<ref name=":21">Shanahan, James; Qu, Yan; Wiebe, Janyce (2006). ''Computing Attitude and Affect in Text: Theory and Applications''. Dordrecht: Springer Science & Business Media. p. 94.</ref>。
第310行: 第310行:  
== 认知主义与交互方法之争 ==
 
== 认知主义与交互方法之争 ==
   −
在人机交互领域,罗莎琳德 · 皮卡德的情绪'''认知主义'''或“信息模型”概念受到了实用主义者柯尔斯滕 · 博纳等人的批判和对比,他们坚信“后认知主义”和“交互方法”<ref name=":30">{{cite journal|last1=Battarbee|first1=Katja|last2=Koskinen|first2=Ilpo|title=Co-experience: user experience as interaction|journal=CoDesign|date=2005|volume=1|issue=1|pages=5–18|url=http://www2.uiah.fi/~ikoskine/recentpapers/mobile_multimedia/coexperience_reprint_lr_5-18.pdf|doi=10.1080/15710880412331289917|citeseerx=10.1.1.294.9178|s2cid=15296236}}</ref>。
+
在人机交互领域,罗莎琳德 · 皮卡德的情绪'''认知主义'''或“信息模型”概念受到了实用主义者柯尔斯滕 · 博纳等人的批判和对比,他们坚信“后认知主义”和“交互方法”<ref name=":30">{{cite journal|last1=Battarbee|first1=Katja|last2=Koskinen|first2=Ilpo|title=Co-experience: user experience as interaction|journal=CoDesign|date=2005|volume=1|issue=1|pages=5–18|url=http://www2.uiah.fi/~ikoskine/recentpapers/mobile_multimedia/coexperience_reprint_lr_5-18.pdf|doi=10.1080/15710880412331289917|citeseerx=10.1.1.294.9178}}</ref>。
     
1,068

个编辑

导航菜单