发表在24卷第三名(2022): 3月

本文的预印本(早期版本)可在https://preprints.www.mybigtv.com/preprint/29506,首次出版
如何利用深度造假技术加强人工共情研究?

如何利用深度造假技术加强人工共情研究?

如何利用深度造假技术加强人工共情研究?

的观点

1台北医科大学医学科学与技术学院生物医学资讯研究所,台北市

2台北医科大学国际健康资讯科技中心,台北市

3.台北医科大学万方医院大数据与元分析研究中心,台北市

4台北医科大学医院临床大数据研究中心,台北市

5印度尼西亚日惹Gadjah Mada大学医学、公共卫生和护理学院卫生政策管理系

6台湾台北市万方医院皮肤科

*这些作者贡献相同

通讯作者:

李玉川,医学博士,法医学研究所

生物医学信息学研究所“,

医学科学技术学院“,

台北医科大学

基隆路二段172-1号

台北,106年

台湾

电话:886 966 546 813

传真:886 2 6638 0233

电子邮件:jack@tmu.edu.tw


我们提出了使用一个开放的医患互动数据集来开发基于面部情绪识别的人工同理心的想法。面部情绪识别允许医生分析患者的情绪,这样他们就可以通过共情护理来接触患者。然而,人脸识别数据集往往很难获得;许多研究人员都在努力研究人脸识别数据集的小样本。此外,共享医疗图像或视频是不可能的,因为这种方法可能侵犯患者的隐私。使用deepfake技术是一种很有前途的方法来识别患者临床遭遇的视频记录。这种技术可以彻底改变面部情感识别的实现,将图像或视频中的患者的面部替换为无法识别的面部——面部表情与原始面部相似。这项技术将进一步增强人工共情的潜在用途,帮助医生提供共情护理,以实现良好的医患治疗关系,这可能会导致更好的患者满意度和治疗依从性。

中国医学网络学报,2018;24(3):e29506

doi: 10.2196/29506

关键字



良好的医患沟通是建立成功的治疗性医患关系的关键条件之一[1].这种类型的交流使医生能够提供可能影响患者健康的更高质量的护理。关于良好医患沟通的研究表明,医生沟通技巧与患者满意度之间存在很强的正相关关系,这可能与患者对治疗的坚持有关;他们的照顾经验;因此,改善了临床结果[2-5].

我们承认良好的医患沟通的重要性;医生必须通过口头交谈和非言语行为(如姿势、手势、眼神接触、面部表情等)来了解病人的观点[67].建立使用非语言信息的沟通对于建立良好的医患关系是非常重要的,因为这种沟通所传达的信息比语言对话更有表现力和意义。8].一项研究表明,在人际交往中,非语言信息占到信息传递的90%。6].另一项研究还估计,超过一半的门诊病人认为,建立积极的非语言行为表明医生对病人更加关注,从而提高病人的满意度和治疗依从性[8].

尽管有几项研究表明,人类的非语言行为与患者的满意度和对治疗计划的依从性有显著的关联,但医生往往对非语言信息一无所知。6].医生应该更加注意自己的非语言行为,因为病人已经认识到了这些行为。医生还需要识别和评估病人的非语言行为以及自己对病人的非语言行为。

人工智能(AI)为探索医患接触中的非语言沟通提供了巨大的潜力[9].例如,人工智能可以通过情绪识别来分析人类的面部表情,从而帮助医生变得更有同情心。一旦一个具有情商的人工智能识别出一种情绪,它就可以指导医生根据每个病人独特的情感需求表达更多的同理心[10].

同理心指的是理解或感受他人经历的能力,表现出同理心可能会带来更好的行为结果。9].同理心是可以学习的,人工智能技术的使用引入了一种有前途的方法,将人工同理心纳入医患治疗关系[11].然而,人类的情感是非常复杂的。一个具有情商的人工智能应该从面部表情、声音和生理信号中学习一系列情绪(即患者所经历的情绪),从而对人类情绪产生共鸣[12].这些情绪可以通过各种形式来捕捉,如视频、音频、文本和生理信号[13].

在人类所有的交流渠道中,面部表情被认为是最重要和最有影响力的。14-16].人脸可以表达各种思想、情绪和行为。15].它在人类人际交往和社会交往中的非语言表达中发挥着重要作用。1718].与通过情绪识别技术所能传达的信息量相比,面部表情传达了人类多模态交互中传递的55%的情绪表达,而言语信息、文本交流和通过生理信号进行的交流分别只传达了交互中总信息的20%、15%和10% [19].

许多研究人员通过使用自动面部情绪识别(FER)来研究面部表情,以更好地理解与同理心相关的人类情绪[20.-24].他们提出了各种机器学习算法,如支持向量机、贝叶斯信念网络和神经网络模型,用于基于观察到的记录在图像或视频上的面部表情来识别和描述情绪[20.-22].尽管关于机器学习和深度学习自动从人脸中提取情绪的文献已经介绍了很多,但开发一个高度准确的FER系统需要大量的训练数据和高质量的计算系统[21].此外,数据集必须包括不同的面部视图,包括角度、帧率、种族和性别等[21].

许多公共数据集可用于FER [25].然而,大多数公共数据集不足以支持医患互动。创建我们自己的医疗数据集也是不可能的,因为这个过程既昂贵又耗时[26].此外,由于隐私问题,研究人员经常难以获得足够的数据来训练人脸识别模型。数据共享和医学图像或视频的共享甚至是不可能的,因为这些方法可能侵犯患者的隐私。在此,我们介绍了我们对新兴人工智能的研究deepfakes一种能够对病人临床遭遇的录制视频进行人脸去识别的技术。这项技术可以通过将图像或视频中的患者面部替换为无法识别的面部,从而使患者匿名化,从而彻底改变FER。这可以保护患者在临床遭遇视频时的隐私,并使医疗视频数据共享变得更加可行。此外,使用一个开放的临床会诊视频数据集也可以促进学术界更深入的研究。因此,deepfake技术将进一步增强人工共情在医疗应用方面的临床应用。


人类带

人类FER在理解人们与他人交流的非语言方式方面发挥着重要作用[19].由于其在其他形式的情感识别中的优越性,引起了各个领域科学界的兴趣[22].由于面部表情分析不仅仅局限于人机交互或人机交互,它已成为各个医疗保健领域的热门研究课题,如认知障碍(如儿童自闭症谱系障碍)的诊断或评估、帕金森病的抑郁监测、疼痛监测以及医患会诊中的临床沟通[27].

FER的主要目标是根据一个人的情绪状态准确地分类各种面部表情[21].经典的FER方法通常分为以下三个主要阶段:(1)面部特征检测,(2)特征提取,(3)情绪识别[2128].然而,据报道,传统的FER无法在不受控制的环境中提取不同的面部表情[2128].另一方面,最近一项使用基于深度学习的FER方法的研究已经成功地获得了比传统FER更高的精度[20.-22].

Deepfake技术

计算机视觉和深度学习技术的快速发展推动了最近出现的深度造假现象(深度学习而且假的),可以自动伪造人类无法轻易识别的图像和视频[29-31].此外,deepfake技术提供了生成无法识别的人脸图像的可能性,并将现有图像和视频中的人脸更改或交换为另一张显示与原始人脸相同表情的人脸[29].各种深度造假尝试被用于负面目的,例如创建与名人、政治家、公司甚至个人有关的有争议的内容,以损害他们的声誉。30.].尽管深度造假技术的有害影响已经引起了公众的关注,但使用这种技术也有好处。例如,它可以在一些关键的医疗应用中提供隐私保护,例如对患者进行人脸去识别[32].此外,尽管deepfake技术可以很容易地操纵视觉和音频特征的低级语义,但最近的一项研究表明,deepfake技术可能很难伪造人类情感的高级语义特征[31].

Deepfake技术主要是通过使用深度学习开发的,这是一种基于人工智能的方法,可用于训练深度网络[29].实现deepfake技术的流行方法是基于生成对抗网络(GAN)模型[3334].深度造假有几种类型和例子,比如照片深度造假、音频深度造假、视频深度造假和音视频深度造假。

数据集

为了模拟deepfake技术如何对医患临床会面的录制视频进行人脸去识别,我们于2019年3月至12月从台北市立万方医院和台北医科大学医院招募了348名成年患者和4名医生。由于视频损坏,我们排除了21例患者的视频数据,我们收集了327例患者的视频数据。数据集中于皮肤科门诊医患之间的互动。数据集中的受试者均来自台湾人群。

在Deepfake模型设置中的FER系统

图1阐述了提出deepfake技术前后FER系统的工作流程。首先,我们使用2台摄像机创建同步记录,以捕捉皮肤科门诊的医患互动。我们假设在医疗保健中,面部是非语言交流中最相关、最容易获得的渠道[6].因此,我们随后使用工业技术研究院开发的面部表情识别系统来检测情绪,并分析医生和患者的情绪随时间的变化。该面部表情识别系统已使用来自28,710张亚洲面部图像的训练数据进行部署,并且对于扩展的cohen - kanade数据集的准确率为95% [35].

图1。面部表情识别系统工作流程。工业技术研究所。
查看此图

我们通过使用个人面部的主要部位(如眼睛、眉毛、鼻尖、唇角等)来跟踪面部运动来识别面部表情。这使我们能够观察医生和病人在表达以下七种面部表情时的情绪体验:愤怒、厌恶、恐惧、中立、快乐、悲伤和惊讶。然后,该系统提供了医生和患者情绪变化的摘要,时间分辨率最高可达1秒。此外,我们的模型设法过滤掉任何不相关的面部目标(即医生和患者以外的面部)。最后,将医患情绪分析的总结结果作为开发人工共情的参考数据集。然后,系统会给出建议,这样医生就可以根据患者的情况立即做出反应。

但需要指出的是,我们的人工共情参考数据训练集是通过使用有限的人脸识别数据集构建的。因此,我们试图通过提出使用deepfake技术操纵的临床遭遇视频中的开放数据来改进模型,这可以在不侵犯患者隐私的情况下实现医疗数据共享。此外,这些开放数据使我们能够与现实世界的临床遭遇视频数据集连接起来,这样我们就可以使用不同模型的面部表情识别系统来分析患者和医生的情绪体验(图1).

伦理批准

本研究获得台北医科大学联合机构审查委员会(TMU- jirb No: N201810020)批准。


临床遭遇视频——我们人脸识别数据集的来源——由327名患者的视频数据组成,其中208名女性患者和119名男性患者(年龄:平均51岁,标准差19.06岁)。录制视频的平均会诊时间为4.61分钟(SD 3.04);咨询时间最长为25.55分钟,最短为0.33分钟。我们的人工移情算法是利用FER算法开发的。该算法通过分析患者的表情来学习一系列患者的情绪,因此医生可以根据患者的情绪体验立即做出反应。总体而言,该FER系统对真实数据的平均检出率为>80%。

我们用于人工移情的人脸识别数据集仅基于基本情绪。系统评估报告了愤怒、快乐、厌恶和悲伤的表情,这些表情更有可能由医生而不是患者表达(P<措施)。此外,与医生相比,患者也更倾向于表达中性情绪和惊讶(P<措施)。医生的整体情绪以悲伤(表情:8580/ 17397,49.3%)、快乐(表情:7541/ 17397,43.3%)、愤怒(表情:629/ 17397,3.6%)、惊讶(表情:436/ 17397,2.5%)、厌恶(表情:201/ 17397,1.2%)为主,而患者的情绪则为快乐(表情:5766/ 12606,45.7%)、悲伤(表情:5773/ 12606,45.8%)、惊讶(表情:890/ 12606,7.1%)、愤怒(表情:126/ 12606,0.9%)。图2说明了医生和病人的情感表达。该系统利用情绪分析的结果,提醒医生根据患者的情况改变自己的行为,让患者感觉医生了解他们的情绪和情况。

原始人脸识别数据集由个人数据(即患者的人脸)组成。然而,我们只能发布情绪表达分析的结果,作为人工共情发展的参考。如前所述,我们的方法只涉及使用少量的训练数据(仅亚洲人脸图像)。因此,为了提高模型性能,我们需要通过人脸去识别对临床互动视频进行匿名化处理。人脸去识别允许我们将我们的人脸识别数据集作为临床研究的开放数据共享。为了实现人脸图像数据共享,研究人员可以执行传统的人脸去识别技术,例如通过用彩色盒子覆盖患者的面部区域来掩盖图像(图3).

然而,值得注意的是,由于我们的研究旨在开发人工同理心,以支持良好的医患关系,因此无法执行掩蔽方法,因为很难用情绪表达分析的结果来验证掩蔽图像。Deepfake技术提供了一种方法,可以将患者的原始人脸与开源人脸数据集中的另一张人脸进行交换,生成与原始人脸图像具有相似表情和属性的无法识别的图像。这种人脸交换方法可以与我们的人工移情算法的人脸识别参考数据集一起使用,以避免侵犯患者隐私和伦理问题。我们采用了基于人脸交换的视频deepfake技术(图3),在图像动画的一阶运动模型中提出[36].这种方法涉及采用一种新的图像动画深度学习框架Monkey-Net并通过使用一组自我学习的关键点结合局部仿射变换对其进行修改[36].该框架使密集运动传输网络能够生成视频,其中源图像根据给定的具有复杂运动的驾驶视频序列进行动画[36].与原始的GAN模型不同,原始的GAN模型依赖于昂贵的地面真实预训练模型,导致图像或视频输出的生成质量较差,图像动画的一阶运动模型可以处理带有轮廓图像的高分辨率数据集,因此可以成为我们人脸识别数据集的参考基准模型。

图2。皮肤科门诊医患关系模拟视频录制截图
查看此图
图3。利用深度伪造技术对患者面部图像进行传统人脸去识别和人脸交换的比较。
查看此图

主要研究结果

我们的FER研究揭示了医生如何比病人更常见地表达愤怒、快乐、厌恶和悲伤等情绪。由于面部表情等非语言信息对人类互动中传递的信息贡献最大,因此医生在临床互动中表达情绪时需要更加小心。例如,医生永远不应该习惯于表达愤怒、厌恶或其他代表糟糕沟通技巧的负面情绪,因为这可能会破坏治疗目标,并导致患者和医护人员都感到沮丧[6].

积极的情绪(如快乐)代表着良好的沟通技巧,因为它们可以帮助人们理解另一个人的感受和想法,让人们更好地理解彼此。37].此外,积极情绪有助于建立患者对医生的信任。38].从患者的角度来看,信任是指患者接受一种脆弱的情况,即患者相信医生会根据他们的需要提供适当和公平的医疗护理来帮助他们[39].当患者信任医生时,他们更有可能分享与自己病情相关的有效可靠的信息,更容易承认健康问题,更有效地理解医疗信息,并相应地遵守治疗计划[39].他们也倾向于更早地寻求预防性护理,并返回进行后续护理,这可能会防止进一步的疾病并发症[39].

除了医生的医学知识和临床技能外,患者对医生提供充分信息、积极倾听和移情的能力的感知被认为与患者的满意度和信任有关[3.].医生展示有效沟通技巧和提供共情关怀的能力对改善良好医患关系的患者和医生本身都是有益的,因为这些因素可以提高工作绩效满意度,降低医生的压力和身体倦怠风险[40].共情护理也可能降低医疗差错率,并有助于避免与患者的冲突[38].

我们相信我们的FER系统和人脸识别数据集可以作为一个决策支持系统,当患者需要特别关注以实现治疗目标时,可以指导医生。例如,如果医生表现出消极的面部表情(如愤怒、厌恶和悲伤),系统就会提醒他们改变面部表情。此外,如果患者也表现出消极的面部表情,系统将建议医生使用不同的方法来适应患者的情绪状况。根据我们的结果,我们需要解决的主要缺点是FER技术依赖于数据训练的质量和训练数据的数量[2632].我们相信,在未来,我们可以通过收集更多具有不同社会人口背景的受试者的更多数据来提高系统的精度和准确性。这只有在我们采用深度伪造技术(如GANs)时才有可能实现,该技术可以在图像和视频中学习人脸的面部特征,并将其替换为另一个人的面部[41].因此,deepfake技术可以取代患者的面部图像,并在视频中创建类似面部表情的假面部图像。随着deepfake技术的使用,门诊医患互动的录制视频数据库将变得更容易获取。应用深度伪造去识别FER数据集可能有利于人工移情的发展,因为这种方法可能不会侵犯人际关系情况的隐私和安全。

与我们的研究类似,最近的一项研究报告使用deepfake技术生成开源、高质量的帕金森病检查视频医疗视频数据集,以识别受试者[32].本研究还基于深度假检测数据集中的开源视频,应用人脸交换技术和实时多人系统检测人体运动关键点[32].与此同时,我们的方法涉及使用由自学习关键点组成的自我监督公式,并结合局部仿射变换[36].我们认为这种自学习模型可以保留原始人脸识别数据集中人的情绪状态。

我们的研究有一些局限性。首先,我们的方法只涉及使用单一的信息模式——视频深度伪造——这可能会导致不准确的情绪分类。在未来,我们可以将视频和音频深度伪造结合起来,以更好地代表目标人的情绪状态。其次,在使用deepfake技术对医疗数据集进行去识别时,需要考虑道德和伦理问题。然而,我们的研究强调了在医疗环境中使用人脸识别数据集时,使用深度造假来保护隐私的积极方式。因此,这项研究不会引发伦理问题,而是有助于防止深度造假被用于恶意目的,并鼓励在医疗应用中使用。

结论

考虑到FER技术依赖于广泛的数据训练,我们建议使用临床遭遇视频的开放数据集作为参考数据训练集,以开发基于FER系统的人工同理心。然而,由于隐私问题,研究人员一直很难获得人脸识别数据集。因此,我们建议采用深度造假。Deepfake技术可以识别图像或视频中的人脸,并对其进行处理,使正确的目标人脸变得无法识别,从而防止侵犯患者隐私。这种技术还可以生成与原始图像或视频中相同的面部表情。因此,该技术可能促进医疗视频数据共享,改善FER系统在临床环境中的实施,并保护敏感数据。此外,deepfake技术将进一步增强人工共情的潜在用途,帮助医生根据患者的情绪体验提供共情护理,以实现良好的医患治疗关系。

致谢

本研究由科技部资助(资助MOST 110-2320-B-038-029-MY3, 110-2221-E-038-002 -MY2和110-2622-E-038 -003-CC1)。

利益冲突

没有宣布。

  1. 医患沟通研究进展。王志刚,王志刚。2010;10(1):38-43 [J]免费全文] [Medline
  2. Zachariae R, Pedersen CG, Jensen AB, Ehrnrooth E, Rossen PB, von der Maase H.感知到的医生沟通方式与患者满意度、痛苦、癌症相关自我效能感和对疾病的感知控制之间的关系中华肿瘤杂志2003 march 10; 32 (5):658-665 [免费全文] [CrossRef] [Medline
  3. Sullivan LM, Stein MD, Savetsky JB, Samet JH。医患关系及hiv感染者对初级保健医生的满意度。J Gen Intern Med 2000七月;15(7):462-469 [免费全文] [CrossRef] [Medline
  4. Renzi C, Abeni D, Picardi A, Agostini E, Melchi CF, Pasquini P,等。皮肤科门诊患者护理满意度的相关因素。中华皮肤杂志2001 10月;145(4):617-623。[CrossRef] [Medline
  5. Cánovas L, Carrascosa AJ, García M, Fernández M, Calvo A, Monsalve V,共情研究小组。移情在医患关系中对慢性疼痛缓解和生活质量的影响:西班牙疼痛诊所的前瞻性研究。疼痛医学2018年7月01日;19(7):1304-1314。[CrossRef] [Medline
  6. 兰詹P, Kumari A, Chakrawarty A.医生如何提高沟通技能?中国临床诊断杂志2015 Mar;9(3):JE01-JE04 [免费全文] [CrossRef] [Medline
  7. Butow P, Hoque E.使用人工智能分析和教授医疗保健中的沟通。乳房2020年4月;50:49-55 [免费全文] [CrossRef] [Medline
  8. 王文杰,王文杰,王文杰,王文杰。患者对医师非言语行为的态度:来自发展中国家的调查结果。ISRN Family Med 2014年02月04日;2014:473654 [免费全文] [CrossRef] [Medline
  9. Cuff BMP, Brown SJ, Taylor L, Howat DJ。共情:概念回顾。Emot Rev 2014 12月01日;8(2):144-153。[CrossRef
  10. amololama - shakeri S, López JE。人工智能的医患关系。AJR Am J伦琴诺2019 2月;212(2):308-310。[CrossRef] [Medline
  11. Iqbal U, Celi LA, Li YCJ。人工智能如何让医学更有先见之明?J Med Internet Res 2020 Aug 11;22(8):e17211 [免费全文] [CrossRef] [Medline
  12. 黄世峰,王志强,王志强。基于多模态的情绪识别方法研究。2005年1月17日发表于:电子成像2005;2005年1月16-20日;美国加利福尼亚州圣何塞。[CrossRef
  13. Bänziger T, Grandjean D, Scherer KR.从面部、声音和身体的表情中识别情绪:多模态情绪识别测试(MERT)。情感2009 10月9日(5):691-704。[CrossRef] [Medline
  14. Lazzeri N, Mazzei D, Greco A, Rotesi A, Lanatà A, De Rossi De .人形脸能有表情吗?心理生理学调查锋生生物科技2015年5月26日;3:64 [免费全文] [CrossRef] [Medline
  15. 弗兰克毫克。面部表情。进:斯梅泽NJ, Baltes PB,编辑。国际社会与行为科学百科全书。荷兰阿姆斯特丹:爱思唯尔;2001:5230 - 5234。
  16. Mancini G, Biolcati R, Agnoli S, Andrei F, Trombini E.意大利青少年面部情绪表情的识别及其情感反应。前沿精神2018年8月03日;9:1303 [免费全文] [CrossRef] [Medline
  17. 谢恩斯PG.人脸作为社会交流的动态工具。Curr Biol 2015 july 20;25(14):R621-R634 [免费全文] [CrossRef] [Medline
  18. 面部表情在社会交往中的作用。Philos Trans R Soc Lond B生物科学2009年12月12日;364(1535):3453-3458 [免费全文] [CrossRef] [Medline
  19. 刘志强,刘志强,刘志强。情绪识别与检测方法的研究进展。人工智能与系统学报2020;2:53-79 [免费全文] [CrossRef
  20. 使用卷积神经网络(FERC)的面部情绪识别。科学通报2020 Feb 18;2(446):1-8 [免费全文] [CrossRef
  21. Akhand MAH, Roy S, Siddique N, Kamal MAS, Shimamura T.在深度CNN中使用迁移学习的面部情绪识别。电子技术(巴塞尔)2021年4月27日;10(9):1036 [免费全文] [CrossRef
  22. 宋哲。融合哲学与机器学习理论的面部表情情绪识别模型。前线精神2021年9月27日;12:759485 [免费全文] [CrossRef] [Medline
  23. Uddin MZ。第26章深度视频中基于局部特征的面部表情识别系统。在:Deligiannidis L, Arabnia HR,编辑。图像处理、计算机视觉和模式识别的新兴趋势。马萨诸塞州伯灵顿:摩根·考夫曼;2015:407 - 419。
  24. John A, Abhishek MC, Ajayan AS, Kumar V, Sanoop S, Kumar VR。改进预处理和特征提取的实时面部情绪识别系统。2020年10月6日发表于:2020第三届智能系统与发明技术国际会议(ICSSIT);2020年8月20-22日;Tirunelveli,印度。[CrossRef
  25. 米奈伊,米奈伊,阿卜杜拉希迪。深度情感:基于注意卷积网络的面部表情识别。传感器(巴塞尔)2021年4月27日;21(9):3046 [免费全文] [CrossRef] [Medline
  26. 吴hw, Nguyen VD, Vonikakis V, Winkler S.基于迁移学习的小数据集情感识别深度学习。2015年11月出席:ICMI '15:多式联运国际会议;2015年11月9日至13日;美国华盛顿州西雅图,第443-449页。[CrossRef
  27. Leo M, Carcagnì P, Mazzeo PL, Spagnolo P, Cazzato D, distance C.医疗保健应用中的面部信息分析:基于计算机视觉的方法的调查。信息(巴塞尔)2020年2月26日;11(3):128 [免费全文] [CrossRef
  28. 王晓明,王晓明,王晓明,王晓明。面部表情的情绪识别方法。精神病学代表2021年5月26日332941211018403。[CrossRef] [Medline
  29. 阮婷,阮庆伟,阮DT,阮dt,黄- the T, Nahavandi S,等。深度学习用于深度造假的创建和检测:一项调查。arXiv预印本于2022年2月6日在线发布[免费全文
  30. Guarnera L, Giudice O, Battiato S.通过分析卷积痕迹来检测DeepFake。2020年7月28日发表于:2020 IEEE/CVF计算机视觉和模式识别研讨会(CVPRW);2020年6月14日至19日;西雅图,华盛顿,美国。[CrossRef
  31. 霍斯勒B, Salvi D, Murray A, Antonacci F, Bestagini P, Tubaro S,等。深度造假能感受到情感吗?一种通过情感不一致性检测深度造假的语义方法。2021 Sep 01发表于:2021 IEEE/CVF计算机视觉和模式识别研讨会(CVPRW);2021年6月19日至25日;美国田纳西州纳什维尔,1013-1022页。
  32. 朱波,方红,隋勇,李林。深度伪造技术在医疗视频去识别中的应用:隐私保护和诊断信息保存。2020年2月发表于:AIES '20: AAAI/ACM人工智能、伦理与社会会议;2020年2月7日至9日;纽约,纽约,美国,第414-420页。[CrossRef
  33. 人工智能、深度造假和胚胎型的未来。航空科技2018年8月1日;31(3):317-321。[CrossRef
  34. 基茨曼J,李LW,麦卡锡IP,基茨曼TC。深度造假:不给糖就捣蛋?公共汽车2020;63(2):135-146。[CrossRef
  35. 郭志忠,S美英,S一宇,W嘉华,P紫云,Z明红,等。智能监控再升级——引入面部情感识别。计算机与通信2018年10月25日(175):29-31。[CrossRef
  36. Siarohin A, Lathuilière S, Tulyakov S, Ricci E, Sebe N.图像动画的一阶运动模型。2019年12月发表于:第33届神经信息处理系统国际会议;2019年12月8日至14日;加拿大温哥华,p. 7137-7147。
  37. Markides M.病人和卫生专业人员之间良好沟通的重要性。中华儿科血液病杂志2011 10月;33增刊2:S123-S125。[CrossRef] [Medline
  38. Kerasidou A.人工智能以及医疗保健中对同理心、同情和信任的持续需求。牛世界卫生机构2020年04月01日;98(4):245-250 [免费全文] [CrossRef] [Medline
  39. Thom DH, Hall MA, Pawlson LG。在评估护理质量时,衡量患者对医生的信任程度。卫生Aff (Millwood) 2004;23(4):124-132。[CrossRef] [Medline
  40. Bogiatzaki V, Frengidou E, Savakis E, Trigoni M, Galanis P, Anagnostopoulos F.希腊公立医院医护人员的共情与倦怠。国际护理杂志2019;12(2):611-626 [免费全文
  41. 郑宇,刘森,金永华,沈文辉。磁共振图像中的面部特征去识别:使用深度学习技术的软件开发。J Med Internet Res 2020年12月10日;22(12):e22739 [免费全文] [CrossRef] [Medline


人工智能:人工智能
带:面部情绪识别
甘:生成式对抗网络


A Mavragani编辑;提交13.04.21;S Bidmon, A Hashim同行评审;对作者11.08.21的评论;订正版本收到06.12.21;接受28.12.21;发表04.03.22

版权

©Hsuan-Chia Yang, Annisa Ristya Rahmanti,黄志伟,李育川。最初发表于《医疗互联网研究杂志》(//www.mybigtv.com), 04.03.2022。

这是一篇开放获取的文章,根据创作共用署名许可(https://creativecommons.org/licenses/by/4.0/)的条款发布,允许在任何媒介上无限制地使用、分发和复制,前提是正确引用最初发表在《医学互联网研究杂志》上的原创作品。必须包括完整的书目信息,//www.mybigtv.com/上的原始出版物的链接,以及此版权和许可信息。


Baidu
map