JMIR J医疗互联网服务 医学互联网研究杂志 1438 - 8871 卡塔尔世界杯8强波胆分析 加拿大多伦多 v22i6e15154 32558657 10.2196/15154 的观点 的观点 医疗保健中的人工智能和人类信任:专注于临床医生 Eysenbach 冈瑟 艾琳 沃克 丹尼尔 命运 凯伦 峨山 会偏向 博士学位 1
系统与企业学院 史蒂文斯理工学院 城堡露台 霍博肯,新泽西州,07030 美国 1 2012163666 oasan@stevens.edu
https://orcid.org/0000-0002-9239-3723
Bayrak Alparslan Emrah 博士学位 1 https://orcid.org/0000-0002-8524-2265 Choudhury Avishek MSc 1 https://orcid.org/0000-0002-5342-0709
系统与企业学院 史蒂文斯理工学院 新泽西州霍博肯, 美国 通讯作者:Onur Asan oasan@stevens.edu 6 2020 19 6 2020 22 6 e15154 24 6 2019 24 2 2020 12 5 2020 3. 6 2020 ©Onur Asan, Alparslan Emrah Bayrak, Avishek Choudhury。最初发表于《医疗互联网研究杂志》(//www.mybigtv.com), 2020年6月19日。 2020

这是一篇开放获取的文章,根据创作共用署名许可(https://creativecommons.org/licenses/by/4.0/)的条款发布,允许在任何媒介上无限制地使用、分发和复制,前提是正确引用最初发表在《医学互联网研究杂志》上的原创作品。必须包括完整的书目信息,//www.mybigtv.com/上的原始出版物的链接,以及此版权和许可信息。

人工智能(AI)可以通过将数据中的不确定性和复杂性转化为可操作(尽管不完美)临床决策或建议的能力,改变医疗实践。在人类和人工智能之间不断发展的关系中,信任是影响临床医生使用和采用人工智能的一种机制。信任是一种心理机制,用来处理已知和未知之间的不确定性。一些研究强调了改进基于人工智能的系统并增强其帮助临床医生的能力的必要性。然而,评估人类信任对人工智能技术的程度和影响需要大量关注。临床医生会信任基于人工智能的系统吗?影响人类对AI信任的因素有哪些?对人工智能的信任可以优化以改善决策过程吗?在本文中,我们将重点关注作为医疗保健中人工智能系统的主要用户的临床医生,并介绍形成临床医生和人工智能之间信任的因素。我们强调了在临床使用的任何人工智能系统开发过程中应考虑的与信任相关的关键挑战。

human-AI协作 信任 技术采用 FDA政策 偏见 卫生保健
简介

人工智能(AI)作为一种技术被引入,以改善涉及系统不确定性和复杂性的决策,具有改变医疗保健实践的潜力[ 1, 2].人类在人工智能实际应用中的作用往往被忽视。增强人类决策能力的自动化系统的发展可以追溯到20世纪50年代的Fitts列表,该列表确定了人类和自动化系统的互补能力[ 3.].菲茨的清单包括11条陈述,声称人类在探测、感知、判断、归纳、即兴和长期记忆方面更胜一筹,而自动化系统在功率/速度、计算、复制、同步操作和短期记忆方面更胜一筹[ 4].一些研究表明,自动化系统可能会改善人类的决策,也可能不会,这取决于它们的设计中是否或如何考虑人为因素[ 5].

随着人工智能的快速发展,与其他技术不同的是,人工智能的过程、功能和角色缺乏明确的定义。 6].信任是影响人与人之间互动的关键因素,包括他们与人工智能的互动。了解人工智能和人类之间的信任动态至关重要,尤其是在生命面临风险的医疗保健领域。在本文中,我们讨论了信任对人工智能和临床医生之间动态互动的影响,强调了影响信任关系的关键因素,并确定了医疗保健领域的主要挑战和未来研究方向。虽然人工智能系统的用户可以是多种多样的,包括患者和保险提供商,但本文的重点仅限于医疗保健领域的专家,即临床医生。我们承认,患者和保险公司之间的信任关系可能存在显著差异。

定义 什么是人工智能?

人工智能一词在计算机科学、工程和医疗保健领域被广泛使用。从广义上讲,它可以被定义为一个能够做出智能决策的计算机程序[ 7].这个定义包括使用预定义规则和数据驱动模型的计算机程序。本文将两者区别开来,将前者称为 自动化,它可以用来做出明确而重复的决策。虽然自动化系统已被用于增加或取代医疗保健中的人工操作[ 8,过程的可泛化性和自动化中智能的存在性可能是值得怀疑的。本研究的重点是后者,这是一个使用基于先验或实时数据的数学模型做出医疗保健决策的过程。机器学习领域的现有文献提供了相对成功的方法来训练这种从数据中学习有用知识的数学模型[ 9- 11].在本文中,我们参考 一种计算机过程,使用一个或多个基于机器学习的模型,根据多个标准通过算法做出最优决策作为人工智能。虽然信任已经在自动化的背景下进行了研究[ 12],自动化的确定性(即始终为特定输入提供相同的输出)和相对可预测的性质是与我们对AI的定义的一个重要区别,这对信任研究有影响。

什么是信任?

人际信任是人类的一种信念(或在某些来源中被称为一种态度)。 12]),广义上是基于三个主要维度,即仁爱、诚信和能力[ 13].这种态度可能是基于用户自己对感兴趣的系统的体验而形成的,也可能源于外部来源,如系统在用户社交圈中的声誉[ 14].研究强调了人际信任与技术系统信任之间的一些差异,因为技术系统可能缺乏意向性,而意向性与诚实和仁慈有关[ 12].用户对人工智能系统能力的感知仍然是信任人工智能系统的一个重要维度,这取决于输入数据的质量、数学问题表示和决策中使用的算法。对AI的信任水平对用户对AI的依赖程度有重大影响[ 12],从而影响医疗保健决策的有效性。然而,对人工智能的信任水平可能并不一定与临床或患者的结果呈正相关。

医疗保健中的人工智能

人工智能在挖掘医疗记录、设计治疗方案等领域显示出巨大潜力[ 15],机器人介导的手术[ 16]、医疗管理及辅助医院运作、临床数据解读[ 17]、参与临床试验[ 18, 19],基于图像的诊断[ 20.]、初步诊断[ 21]、虚拟护理[ 22],以及连接的医疗保健设备[ 23].除了这些应用,人工智能研究的重大投资[ 24],以及最近监管人工智能在医疗领域使用的努力[ 24],表明在可预见的未来,人工智能可能成为辅助医疗领域决策的重要技术。

与其他技术领域相比,医疗保健领域的人工智能研究提出了独特的挑战。物理系统模型在数学上描述了工程应用中的底层技术行为。然而,在许多医疗保健应用中,如医学诊断(例如,疾病及其原因之间的精确关系)缺乏这种定量模型,这带来了重大挑战。临床医生对相同临床病例的反应差异显著。因此,在不了解基本事实的情况下,训练基于人工智能的工具来接受临床医生携带个人偏见的主观反应将是一个挑战。此外,人工智能研究必须考虑到不同医疗保健应用中不同的医疗问题特征。例如,将针对癌症应用需求的人工智能的数学模型训练过程推广到心血管应用中可能是不可能的。此外,少数民族和残疾患者等弱势群体在数据中可能没有得到充分代表,如果在人工智能系统设计过程中没有仔细考虑这些群体,他们的需求可能没有得到充分考虑。每个应用程序都可能需要定制的人工智能流程,具体取决于可用数据的类型和数量、目标患者群体、数据中的可变性和有用信息的数量,以及要做出的医疗保健决策的性质。

此外,医疗保健是一个高度监管的领域,开发自适应人工智能技术以满足监管要求是一个额外的挑战。美国食品和药物管理局(FDA)将软件分为三类:(a)作为医疗设备的软件(SaMD), (b)医疗设备中的软件,以及(c)用于制造或维护医疗设备的软件。FDA将SaMD定义为“…基于AI/ ml的软件,用于治疗、诊断、治愈、减轻或预防疾病或其他疾病时,是FD&C法案下的医疗设备,称为软件即医疗设备”[ 25].SaMD的应用范围从用于诊断的智能手机应用程序,到用于查看放射图像的计算机辅助检测软件,再到用于检测乳腺癌的图像后处理[ 26].FDA已经批准了几种基于人工智能的samd,这些samd具有“锁定”算法,每次对相同的输入产生相同的结果;这些算法是可适应的,但需要手动过程进行更新[ 25, 27].

与标准的SaMD模型不同,自适应算法使用确定的学习过程来改变其行为,而不需要任何手动输入。由于学习和更新,每次接收给定的一组输入时,自适应算法可能会产生不同的输出。一个可靠的验证和验证计划,确保在自适应行为下安全可靠地运行,必须是人工智能设计的一部分。

医疗保健领域的人工智能对人类表现有两个潜在优势。首先,人工智能可以比临床医生更有效地从大数据(例如存储在电子健康记录中的非结构化信息的非传染性竖井)中学习。一个成功的人工智能系统可以有效地从离线或实时数据中提取相关信息,以帮助提高组织绩效,并帮助临床医生实时做出明智的决策。其次,人工智能系统可以以更高的精度执行预定义的任务。人工智能可以在不影响其性能的情况下处于持续的活跃状态——它不会像人类那样遭受倦怠。人工智能技术的这一特点有可能彻底改变复杂的手术。达芬奇机器人手术系统可以更精确地模拟外科医生的手部动作[ 28].此外,人工智能在各个领域的现有应用,如AlphaStar(一种在电子游戏中胜过专家玩家的人工智能机器人)和LYNA(一种能够使用淋巴结活检图像检测乳腺癌的人工智能)报告了与人类决策相当的成功结果[ 29, 30.].

人工智能的局限性可能会限制其在医疗保健等关键生活领域的应用。人工智能方法要求数据输入采用结构化形式,这限制了可以为医疗决策提供的信息类型。即使是可以从给定数据集自动找到合适数学表示的深度学习方法,也只能针对给定的输入类型(例如医学图像数据)进行训练,而且一旦开发出来,它们就不能接受另一种输入类型(例如来自患者的陈述)。此外,人工智能方法通常缺乏“常识”,这使得它们无法识别数据或决策中的简单错误,否则这些错误对人类来说是显而易见的。 31].因此,结合医学专家的直觉和分析思维,有很大的潜力和改进的需要[ 32人工智能的计算能力在适当的人类-人工智能协作架构中。

信任人类与人工智能的合作

人工智能能力的进步将扩大这项技术的作用,从自动化重复和定义明确的任务,到指导目前仅由医疗专业人员在不确定性下完成的决策。随着医疗保健提供者越来越依赖人工智能,适当的信任关系也被称为 校准信任( 33,成为有效决策的必要条件。典型的基于规则的软件系统的确定性和相对可预测性是促进用户信任发展的重要因素。确定性系统的结果行为完全可以由其初始状态和输入决定。然而,人工智能的不确定性本质,即一个算法对于相同的输入可以在不同的迭代中表现出不同的行为,可能会为信任的概念引入独特的维度。 图1我们概述了影响医疗保健人工智能信任的一些重要因素,改善信任关系的可能方法,以及它们对信任的影响。请注意,该图的目的不是提供一个详尽的列表,而是强调与信任医疗保健应用人工智能相关的重要问题。

人为因素和对人工智能的信任。

目前,对人工智能系统缺乏信任是医疗保健领域采用该技术的一个重大缺陷。对AI的信任可能受到几个人为因素的影响,如用户教育程度、过去的经验、用户偏见和对自动化的看法,以及AI系统的属性,包括模型的可控性、透明度和复杂性、相关风险等。在这些因素中,可靠性是指人工智能技术能否可预测地、持续地执行一项任务[ 34],可能在医疗保健领域尤其令人担忧,因为在新数据出现时,人工智能的可靠性发生了变化[ 35].人工智能技术的可靠性取决于用户和输入数据。考虑到人工智能系统可能使用来自多个来源的不充分和主观数据进行训练,人工智能可能会产生临床用户可能意识不到的偏差或过拟合结果。这些担忧阻碍了这项技术的性能[ 36],从而抑制用户对人工智能系统的信任和接受。

同样重要的是要注意 最大化用户的信任并不一定能从人类与人工智能的合作中得出最佳决策。当信任达到最大值时,用户接受或相信人工智能系统产生的所有建议和结果。而在某些应用中,人工智能可以通过整合来自多个来源的数据来超越人类决策[ 29, 30.],上述限制表明,对人工智能不必要的高度信任可能会带来灾难性的后果,尤其是在生命攸关的应用中。因此,我们的研究支持的概念 最优信任在这种情况下,人类和人工智能都对对方的决定有一定程度的怀疑,因为两者都可能犯错误。做出最准确的临床决策所需的怀疑程度取决于人类用户和人工智能系统的能力。人工智能的发展必须纳入一些机制,这些机制将建立和维持与用户之间适当平衡的最佳信任水平,与人工智能系统的能力相匹配。 12].

由于基于知识的进化人工智能系统行为的不确定性,在人类与人工智能协作中建立健康的信任关系是一项挑战。我们假设,在AI的发展中应纳入以下因素,以实现最优的信任水平:公平、透明和健壮性( 图1).人们通常认为,算法决策可能会比人类判断产生更公平、更稳健的结果。 37].然而,算法本质上区分并赋予某些因素相对于其他因素的权重。此外,机器学习算法的属性有可能反映和加剧潜在的数据偏见,这可能会不公平地影响基于性别、种族和性取向等敏感类别的受保护群体成员。例如,一项研究[ 38]实现了机器学习来检测皮肤癌,使用了来自深色皮肤患者群体的不到5%的数据来训练模型,这可能会导致对深色皮肤患者的偏见[ 39].根据英国国际专员办公室的说法,人工智能的公平性取决于数据处理对用户(护理提供者和患者)的影响,他们对如何使用他们的数据(临床和个人数据)的期望,以及提供的透明度水平[ 40, 41)(与其他护理提供者和保险公司共享)。AI过程中的公平性与偏见最小化同时存在。偏差,即训练数据分布与偏好的公平分布之间的不匹配,可能会产生不公平的结果(预测/分类)。为了在人工智能系统中建立公平性,应该在验证和验证期间识别和减少来自临床医生主观反应的偏见。

通过意识或透明度来实现公平也可以提高信任[ 42, 43].方便安全地获取患者数据可提高透明度[ 44并允许患者验证他们的信息。在我们看来,透明度不仅有助于理解人工智能算法的工作原理,还有助于理解由于代表性不足而导致的算法偏见和偏见。根据数据的可用性和质量,人工智能系统可能在某些任务上表现非常好,而在其他任务上表现很差。回顾上文提到的“皮肤癌的例子”[ 38],如果临床医生被告知训练数据中的偏见(例如,少数民族代表性不足),那么他们将更容易确定可以实施AI算法的合适患者群体(例如,白种人)。可解释的人工智能是实现人工智能透明度的另一条途径,它可能帮助临床医生对人工智能应用的结果做出有临床意义的解释,并做出明智的判断。然而,人工智能算法的可解释性和复杂性之间存在权衡。可解释的AI模型,如决策树,直觉上往往是简单的,可能不准确,特别是在处理大而复杂的数据时。确定可解释性和复杂性之间的精确平衡对于增强对人工智能的信任至关重要。最后,鲁棒性是人工智能模型对输入数据集做出决策的敏感性。鲁棒性差可能导致输入数据有小扰动的AI模型的结果发生重大变化。数据不足或错误会阻碍人工智能的健壮性。让AI模型免受这种波动的影响可以帮助建立对AI系统的信任。

未来研究方向

人类与人工智能合作的有效性不仅取决于人工智能系统背后潜在数学过程的准确性,还取决于包括信任在内的人为因素。认识到医疗保健是一个动态的社会技术系统,其中子元素相互作用,这对于理解人类与人工智能协作中的信任关系是必要的。例如,对人工智能系统的信任可能会受到组织政策、文化、分配给医疗保健提供者的特定任务、提供者使用的其他类似计算工具、提供者与其他个人(如患者和其他提供者)的互动,以及内部和外部环境因素的影响。这一观点与系统工程文献中提出的人工智能研究路线图是一致的,也是互补的[ 45].应用人为因素方法,例如SEIPS模型[ 46]到卫生保健领域可以帮助研究人员捕捉整个社会技术工作系统。这些整体的人为因素模型为研究人员提供了一个有用的概念框架,以捕捉与医疗保健中的信任建模相关的当代和动态问题。

其次,最近对人工智能算法的批准揭示了现有监管标准的局限性。2018年初,FDA批准了WAVE临床平台,这是一种利用生命体征数据识别高危患者的早期预警系统[ 35].FDA标准是为传统的基于规则的算法设计的,不适用于高级人工智能系统,这些系统的预测性能在接触新数据时可能会发生变化[ 35].为了衡量人工智能系统的影响,FDA应该对预测模型进行基准测试,并确保有临床意义的结果。与药品批准一样,FDA应该在人工智能系统的潜在评估中严格确认和测试替代端点。最近,FDA宣布正在制定一个框架,用于监管对新数据进行自我更新的人工智能系统,并就如何监管自我更新算法征求意见[ 47].

人工智能引起了人们对医疗责任的深刻关注。根据现行做法,临床医生只在偏离特定健康状况的标准护理程序时才负责(不论病人的健康结果如何)[ 48].然而,当人工智能的建议与标准护理过程不同,并对患者的健康结果产生负面影响时,如果临床医生遵循人工智能的建议,他们将承担责任[ 48].这对人工智能系统以及人工智能和用户之间的信任意味着什么?使用人工智能系统的临床医生应该将其用于决策支持,而不是作为训练有素的临床决策的替代品。从这个意义上说,临床医生仍然要对任何可能发生的医疗错误负责,因为人类仍然是最终的决策者。那么,人工智能在哪些方面可以协助临床医生,临床医生是否能够使用和评估人工智能系统的可靠性?这些因素对临床医生对人工智能应用信任的影响有待进一步研究。

考虑到人类认知和人工智能方法的局限性,临床医生和人工智能系统之间的最佳信任水平仍然是未知的,以做出最准确和可靠的临床决策。将这种最佳信任水平与人工智能系统中的特定设计属性联系起来是另一个未知数。对该问题的分析应考虑到系统用户特有的个人人为因素,包括与之相关的相当大的偶然可变性和人工智能方法的不断发展能力。这种分析的结果应该为监管政策决策提供信息。

最后,与临床医生相比,患者对人工智能的信任预计会有完全不同的特征。首先,与临床医生不同,患者通常不具备医疗领域的专业知识。此外,无论患者是否是AI系统的用户,他们都将直接受到AI系统提供的临床决策(或建议)的影响。随着患者越来越多地参与到以患者为中心的医疗保健模式中,特别是受过良好教育的患者可能会质疑临床医生的决定,并希望了解这些决定是否基于人工智能的建议。如果人工智能系统是患者和临床医生之间共享决策过程的重要组成部分,那么患者和人工智能系统之间的信任关系值得进一步深入研究。

缩写 人工智能

人工智能

食品及药物管理局

食品和药物管理局

SaMD

作为医疗设备的软件

没有宣布

F Y H 越南盾 Y H 年代 Y 越南盾 H Y 医疗保健领域的人工智能:过去、现在和未来 中风血管神经 2017 12 2 4 230 243 10.1136 / svn - 2017 - 000101 29507784 svn - 2017 - 000101 PMC5829945 Tekkeş在 一个� 医疗保健领域的人工智能:过去、现在和未来 阿纳托尔J心脏 2019 10 22 增刊2 8 9 10.14744 / AnatolJCardiol.2019.28661 31670713 de冬天 JCF Dodou D 为什么Fitts列表在函数分配的历史中一直存在 Cogn Tech Work 2011 8 25 16 1 1 11 10.1007 / s10111 - 011 - 0188 - 1 费茨 P 有效的空中导航交通控制系统的人类工程学。费茨点。编辑器 1951 牛津大学,英国 国家研究委员会 Parasuraman R 莱利 V 人类与自动化:使用,误用,废弃,滥用 哼因素 2016 11 23 39 2 230 253 10.1518 / 001872097778543886 Siau K W 建立对人工智能、机器学习和机器人技术的信任 刀具商业技术杂志 2018 31 2 47 53 麦卡锡 J 海斯 P 从人工智能的角度来看一些哲学问题 1987 阅读非单调推理 摩根考夫曼出版公司 26 Nundy 年代 蒙哥马利 T 韦希特尔 RM 人工智能时代促进医患信任 《美国医学会杂志》 2019 08 13 322 6 497 10.1001 / jama.2018.20563 Esteva 一个 Robicquet 一个 Ramsundar B Kuleshov V DePristo K C 柯拉 G 杜伦 年代 迪安 J 医疗保健领域的深度学习指南 Nat地中海 2019 1 7 25 1 24 29 10.1038 / s41591 - 018 - 0316 - z Miotto R F 年代 X 达德利 JT 医疗保健领域的深度学习:回顾、机遇和挑战 短暂Bioinform 2017 05 06 1236 1246 10.1093 /龙头/ bbx044 28481991 3800524 恩斯 J 谢诺 西文 医疗保健领域的机器学习:医疗保健流行病学即将发生重大转变 临床感染病 2018 01 06 66 1 149 153 10.1093 / cid / cix731 29020316 4085880 PMC5850539 JD 看到 信任自动化:设计适当的依赖 高频 2004 46 1 50 80 10.1518 / hfes.46.1.50.30392 迈耶 钢筋混凝土 戴维斯 JH Schoorman FD 组织信任的综合模型 管理评论学会 1995 07 20. 3. 709 10.2307/258792 韩愈 Zhiqi沈 C 春燕苗 较小的 虚拟现实 多代理信任管理系统综述 IEEE访问 2013 1 35 50 10.1109 / access.2013.2259892 柯克 医学博士 皮雷 SM 黑色的 再保险 Caipo 发嘎吱嘎吱声 晶澳 Devleesschauwer B Dopfer D Fazil 一个 Fischer-Walker CL 哈尔德 T 大厅 AJ 基迪 KH RJ Lanata CF Torgerson 公关 Havelaar Angulo FJ 更正:世界卫生组织对22种食源性细菌、原生动物和病毒性疾病的全球和区域疾病负担的估计,2010年:数据综合 科学硕士 2015 12 12 12 e1001940 10.1371 / journal.pmed.1001940 26701262 pmedicine - d - 15 - 03679 PMC4689409 达文波特 TH 格拉泽 J 准时交货涉及到知识管理 Harv Bus Rev 2002 07 80 7 107 11日,126年 12140850 达文波特 T Kalakota R 人工智能在医疗保健领域的潜力 未来健康 2019 06 6 2 94 98 10.7861 / futurehosp.6 - 2 - 94 31363513 futurehealth PMC6616181 芬克 E Kokku P Nikiforou 年代 大厅 l Goldgof D Krischer J 临床试验患者的选择:一个基于网络的交互式系统 医学中的人工智能 2004 31 3. 241 254 10.1016 / j.artmed.2004.01.017 贝克 JT Rammage 杰克逊 全科医生 Preininger Dankwa-Mullan 罗巴克公司 MC 托雷斯 一个 Holtzen H Coverdill SE 威廉姆森 国会议员 Rhee K Vinegra 用于优化大型社区癌症中心临床试验资格筛选的人工智能工具 JCO临床癌症通报 2020 01 4 50 59 10.1200 / CCI.19.00079 31977254 Forghani R Savadjiev P Chatterjee 一个 Muthukrishnan N 莱因霍尔德 C Forghani B 放射组学和人工智能用于肿瘤生物标志物和预测模型的开发 计算结构生物技术 2019 17 995 1008 10.1016 / j.csbj.2019.07.001 31388413 s2001 - 0370 (19) 30138 - 2 PMC6667772 Y 人工智能在糖尿病视网膜病变筛查中的巨大期望和挑战 眼睛 2019 12 11 34 3. 418 419 10.1038 / s41433 - 019 - 0629 - 2 皮特 R Majowski K 劳尔 l 松鸦 一个 医疗保健领域的人工智能 面向非工程师的商业人工智能和机器学习 2019 96 10.1201 / 9780367821654 - 8 Durkin K 人工智能驱动的智能医疗保健服务、可穿戴医疗设备和身体传感器网络 点。J.医学保留区 2019 6 2 37 10.22381 / ajmr6220195 白宫美国人工智能计划年度报告 2020 奥萨特,编辑。美国总统的美国执行办公室 E 29 食品及药物管理局 2020-04-01 修改基于人工智能/机器学习(AI/ML)的软件作为医疗设备(SaMD)的拟议监管框架 https://www.regulations.gov/document?D=FDA-2019-N-1185-0001 食品及药物管理局 食品和药物管理局 2017 2020-04-01 软件作为医疗设备的例子有哪些?:你 https://www.fda.gov/medical-devices/software-medical-device-samd/what-are-examples-software-medical-device 网络公司。 K FDA专员Scott Gottlieb, M.D.关于为基于人工智能的医疗设备制定新的定制审查框架的声明 CMR 2019 04 02 1 10.31525 / fda2-ucm635083.htm Amisha 马利克 P Pathania Rathaur VK 人工智能在医学中的应用概述 J Family Med Prim Care 2019 07 8 7 2328 2331 10.4103 / jfmpc.jfmpc_440_19 31463251 jfmpc - 8 - 2328 PMC6691444 DeepMind 2020-05-05 阿尔法星:掌握实时战略游戏星际争霸2 https://deepmind.com/blog/article/alphastar-mastering-real-time-strategy-game-starcraft-ii Y 科尔伯格 T Norouzi 达尔 通用电气 史密斯 莱托 Mohtashamian 一个 奥尔森 N Hipp JD Stumpe MC 基于人工智能的乳腺癌淋巴结转移检测:对病理学家黑盒的洞察 病理学与检验医学档案 2019 07 143 7 859 868 10.5858 / arpa.2018 - 0147 oa 格拉汉姆·古德费勒 Shlens J Szegedy C 解释和利用对抗的例子 2015 05 07 第三届学习表征国际会议论文集;可能;圣地亚哥 2015 圣地亚哥 7 9 埃文斯 JSBT 推理、判断和社会认知的双重处理解释 为基础。启Psychol 2008 01 59 1 255 278 10.1146 / annurev.psych.59.103006.093629 霍夫曼 RR 约翰逊 布拉德肖 JM Underbrink 一个 信任自动化 IEEE智能。系统 2013 01 28 1 84 88 10.1109 / mis.2013.24 麦克奈特 DH 卡特 撒切尔夫人 简森-巴顿 粘土 PF 信任一种特定的技术 ACM反式。管理。正系统。 2011 06 2 2 1 25 10.1145/1985347.1985353 帕瑞克豪 RB 欧博迈亚 Z Navathe 作为 医学预测分析的监管 科学 2019 02 21 363 6429 810 812 10.1126 / science.aaw0029 AlHogail 一个 通过提高消费者信任来提高物联网技术的采用 技术 2018 07 07 6 3. 64 10.3390 / technologies6030064 勋伯格 D 医疗保健中的人工智能:对法律和伦理影响的批判性分析 国际法律和信息技术杂志 2019 27 2 一个 10.1093 / ijlit / eaz004 Esteva 一个 Kuprel B 诺沃亚 类风湿性关节炎 Ko J 不要 SM 蓝色 杜伦 年代 利用深度神经网络对皮肤癌进行皮肤科医生级别的分类 自然 2017 12 02 542 7639 115 118 10.1038 / nature21056 28117445 nature21056 J Schiebinger l 人工智能可能是性别歧视和种族歧视,是时候让它公平了 自然 2018 07 559 7714 324 326 10.1038 / d41586 - 018 - 05707 - 8 30018439 10.1038 / d41586 - 018 - 05707 - 8 办公室 图标 2019 2020-04-04 资料保护指引 https://ico.org.uk/media/for-organisations/guide-to-data-protection-1-1.pdf 巴特沃斯 ICO和人工智能:公平在GDPR框架中的作用 计算机法律与安全评论 2018 257 68 10.1016 / j.clsr.2018.01.004 Dwork C 哈特 Pitassi T Reingold O 泽梅尔 R 通过意识实现公平 第三届理论计算机科学创新会议论文集 2012 第三届理论计算机科学创新会议 2012 剑桥 马萨诸塞州剑桥市 计算机协会 10.1145/2090236.2090255 费尔德曼 fiedl的用于检查电子邮件地址 年代 Moeller J Scheidegger C 文卡塔萨布拉曼尼亚 年代 认证和消除不同的影响 第21届ACM SIGKDD知识发现与数据挖掘国际会议论文集悉尼新南威尔士 2015 第21届ACM SIGKDD知识发现和数据挖掘国际会议 2015 悉尼 澳大利亚 计算机协会 10.1145/2783258.2783311 费雷拉 一个 G 施普林格 2015 透明度增强工具能支持患者吗?如何访问电子健康记录?信息系统与技术的新贡献 施普林格 1121 32 麦克德莫特 T DeLaurentis D 贝林格 P 布莱克本 AI4SE和SE4AI:研究路线图 洞察力 2020 03 23 1 8 14 10.1002 / inst.12278 霍尔顿 RJ Carayon P Gurses 美联社 Hoonakker P Hundt 作为 Ozok AA Rivera-Rodriguez AJ SEIPS 2.0:用于研究和改进医疗保健专业人员和患者工作的人为因素框架 人体工程学 2013 11 56 11 1669 86 10.1080 / 00140139.2013.838643 24088063 PMC3835697 食品及药物管理局 2020-05-01 作为医疗设备的软件中的人工智能和机器学习 https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-devicefiles/7614/artificial-intelligence-and-machine-learning-software-medical-device.html 价格 WN Gerke 年代 科恩 搞笑 医生使用人工智能的潜在责任 《美国医学会杂志》 2019 10 04 1765 1766 10.1001 / jama.2019.15064 31584609 2752750
Baidu
map