发表在第21卷第11期(2019):11月

本文的预印本(早期版本)可在https://preprints.www.mybigtv.com/preprint/16607,首次出版
在医学领域释放人工智能和大数据的力量

在医学领域释放人工智能和大数据的力量

在医学领域释放人工智能和大数据的力量

的观点

1日内瓦大学医院医疗信息科学部,瑞士日内瓦

2日内瓦大学放射学和医学信息系,日内瓦,瑞士

通讯作者:

Christian Lovis,医学博士,公共卫生硕士,FACMI

医学信息科学部

日内瓦大学医院

4 . Gabrielle Perret Gentil

1205年,日内瓦

瑞士

电话:41 22 37 26201

电子邮件:Christian.Lovis@hcuge.ch


数据驱动的科学及其在机器学习和更广泛的人工智能领域的必然结果,有可能推动医学的重大变革。然而,医学与其他科学不同:它与法律、伦理、监管、经济和社会的广泛网络有着深刻而紧密的联系。因此,在处理信息及其进一步处理和决策支持和预测系统的交叉联系方面的科学和技术进步必须与全球环境的平行变化相伴随,包括公民和社会在内的众多利益攸关方。然而,乍看之下可能被视为阻碍数据科学发展的障碍和机制的东西,必须被视为重要的资产。只有全球采用,才能将大数据和人工智能的潜力转化为处理健康和医学的有效突破。这需要科学和社会、科学家和公民共同进步。

中国医学网络杂志2019;21(11):e16607

doi: 10.2196/16607

关键字



大多数关于人工智能(AI)研究、创新和应用的每日新闻和最近发表的科学论文都提到了所谓的机器学习——使用大量数据和各种方法来寻找模式、支持决策、进行预测,或者对于深度学习部分,自我识别数据中的重要特征。然而,人工智能是一个难以掌握的复杂概念,大多数人对它的真正含义知之甚少。人工智能作为一门学科成立于1956年,尽管它还很年轻,但已经有了丰富的历史[12].在60多年的探索和进步中,人工智能已经成为一个涉及多学科方法的大型研究和开发领域,以应对许多挑战,从理论框架、方法和工具到实际实施、风险分析和影响措施。人工智能的定义是一个移动的目标,并随着该领域的发展而变化。自早期以来,人工智能领域已经允许开发许多支持决策支持和预测的技术,因为这些技术通常是由人类做出的。早在1958年,感知器就被期望能够“行走、说话、看、写、自我复制并意识到自己的存在”,这导致了神经网络和符号推理方法之间的巨大科学争议[3.].人工智能研究的前景包括知识表示和工程;基于规则和符号的推理;时间推理和计划;感觉和知觉;学习;进化的、新出现的社会行为;还有移动和操纵物体的能力,这是最重要的[4——具有自主特征提取的深度机器学习。这是论文中所采取的观点,但也承认,最近有一种趋势将AI限制为后者,即自主深度机器学习。由于广阔的视野,这一领域涵盖了哲学、数学、信息科学、计算机科学、心理学、人类学、社会科学、语言学和许多其他领域。对于一些专家和有远见的人,如雷·库兹韦尔,深度机器学习将允许建立一个人工通用智能,能够自主发展,并有能力理解或学习人类可以完成的任何智力任务,甚至远远超出人类智能的极限[5],但大多数专家都会同意,尽管量子计算最近可能取得重要进展,但仍有一些重大的缺失,而且距离实现这一目标还有很长的路要走[6].欧盟委员会最近发布了一份白皮书,由人工智能高级别专家组成员撰写,在几页的篇幅内,对人工智能是什么、它的主要能力、适用的期望和涉及的学科进行了很好的概述[7].

在整个人工智能领域,重要的是要强调人工智能今天已经广泛应用于医学。基于知识工程和规则系统的决策支持在计算机供应商订单输入(CPOE)中得到了广泛的应用。先进的信号处理应用于心脏起搏器或除颤器以作出决定,应用于具有人机界面的人工耳蜗,应用于心电图以提供信号分析和自动诊断等。

人工智能领域本身就很有抱负,预计将对医学做出重大贡献,从研究到以公民为中心的健康。机器学习和深度学习引领了人工智能领域最近的重大突破,如声音(语音和音乐)识别和图像(面部、放射学、病理学、皮肤病学等)识别,以及游戏领域。最近,图像识别几乎达到了一个成熟的水平,通过它可以被人工智能的非专家使用和开发[89].然而,在过去的几年里,围绕人工智能的炒作已经建立了很高的期望和同样的高度恐惧。在商业市场上广泛出现的基于自主深度学习的系统仍然非常少。

人工智能的世界大致可以概括为三个连续和叠加的行为:

第一幕:人类教机器处理数据和信息。

第二幕:人类向机器传授专业知识。

第三幕:人类教会机器独自学习。


在医疗领域,人工智能领域有许多挑战需要解决。其中大多数并不专属于医药和卫生领域,但它们的加入使目标的实现难度大大增加。

贝叶斯的陷阱

一般来说,医学和健康决定因素通常具有基本的贝叶斯性质。在贝叶斯概率方法中,需要一个先验概率来评估预测的强度。

在医学上,大多数用来建立诊断的方法都属于贝叶斯方法。例如,如果一个人发烧,那么他是流感的概率是多少?如果一个人的血糖值很高,那么他患糖尿病的概率是多少?为了说明贝叶斯陷阱,让我们举一个简单的例子——怀孕测试。这是一个简单的测试;它可以是正的,也可以是负的。让我们想象一下,我们使用一个经典的测试,它有99%的敏感性和95%的特异性。如果对100人进行100次检测,5人呈阳性,问题是,知道其中有多少人是孕妇。这个问题被定义为确定一个阳性测试的阳性预测值,它给出了一个阳性测试的概率,真正标志着测试所测试的因素的存在。要回答这个问题,我们需要知道在测试人群中怀孕的先验概率。 To understand this, imagine that 100% men were tested; in this case, none of the 5 positive tests would correspond to a pregnant woman. Similarly, if all persons tested are pregnant woman, then all 5 positive tests would correspond to pregnant women. If the prior probability is around 1%, then applying the Bayesian rules returns that the probability to be pregnant when a test is reported positive is about 17%. This means that about 4 of 5 tests are false positive. At the other end, if the prior probability is around 20% (ie, a woman with several factors suggesting a potential pregnancy), the probability of a positive test to be a true positive is above 80%. Thus, less than one test out of five is a false-positive. The example shows the major consequences of the prior probability in Bayesian situations.

这些都是人工智能的后果。模型必须考虑到它们所使用的总体的先验概率。即使在文献中报告结果时,也应该更好地理解这一点,通常限于特异性和敏感性。另一个结果只有当几个集中的和近乎完美的系统在复杂的情况下一起使用时才会显现出来。例如,有许多系统,每个系统都有自己的假阳性率,最终可以得到具有所有假阳性的总和的合并系统。CPOE的决策支持系统已经很好地证明了这一点,假阳性警报率非常高,特别是在接受复杂药物治疗的患者中[1011].

监管迷宫

目前医学上使用的大多数诊断或治疗手段都必须通过复杂的监管框架才能获得市场批准。监管机构的决策大多基于安全性、证据和附加值。此外,卫生机构经常根据质量调整生命年和疾病负担等各个维度,通过使用残疾调整生命年等指标来进行医学经济评估[12-14].因此,这些决定具有经济和法律后果,包括问责制。讨论了监管机构的作用,特别是围绕正在进入市场的主题,如图像识别[15].例如,联邦药物管理局(Federal Drug Administration)已发起了一项“作为医疗设备的软件中的人工智能和机器学习”的输入呼吁[16].这是一个重要的方面,因为监管机构的支持是建立大多数护理专业人员使用医疗工具的信任的重要资产,也是公司投资于可投放市场的强大产品的重要资产。然而,这要求我们在不阻碍创新的情况下,定义一个明确的监管框架、适当的评估流程和基准工具[17].

教育和实践差距

医学是一门拥有众多工具和设备的科学,从听诊器到手术刀,从显微镜到扫描仪,评分,指南等等。大多数这些工具和设备都需要教育,有时还需要使用它们的护理专业人员进行非常具体的认证,更不用说良好的体验了。软件、算法和其他决策支持系统也应该如此。然而,事实并非如此。使用软件和理解像计算机化病人记录一样重要的系统的教育往往很少。当涉及到大数据和人工智能时,这方面的教育就更糟糕了,通常根本不存在。只有极少数医学院向未来的卫生专业人员教授人工智能的使用。人工智能应该成为世界上所有医学院的必修课。专家们从20年前就开始提出这个问题,但直到最近才真正受到关注。18-22].在5-10年内,当当前的年轻学生将开始他们的临床活动时,基于数据科学的机器学习将嵌入许多活动、设备和软件中,其使用、滥用和过度使用以及对患者和问责制的后果将取决于用户如何掌握它。23].

数据质量交叉

在谈到大数据和分析时,数据质量是一个反复讨论的话题。大数据时代的特征之一是,数据的使用目的往往与激发数据获取的目的不同。这与医学中传统的假设-演绎科学方法有显著区别,在传统的假设-演绎科学方法中,假设导致方法设计,而方法设计本身将导致具体的数据采集。在大数据时代,数据生成过程的主要目标往往完全独立于数据的可能使用。值得强调的是,长期临床队列和长期生物库面临着类似的挑战。为生物银行设计长期队列和建立元数据框架和标准操作程序是重要的挑战,因为它们必须在初始设计后数年才能实现项目使用。

这些问题导致了相应的文献处理数据质量和临床数据的二次使用问题。然而,大部分工作试图描述能够评估数据“内在”或“绝对”质量的维度[24-28].另一种方法可能是采用“适合目的”的方法,这种方法只考虑数据的定量和描述性属性,允许进一步处理。任何数据集的“定性”属性只能与特定的次要用途结合起来进行评估。这意味着相同的数据集将适用于回答一些科学问题,而不适用于回答其他问题。数据本身没有“好”或“坏”之分;当它们被用于特定的环境时,它们是“好”或“坏”的:“适合目的”评估。这是FAIR数据倡议的主要目标之一,旨在确保“后验数据可用性(见下文)。

“数据质量差异”的一个意想不到的后果是它对修改获取过程的影响,特别是在临床环境中。人们经常听到这样的句子:“临床数据的质量不足以用于研究。”因此,向更结构化的数据采集过程转变的压力一直存在。例如,实体瘤反应评估标准(RECIST)指南旨在标准化实体瘤肿瘤试验治疗的放射学评估标准。这已经成功地用于试验。使用RECIST需要良好的经验,以避免观察者之间的可变性,这可能高达20% [29-31].这一评估已经过调整,以反映放射反应的变化,例如,在免疫疗法中,尽管治疗反应良好,但肿瘤的大小可能会增加[32].不幸的是,有越来越大的压力要求将RECIST和其他类似结构的分期指南的使用扩展到所有放射分期的临床试验之外,以提高使用标准临床护理进行治疗评估的能力。因此,这给放射科的操作活动带来了很大的时间压力,越来越多没有经验的人使用这些类型的分期。随着语音识别和自然语言处理等自然界面的发展,以及它们在越来越多的设备中日常使用的增加,我主张避免人为构造许多数据采集过程,并保持数据最自然的形式,利用更自然的交互,如语音和文本,并开发强大的自然语言处理工具,可以应用于在后处理步骤中产生结构化信息。这将允许在需要新的结构化资源时重新处理所有的叙述。


人工智能领域的许多方面都需要对什么是真实的有很好的认识。知识工程构建“已知”或“相关”的图形,例如在SNOMED CT(医学系统化命名法-临床术语)或开放生物和生物医学本体铸造[3334].这同样适用于基于规则的技术或符号推理,它们需要能够表达规则,即以形式化的方式表达真理,但也适用于监督机器学习方法,这需要有表达真理的训练集,至少是一个概率真理。在这些方法中有很多期望,特别是在对它们进行梳理时。3536],但除了无监督深度机器学习之外,所有这些都需要一些真理的来源,这就导致了在生命科学中寻找真理的来源以及支持真理的证据水平的根本问题。乍一看,这似乎是一个微不足道的问题。然而,“真相”往往“迷失在文本中”,因为在大多数情况下,消息来源依赖于复杂的叙事,将其所传达的信息置于语境中。此外,“真相”也被大大稀释了。例如,Medline/PubMed每天索引超过2500篇论文[37),对于一个专家来说,几乎不可能抓住在自己研究领域发表的所有文章。最后,从本质上讲,科学是在发展的,因此,曾经是正确的科学“真理”在今天可能不再是正确的。例如,直到最近,人们才清楚地知道有两种类型的淋巴细胞——B细胞和T细胞。然而,Rizwan等人最近的一篇论文[38]描述了一种新型淋巴细胞,它同时具有B细胞和T细胞的特征,可能在某些疾病(如糖尿病)的自身免疫中发挥作用[38].真相的来源及其特征,如证据水平或使用背景,越来越重要。这应该对所有人开放,类似于Cochrane [39],涵盖生命科学的所有范畴;维护;而且是机器可读的形式。


在科学领域,信任与建立证据密切相关。信任不仅在科学界很重要,在整个科学界也很重要,可以建立采纳、政治支持和公众接受。2019年夏天,皮尤研究中心发布的一项调查显示,公众中出现了一种积极的趋势:科学为善,但也存在诚信、透明和偏见的担忧。总的来说,86%的美国人说他们至少对科学家有“相当大的”信心。40].其中一个挑战是,科学的可靠性常常与可信赖性相混淆。41].科学证据可能非常有力,例如免疫接种或基于网络的健康信息,但信任度可能低得多[4243].在建立对科学的信任方面,我们讨论了许多方面,但它们可以概括为三个概念,一个用于科学家和组织,一个用于研究对象,一个用于过程。诚信是第一也是最重要的,包括科学诚信、资金、利益冲突等。动机、结果和过程都必须具有透明度。最后,用于处理流程的方法必须是强大的和健壮的。建立证据需要考虑许多维度,如偏差、泛化性、可重复性和可解释性。在大数据和人工智能领域,一些挑战更加困难。数据采集和流动的适当控制通常比传统对照研究更困难。结果是,数据具有特定的属性,而这些属性并不总是得到很好的管理,比如选择偏差。有时,限制使用分析工具的假设没有很好地理解,例如许多统计检验的同方差。 In addition, deep machine learning is facing the challenges of precise reproducibility and explainability. The latter is currently the object of numerous works, trying to understand intermediate representation of data in neural networks that can predict and explain their behavior. Explainability and interpretability are often used interchangeably. Interpretability is the extent to which it is possible to predict how the system will behave, given a change in input or algorithmic parameters. On the other hand, explainability is the extent to which the internal mechanics of the deep learning system can be understood and thus explained. Molnar [44]在GitHub上的一本公开书中发表了一篇关于这个问题的很好的概述。然而,可解释性可能不是提高深度机器学习方法的全球信任的最佳途径,尤其是在解释本身很难解释的情况下。其他一些维度,如透明度、可重复性或不确定性资格可能更有效[45].例如,在科学2018年,Hutson [46]报道了一项对大型会议上发表的400篇人工智能论文的调查,其中只有6%包含算法代码,30%包含测试数据,因此极大地限制了再现性的可能性[46].


FAIR指导原则是使数据可被人类和机器发现和处理的指导原则。它们最初由威尔金森等人发表[47].FAIR指导原则是基于一套标准文本框1

公平的数据标准。

可发现的

  • (元)数据被分配一个全局唯一且持久的标识符
  • 数据用丰富的元数据描述(定义如下)
  • 元数据清楚而显式地包括所描述数据的标识符
  • (元)数据在可搜索资源中注册或索引

可访问的

  • (元)数据可通过其标识符使用标准化通信协议进行检索
  • 该协议是开放的、免费的、可普遍实现的
  • 协议允许在必要时进行身份验证和授权过程
  • 元数据是可访问的,即使数据不再可用

可互操作的

  • (元)数据使用一种正式的、可访问的、共享的、广泛适用的语言来表示知识
  • (元)数据使用词汇表遵循FAIR原则
  • (元)数据包括对其他(元)数据的限定引用

可重用的

Meta(数据)用多个准确和相关的属性进行了丰富的描述:

  • (元)数据发布与一个明确的和可访问的数据使用许可证
  • (元)数据与详细的出处相关联
  • (元)数据符合领域相关的社区标准
文本框1。公平的数据标准。

已经定义了几个框架来评估和评估对FAIR标准的合规性,例如FAIR成熟度工具[4849].因此,FAIR数据并不意味着数据属于开放数据空间[50].访问可能会受到限制,例如在Harvard Dataverse中,这是需要强调的重要一点。由于国家法规、隐私保护、知识产权等原因,在开放数据空间中提供数据或元数据可能会受到很多限制。公平数据不提供数据;他们使数据在得到授权的情况下可用。

公平倡议至关重要。它说明了过去十年开始的数据从对象到资产的移动,并在Sabina Leonelli的文章中描述[51]最近发表于自然

该倡议提倡使用符合标准和正式描述的丰富元数据框架。它促进使用免费和开放的资源来描述信息和协议。它允许我们构建可用于处理的共享资源框架,而无需在开放空间中实际共享数据。FAIR允许构建一个框架,该框架包含所有数据源,包括那些受授权约束的数据源,并具有明确和开放的协议。


在大数据时代,隐私需要特别重视。通常限制访问未识别信息的模式在保护隐私方面正变得不那么有效。不断增加的异构数据源和关于我们每个人的数据的丰富性,与数据链接技术相关联,极大地增加了重新识别的可能性,包括匿名数据[52-57].对基因信息的挑战和潜在影响甚至更大[58-60].没有好的技术解决方案可以协调保护隐私的挑战,并满足数据驱动科学访问大型基因组和表型数据集的日益增长的需求,并且有许多正在进行的伦理和法律讨论[61-66].有趣的是,这不仅局限于科学领域,同样适用于患者对健康信息的需求[67].有必要对隐私、公民、政策制定者、学生、研究界和所有利益相关者的影响和风险进行更好的全球教育。最近的范围检讨[68]表明科学界对匿名化和去身份识别的理解是不同的[68].歧视是侵犯隐私的主要风险之一,披露隐私信息可能会产生多种后果[69-71],包括报销和保险范围[7273].在naïve实证主义和非理性偏执之间找到正确的道路是很重要的。向前迈出的重要一步是提高所有利益攸关方对隐私、保护隐私的技术限制以及建立监管障碍以避免歧视的认识和教育。


医学领域的人工智能和大数据尚处于起步阶段;他们长得很快。他们能否成长得很好仍然是一个悬而未决的问题,未来将会给出答案。然而,如果不积极地帮助他们,他们就不会很好地成长。有几项重要举措有助于实现这一目标,例如全球基因组学与健康联盟(GA4GH),该组织为尊重人权制定政策和技术框架,以实现负责任的基因组数据共享[74],或《欧盟一般资料保护规例》[75为欧盟制定了一项全新的隐私法规。这些举措正在朝着建设一个既能促进科学发展,又能在改善个人权利保护方面建立信任的格局靠拢。我邀请读者访问在网上提供的关于以下主题的JMIR开放获取集合:“大数据”、“卫生专业人员的决策支持”和“人工智能”[76-78].

利益冲突

没有宣布。

  1. 史丹佛哲学百科全书档案。加州斯坦福大学:斯坦福大学形而上学研究实验室;2018.人工智能网址:https://plato.stanford.edu/archives/fall2018/entries/artificial-intelligence/[2019-09-22]访问
  2. 维基百科》2019。人工智能网址:https://en.wikipedia.org/w/index.php?title=Artificial_intelligence&oldid=916837449[2019-09-22]访问
  3. 感知机论战正史的社会学研究。科学通报2016年6月29日;26(3):611-659。[CrossRef
  4. 人工智能:解决复杂问题的结构和策略。马萨诸塞州波士顿:Pearson Addison-Wesley;2009:978。
  5. 奇点即将来临:人类将超越生物学。纽约:维京;2005:978。
  6. 贾尔斯M.麻省理工科技评论。据报道,谷歌研究人员已经实现了“量子霸权”https://www.technologyreview.com/f/614416/google-researchers-have-reportedly-achieved-quantum-supremacy/[2019-09-22]访问
  7. 高级EGOAI(。欧洲委员会。人工智能的定义:主要能力和科学学科https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines[2019-09-22]访问
  8. 高德克,潘瑟,李志强,李志强,等。通过集成深度模型和小规模机器学习,通过可视化编程实现图像分析的民主化。2019年10月7日;10(1):7。[CrossRef
  9. Faes L, Wagner SK, Fu DJ, Liu X, Korot E, Ledsam JR,等。由没有编码经验的医疗保健专业人员进行医疗图像分类的自动深度学习设计:可行性研究。《柳叶刀》数字健康2019年9月1日(5):e232-e242。[CrossRef
  10. 王志刚,王志刚,王志刚。供应商订单计算机输入的决策支持质量研究。JMIR Med Inform 2018年1月24日;6(1):e3。[CrossRef
  11. 郑文杰,李志强,李志强,等。医生对计算机化医生命令输入系统中的自动警报的态度。方法中国医学杂志2018年1月20日;52(02):99-108。[CrossRef
  12. 诺伊曼PJ,桑德斯GD。成本效益分析2.0。英国医学杂志2017年1月19日;376(3):203-205。[CrossRef] [Medline
  13. 桑德斯GD, Neumann PJ, Basu A, Brock DW, Feeny D, Krahn M,等。关于成本效益分析的行为、方法实践和报告的建议。美国医学杂志2016年9月13日;[CrossRef
  14. 马志强,王志强,王志强,等。美国健康状况,1990-2016。美国医学杂志2018年4月10日;319(14):1444。[CrossRef
  15. Allen B. FDA在确保人工智能软件和设备的安全性和有效性中的作用。J Am Coll Radiol 2019 2月;16(2):208-210。[CrossRef] [Medline
  16. 美国食品和药物管理局,2019年6月26日。作为医疗设备的软件中的人工智能和机器学习http://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device[2019-09-22]访问
  17. Parikh RB, Obermeyer Z, Navathe AS。医学预测分析的监管。科学2019 2月22日;363(6429):810-812 [免费全文] [CrossRef] [Medline
  18. 陈KS, Zary N.在医学教育中实施人工智能的应用和挑战:综合评述。JMIR Med Educ 2019 6月15日;5(1):e13930 [免费全文] [CrossRef] [Medline
  19. 医学教育中的人工智能。医学教学2019年9月41日(9):976-980。[CrossRef] [Medline
  20. 沃特曼SA,库姆斯CD:《人工智能时代医学教育的重新构想》。AMA J Ethics 2019 Feb 01;21(2):E146-E152 [免费全文] [CrossRef] [Medline
  21. 数据科学研究所。为未来人工智能培训医学生和住院医生网址:https://www.acrdsi.org/Blog/Medical-schools-must-prepare-trainees[2019-09-22]访问
  22. 医学教育中的人工智能——医学信息学面临的又一重大挑战。中华医学杂志1998 3月12日(3):197-225。[Medline
  23. Kolachalama VB, Garg PS.机器学习和医学教育。NPJ数字医学2018年9月27日;1(1):54 [免费全文] [CrossRef] [Medline
  24. 史陶斯伯格J,鲍尔U, nseh D, Pritzkuleit R,施密特C, Schrader T,等。数据质量指标:网络医学研究视角下的回顾与要求。GMS Med Inform Biom流行病2019;15(1):05。
  25. 吴志伟,王志伟。电子健康记录数据质量评估的方法和维度:临床研究重用。美国医学信息学会2013年1月1日;20(1):144-151 [免费全文] [CrossRef] [Medline
  26. 维纳毫克。临床数据重用研究和质量改进:开始的结束?安实习医学2009年9月1日;151(5):359。[CrossRef
  27. 杨晓东,李志强,李志强。电子病历数据的二次使用:优势与障碍。质量与患者安全联合委员会杂志2012年1月;38(1):34-40。[CrossRef
  28. 通过二次使用数据进行质量保证、研究和监测,为电子健康记录增加价值。Am J Manag Care 2007 Jun;13(6 Part 1):277-278 [免费全文] [Medline
  29. 蒋斌,周东,孙勇,王娟。多探测器ct肺癌测量变异性的系统分析。中华外科杂志2017;12(2):95-100 [免费全文] [CrossRef] [Medline
  30. Bellomi M, De Piano F, Ancona E, Lodigiani AF, Curigliano G, Raimondi S,等。根据RECIST 1.1评价观察者间变异及其对肝转移CT测量反应分级的影响。Eur J Radiol 2017 10月;95:96-101。[CrossRef] [Medline
  31. Yoon SH, Kim KW, Goo JM, Kim D, Hahn S.基于recst的肿瘤负荷测量的观察者变异性:一项元分析。2016年1月;53:5-15。[CrossRef] [Medline
  32. Seymour L, Bogaerts J, Perrone A, Ford R, Schwartz LH, Mandrekar S, RECIST工作组。iRECIST:用于免疫疗法试验的反应标准指南。Lancet Oncol 2017 Mar;18(3):e143-e152 [免费全文] [CrossRef] [Medline
  33. OBO代工厂。URL:http://www.obofoundry.org/[2019-10-05]访问
  34. snom国际。URL:https://www.snomed.org/snomed-international/who-we-are[2018-06-27]访问
  35. Skevofilakas M, Zarkogianni K, Karamanos B, Nikita K. 1型糖尿病长期并发症视网膜病变发展风险评估的混合决策支持系统。Conf Proc IEEE Eng Med biology Soc 2010;2010:6713-6716。[CrossRef] [Medline
  36. Hoehndorf R, Queralt-Rosinach N.数据科学和符号人工智能:协同效应,挑战和机遇。DS 2017 10月17日17:1-12。[CrossRef
  37. NIH:美国国家医学图书馆。详细索引统计:1965-2017https://www.nlm.nih.gov/bsd/index_stats_comp.html[2017-10-08]访问
  38. 艾哈迈德R,奥米甸Z,吉瓦A,康威尔B,马蒂迪N,贝尔DR,等。来自1型糖尿病患者的一种独特的双受体表达淋巴细胞中的公共BCR编码一种有效的T细胞自身抗原。2019年5月;177(6):1583-1599.e16。[CrossRef
  39. 科克伦。URL:https://www.cochrane.org/[2019-10-05]访问
  40. 皮尤研究中心:科学与社会。美国人对科学专家的信任和不信任https://www.pewresearch.org/science/2019/08/02/trust-and-mistrust-in-americans-views-of-scientific-experts/[2019-10-05]访问
  41. 相信我,我是个研究人员!:The role of trust in biomedical research. Med Health Care Philos 2017 Mar;20(1):43-50 [免费全文] [CrossRef] [Medline
  42. Larson HJ, Clarke RM, Jarrett C, Eckersberger E, Levine Z, Schulz WS,等。衡量接种疫苗的信任:一项系统回顾。Hum Vaccin Immunother 2018 july 03;14(7):1599-1609 [免费全文] [CrossRef] [Medline
  43. 基于网络的健康信息的信任和可信度:未来研究的回顾和议程。J Med Internet Res 2017年6月19日;19(6):e218 [免费全文] [CrossRef] [Medline
  44. 可解释机器学习,2019。URL:https://christophm.github.io/interpretable-ml-book/[2019-10-18]访问
  45. 李志强,李志强,李志强,等。机器辅助医疗决策中不确定性量化的必要性。2019年1月7日;1(1):20-23。[CrossRef
  46. Hutson M.人工智能面临可重复性危机。科学2018年2月16日;359(6377):725-726。[CrossRef] [Medline
  47. Wilkinson MD, Dumontier M, Aalbersberg IJ, Appleton G, Axton M, Baak A,等。科学数据管理和管理的FAIR指导原则。科学数据2016 3月15日;3(1):160018 [免费全文] [CrossRef] [Medline
  48. GitHub。FAIR Metrics 2019网址:https://github.com/FAIRMetrics/Metrics[2019-10-05]访问
  49. 工会的种种折磨。欧洲联盟出版处。将FAIR变为现实:欧盟委员会专家组关于FAIR数据的最终报告和行动计划网址:https://publications.europa.eu/en/publication-detail/-/publication/7769a148-f1f6-11e8-9982-01aa75ed71a1[2019-07-04]访问
  50. 哈佛大学,2019。迈向整合和公平的研究数据管理@哈佛互联网网址:https://scholar.harvard.edu/mercecrosas/presentations/towards-integrated-and-fair-research-data-management-harvard[2019-04-10]访问
  51. 数据——从对象到资产。自然2019 10月15日;574(7778):317-320。[CrossRef
  52. 马林B.家族数据库记录的重新识别。AMIA年度诉讼程序2006:524-528 [免费全文] [Medline
  53. 李文杰,李志强,李志强,等。基于网络的健康数据再识别攻击研究。PLoS One 2011 12月2日;6(12):e28071 [免费全文] [CrossRef] [Medline
  54. 李志强,李志强,李志强。临床数据集的再识别风险评估。BMC Med Inform Decis Mak 2012 july 09;12(1):66 [免费全文] [CrossRef] [Medline
  55. Benitez K, Malin B.评估HIPAA隐私规则方面的再识别风险。中国医学信息杂志2010;17(2):169-177 [免费全文] [CrossRef] [Medline
  56. 威廉·韦尔德州长医疗信息的“再识别”。社会科学研究2012:19。
  57. Emam KE, Dankar FK, vaillancourr, Roffey T, Lysyk M.评估从医院处方记录中重新识别患者的风险。[J J Hosp Pharm 2009 7月;62(4):307-319]免费全文] [Medline
  58. 库林奇J,格里利HT。临床基因组学、大数据和电子病历:当隐私和科学发生冲突时,如何协调患者权利与研究。J Law Biosci 2017 Apr;4(1):94-132 [免费全文] [CrossRef] [Medline
  59. 马斯卡尔佐尼D,帕拉迪索A,汉森M.罕见病研究:打破隐私壁垒。应用翻译基因2014 Jun 01;3(2):23-29 [免费全文] [CrossRef] [Medline
  60. 张志刚,张志刚,张志刚。基于DNA测序技术的人体DNA快速再鉴定方法。eLife Internet 2019:6。[CrossRef
  61. Ienca M, Ferretti A, Hurst S, Puhan M, Lovis C, Vayena E.大数据健康研究伦理审查的考虑因素:范围审查。PLoS ONE 2018 10月11日;13(10):e0204937。[CrossRef
  62. Loukides G, Denny JC, Malin B.诊断代码的公开可能会侵犯研究参与者的隐私。中国医学杂志2010;17(3):322-327 [J]免费全文] [CrossRef] [Medline
  63. Malin B, Benitez K, Masys D.匿名永远不会太老:通过HIPAA隐私规则共享人口统计数据的统计标准。中国医学信息杂志2011;18(1):3-10 [免费全文] [CrossRef] [Medline
  64. El Emam K, Moher E.在为公共卫生目的收集数据时,隐私和匿名性面临挑战。J法律医学伦理2013年3月41日增刊1:37-41。[CrossRef] [Medline
  65. Thorogood A, Zawati M.基因组生物银行隐私国际指南(或多元化的意想不到的优点)。中国法律医学伦理杂志2015;43:4。[CrossRef
  66. 张宁,张志刚,张志刚。临床麻醉研究数据发布对患者隐私的影响。麻醉学2016年12月;122(6):2017-2027。[CrossRef] [Medline
  67. Househ M, Grainger R, Petersen C, Bamidis P, Merolli M.参与式健康和社交媒体时代隐私和患者健康信息需求之间的平衡:范围审查。2018年8月;27(1):29-36 [免费全文] [CrossRef] [Medline
  68. Chevrier R, Foufi V, Gaudet-Blavignac C, Robert A, Lovis C.生物医学文献中匿名化和去识别的使用和理解:范围回顾。J Med Internet Res 2019年5月31日;21(5):e13484。[CrossRef
  69. Dixon P.未能“无害”——印度的Aadhaar生物识别ID计划及其与欧洲和美国措施相关的隐私保护能力,卫生技术(Berl) 2017;7(4):539-567 [免费全文] [CrossRef] [Medline
  70. Rengers JM, Heyse L, Otten S, Wittek RPM。“以同样的方式公开或诚实地生活并不总是可能的”——无国界医生对同性恋人道主义援助工作者的工作场所包容。前沿精神2019年2月27日;10:32 [免费全文] [CrossRef] [Medline
  71. Stangl AL, Lloyd JK, Brady LM, Holland CE, Baral S. 2002年至2013年减少艾滋病毒相关耻辱和歧视的干预措施的系统回顾:我们已经走了多远?国际艾滋病杂志2013年11月13日;16(3增刊2):18734 [免费全文] [Medline
  72. Bélisle-Pipon J, Vayena E, Green RC, Cohen IG。基因检测、保险歧视和医学研究:美国可以从同类国家学到什么。中国医学杂志2019年8月25日(8):1198-1204。[CrossRef] [Medline
  73. Bardey D, De Donder P, Mantilla C.逆向选择和歧视风险之间的权衡如何受到基因检测的影响?理论和实验。J卫生经济2019年9月30日;68:102223。[CrossRef] [Medline
  74. 全球基因组学与健康联盟。URL:https://www.ga4gh.org/[2019-10-05]访问
  75. 欧盟的GDPR.ORG。URL:https://eugdpr.org/[2019-10-05]访问
  76. JMIR医疗信息学。E-collection大数据网址:https://medinform.www.mybigtv.com/themes/183
  77. JMIR医疗信息学。“为医护人员提供决策支援”电子集合网址:https://medinform.www.mybigtv.com/themes/186
  78. 医学互联网研究杂志。E-collection“人工智能(临床决策支持除外)”网址://www.mybigtv.com/themes/797


人工智能:人工智能
CPOE:计算机化供应商订单输入
GA4GH:全球基因组学与健康联盟
GDPR:一般保障资料规例
RECIST:实体瘤疗效评价标准
snom CT:医学系统命名-临床术语


G·艾森巴赫(G Eysenbach)编辑;提交09.10.19;同行评审:A Benis, D Gunasekeran;对作者13.10.19的评论;修订本收到18.10.19;接受20.10.19;发表08.11.19

版权

基督教洛维斯©。最初发表于《医疗互联网研究杂志》(//www.mybigtv.com), 2019年11月8日。

这是一篇开放获取的文章,根据创作共用署名许可(https://creativecommons.org/licenses/by/4.0/)的条款发布,允许在任何媒介上无限制地使用、分发和复制,前提是正确引用最初发表在《医学互联网研究杂志》上的原创作品。必须包括完整的书目信息,//www.mybigtv.com/上的原始出版物的链接,以及此版权和许可信息。


Baidu
map