JMIR J Med Internet Res 医学互联网研究杂志 1438 - 8871 卡塔尔世界杯8强波胆分析 加拿大多伦多 v21i11e16607 31702565 10.2196/16607 的观点 的观点 释放人工智能和大数据在医学中的力量 Eysenbach 冈瑟 贝尼省 阿赫耶 Gunasekeran 书中 洛维斯 基督教 Md, mph, facmi 1
医学信息科学部 日内瓦大学附属医院 Gabrielle Perret Gentil 4 1205年,日内瓦 瑞士 41 22 37 26201 Christian.Lovis@hcuge.ch
2 https://orcid.org/0000-0002-2681-8076
医学信息科学部 日内瓦大学附属医院 日内瓦 瑞士 放射学和医学信息学学系 日内瓦大学 日内瓦 瑞士 通讯作者:Christian Lovis Christian.Lovis@hcuge.ch 11 2019 8 11 2019 21 11 e16607 9 10 2019 13 10 2019 18 10 2019 20. 10 2019 基督教洛维斯©。原载于2019年11月8日《医学互联网研究杂志》(//www.mybigtv.com)。 2019

这是一篇在知识共享署名许可(https://creativecommons.org/licenses/by/4.0/)下发布的开放获取文章,该许可允许在任何媒介上不受限制地使用、分发和复制,前提是原始作品首次发表在《医学互联网研究杂志》上,并适当引用。必须包括完整的书目信息,到//www.mybigtv.com/上原始出版物的链接,以及版权和许可信息。

数据驱动的科学及其在机器学习和更广泛的人工智能领域的必然结果,有可能推动医学领域的重大变革。然而,医学不同于其他任何一门科学:它与法律、伦理、监管、经济和社会依赖的庞大而广泛的网络紧密相连。因此,在处理信息及其进一步处理和交联以支持决策和预测系统方面的科学和技术进步必须伴随着全球环境的平行变化,包括公民和社会在内的众多利益相关者。然而,乍一看是阻碍数据科学发展的障碍和机制,必须被视为一项重要的资产。只有在全球范围内采用,才能将大数据和人工智能的潜力转化为处理健康和医疗的有效突破。这需要科学和社会、科学家和公民共同进步。

医学信息学 人工智能 大数据
介绍

大多数关于人工智能(AI)研究、创新和应用的日常新闻和最近发表的科学论文都提到了所谓的机器学习算法——使用大量数据和各种方法来寻找模式、支持决策、做出预测,或者在深度学习部分,自我识别数据中的重要特征。然而,人工智能是一个难以理解的复杂概念,大多数人对它到底是什么知之甚少。人工智能于1956年作为一门学科成立,尽管它很年轻,但已经有了丰富的历史[ 1 2]。在60多年的探索和进步中,人工智能已经成为一个涉及多学科方法的大型研究和发展领域,以应对许多挑战,从理论框架、方法和工具到实际实施、风险分析和影响措施。人工智能的定义是一个移动的目标,随着时间的推移随着领域的发展而变化。从早期开始,人工智能领域已经允许开发许多支持决策支持和预测的技术,因为它通常是由人类做出的。早在1958年,人们就期望感知器能够“走路、说话、看、写、自我复制,并意识到自己的存在”,这导致了神经网络和符号推理方法之间的巨大科学争议[ 3.]。人工智能研究的前景包括知识表示和工程;基于规则和符号推理;时间推理和规划;感觉和知觉;学习;进化的,新兴的,社会行为;以及移动和操纵物体的能力,最重要的是 4-具有自主特征提取的深度机器学习。这是本文的观点,然而,最近有一种趋势将人工智能限制在后者,即自主深度机器学习。作为广阔景观的结果,该领域通过哲学,数学,信息科学,计算机科学,心理学,人类学,社会科学,语言学和许多其他学科吸引了大量的人。对于一些专家和有远见的人,如Ray Kurzweil,深度机器学习将允许建立一个人工通用智能,能够自主发展,并有能力理解或学习人类可以完成的任何智力任务,甚至远远超出人类智能的极限。 5],但大多数专家都认为,尽管最近在量子计算方面取得了潜在的重要进展,但仍有一些重大的缺失,而且距离实现这一目标还有很长的路要走[ 6]。欧盟委员会最近发表了一份由人工智能高级专家组成员撰写的白皮书,在几页纸中概述了人工智能是什么、它的主要能力、适用的期望和所涉及的学科[ 7]。

就整个人工智能领域而言,有必要强调的是,人工智能如今已经广泛应用于医学领域。基于知识工程和基于规则系统的决策支持在计算机供应商订单录入系统中得到了广泛的应用。在起搏器或除颤器中实现了先进的信号处理以做出决定,在具有人机界面的耳蜗植入物中实现了先进的信号处理,在心电图中实现了信号分析和自动诊断等。

人工智能领域本身就很有抱负,有望为医学做出重大贡献,从研究到以公民为中心的健康。机器学习和深度学习引领了人工智能领域最近的重大突破,比如声音(语音和音乐)识别、图像(面部、放射学、病理学、皮肤病学等)识别以及游戏领域。最近,图像识别几乎达到了一个成熟的水平,通过它可以被人工智能领域的非专家使用和开发[ 8 9]。然而,在过去的几年里,围绕人工智能的炒作已经建立了很高的期望和同样高度的恐惧。在商业市场上广泛出现的基于自主深度学习的系统仍然很少。

AI的世界大致可以概括为三个顺序叠加的行为:

第一幕:人类教机器处理数据和信息。

第二幕:人类向机器传授专业知识。

第三幕:人类教机器独立学习。

挑战

当涉及到医学时,人工智能领域有许多挑战需要解决。其中大多数并非仅限于医药和卫生领域,但它们的加入使这些目标的实现难度大大增加。

贝叶斯的陷阱

一般来说,医学和健康决定因素的特点通常是它们的基本贝叶斯性质。在贝叶斯概率方法中,需要一个先验概率来评估预测的强度。

大多数医学上用于建立诊断的方法,尤其是但不是唯一的方法,都属于贝叶斯方法。例如,如果一个人发烧,那是流感的概率是多少?如果一个人的血糖测量值很高,那么他患糖尿病的可能性有多大?为了说明贝叶斯陷阱,让我们举一个简单的例子——验孕棒。这是一个简单的测试;它可以是正的,也可以是负的。让我们想象一下,我们使用一个经典的测试,它有99%的灵敏度和95%的特异性。如果对100个人进行100次测试,5次结果为阳性,问题是,知道其中有多少人是孕妇。这个问题被定义为确定阳性测试的阳性预测值,它给出了阳性测试真正表明测试所测试的因素存在的概率。要回答这个问题,我们需要知道被测试人群中怀孕的先验概率。 To understand this, imagine that 100% men were tested; in this case, none of the 5 positive tests would correspond to a pregnant woman. Similarly, if all persons tested are pregnant woman, then all 5 positive tests would correspond to pregnant women. If the prior probability is around 1%, then applying the Bayesian rules returns that the probability to be pregnant when a test is reported positive is about 17%. This means that about 4 of 5 tests are false positive. At the other end, if the prior probability is around 20% (ie, a woman with several factors suggesting a potential pregnancy), the probability of a positive test to be a true positive is above 80%. Thus, less than one test out of five is a false-positive. The example shows the major consequences of the prior probability in Bayesian situations.

这些都是人工智能的后果。这些模型必须考虑到它们所使用的总体的先验概率。即使在文献中报告结果时,也应更好地理解这一点,通常限于特异性和敏感性。另一个结果只有在几个集中的、近乎完美的系统在复杂的情况下一起使用时才会显现出来。例如,如果有许多系统,每个系统都有自己的假阳性率,那么最终可能会得到所有假阳性率之和的合并系统。这在CPOE的决策支持系统中得到了很好的证明,其假阳性警报率非常高,特别是在接受复杂药物治疗的患者中[ 10 11]。

监管迷宫

目前医学中使用的大多数诊断或治疗手段都必须经过复杂的监管框架才能获得市场批准。监管机构的决策大多基于安全性、证据和附加值。此外,卫生机构经常根据质量调整生命年和疾病负担等各个方面,通过使用残疾调整生命年等指标,使用医学经济学评估[ 12- 14]。因此,这些决定具有经济和法律后果,包括问责制。讨论了监管机构的作用,特别是围绕正在进入市场的主题,例如图像识别[ 15]。例如,联邦药物管理局(Federal Drug Administration,简称fda)发起了一项关于“作为医疗设备的软件中的人工智能和机器学习”的呼吁[ 16]。这是一个重要的方面,因为监管机构的支持是建立信任的重要资产,可以让大多数护理专业人员使用医疗工具,也可以让公司投资于面向市场的强大产品。然而,这要求我们在不阻碍创新的情况下,制定明确的监管框架、适当的评估流程和基准工具。 17]。

教育与实践差距

医学是一门拥有众多工具和设备的科学,从听诊器到手术刀,从显微镜到扫描仪,从分数到指南等等。大多数这些工具和设备都需要接受教育,有时还需要对使用它们的护理专业人员进行非常具体的认证过程,更不用说良好的体验了。软件、算法和其他决策支持系统也应该如此。然而,事实并非如此。使用软件和理解与计算机化病人记录同样重要的系统的教育往往很少。当涉及到大数据和人工智能时,这方面的教育更糟糕,通常是不存在的。只有很少的医学院向未来的卫生专业人员教授人工智能的使用。人工智能应该成为世界上所有医学院的必修课程,并作为优先事项。专家们提出这个问题已经有20年了,但直到最近才真正受到关注。 18- 22]。5-10年后,当现在的年轻学生开始他们的临床活动时,基于数据科学的机器学习将嵌入到许多活动、设备和软件中,它的使用、误用和过度使用以及对患者的后果和责任将取决于用户如何掌握它。 23]。

数据质量交叉

当谈到大数据和分析时,数据质量是一个反复出现的话题。大数据时代的特征之一是,数据的使用目的往往与数据获取的动机不同。这与传统的医学假设-演绎科学方法有显著区别,在传统的医学假设-演绎科学方法中,假设导致方法设计,方法设计本身将导致特定的数据获取。在大数据时代,数据生成过程的主要目标往往完全独立于数据的可能使用。值得强调的是,长期临床队列和长期生物库面临着类似的挑战。为生物银行设计长期队列、建立元数据框架和标准操作程序是重要的挑战,因为他们必须在最初设计后的几年内预测使用情况。

这些问题导致了相应的文献解决数据质量和临床数据的二次使用问题。然而,这方面的大部分工作都试图描述能够评估数据“内在”或“绝对”质量的维度[ 24- 28]。另一种方法可能是采用“适合目的”的方法,这种方法只考虑数据的定量和描述性属性,允许进一步处理。任何数据集的“定性”属性只能结合特定的二次使用来评估。这意味着相同的数据集将适合回答一些科学问题,而不适合回答其他问题。数据本身并不“好”或“坏”;当在特定的上下文中使用时,它们是“好”或“坏”的:“适合目的”评估。这是FAIR数据倡议的主要目标之一,旨在确保 后验数据可用性(见下文)。

“数据质量冲突”的一个意想不到的后果是它对修改获取过程的影响,特别是在临床环境中。人们经常听到这样的句子:“临床数据的质量不足以用于研究。”因此,不断有压力要求向更结构化的数据采集流程转移。例如,RECIST(反应评价标准)指南旨在规范实体肿瘤肿瘤试验治疗的放射学评价标准。这已经成功地进行了试验。使用RECIST需要良好的经验来避免观察者之间的可变性,这可能高达20% [ 29- 31]。这一评估已经过调整,以反映放射反应的变化,例如,在免疫疗法中,尽管治疗反应良好,但肿瘤的大小可能会增加[ 32]。不幸的是,越来越多的压力要求将RECIST和其他类似结构化分期指南的使用扩展到所有放射分期的临床试验之外,以提高使用标准临床护理进行治疗评估的能力。因此,这给放射科的操作活动带来了很高的时间压力,并且越来越多没有经验的人使用这些类型的分期。随着语音识别和自然语言处理等自然接口的发展,以及它们在越来越多的设备中的日常使用,我赞成避免人工结构化许多数据采集过程,并将数据保持在最自然的形式,利用更自然的交互,如语音和文本,并开发强大的自然语言处理工具,可用于在后处理步骤中产生结构化信息。这将允许在需要新的结构化资源时对所有叙述进行重新处理。

追求真理

人工智能领域的许多方面都需要对什么是真实有一个很好的认识。知识工程构建“已知”或“相关”的图形,例如在SNOMED CT(系统化医学术语-临床术语)或开放生物和生物医学本体铸造中制作的图形[ 33 34]。这同样适用于基于规则的技术或符号推理,它们需要能够表达规则,即以形式化的方式表达真理,但也适用于监督机器学习方法,这需要具有表达真理的训练集,至少是概率真理。在这些方法中有很多期望,特别是在对它们进行梳理时[ 35 36],但除了无监督深度机器学习之外,所有这些都需要一些真相来源,这就导致了一个基本问题,即在生命科学中寻找真相来源,以及支持该真相的证据水平。乍一看,这似乎是一个微不足道的问题。然而,“真相”往往“迷失在文字中”,因为在大多数情况下,消息来源依赖于复杂的叙事,将它们所传达的信息语境化。此外,“真理”也被稀释了。例如,每天有超过2500篇论文被Medline/PubMed收录[ 37],专家几乎不可能掌握自己研究领域发表的所有内容。最后,从本质上讲,科学是不断发展的,因此,曾经是正确的科学“真理”今天可能不再是正确的。例如,直到最近人们才知道有两种类型的淋巴细胞——B细胞和T细胞。然而,Rizwan等人最近发表的一篇论文[ 38]描述了一种具有B细胞和T细胞特征的新型淋巴细胞,它可能在某些疾病(如糖尿病)中发挥驱动自身免疫的作用[ 38]。事实的来源及其特征,如证据的水平或其使用背景,变得越来越重要。这应该对所有人开放,类似于Cochrane [ 39],涵盖生命科学的所有领域;维护;并且是机器可读的形式。

建立信任

在科学领域,信任与建立证据密切相关。信任不仅在科学界,而且在整个科学界,对于建立采纳、政治支持和公众接受都很重要。2019年夏天,皮尤研究中心(Pew Research Center)发布的一项调查显示,公众中出现了一种积极的趋势:科学是为善的,但也有对诚信、透明度和偏见的担忧。总体而言,86%的美国人表示他们至少对科学家有“相当程度”的信心[ 40]。其中一个挑战是科学的可靠性经常与可信度相混淆[ 41]。科学证据可能非常有力,例如免疫接种或基于网络的健康信息,但信任度可能低得多[ 42 43]。在建立对科学的信任方面,人们讨论了很多方面,但它们可以概括为三个概念,一个是针对科学家和组织的,一个是针对研究对象的,一个是针对研究过程的。诚信是第一也是最重要的,包括科学诚信、资金、利益冲突等。透明度必须体现在动机、结果和过程上。最后,用于处理过程的方法必须是强大和健壮的。建立证据需要考虑许多方面,如偏见、普遍性、可重复性和可解释性。在大数据和人工智能方面,有些挑战更加困难。数据采集和流的适当控制通常比传统的对照研究更困难。结果是数据具有特定的属性,这些属性并不总是得到很好的管理,例如选择偏差。有时,限制使用分析工具的假设没有得到很好的理解,例如许多统计检验的均方差。 In addition, deep machine learning is facing the challenges of precise reproducibility and explainability. The latter is currently the object of numerous works, trying to understand intermediate representation of data in neural networks that can predict and explain their behavior. Explainability and interpretability are often used interchangeably. Interpretability is the extent to which it is possible to predict how the system will behave, given a change in input or algorithmic parameters. On the other hand, explainability is the extent to which the internal mechanics of the deep learning system can be understood and thus explained. Molnar [ 44]在GitHub上发布了一个非常好的问题概述。然而,可解释性可能不是提高全球对深度机器学习方法信任的最佳途径,尤其是在解释本身难以解释的情况下。其他一些方面,如透明度、可重复性或不确定性资格可能更有效[ 45]。例如,在 科学2018年,赫特森[ 46]报告了一项对在主要会议上发表的400篇人工智能论文的调查,其中只有6%的论文包含算法代码和30%的测试数据,因此大大限制了可重复性的可能性[ 46]。

公平数据希望

FAIR指导原则是使人和机器都能发现和处理数据的指导原则。它们最初由Wilkinson等人发表[ 47]。公平的指导原则是基于列出的一套标准 文本框1

FAIR数据标准。

可发现的

(元)数据被分配一个全局唯一且持久的标识符

数据用丰富的元数据描述(定义如下)

元数据清楚而显式地包括所描述数据的标识符

(元)数据在一个可搜索的资源中被注册或索引

可访问的

(元)数据通过其标识符使用标准化通信协议进行检索

该协议是开放的、免费的,并且可以普遍实现

协议允许在必要时进行身份验证和授权过程

元数据是可访问的,即使数据不再可用

可互操作的

(元)数据使用一种正式的、可访问的、共享的、广泛适用的语言来表示知识

(元)数据使用遵循FAIR原则的词汇表

(元)数据包括对其他(元)数据的限定引用

可重用的

元(数据)被丰富地描述为具有多个准确和相关的属性:

(元)数据发布具有清晰、可访问的数据使用许可

(元)数据与详细的来源相关联

(元)数据满足与领域相关的社区标准

已经定义了几个框架来评估和评估FAIR标准的合规性,例如FAIR成熟度工具[ 48 49]。因此,公平数据并不意味着数据在开放数据空间[ 50]。访问可以受到限制,例如在Harvard Dataverse中,这是需要强调的重要一点。由于国家法规、隐私保护、知识产权等原因,在开放数据空间中获取数据或元数据可能会受到很多限制。FAIR数据不提供数据;他们在获得授权的条件下使数据可用。

FAIR倡议至关重要。它说明了过去十年开始的数据从对象到资产的移动,并在Sabina Leonelli的文章中进行了描述[ 51]最近发表于 自然

该计划提倡使用符合标准和正式描述的富元数据框架。它促进对描述性信息和协议的免费和开放资源的使用。它允许我们建立一个可共享资源的框架,可以用于处理,而无需在开放空间中实际共享数据。FAIR允许构建一个框架,该框架包含所有数据源,包括那些受授权的数据源,具有明确和开放的协议。

私隐-新政

在大数据时代,隐私需要特别关注。限制访问未识别信息的通常范例在保护隐私方面正变得越来越不有效。与数据链接技术相关联的关于我们每个人的异构数据源和数据丰富性的增加,极大地增加了重新识别的可能性,包括匿名数据[ 52- 57]。对遗传信息的挑战和潜在影响甚至更大[ 58- 60]。没有好的技术解决方案可以协调保护隐私的挑战,并满足数据驱动科学对访问大型基因组和表型数据集日益增长的需求,并且有许多正在进行的伦理和法律讨论[ 61- 66]。有趣的是,这并不局限于科学领域,同样也适用于患者对健康信息的需求。 67]。有必要对隐私、公民、政策制定者、学生、研究界和所有利益相关者的影响和风险进行更好的全球教育。最近的范围检讨[ 68]表明科学界对匿名化和去识别化的理解是不同的[ 68]。歧视是侵犯私隐的其中一项主要风险,而披露私隐资料可引致多种后果[ 69- 71],包括报销和保险范围[ 72 73]。重要的是找到naïve实证主义和非理性偏执之间的正确路径。重要的一步是提高所有利益相关者对隐私的认识和教育,保护隐私的技术限制,以及建立监管障碍以避免歧视。

结论

医学领域的人工智能和大数据才刚刚起步;他们长得很快。他们能否好好成长,仍是一个悬而未决的问题,未来将给出答案。然而,如果不积极帮助他们,他们就不会很好地成长。有几项重要举措有助于实现这一目标,例如全球基因组学与健康联盟(GA4GH),该组织制定了尊重人权的政策和技术框架,使负责任的基因组数据共享成为可能[ 74]或欧盟一般资料保护规例(GDPR) [ 75为欧盟制定了一项全新的隐私法规。这些举措正趋向于建立一种环境,使科学成为可能,同时在改善个人权利保护方面建立信任。我邀请读者访问Web上提供的JMIR开放获取集合,主题包括:“大数据”、“卫生专业人员决策支持”和“人工智能”[ 76- 78]。

缩写 人工智能

人工智能

CPOE

计算机化供应商订单输入

GA4GH

全球基因组学与健康联盟

GDPR

《一般资料保护规例》

RECIST

实体瘤反应评价标准

snom CT

系统化医学术语。临床术语

没有宣布。

Bringsjord 年代 Govindarajulu N 斯坦福哲学百科全书档案 2018 2019-09-22 加利福尼亚州斯坦福大学 斯坦福大学形而上学研究实验室 人工智能 https://plato.stanford.edu/archives/fall2018/entries/artificial-intelligence/ 维基百科 2019 2019-09-22 人工智能 https://en.wikipedia.org/w/index.php?title=Artificial_intelligence&oldid=916837449 Olazaran 感知器争议官方历史的社会学研究 社会科学院 2016 06 29 26 3. 611 659 10.1177 / 030631296026003005 鲁格尔手枪 G 人工智能:解决复杂问题的结构和策略 2009 波士顿 皮尔森addison - wesley 978 库兹韦尔 R 人类超越生物学的奇点即将到来 2005 纽约 维京人 978 贾尔斯 麻省理工科技评论 2019-09-22 据报道,谷歌研究人员实现了“量子霸权” https://www.technologyreview.com/f/614416/google-researchers-have-reportedly-achieved-quantum-supremacy/ 高层 人工智能专家组(欧盟) 欧洲委员会 2019-09-22 人工智能的定义:主要能力和科学学科 https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines 高戴克 P Pancur Ilenic N Copar 一个 箍ž基于“增大化现实”技术 Erjavec 一个 Pretnar 一个 民主党š基于“增大化现实”技术 J Staric 一个 Toplak Ž琼脂 l 哈特曼 J H Bellazzi R 佩特 U Garagna 年代 祖科蒂 公园 D Shaulsky G 祖潘 B 通过集成深度模型和小规模机器学习,通过可视化编程实现图像分析的民主化 Nat Commun 2019 10 7 10 1 7 10.1038 / s41467 - 019 - 12397 - x 西班牙 l 瓦格纳 SK DJ X Korot E Ledsam 回来 T 乔普拉 R Pontikos N 克恩 C 莫拉 G 施密德 Sim卡 D Balaskas K 巴赫曼 LM 丹尼斯顿 正义与发展党 基恩 巴勒斯坦权力机构 由没有编码经验的医疗保健专业人员进行医学图像分类的自动深度学习设计:可行性研究 《柳叶刀数字健康》 2019 09 1 5 e232 e242 10.1016 / s2589 - 7500 (19) 30108 - 6 Carli D Fahrni G Bonnabry P 洛维斯 C 计算机化供应商订单输入中的决策支持质量:系统文献综述 JMIR Med Inform 2018 01 24 6 1 e3 10.2196 / medinform.7170 荣格 Hoerbst 一个 Hackl 我们 Kirrane F Borbolla D 雅斯贝尔斯这样 兆瓦 呃逆 Koutkias V 雪貂 l 了起来 P 劳顿 K Riedmann D Darmoni 年代 Maglaveras N 洛维斯 C Ammenwerth E 医生对计算机化医嘱输入系统自动报警的态度 方法: 2018 01 20. 52 02 99 108 10.3414 / me12 - 02 - 0007 诺伊曼 PJ 桑德斯 GD 成本效益分析2.0 [英]医学 2017 01 19 376 3. 203 205 10.1056 / NEJMp1612619 28099837 桑德斯 GD 诺伊曼 PJ 巴苏 一个 布鲁克 DW 芬尼 D Krahn 王桂萍 公里 Meltzer 欧文斯 DK 普罗塞 所罗门 晶澳 Sculpher 乔丹 Trikalinos 助教 罗素 西格尔 Ganiats TG 关于行为、方法实践和成本效益分析报告的建议 《美国医学会杂志》 2016 09 13 316 10 1093 10.1001 / jama.2016.12195 默克德 Ballestros K Echko 格伦 年代 奥尔森 ·穆兰尼 E 一个 基于“增大化现实”技术 艾哈迈迪 一个 法拉利 AJ Kasaeian 一个 Werdecker 一个 卡特 一个 Zipkin B 缝匠肌 B Serdar B 赛克斯 提单 Troeger C Fitzmaurice C 雷姆曾为此写过 CD Santomauro D D Colombara D 施韦贝尔 直流 Tsoi D Kolte D Nsoesie E 尼克尔斯 E 奥伦 E Charlson FJ 巴顿 GC 罗斯 遗传算法 Hosgood 高清 Whiteford H 厄斯金 H Martopullo 辛格 晶澳 Nachega 简森-巴顿 Sanabria 阿巴斯 K K Tabb K Krohn KJ Cornaby l Degenhardt l 摩西 Farvid 格里斯沃尔德 Criqui 贝尔 瓦林 Mirarefin Qorbani 尤尼斯 Fullman N P b P 贡纳 P Havmoller R R Kimokoti R Bazargan-Hejazi 年代 干草 如果 Yadgir 年代 科夫 年代 Vollset SE 阿拉姆 T 弗兰克 T T 米勒 T Vos T Barnighausen T Gebrehiwot TT 矢野 Y Al-Aly Z Mehari 一个 韩铎认为 一个 坎德尔 一个 安德森 B Biroscak B 莫札法里恩 D 多西 埃尔 公园 E 瓦格纳 G G H 阳光 Khubchandani J 皮带 J J 所罗门 J Unutzer J 卡希尔 l 库珀 l Horino 布劳尔 监督下 N 霍特兹 P Topor-Madry R Soneji 年代 奇怪的 年代 詹姆斯 年代 Amrock 年代 Jayaraman 年代 帕特尔 T Akinyemiju T Skirbekk V Kinfu Y Bhutta Z 乔纳斯 简森-巴顿 穆雷 CJL 美国健康状况,1990-2016 《美国医学会杂志》 2018 04 10 319 14 1444 10.1001 / jama.2018.0158 艾伦 B FDA在确保人工智能软件和设备的安全性和有效性中的作用 我是科尔·拉迪诺 2019 02 16 2 208 210 10.1016 / j.jacr.2018.09.007 30389329 s1546 - 1440 (18) 31146 - 3 美国食品和药物管理局 2019 06 26 2019-09-22 医疗设备软件中的人工智能和机器学习 http://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device 帕瑞克豪 RB 欧博迈亚 Z Navathe 作为 医学预测分析的规范 科学 2019 02 22 363 6429 810 812 10.1126 / science.aaw0029 30792287 363/6429/810 PMC6557272 KS Zary N 人工智能在医学教育中的应用与挑战:综合综述 JMIR医学教育 2019 06 15 5 1 e13930 10.2196/13930 31199295 v5i1e13930 PMC6598417 大师 K 医学教育中的人工智能 医学教 2019 09 41 9 976 980 10.1080 / 0142159 x.2019.1595557 31007106 Wartman SA 库姆斯 CD 人工智能时代医学教育的重塑 美国医学会伦理学 2019 02 01 21 2 E146 152 10.1001 / amajethics.2019.146 30794124 amajethics.2019.146 数据科学研究所 2019-09-22 为未来的人工智能培训医学生和住院医生 https://www.acrdsi.org/Blog/Medical-schools-must-prepare-trainees Lillehaug 如果 Lajoie SP 医学教育中的人工智能——医学信息学的另一个重大挑战 Artif Intell Med 1998 03 12 3. 197 225 9626957 S0933365797000547 Kolachalama VB Garg PS 机器学习和医学教育 NPJ数字医学 2018 9 27 1 1 54 10.1038 / s41746 - 018 - 0061 - 1 31304333 61 PMC6550167 Stausberg J 鲍尔 U Nasseh D Pritzkuleit R 施密特 C 施克拉德 T Nonnemacher 数据质量指标:网络化医学研究视角下的回顾与要求 GMS医学通报生物流行病学 2019 15 1 05 Weiskopf NG C 电子健康记录数据质量评估的方法和维度:实现临床研究的重用 美国医学信息协会 2013 01 01 20. 1 144 51 10.1136 / amiajnl - 2011 - 000681 22733976 amiajnl - 2011 - 000681 PMC3555312 维纳 毫克 临床数据的再利用与质量改进:起点的终结? Ann实习医生 2009 09 01 151 5 359 10.7326 / 0003-4819-151-5-200909010-00141 Sandhu E 温斯坦 年代 McKethan 一个 耆那教徒的 上海 电子健康记录数据的二次使用:益处和障碍 质量与患者安全联合委员会期刊 2012 01 38 1 34 40 10.1016 / s1553 - 7250 (12) 38005 - 7 赫斯 W 通过将数据用于质量保证、研究和监督,为电子健康记录增加价值 我管理得很好吗 2007 06 13 6第1部分 277 8 17567224 3318 B D 太阳 Y J 肺癌多探测器计算机断层扫描测量变异性的系统分析 安·索拉克·梅 2017 12 2 95 One hundred. 10.4103 / 1817 - 1737.203750 28469719 atm - 12 - 95 PMC5399697 Bellomi 德钢琴 F 安科纳 E 踢球的 房颤 Curigliano G Raimondi 年代 Preda l 根据RECIST 1.1评价观察者间变异及其对肝转移CT测量反应分级的影响 欧洲放射性物质 2017 10 95 96 101 10.1016 / j.ejrad.2017.08.001 28987705 s0720 - 048 x (17) 30313 - 3 上海 千瓦 JM D 哈恩 年代 基于recist的肿瘤负荷测量的观察者可变性:一项荟萃分析 欧洲癌症 2016 01 53 5 15 10.1016 / j.ejca.2015.10.014 26687017 s0959 - 8049 (15) 00928 - 4 西摩 l 博尔加特 J Perrone 一个 福特 R 施瓦兹 Mandrekar 年代 ν Litiere 年代 丹西 J 一个 Hodi FS Therasse P 霍克斯特拉 操作系统 Shankar 吴克 JD 博林格 Caramella C 德弗里斯 针对 RECIST工作组 用于免疫治疗试验的反应标准指南 《柳叶刀》杂志 2017 03 18 3. e143 e152 10.1016 / s1470 - 2045 (17) 30074 - 8 28271869 s1470 - 2045 (17) 30074 - 8 PMC5648544 OBO铸造厂 2019-10-05 http://www.obofoundry.org/ snom国际 2018-06-27 https://www.snomed.org/snomed-international/who-we-are Skevofilakas Zarkogianni K Karamanos B 尼基塔 K 1型糖尿病视网膜病变长期并发症风险评估的混合决策支持系统 IEEE工程医学与生物学报 2010 2010 6713 6 10.1109 / IEMBS.2010.5626245 21096083 Hoehndorf R Queralt-Rosinach N 数据科学和符号人工智能:协同效应、挑战和机遇 DS 2017 10 17 1 12 10.3233 / ds - 170004 NIH:美国国家医学图书馆 2017-10-08 详细索引统计:1965-2017 https://www.nlm.nih.gov/bsd/index_stats_comp.html 艾哈迈德 R Omidian Z Giwa 一个 康威尔 B Majety N 贝尔 博士 年代 H 米歇尔 一个 奥, 年代 Sadegh-Nasseri 年代 拉布 H Gritsch 年代 苏瓦 毫升 Cahan P R C 唐纳 T 哈马德 ARA 在1型糖尿病患者独特的双受体表达淋巴细胞中存在的公共BCR编码一种有效的T细胞自身抗原 细胞 2019 05 177 6 1583 1599. e16天 10.1016 / j.cell.2019.05.007 科克伦 2019-10-05 https://www.cochrane.org/ 皮尤研究中心:科学与社会 2019-10-05 美国人对科学专家看法中的信任与不信任 https://www.pewresearch.org/science/2019/08/02/trust-and-mistrust-in-americans-views-of-scientific-experts/ Kerasidou 一个 相信我,我是个研究人员!:The role of trust in biomedical research 医疗保健专家 2017 03 20. 1 43 50 10.1007 / s11019 - 016 - 9721 - 6 27638832 10.1007 / s11019 - 016 - 9721 - 6 PMC5318478 拉森 沪江 克拉克 RM Jarrett C Eckersberger E 莱文 Z 舒尔茨 WS 帕特森 P 衡量疫苗接种的信任:一项系统回顾 哼疫苗免疫剂 2018 07 03 14 7 1599 1609 10.1080 / 21645515.2018.1459252 29617183 PMC6067893 Sbaffi l 罗利 J 基于网络的健康信息的信任与可信度:综述与未来研究议程 J Med Internet Res 2017 06 19 19 6 e218 10.2196 / jmir.7579 28630033 v19i6e218 PMC5495972 可解释机器学习 2019 2019-10-18 https://christophm.github.io/interpretable-ml-book/ Begoli E 巴塔查里亚 T Kusnezov D 机器辅助医疗决策中不确定性量化的必要性 纳特马赫英特尔 2019 1 7 1 1 20. 23 10.1038 / s42256 - 018 - 0004 - 1 迫降 人工智能面临可重复性危机 科学 2018 02 16 359 6377 725 726 10.1126 / science.359.6377.725 29449469 359/6377/725 威尔金森 医学博士 Dumontier Aalbersberg IJ 阿普尔顿 G Axton Baak 一个 显得过于 N Boiten J 达席尔瓦·桑托斯 伯恩 体育 Bouwman J 布鲁克斯 AJ 克拉克 T Crosas Dillo Dumon O 埃德蒙兹 年代 Evelo CT Finkers R Gonzalez-Beltran 一个 灰色的 AJ Groth P Goble C Grethe JS Heringa J ' t Hoen 彼得A C Hooft R 库恩 T R J 酒鬼 SJ Martone 蒙斯 一个 封隔器 艾尔 皮尔森 B Rocca-Serra P 鲁斯 van Schaik R 桑松 年代 舒尔特 E Sengstag T 斯莱特 T - G Swertz 汤普森 范德雷 J 范Mulligen E Velterop J Waagmeester 一个 Wittenburg P Wolstencroft K J 蒙斯 B 科学数据管理和管理的公平指导原则 科学数据 2016 03 15 3. 1 160018 10.1038 / sdata.2016.18 26978244 sdata201618 PMC4792175 GitHub 2019-10-05 2019年FAIR指标 https://github.com/FAIRMetrics/Metrics 联盟 种种 欧洲联盟出版署 2019-07-04 将公平变为现实:欧盟委员会公平数据专家组的最终报告和行动计划 https://publications.europa.eu/en/publication-detail/-/publication/7769a148-f1f6-11e8-9982-01aa75ed71a1 哈佛大学 2019 2019-04-10 迈向整合、公平的研究数据管理@哈佛互联网 https://scholar.harvard.edu/mercecrosas/presentations/towards-integrated-and-fair-research-data-management-harvard Leonelli 年代 数据——从对象到资产 自然 2019 10 15 574 7778 317 320 10.1038 / d41586 - 019 - 03062 - w 马林 B 重新识别家族数据库记录 AMIA年度会议进程 2006 524 8 17238396 86122 PMC1839550 El伊玛目 K Jonker E 阿尔布克尔 l 马林 B 对卫生数据再识别攻击的系统审查 《公共科学图书馆•综合》 2011 12 2 6 12 e28071 10.1371 / journal.pone.0028071 22164229 玉米饼- d - 11 - 14348 PMC3229505 Dankar El伊玛目 K Neisa 一个 Roffey T 评估临床数据集的再识别风险 BMC Med Inform Decis mark 2012 07 09 12 1 66 10.1186 / 1472-6947-12-66 22776564 1472-6947-12-66 PMC3583146 贝尼特斯 K 马林 B 根据HIPAA隐私规则评估重新识别风险 美国医学信息协会 2010 17 2 169 77 10.1136 / jamia.2009.000026 20190059 17/2/169 PMC3000773 Barth-Jones D 州长威廉·维尔德医疗信息的“重新识别” 社会科学研究网 2012 19 伊玛目 Dankar 瓦兰蔻 R Roffey T Lysyk 评估从医院处方记录中重新识别患者的风险 J制药能成功吗 2009 07 62 4 307 19 22478909 PMC2826964 Kulynych J 格里利 HT 临床基因组学、大数据和电子病历:当隐私和科学发生冲突时,如何调和患者权利与研究 [法学]生物科学 2017 04 4 1 94 132 10.1093 / jlb / lsw061 28852559 lsw061 PMC5570692 Mascalzoni D 天堂 一个 汉森 罕见病研究:打破隐私壁垒 苹果翻译基因组 2014 06 01 3. 2 23 9 10.1016 / j.atg.2014.04.003 27275410 s2212 - 0661 (14) 00005 - 2 PMC4882025 Zaaijer 年代 戈登 一个 D Piccone R Groen 年代 Erlich设计 Y 使用便携式DNA测序快速重新鉴定人类样本 eLife互联网 2019 6 10.7554 / elife.27798 Ienca Ferretti) 一个 赫斯特 年代 Puhan 洛维斯 C Vayena E 大数据健康研究伦理审查的考虑:范围审查 《公共科学图书馆•综合》 2018 10 11 13 10 e0204937 10.1371 / journal.pone.0204937 Loukides G 丹尼 JC 马林 B 诊断代码的披露可能会侵犯研究参与者的隐私 美国医学信息协会 2010 17 3. 322 7 10.1136 / jamia.2009.002725 20442151 17/3/322 PMC2995712 马林 B 贝尼特斯 K 玛萨斯说 D 匿名永远不会过时:通过HIPAA隐私规则共享人口统计数据的统计标准 美国医学信息协会 2011 18 1 3. 10 10.1136 / jamia.2010.004622 21169618 18/1/3 PMC3005867 El伊玛目 K 莫赫 E 在为公共卫生目的收集数据时,隐私和匿名性面临挑战 J法律医学伦理学 2013 03 41附录1 37 41 10.1111 / jlme.12036 23590738 Thorogood 一个 Zawati 基因组生物银行的国际隐私准则(或多元化的意想不到的优点) J法律医学伦理互联网 2015 43 4 10.1111 / jlme.12312 奥尼尔 l 德克斯特 F N 发表临床麻醉研究数据对患者隐私的风险 Anesth Analg 2016 12 122 6 2017 27 10.1213 / ANE.0000000000001331 27172145 Househ 格兰杰 R 彼得森 C Bamidis P Merolli 在参与式健康和社交媒体时代,隐私和患者健康信息需求之间的平衡:范围审查 医学年鉴 2018 08 27 1 29 36 10.1055 / s - 0038 - 1641197 29681040 PMC6115243 西威尔 R Foufi V Gaudet-Blavignac C 罗伯特。 一个 洛维斯 C 匿名化和去身份化在生物医学文献中的使用和理解:范围综述 J Med Internet Res 2019 05 31 21 5 e13484 10.2196/13484 迪克森 P “不伤害”的失败——印度的Aadhaar生物识别身份计划,以及与欧洲和美国的措施相比,它在保护隐私方面的无能 卫生科技(柏林) 2017 7 4 539 567 10.1007 / s12553 - 017 - 0202 - 6 29308348 202 PMC5741784 Rengers JM Heyse l 欧登 年代 Wittek RPM “以同样的方式公开或诚实地生活并不总是可能的”——无国界医生组织对男女同性恋人道主义援助工作者的工作场所包容 前面Psychol 2019 2 27 10 320 10.3389 / fpsyg.2019.00320 30873072 PMC6400840 斯坦格尔 艾尔 劳埃德 JK 布雷迪 LM 荷兰 CE Baral 年代 2002年至2013年减少艾滋病毒相关污名和歧视干预措施的系统回顾:我们取得了多大进展? 联合爱滋病协会 2013 11 13 16 3补充2 18734 24242268 18734 PMC3833106 Belisle-Pipon J Vayena E 绿色 钢筋混凝土 科恩 搞笑 基因检测、保险歧视和医学研究:美国可以向其他国家学习什么 Nat地中海 2019 08 25 8 1198 1204 10.1038 / s41591 - 019 - 0534 - z 31388181 10.1038 / s41591 - 019 - 0534 - z Bardey D 德在 P 头纱 C 基因检测如何影响逆向选择和歧视风险之间的权衡?理论与实验 J卫生经济学 2019 09 30. 68 102223 10.1016 / j.jhealeco.2019.102223 31581025 s0167 - 6296 (18) 30322 - 9 全球基因组学与健康联盟 2019-10-05 https://www.ga4gh.org/ 欧盟GDPR。ORG 2019-10-05 https://eugdpr.org/ JMIR医学信息学 电子馆藏“大数据” https://medinform.www.mybigtv.com/themes/183 JMIR医学信息学 电子合集“卫生专业人员决策支持” https://medinform.www.mybigtv.com/themes/186 医学互联网研究杂志 电子合集“人工智能(临床决策支持除外)” //www.mybigtv.com/themes/797
Baidu
map