JMIgydF4y2B一个 JMIR Med InformgydF4y2B一个 JMIR医学信息学gydF4y2B一个 2291 - 9694gydF4y2B一个 卡塔尔世界杯8强波胆分析 加拿大多伦多gydF4y2B一个 v10i8e37817gydF4y2B一个 35917162gydF4y2B一个 10.2196/37817gydF4y2B一个 原始论文gydF4y2B一个 原始论文gydF4y2B一个 基于句法信息的医学文献分类模型:算法开发与验证研究gydF4y2B一个 郝gydF4y2B一个 田勇gydF4y2B一个 高gydF4y2B一个 Jianliang称gydF4y2B一个 杜gydF4y2B一个 永平gydF4y2B一个 唐gydF4y2B一个 WentaigydF4y2B一个 BCSgydF4y2B一个 1gydF4y2B一个 https://orcid.org/0000-0001-7594-5031gydF4y2B一个 王gydF4y2B一个 剑gydF4y2B一个 博士学位gydF4y2B一个 1gydF4y2B一个
计算机科学与技术学院gydF4y2B一个 大连理工大学gydF4y2B一个 灵工路2号gydF4y2B一个 原gydF4y2B一个 大连116023gydF4y2B一个 中国gydF4y2B一个 86 13604119266gydF4y2B一个 wangjian@dlut.edu.cngydF4y2B一个
https://orcid.org/0000-0002-4656-7446gydF4y2B一个
林gydF4y2B一个 红飞gydF4y2B一个 博士学位gydF4y2B一个 1gydF4y2B一个 https://orcid.org/0000-0003-0872-7688gydF4y2B一个 赵gydF4y2B一个 迪gydF4y2B一个 博士学位gydF4y2B一个 1gydF4y2B一个 https://orcid.org/0000-0002-0876-5126gydF4y2B一个 徐gydF4y2B一个 薄gydF4y2B一个 博士学位gydF4y2B一个 1gydF4y2B一个 https://orcid.org/0000-0001-5453-978XgydF4y2B一个 张gydF4y2B一个 出gydF4y2B一个 博士学位gydF4y2B一个 1gydF4y2B一个 https://orcid.org/0000-0002-5843-4675gydF4y2B一个 杨gydF4y2B一个 之浩gydF4y2B一个 博士学位gydF4y2B一个 1gydF4y2B一个 https://orcid.org/0000-0001-6186-2024gydF4y2B一个
计算机科学与技术学院gydF4y2B一个 大连理工大学gydF4y2B一个 大连gydF4y2B一个 中国gydF4y2B一个 通讯作者:王健gydF4y2B一个 wangjian@dlut.edu.cngydF4y2B一个 8gydF4y2B一个 2022gydF4y2B一个 2gydF4y2B一个 8gydF4y2B一个 2022gydF4y2B一个 10gydF4y2B一个 8gydF4y2B一个 e37817gydF4y2B一个 10gydF4y2B一个 3.gydF4y2B一个 2022gydF4y2B一个 28gydF4y2B一个 5gydF4y2B一个 2022gydF4y2B一个 1gydF4y2B一个 6gydF4y2B一个 2022gydF4y2B一个 27gydF4y2B一个 6gydF4y2B一个 2022gydF4y2B一个 ©唐文泰,王健,林鸿飞,赵迪,徐波,张一佳,杨志浩。最初发表于JMIR医学信息学(https://medinform.www.mybigtv.com), 02.08.2022。gydF4y2B一个 2022gydF4y2B一个

这是一篇在知识共享署名许可(https://creativecommons.org/licenses/by/4.0/)条款下发布的开放获取文章,该许可允许在任何媒介上不受限制地使用、分发和复制,前提是原始作品(首次发表在JMIR Medical Informatics上)被适当引用。必须包括完整的书目信息,到https://medinform.www.mybigtv.com/上原始出版物的链接,以及版权和许可信息。gydF4y2B一个

背景gydF4y2B一个

医学文献数量的不断增加,要求对医学文献进行分类。医学关系提取是对大量医学文献进行分类的一种典型方法。随着算术能力的发展,医学关系提取模型已经从基于规则的模型发展到神经网络模型。单神经网络模型在抛弃传统规则的同时,也抛弃了浅层语法信息。因此,我们提出了一种基于句法信息的分类模型,通过对句法信息的补充和均衡来增强模型。gydF4y2B一个

客观的gydF4y2B一个

我们的目标是完成一个基于句法信息的关系抽取模型,以实现更高效的医学文献分类。gydF4y2B一个

方法gydF4y2B一个

我们设计了两种方法来增强模型中的句法信息。首先,我们将浅层句法信息引入卷积神经网络,增强非局部句法交互。其次,我们设计了一种跨域修剪方法来平衡局部和非局部语法交互。gydF4y2B一个

结果gydF4y2B一个

我们用3个与医学文献分类相关的数据集进行实验。在BioCreative ViCPR (CPR)和Phenotype-Gene Relationship数据集上的F1值分别为65.5%和91.5%,在PubMed数据集上的准确率为88.7%。我们的模型在实验中优于目前最先进的基线模型。gydF4y2B一个

结论gydF4y2B一个

基于句法信息的模型有效地提高了医学关系的提取。此外,实验结果表明,浅层句法信息有助于获得句子中的非局部交互,有效地强化句法特征。为今后的研究方向提供了新的思路。gydF4y2B一个

医学关系提取gydF4y2B一个 句法功能gydF4y2B一个 修剪方法gydF4y2B一个 神经网络gydF4y2B一个 医学文献gydF4y2B一个 医学文本gydF4y2B一个 提取gydF4y2B一个 语法gydF4y2B一个 分类gydF4y2B一个 交互gydF4y2B一个 文本gydF4y2B一个 文学gydF4y2B一个 语义gydF4y2B一个
介绍gydF4y2B一个

鉴于材料的不断增加,医学文献的分类是特别必要的。医学关系提取是一种典型的医学文献分类方法,它利用医学文本对文献进行快速分类。这项技术的进步将对医学研究产生深远的影响。例如,在医学文献中的句子“人类苯丙氨酸羟化酶的催化结构域与儿茶酚抑制剂结合”(gydF4y2B一个 图1gydF4y2B一个),存在“下调”关系(CPR:4)。我们可以将文本输入到模型中,得到CPR数据集中的关系类别为“CPR:4”。因此,我们可以快速地对医学文献进行分类。gydF4y2B一个

通过引入浅层语法信息和均衡来实现交互特性。(A)没有处理的依赖树;(B)句法结构融合后的依赖树;(C)修剪后的依赖树。森林中每条弧线的重量由它的数字表示。为了清楚起见,省略了一些边。gydF4y2B一个

提取医疗关系有两种主要方法:基于网络的方法和基于规则的方法。基于规则的模型通过施加规则约束只能获得浅层句法信息,导致早期的研究主要集中于获取浅层句法信息,如词性标签[gydF4y2B一个 1gydF4y2B一个]或完整的结构[gydF4y2B一个 2gydF4y2B一个]。相比之下,基于神经网络的模型侧重于句法依赖特征,但忽略了浅层语法信息。现在,随着神经网络方法的复苏,大规模神经网络模型的表现明显优于基于规则的模型[gydF4y2B一个 3.gydF4y2B一个]。因此,研究人员不再重视肤浅的句法信息,医学关系提取逐渐采用神经网络方法。早期努力利用图长短期记忆(LSTM) [gydF4y2B一个 4gydF4y2B一个]或图形神经网络[gydF4y2B一个 5gydF4y2B一个]对医学关系提取中的1-最佳依赖树进行编码。Zhang等[gydF4y2B一个 6gydF4y2B一个]使用图卷积网络(GCN)模型分析句子交互信息[gydF4y2B一个 7gydF4y2B一个]。Song等[gydF4y2B一个 8gydF4y2B一个]构建了依赖森林,Jin等[gydF4y2B一个 9gydF4y2B一个]同时训练关系提取模型和预训练依赖解析器[gydF4y2B一个 10gydF4y2B一个来减少在合并依赖结构时的错误传播。gydF4y2B一个

在医学关系提取中,基于规则的模型和基于神经网络的模型都存在不足。首先,基于规则的方法在为医学文本设计规则方面成本太高。由于医学文本规则的自定义不同于通用领域[gydF4y2B一个 11gydF4y2B一个,它更多地依赖于专业知识。其次,基于神经网络的方法难以捕获足够的句法特征[gydF4y2B一个 12gydF4y2B一个],因为浅层语法信息被丢弃。因此,我们设计了一个软规则神经网络模型,允许神经网络模型的编码阶段携带浅层语法特征,克服了神经网络丢弃规则后语法特征不足的问题。gydF4y2B一个

该模型通过引入浅层句法信息和均衡化,可以更好地捕捉句子中的交互特征。我们可以看到,gydF4y2B一个 图1gydF4y2B一个显示未处理的句子(gydF4y2B一个 图1gydF4y2B一个A).在模型中加入浅层句法信息,就变成了如图所示的句子gydF4y2B一个 图1gydF4y2B一个B与添加羟化酶和抑制剂相互作用。当模型被均衡时,gydF4y2B一个 图1gydF4y2B一个B变换成gydF4y2B一个 图1gydF4y2B一个C,句子中权重相互作用的得分分布更均匀。gydF4y2B一个

总之,我们提出了一种基于句法特征的医学文献分类关系提取模型,其中浅层句法信息在神经网络中被整合和均衡。首先,我们模型的编码器是有序神经元LSTM (ON-LSTM) [gydF4y2B一个 13gydF4y2B一个]。编码时,它捕获浅层句法信息中的句法结构[gydF4y2B一个 13gydF4y2B一个]。其次,我们在注意矩阵上设计了一个修剪过程来平衡句子交互的权重。gydF4y2B一个

方法gydF4y2B一个 设置gydF4y2B一个 概述gydF4y2B一个

我们从医学领域选择了3个数据集来评估我们的模型。利用这些数据集,我们在交叉句和句子层面上对两种类型的医学关系提取任务进行了实验。gydF4y2B一个

跨句关系的提取gydF4y2B一个

为了提取跨句关系,从PubMed中提取了6086个二元关系实例[gydF4y2B一个 4gydF4y2B一个]和6986个三元关系实例。这产生了两组数据集供更详细的评估[gydF4y2B一个 14gydF4y2B一个]:一个包含5类关系标签,另一个将所有非“None”的标签归为一类。gydF4y2B一个

用于提取句子级关系。我们参考了BioCreative ViCPR (CPR)和表型-基因关系(PGR)数据集。PGR数据集引入了具有人类表型的人类基因之间的信息;它包含218个测试实例和11,781个训练实例,以及两种类型的关系标签:“否”和“是”。CPR数据集包含有关人体蛋白质和化学成分之间相互作用的信息。它有16,106个训练、14,268个测试和10,031个开发实例,以及包含5个关系,例如“None”、“CPR:2”和“CPR:6”关系。为了更直观,我们将这两组数据合并到一个表中。gydF4y2Ba

实验参数设置gydF4y2B一个

对于跨句关系任务,我们参考了与Guo等人[gydF4y2B一个 14gydF4y2B一个)使用。我们的随机梯度下降优化器将ON-LSTM的隐藏大小设置为300,具有300维手套和0.9衰减率,并报告5次交叉验证折叠的平均测试精度。对于句子级任务,F1结果如下所示[gydF4y2B一个 8gydF4y2B一个],我们将PGR训练集的10%随机划分为开发集,以保证数据划分的一致性。我们根据开发集的结果对超参数进行了微调。用星号标记的结果是基于原始模型的重新实现。上述配置确保我们的模型具有与基线一致的数据分区和操作环境。gydF4y2B一个

整体架构gydF4y2B一个

我们提出的句法增强图卷积网络(SEGCN)模型概述(gydF4y2B一个 图2gydF4y2B一个)由三部分组成:编码器、特征处理器和分类器。编码器包含语法结构特征,特征处理器处理包含结构信息的特征。gydF4y2B一个

语法增强图卷积网络模型的图解表示,展示了实例及其语法信息处理流程。从编码器得到句法结构树,用矩阵树变换特征处理器中的句法依赖树。gydF4y2B一个

编码器gydF4y2B一个

我们使用ON-LSTM [gydF4y2B一个 13gydF4y2B一个在浅层句法信息中获取句法结构。ON-LSTM在对神经元分层编码的同时引入句法结构信息。就整体框架而言,它与LSTM类似。这里,我们用数学方法说明ON-LSTM是如何结合句法结构特征的。gydF4y2B一个

给定一个句子gydF4y2B一个 年代gydF4y2B一个=gydF4y2B一个 xgydF4y2B一个1gydF4y2B一个、……gydF4y2B一个 xgydF4y2B一个ngydF4y2B一个,在那里gydF4y2B一个 xgydF4y2B一个我gydF4y2B一个代表了gydF4y2B一个 我gydF4y2B一个th词。我们写过gydF4y2B一个 hgydF4y2B一个=gydF4y2B一个 hgydF4y2B一个1gydF4y2B一个、……gydF4y2B一个 hgydF4y2B一个ngydF4y2B一个对于句子的结构输出gydF4y2B一个 hgydF4y2B一个 RgydF4y2B一个n×gydF4y2B一个 dgydF4y2B一个 ,在那里gydF4y2B一个 hgydF4y2B一个 我gydF4y2B一个 RgydF4y2B一个 dgydF4y2B一个 表示gydF4y2B一个 我gydF4y2B一个-单词的隐藏状态gydF4y2B一个 dgydF4y2B一个维度。一个细胞gydF4y2B一个 cgydF4y2B一个tgydF4y2B一个用于记录的状态gydF4y2B一个 hgydF4y2B一个 tgydF4y2B一个 ;控制gydF4y2B一个 hgydF4y2B一个 tgydF4y2B一个 ,这是输入和输出之间的数据流,一个遗忘门gydF4y2B一个 fgydF4y2B一个tgydF4y2B一个 ,输出门gydF4y2B一个 ogydF4y2B一个tgydF4y2B一个还有一个输入门gydF4y2B一个 我gydF4y2B一个tgydF4y2B一个 在韦茅斯的总部工作。在哪里gydF4y2B一个 WgydF4y2B一个 xgydF4y2B一个 ,gydF4y2B一个 UgydF4y2B一个 xgydF4y2B一个 ,gydF4y2B一个 bgydF4y2B一个xgydF4y2B一个 (xgydF4y2B一个f, I, o, c)为模型参数gydF4y2B一个 cgydF4y2B一个0gydF4y2B一个是一个填零向量:gydF4y2B一个

fgydF4y2B一个tgydF4y2B一个 =gydF4y2B一个 σgydF4y2B一个(gydF4y2B一个 WgydF4y2B一个fgydF4y2B一个xgydF4y2B一个tgydF4y2B一个 +gydF4y2B一个 UgydF4y2B一个fgydF4y2B一个hgydF4y2B一个tgydF4y2B一个 1gydF4y2B一个+gydF4y2B一个 bgydF4y2B一个fgydF4y2B一个 )gydF4y2B一个 (1)gydF4y2B一个 我gydF4y2B一个tgydF4y2B一个 =gydF4y2B一个 σgydF4y2B一个(gydF4y2B一个 WgydF4y2B一个我gydF4y2B一个xgydF4y2B一个tgydF4y2B一个 +gydF4y2B一个 UgydF4y2B一个我gydF4y2B一个hgydF4y2B一个tgydF4y2B一个 1gydF4y2B一个+gydF4y2B一个 bgydF4y2B一个我gydF4y2B一个 )gydF4y2B一个 (2)gydF4y2B一个 ogydF4y2B一个tgydF4y2B一个 =gydF4y2B一个 σgydF4y2B一个(gydF4y2B一个 WgydF4y2B一个ogydF4y2B一个xgydF4y2B一个tgydF4y2B一个 +gydF4y2B一个 UgydF4y2B一个ogydF4y2B一个hgydF4y2B一个tgydF4y2B一个 1gydF4y2B一个+gydF4y2B一个 bgydF4y2B一个ogydF4y2B一个 )gydF4y2B一个 (3)gydF4y2B一个 cgydF4y2B一个tgydF4y2B一个 =双曲正切(gydF4y2B一个 WgydF4y2B一个cgydF4y2B一个xgydF4y2B一个tgydF4y2B一个 +gydF4y2B一个 UgydF4y2B一个cgydF4y2B一个hgydF4y2B一个tgydF4y2B一个 1gydF4y2B一个+gydF4y2B一个 bgydF4y2B一个cgydF4y2B一个 )gydF4y2B一个 (4)gydF4y2B一个 hgydF4y2B一个tgydF4y2B一个 =gydF4y2B一个 ogydF4y2B一个tgydF4y2B一个 •双曲正切(gydF4y2B一个 cgydF4y2B一个tgydF4y2B一个 )gydF4y2B一个 (5)gydF4y2B一个

它与LSTM的不同之处在于,它使用一个新函数来替换单元格状态的更新函数gydF4y2B一个 cgydF4y2B一个tgydF4y2B一个 .通过替换更新函数对内部神经元进行特定排序,允许将句法结构集成到LSTM中。更新规则如下。gydF4y2B一个

(6)gydF4y2B一个 (7)gydF4y2B一个 (8)gydF4y2B一个

我们使用softmax预测神经元的层序,然后用cs计算累积和。最后,gydF4y2B一个 f᷉gydF4y2B一个tgydF4y2B一个 和gydF4y2B一个 我᷉gydF4y2B一个tgydF4y2B一个 包含的层顺序信息gydF4y2B一个 cgydF4y2B一个tgydF4y2B一个 1gydF4y2B一个和gydF4y2B一个 cgydF4y2B一个tgydF4y2B一个 ,两者的交点为gydF4y2B一个 ωgydF4y2B一个tgydF4y2B一个 .累积和方程如下:gydF4y2B一个

(9)gydF4y2B一个 (10)gydF4y2B一个

根据累积和的属性,主遗忘门gydF4y2B一个 f᷉gydF4y2B一个tgydF4y2B一个 值从0到1变化,而主输入门gydF4y2B一个 我᷉gydF4y2B一个tgydF4y2B一个 具有从1到0单调递减的值。的重叠gydF4y2B一个 f᷉gydF4y2B一个tgydF4y2B一个 和gydF4y2B一个 我᷉gydF4y2B一个tgydF4y2B一个 是用两个主门的乘积来表示的吗gydF4y2B一个 ωgydF4y2B一个tgydF4y2B一个 .gydF4y2B一个

CgydF4y2B一个=gydF4y2B一个 ωgydF4y2B一个tgydF4y2B一个 •(gydF4y2B一个 fgydF4y2B一个tgydF4y2B一个 •gydF4y2B一个 cgydF4y2B一个tgydF4y2B一个 1gydF4y2B一个+gydF4y2B一个 我gydF4y2B一个tgydF4y2B一个 •gydF4y2B一个 cgydF4y2B一个tgydF4y2B一个 ) + (gydF4y2B一个 f᷉gydF4y2B一个tgydF4y2B一个 - - - - - -gydF4y2B一个 ωgydF4y2B一个tgydF4y2B一个 )•gydF4y2B一个 cgydF4y2B一个tgydF4y2B一个 1gydF4y2B一个+ (gydF4y2B一个 我᷉gydF4y2B一个tgydF4y2B一个 - - - - - -gydF4y2B一个 ωgydF4y2B一个tgydF4y2B一个 )•gydF4y2B一个 cgydF4y2B一个 tgydF4y2B一个 (11)gydF4y2B一个

最后是单元格状态gydF4y2B一个 CgydF4y2B一个被分层顺序信息分割,融合句法结构在模型中融合。gydF4y2B一个

功能的处理器gydF4y2B一个 多头的关注gydF4y2B一个

通过建立一个注意力邻接矩阵gydF4y2B一个 年代gydF4y2B一个 kgydF4y2B一个 ,我们转换了这个特性gydF4y2B一个 hgydF4y2B一个到一个全连通权图。在计算中使用了一组键值对和一个查询。得到的注意力矩阵表示潜在的句法树,该句法树由关键词的函数计算得到gydF4y2B一个 KgydF4y2B一个使用相应的查询gydF4y2B一个 问gydF4y2B一个.在这种情况下,两者都有gydF4y2B一个 问gydF4y2B一个和gydF4y2B一个 KgydF4y2B一个是一样的gydF4y2B一个 hgydF4y2B一个.gydF4y2B一个

(12)gydF4y2B一个

在哪里gydF4y2B一个 WgydF4y2B一个 问gydF4y2B一个 RgydF4y2B一个 dgydF4y2B一个 ×gydF4y2B一个 dgydF4y2B一个 和gydF4y2B一个 WgydF4y2B一个 KgydF4y2B一个 RgydF4y2B一个 dgydF4y2B一个 ×gydF4y2B一个 dgydF4y2B一个 是投影的参数,gydF4y2B一个 dgydF4y2B一个表示向量维数。gydF4y2B一个 年代gydF4y2B一个 kgydF4y2B一个 由gydF4y2B一个.gydF4y2B一个 hgydF4y2B一个 我gydF4y2B一个 和gydF4y2B一个 hgydF4y2B一个 jgydF4y2B一个 的归一化权重得分gydF4y2B一个 我gydF4y2B一个-th和thegydF4y2B一个 jgydF4y2B一个- token,分别。gydF4y2B一个

矩阵狮修剪gydF4y2B一个

我们修剪了矩阵树gydF4y2B一个 年代gydF4y2B一个 kgydF4y2B一个 为了平衡语法特征,输出为矩阵树a。它是通过将高斯核与注意矩阵相乘来实现的。在图像处理领域,常用高斯核函数来均衡图像。在模型中,我们选择了一个二维高斯核来平衡语法特征。下面是高斯核函数。gydF4y2B一个

(13)gydF4y2B一个

在哪里gydF4y2B一个 一个gydF4y2B一个是振幅,gydF4y2B一个 xgydF4y2B一个ogydF4y2B一个 和gydF4y2B一个 ygydF4y2B一个ogydF4y2B一个 中心点的坐标是,和gydF4y2B一个 σgydF4y2B一个xgydF4y2B一个 和gydF4y2B一个 σgydF4y2B一个ygydF4y2B一个 是方差。利用上述二维高斯核函数,我们可以得到高斯核函数。gydF4y2B一个

政府通讯gydF4y2B一个

GCN是一种神经网络,它可以利用图的结构信息。在GCN的输入上,我们用上面生成的语法树矩阵A代替输入的图结构,特征向量为输出向量gydF4y2B一个 hgydF4y2B一个的编码器。GCN的分层传播规则如下:gydF4y2B一个

(14)gydF4y2B一个

无向图的邻接矩阵gydF4y2B一个 ggydF4y2B一个带有额外自连接的表示为gydF4y2B一个 一个gydF4y2B一个,gydF4y2B一个 一个gydF4y2B一个=gydF4y2B一个 一个gydF4y2B一个+gydF4y2B一个 我gydF4y2B一个NgydF4y2B一个.我gydF4y2B一个NgydF4y2B一个 是单位矩阵,gydF4y2B一个 D᷉gydF4y2B一个2gydF4y2B一个 =ΣgydF4y2B一个 我gydF4y2B一个 一个gydF4y2B一个ijgydF4y2B一个.gydF4y2B一个 WgydF4y2B一个(gydF4y2B一个 lgydF4y2B一个 )gydF4y2B一个是一个可训练的权矩阵。激活函数表示为gydF4y2B一个 σgydF4y2B一个(•)。gydF4y2B一个 HgydF4y2B一个(gydF4y2B一个 lgydF4y2B一个 )gydF4y2B一个 RgydF4y2B一个 NgydF4y2B一个 ×gydF4y2B一个 DgydF4y2B一个 激活矩阵是否在gydF4y2B一个 lgydF4y2B一个th层,gydF4y2B一个 HgydF4y2B一个(0)gydF4y2B一个表示gydF4y2B一个 hgydF4y2B一个.gydF4y2B一个

分类器gydF4y2B一个

为了获得最终的分类表示,我们将句子和实体表示结合起来,并将它们输入到前馈神经网络中。gydF4y2B一个

HgydF4y2B一个 最后gydF4y2B一个=gydF4y2B一个 FFNNgydF4y2B一个([gydF4y2B一个 HgydF4y2B一个发送gydF4y2B一个 ;gydF4y2B一个 HgydF4y2B一个年代gydF4y2B一个 ;gydF4y2B一个 HgydF4y2B一个ogydF4y2B一个 ])gydF4y2B一个 (15)gydF4y2B一个

HgydF4y2B一个发送gydF4y2B一个,gydF4y2B一个 HgydF4y2B一个 年代gydF4y2B一个 ,gydF4y2B一个 HgydF4y2B一个 ogydF4y2B一个 分别表示句子、主语和宾语的表示。最后,逻辑回归分类器使用gydF4y2B一个 HgydF4y2B一个最后gydF4y2B一个作为一种象征。gydF4y2B一个

结果gydF4y2B一个 跨句任务的结果gydF4y2B一个

对于交叉句子任务,我们使用了3种模型作为基线:(1)基于特征的分类器[gydF4y2B一个 15gydF4y2B一个基于所有实体对的最短依赖路径;(2)图结构LSTM方法,包括双向有向无环图(DAG) LSTM (Bidir DAG LSTM) [gydF4y2B一个 5gydF4y2B一个],图状态LSTM (GS LSTM)和图LSTM [gydF4y2B一个 4gydF4y2B一个-这些方法扩展了LSTM来编码从输入短语创建的依赖边生成的图;(3)修剪过的GCNs [gydF4y2B一个 6gydF4y2B一个]包括注意力引导型GCN (AGGCN) [gydF4y2B一个 14gydF4y2B一个]及LFGCN (LFGCN) [gydF4y2B一个 11gydF4y2B一个]。这些方法使用GCNs对具有依赖边的图进行剪枝。此外,我们增加了双向编码器表示从变形金刚(BERT)预训练模型,以补充实验模型。用星号标记的结果是基于原始模型的重新实现。gydF4y2B一个

在多类关系提取任务中(最后2列)gydF4y2B一个 表1gydF4y2B一个),我们的SEGCN模型在所有实例上的准确率分别为81.7和80.2,优于所有基线(Cross)。在三元和二元关系中,我们的SEGCN模型比表现最好的图结构LSTM模型(GS LSTM)分别高出10.0和8.5分,与GCN模型相比,我们的模型比表现最好的LFGCN模型高出1.8和2.6分。gydF4y2B一个

交叉句子任务的结果。gydF4y2B一个

模型gydF4y2B一个 二进制类、准确性gydF4y2B一个 多层次、准确性gydF4y2B一个
三元gydF4y2B一个 二进制gydF4y2B一个 三元gydF4y2B一个 二进制gydF4y2B一个
单gydF4y2B一个 交叉gydF4y2B一个 单gydF4y2B一个 交叉gydF4y2B一个 交叉gydF4y2B一个 交叉gydF4y2B一个
基于特征gydF4y2B一个 74.7gydF4y2B一个 77.7gydF4y2B一个 73.9gydF4y2B一个 75.2gydF4y2B一个 - - - - - -gydF4y2B一个一个gydF4y2B一个 - - - - - -gydF4y2B一个
图LSTMgydF4y2B一个bgydF4y2B一个 77.9gydF4y2B一个 80.7gydF4y2B一个 75.6gydF4y2B一个 76.7gydF4y2B一个 - - - - - -gydF4y2B一个 - - - - - -gydF4y2B一个
DAGgydF4y2B一个cgydF4y2B一个LSTMgydF4y2B一个 77.9gydF4y2B一个 80.7gydF4y2B一个 74.3gydF4y2B一个 76.5gydF4y2B一个 - - - - - -gydF4y2B一个 - - - - - -gydF4y2B一个
GS LSTMgydF4y2B一个dgydF4y2B一个 80.3gydF4y2B一个 83.2gydF4y2B一个 83.5gydF4y2B一个 83.6gydF4y2B一个 71.7gydF4y2B一个 71.7gydF4y2B一个
政府通讯gydF4y2B一个egydF4y2B一个+修剪gydF4y2B一个 85.8gydF4y2B一个 85.8gydF4y2B一个 83.8gydF4y2B一个 83.7gydF4y2B一个 78.1gydF4y2B一个 73.6gydF4y2B一个
AGGCNgydF4y2B一个fgydF4y2B一个 87.1gydF4y2B一个 87.0gydF4y2B一个 85.2gydF4y2B一个 85.6gydF4y2B一个 80.2gydF4y2B一个 77.4gydF4y2B一个
LFGCNgydF4y2B一个ggydF4y2B一个 87.3gydF4y2B一个 86.5gydF4y2B一个 86.7gydF4y2B一个 85.7gydF4y2B一个 79.9gydF4y2B一个 77.6gydF4y2B一个
Aggcn + BertgydF4y2B一个hgydF4y2B一个 87.2gydF4y2B一个 87.1gydF4y2B一个 86.1gydF4y2B一个 84.9gydF4y2B一个 80.5gydF4y2B一个 78.1gydF4y2B一个
LFGCN + BertgydF4y2B一个 87.3gydF4y2B一个 86.5gydF4y2B一个 86.5gydF4y2B一个 86.7gydF4y2B一个 80.3gydF4y2B一个 78.0gydF4y2B一个
SEGCNgydF4y2B一个我gydF4y2B一个 88.5gydF4y2B一个 88.2gydF4y2B一个 87.2gydF4y2B一个 87.5gydF4y2B一个 81.7gydF4y2B一个 80.2gydF4y2B一个
Segcn + BertgydF4y2B一个 88.7gydF4y2B一个 88.4gydF4y2B一个 86.8gydF4y2B一个 87.7gydF4y2B一个 81.9gydF4y2B一个 80.4gydF4y2B一个

一个gydF4y2B一个不确定。gydF4y2B一个

bgydF4y2B一个LSTM:长短期记忆。gydF4y2B一个

cgydF4y2B一个DAG:有向无环图。gydF4y2B一个

dgydF4y2B一个GS LSTM:图结构长短期记忆。gydF4y2B一个

egydF4y2B一个GCN:图卷积网络。gydF4y2B一个

fgydF4y2B一个AGGCN:注意引导图卷积网络。gydF4y2B一个

ggydF4y2B一个LFGCN: lxvvy航班图卷积网络。gydF4y2B一个

hgydF4y2B一个BERT:来自变形金刚的双向编码器表示。gydF4y2B一个

我gydF4y2B一个SEGCN:语法边增强图卷积网络。gydF4y2B一个

在二元类关系提取任务中,我们的SEGCN模型的性能也优于所有基线gydF4y2B一个 表1gydF4y2B一个)。该任务被扩展为跨句子(Cross)和句子级(Single)子任务。在跨句级三元和二元分类中,我们的模型分别获得88.2和87.5分。我们的模型在句子级别的三元和二元分类中分别获得88.5分和87.2分。gydF4y2B一个

这些实验表明,我们的模型比之前的GS LSTM和GCN模型等丢弃浅层语法信息的模型取得了更好的结果。我们将模型的结果归因于引入浅语法信息和均衡过程。最后,为了与最新的方法进行比较,我们尝试引入BERT预训练。我们发现,经过BERT预训练后,任务的结果略有改善。我们认为BERT在预训练过程中也捕获了一些浅层句法信息。gydF4y2B一个

句子级任务的结果gydF4y2B一个

使用CPR的句子级任务的结果[gydF4y2B一个 11gydF4y2B一个]及PGR [gydF4y2B一个 16gydF4y2B一个]数据集见表。我们的模型与两种类型的模型进行了比较:(1)基于序列的模型,包括随机初始化的扩展和深度可分离卷积神经网络(Random-DDCNN) [gydF4y2B一个 9gydF4y2B一个],它使用解析器,这是一个通过随机初始化和微调的关系预测模型;基于注意的多层门控循环单元[gydF4y2B一个 17gydF4y2B一个],它将注意力机制叠加在递归门控单元之上;麸皮(gydF4y2B一个 18gydF4y2B一个],它使用双仿射自我注意模型来捕捉句子的相互作用;生物医学文本挖掘中变压器的双向编码器表示[j]gydF4y2B一个 19gydF4y2B一个],这是一个医学文献的预训练语言表征模型;(2)基于依赖的模型,基于单一依赖树,包括基于生物本体的长短期记忆网络[gydF4y2B一个 20.gydF4y2B一个]和GCN。也有基于依赖森林的模型,包括边缘图循环网络(GRN) [gydF4y2B一个 8gydF4y2B一个],其修剪得分大于阈值;kBest-GRN [gydF4y2B一个 8gydF4y2B一个],其中包括合并k-最佳树进行预测;ForestFT-DDCNN [gydF4y2B一个 9gydF4y2B一个],它构建了一个可学习的依赖分析器;及AGGCN及LFGCN [gydF4y2B一个 11gydF4y2B一个],它将多头关注与依赖特性联系起来。gydF4y2B一个

句子级任务的结果。gydF4y2B一个

型号及型号gydF4y2B一个 多类(BioCreative ViCPR数据集),F1分gydF4y2B一个 二类(表型-基因关系数据集),F1得分gydF4y2B一个
基于模型gydF4y2B一个
Random-DDCNNgydF4y2B一个一个gydF4y2B一个 45.4gydF4y2B一个 - - - - - -gydF4y2B一个bgydF4y2B一个
Att-GRUgydF4y2B一个cgydF4y2B一个 49.5gydF4y2B一个 - - - - - -gydF4y2B一个
麸皮gydF4y2B一个 50.8gydF4y2B一个 - - - - - -gydF4y2B一个
BioBERTgydF4y2B一个dgydF4y2B一个 - - - - - -gydF4y2B一个 67.2gydF4y2B一个
基于依赖关系的模型gydF4y2B一个
BO-LSTMgydF4y2B一个egydF4y2B一个 - - - - - -gydF4y2B一个 52.3gydF4y2B一个
政府通讯gydF4y2B一个fgydF4y2B一个 52.2gydF4y2B一个 81.3gydF4y2B一个
Edgewise-GRNgydF4y2B一个ggydF4y2B一个 53.4gydF4y2B一个 83.6gydF4y2B一个
kBest-GRNgydF4y2B一个 52.4gydF4y2B一个 85.7gydF4y2B一个
ForestFT-DDCNNgydF4y2B一个 55.7gydF4y2B一个 89.3gydF4y2B一个
AGGCNgydF4y2B一个hgydF4y2B一个 56.7gydF4y2B一个 88.5gydF4y2B一个
LFGCNgydF4y2B一个我gydF4y2B一个 64.0gydF4y2B一个 89.6gydF4y2B一个
LFGCN +伯特gydF4y2B一个 64.2gydF4y2B一个 89.8gydF4y2B一个
我们的模型gydF4y2B一个
SEGCNgydF4y2B一个jgydF4y2B一个 65.4gydF4y2B一个 91.3gydF4y2B一个
SEGCN +伯特gydF4y2B一个 65.6gydF4y2B一个 91.5gydF4y2B一个

一个gydF4y2B一个DDCNN:扩展深度可分离卷积神经网络。gydF4y2B一个

bgydF4y2B一个不确定。gydF4y2B一个

cgydF4y2B一个Att-GRU:基于注意的多层门控循环单元。gydF4y2B一个

dgydF4y2B一个生物医学文本挖掘的双向编码器表示。gydF4y2B一个

egydF4y2B一个BO-LSTM:基于生物本体的长短期记忆。gydF4y2B一个

fgydF4y2B一个GCN:图卷积网络。gydF4y2B一个

ggydF4y2B一个GRN:图循环网络。gydF4y2B一个

hgydF4y2B一个AGGCN:注意引导图卷积网络。gydF4y2B一个

我gydF4y2B一个LFGCN: lxvvy航班图卷积网络。gydF4y2B一个

jgydF4y2B一个SEGCN:句法增强图卷积网络。gydF4y2B一个

中句子级任务的结果显示gydF4y2B一个 表2gydF4y2B一个在多类数据集CPR和二分类数据集PGR上,我们的模型的F1得分分别为65.4和91.3,均取得了最好的表现。具体来说,我们的模型在CPR和PGR数据集上分别比之前基于最先进依赖性的模型(LFGCN)高出1.2和1.5个点。我们发现该模型的改进幅度小于交叉句水平任务。我们认为,在句子级任务中,浅层句法信息对短句长度的影响较小,而在跨句任务中,浅层句法信息对长句长度的影响更大。gydF4y2B一个

讨论gydF4y2B一个 消融实验gydF4y2B一个

我们在PGR数据集上验证了模型的不同模块,包括BERT预训练、矩阵树修剪层和特征捕获层。gydF4y2B一个 表3gydF4y2B一个显示了这些结果。我们可以看到,去掉任何一个模块后,模型的有效性都会降低。这三个模块都可以帮助模型学习更准确的特征表示。特征捕获层和矩阵树剪枝层分别提高了2.4和2.5个点,表明浅层语法信息和均衡处理导致了模型的提升。相比之下,流行的BERT预训练方法并不适合该模型。gydF4y2B一个

使用表型-基因关系数据集的消融研究。gydF4y2B一个

模型gydF4y2B一个 F1的分数gydF4y2B一个
SEGCNgydF4y2B一个一个gydF4y2B一个(所有)gydF4y2B一个 91.5gydF4y2B一个
SEGCN (- BERT预训练)gydF4y2B一个 91.3gydF4y2B一个
SEGCN(-矩阵树修剪)gydF4y2B一个 90.0gydF4y2B一个
SEGCN(-功能捕获)gydF4y2B一个 89.1gydF4y2B一个
基线(-全部)gydF4y2B一个 88.5gydF4y2B一个

一个gydF4y2B一个SEGCN:句法增强图卷积网络。gydF4y2B一个

烧蚀实验表明,浅层句法信息和均衡处理方法可以显著提高模型性能。我们认为这两种方法是通过处理句子中的交互信息来发挥作用的。浅层句法信息补充了句子的非局部相互作用,均衡化过程平衡了句子的局部和非局部相互作用。gydF4y2B一个

根据句子长度的表现gydF4y2B一个

我们通过对比实验考察了浅层句法信息的引入对不同句子长度的影响。gydF4y2B一个 图3gydF4y2B一个A为3个模型在不同句子长度下的F1得分。基于句子长度有3个类别((0,25),[25,50],>50)。总的来说,我们的SEGCN在所有3个长度类别中都优于ForestFT-DDCNN和LFGCN。此外,性能差距随着实例长度的增加而扩大。这些结果表明,添加浅层句法信息,特别是在长句子中,可以显著改善我们的模型。我们将此归因于我们的模型通过引入浅层句法信息来补充句子的非局部相互作用。因为他们更多地依赖于非局部相互作用,较长的句子得到了更高的F1分数。gydF4y2Ba

基于变形金刚(BERT)预训练的句子长度和双向编码器表示的性能。(A)不同句子长度的F1得分。基于Jin等人的ForestFT -扩展深度可分离卷积神经网络的研究结果[j]。gydF4y2B一个 10gydF4y2B一个]。(B) BERT预训练后F1分数与句子长度的关系。AGGCN:注意引导图卷积网络;LFGCN: lxvvy航班图卷积网络。gydF4y2B一个

对BERT预训练的性能gydF4y2B一个

为了证明我们的模型在句法增强方面的优越性,我们将模型与加入预训练的模型进行了比较。经过BERT预训练后,3个模型的F1分数见gydF4y2B一个 图3gydF4y2B一个B为不同的句子长度。基于句子长度有3个类别((0,25),[25,50],>50)。总的来说,BERT预训练对不同句子长度的模型显示出了微小的改进。它支持了我们的假设,即神经网络模型获得的句法特征不足。此外,我们发现没有BERT的SEGCN仍然比其他有BERT的模型运行得更好。这些结果表明,我们的模型在使用语法特征方面优于BERT。gydF4y2B一个

案例研究gydF4y2B一个

为了证明我们的方法对句子交互的影响,我们比较了从不同模型层获得的特征。gydF4y2B一个 图4gydF4y2B一个显示了模型不同层上例句的注意权值。我们决定使用热图来表示注意力权重。每个点的颜色代表交互信息的权重。颜色越深,权重越大。为了更直观,我们省略了权重较小的点。另外,多头注意层纳入浅层句法信息前后的输出分别用矩阵A和B表示。矩阵C表示均衡处理矩阵B的输出。gydF4y2Ba

句法增强图卷积网络模型中例句的热图。gydF4y2B一个

如图所示gydF4y2B一个 图4gydF4y2B一个,矩阵中的权值分布gydF4y2B一个 一个gydF4y2B一个更集中于对角线分布。相比之下,矩阵B和矩阵C的非对角权重分布明显多于矩阵a。这支持了我们的观点,即包含浅层句法信息的模型逐渐关注句子中的非局部相互作用。此外,通过比较矩阵B和C,我们看到均衡的矩阵C更加公平地关注模型的权重(颜色越相似,权重越接近)。我们认为,通过平衡对局部和非局部相互作用的关注,可以提高模型的性能。这些结果进一步证明了我们的模型如何利用句法信息进行句法增强。gydF4y2B一个

结论gydF4y2B一个

本研究首次提出在医学关系提取中加入浅层句法信息来增强句法。此外,我们还设计了一种新的剪枝方法来平衡模型中的句法交互。对3个医疗数据集的结果表明,我们的方法可以改善和平衡句法交互,显著优于以前的模型。烧蚀实验证明了这两种方法的有效性。未来,我们将继续研究浅句法信息与句子交互之间的关系。gydF4y2B一个

缩写gydF4y2B一个 AGGCNgydF4y2B一个

注意引导图卷积网络gydF4y2B一个

伯特gydF4y2B一个

来自变压器的双向编码器表示gydF4y2B一个

DAGgydF4y2B一个

有向无环图gydF4y2B一个

DDCNNgydF4y2B一个

扩展和深度可分卷积神经网络gydF4y2B一个

政府通讯gydF4y2B一个

图卷积网络gydF4y2B一个

入库单gydF4y2B一个

图循环网络gydF4y2B一个

LFGCNgydF4y2B一个

lsamvy航班图卷积网络gydF4y2B一个

LSTMgydF4y2B一个

长短期记忆gydF4y2B一个

ON-LSTMgydF4y2B一个

有序的神经元长短期记忆gydF4y2B一个

PGRgydF4y2B一个

Phenotype-Gene关系gydF4y2B一个

Random-DDCNNgydF4y2B一个

随机初始化的扩展深度可分卷积神经网络gydF4y2B一个

SEGCNgydF4y2B一个

语法增强图卷积网络gydF4y2B一个

本文由国家自然科学基金(62006034和62072070)、辽宁省自然科学基金(2021-BS-067)和中央高校基本科研业务费专项基金[DUT21RC(3)015]资助。gydF4y2B一个

WT主导了方法应用、实验传导和结果分析。DZ参与了数据的提取和预处理。YZ参与了稿件的修改。HM为本文提供了理论指导和修改。gydF4y2B一个

没有宣布。gydF4y2B一个

希曼gydF4y2B一个 巴勒斯坦权力机构gydF4y2B一个 艾伦gydF4y2B一个 摩根富林明gydF4y2B一个 将词性标注纳入语言建模gydF4y2B一个 1997gydF4y2B一个 第五届欧洲语音通信与技术会议gydF4y2B一个 1997年9月22日至25日gydF4y2B一个 罗兹gydF4y2B一个 莱特gydF4y2B一个 JHgydF4y2B一个 琼斯gydF4y2B一个 GJFgydF4y2B一个 Lloyd-ThomasgydF4y2B一个 HgydF4y2B一个 一个包含子字符串解析器和扩展n-gram的健壮语言模型gydF4y2B一个 1994gydF4y2B一个 ICASSP 94年。IEEE声学、语音与信号处理国际会议gydF4y2B一个 1994年4月19日至22日gydF4y2B一个 阿德莱德山gydF4y2B一个 10.1109 / icassp.1994.389281gydF4y2B一个 MeritygydF4y2B一个 年代gydF4y2B一个 凯斯卡gydF4y2B一个 NSgydF4y2B一个 SochergydF4y2B一个 RgydF4y2B一个 正则化和优化LSTM语言模型gydF4y2B一个 2018gydF4y2B一个 第六届国际学习表征会议,ICLR 2018gydF4y2B一个 2018年4月30日- 5月3日gydF4y2B一个 温哥华公元前gydF4y2B一个 彭gydF4y2B一个 NgydF4y2B一个 胡桐gydF4y2B一个 HgydF4y2B一个 怪癖gydF4y2B一个 CgydF4y2B一个 ToutanovagydF4y2B一个 KgydF4y2B一个 YihgydF4y2B一个 WgydF4y2B一个 基于图lstm的跨句n元关系提取gydF4y2B一个 TACLgydF4y2B一个 2017gydF4y2B一个 12gydF4y2B一个 5gydF4y2B一个 101gydF4y2B一个 115gydF4y2B一个 10.1162 / tacl_a_00049gydF4y2B一个 LinfenggydF4y2B一个 年代gydF4y2B一个 悦gydF4y2B一个 ZgydF4y2B一个 治国gydF4y2B一个 WgydF4y2B一个 基于图状态LSTM的n元关系提取gydF4y2B一个 2018gydF4y2B一个 2018年自然语言处理经验方法会议gydF4y2B一个 2018年10月31日gydF4y2B一个 布鲁塞尔gydF4y2B一个 10.18653 / v1 / d18 - 1246gydF4y2B一个 张gydF4y2B一个 YgydF4y2B一个 气gydF4y2B一个 PgydF4y2B一个 曼宁gydF4y2B一个 CDgydF4y2B一个 经过修剪的依赖树上的图卷积改进了关系提取gydF4y2B一个 2018gydF4y2B一个 2018年自然语言处理经验方法会议gydF4y2B一个 2018年10月31日gydF4y2B一个 布鲁塞尔gydF4y2B一个 10.18653 / v1 / d18 - 1244gydF4y2B一个 张gydF4y2B一个 HgydF4y2B一个 陆gydF4y2B一个 GgydF4y2B一个 张ydF4y2B一个 米gydF4y2B一个 张gydF4y2B一个 BgydF4y2B一个 具有拉普拉斯秩约束的图卷积网络的半监督分类gydF4y2B一个 神经过程左gydF4y2B一个 2021gydF4y2B一个 01gydF4y2B一个 01gydF4y2B一个 10.1007 / s11063 - 020 - 10404 - 7gydF4y2B一个 首歌gydF4y2B一个 lgydF4y2B一个 张gydF4y2B一个 YgydF4y2B一个 吉尔达gydF4y2B一个 DgydF4y2B一个 余gydF4y2B一个 米gydF4y2B一个 王gydF4y2B一个 ZgydF4y2B一个 苏gydF4y2B一个 JgydF4y2B一个 利用依赖森林进行神经医学关系提取gydF4y2B一个 2019gydF4y2B一个 2019年自然语言处理经验方法会议暨第九届国际自然语言处理联合会议(EMNLP-IJCNLP)gydF4y2B一个 2019年11月gydF4y2B一个 香港gydF4y2B一个 10.18653 / v1 / d19 - 1020gydF4y2B一个 金gydF4y2B一个 lgydF4y2B一个 首歌gydF4y2B一个 lgydF4y2B一个 张gydF4y2B一个 YgydF4y2B一个 徐gydF4y2B一个 KgydF4y2B一个 妈gydF4y2B一个 WgydF4y2B一个 余gydF4y2B一个 DgydF4y2B一个 利用完全依赖森林的关系提取gydF4y2B一个 2020gydF4y2B一个 04gydF4y2B一个 03gydF4y2B一个 AAAI人工智能会议gydF4y2B一个 2020年2月7日至12日gydF4y2B一个 纽约,纽约gydF4y2B一个 10.1609 / aaai.v34i05.6313gydF4y2B一个 DozatgydF4y2B一个 TgydF4y2B一个 曼宁gydF4y2B一个 厘米gydF4y2B一个 神经依赖性分析的深度苯酞注意力gydF4y2B一个 2017gydF4y2B一个 第五届国际学习表征会议,ICLR 2017gydF4y2B一个 2017年4月24日至26日gydF4y2B一个 土伦gydF4y2B一个 芷江gydF4y2B一个 GgydF4y2B一个 南gydF4y2B一个 GgydF4y2B一个 陆gydF4y2B一个 WgydF4y2B一个 科恩gydF4y2B一个 某人gydF4y2B一个 学习用于医学关系提取的潜在森林gydF4y2B一个 2020gydF4y2B一个 第29届国际人工智能联合会议gydF4y2B一个 2020gydF4y2B一个 横滨gydF4y2B一个 10.24963 / ijcai.2020/505gydF4y2B一个 黑尔gydF4y2B一个 JgydF4y2B一个 戴尔gydF4y2B一个 CgydF4y2B一个 KuncorogydF4y2B一个 一个gydF4y2B一个 布伦南gydF4y2B一个 JgydF4y2B一个 用波束搜索在人类脑电图中发现语法gydF4y2B一个 2018gydF4y2B一个 第56届计算语言学协会年会gydF4y2B一个 2018年7月gydF4y2B一个 墨尔本,维克gydF4y2B一个 10.18653 / v1 / p18 - 1254gydF4y2B一个 沈gydF4y2B一个 YgydF4y2B一个 唐ydF4y2B一个 年代gydF4y2B一个 SordonigydF4y2B一个 一个gydF4y2B一个 考维尔gydF4y2B一个 一个gydF4y2B一个 有序神经元:将树形结构整合到循环神经网络中gydF4y2B一个 出来了。预印本2019年5月8日在线发布gydF4y2B一个 2019gydF4y2B一个 郭gydF4y2B一个 ZgydF4y2B一个 张gydF4y2B一个 YgydF4y2B一个 陆gydF4y2B一个 WgydF4y2B一个 用于关系提取的注意引导图卷积网络gydF4y2B一个 2019gydF4y2B一个 计算语言学协会第57届年会gydF4y2B一个 2019年7月gydF4y2B一个 弗洛伦斯gydF4y2B一个 10.18653 / v1 / p19 - 1024gydF4y2B一个 怪癖gydF4y2B一个 CgydF4y2B一个 胡桐gydF4y2B一个 HgydF4y2B一个 句子边界外关系抽取的远程监督gydF4y2B一个 2017gydF4y2B一个 计算语言学协会欧洲分会第15届会议gydF4y2B一个 2017年4月gydF4y2B一个 瓦伦西亚gydF4y2B一个 10.18653 / v1 / e17 - 1110gydF4y2B一个 苏萨gydF4y2B一个 DgydF4y2B一个 LamuriasgydF4y2B一个 一个gydF4y2B一个 CoutogydF4y2B一个 调频gydF4y2B一个 人类表型-基因关系银标准语料库gydF4y2B一个 2019gydF4y2B一个 计算语言学协会北美分会2019年会议:人类语言技术gydF4y2B一个 2019年6月gydF4y2B一个 明尼阿波利斯、锰gydF4y2B一个 10.18653 / v1 / n19 - 1152gydF4y2B一个 刘gydF4y2B一个 年代gydF4y2B一个 沈gydF4y2B一个 FgydF4y2B一个 Komandur ElayavilligydF4y2B一个 RgydF4y2B一个 王gydF4y2B一个 YgydF4y2B一个 Rastegar-MojaradgydF4y2B一个 米gydF4y2B一个 乔杜里gydF4y2B一个 VgydF4y2B一个 刘gydF4y2B一个 HgydF4y2B一个 利用基于注意力的神经网络提取化学-蛋白质关系gydF4y2B一个 数据库(牛津)gydF4y2B一个 2018gydF4y2B一个 01gydF4y2B一个 01gydF4y2B一个 2018gydF4y2B一个 102gydF4y2B一个 10.1093 /数据库/ bay102gydF4y2B一个 30295724gydF4y2B一个 5122756gydF4y2B一个 PMC6174551gydF4y2B一个 VergagydF4y2B一个 PgydF4y2B一个 StrubellgydF4y2B一个 EgydF4y2B一个 McCallumgydF4y2B一个 一个gydF4y2B一个 同时关注所有提及的全抽象生物关系提取gydF4y2B一个 2018gydF4y2B一个 计算语言学协会北美分会2018年会议:人类语言技术gydF4y2B一个 2018年6月gydF4y2B一个 新奥尔良,洛杉矶gydF4y2B一个 10.18653 / v1 / n18 - 1080gydF4y2B一个 李gydF4y2B一个 JgydF4y2B一个 尹gydF4y2B一个 WgydF4y2B一个 金gydF4y2B一个 年代gydF4y2B一个 金gydF4y2B一个 DgydF4y2B一个 金gydF4y2B一个 年代gydF4y2B一个 所以gydF4y2B一个 CHgydF4y2B一个 康gydF4y2B一个 JgydF4y2B一个 BioBERT:用于生物医学文本挖掘的预训练生物医学语言表示模型gydF4y2B一个 生物信息学gydF4y2B一个 2020gydF4y2B一个 02gydF4y2B一个 15gydF4y2B一个 36gydF4y2B一个 4gydF4y2B一个 1234gydF4y2B一个 1240gydF4y2B一个 10.1093 /生物信息学/ btz682gydF4y2B一个 31501885gydF4y2B一个 5566506gydF4y2B一个 PMC7703786gydF4y2B一个 LamuriasgydF4y2B一个 一个gydF4y2B一个 苏萨gydF4y2B一个 DgydF4y2B一个 克拉克gydF4y2B一个 拉gydF4y2B一个 CoutogydF4y2B一个 调频gydF4y2B一个 BO-LSTM:基于生物医学本体的长短期记忆网络的关系分类gydF4y2B一个 BMC生物信息学gydF4y2B一个 2019gydF4y2B一个 01gydF4y2B一个 07gydF4y2B一个 20.gydF4y2B一个 1gydF4y2B一个 10gydF4y2B一个 10.1186 / s12859 - 018 - 2584 - 5gydF4y2B一个 30616557gydF4y2B一个 10.1186 / s12859 - 018 - 2584 - 5gydF4y2B一个 PMC6323831gydF4y2B一个
Baidu
map