这是一篇在知识共享署名许可(https://creativecommons.org/licenses/by/4.0/)条款下发布的开放获取文章,该许可允许在任何媒介上不受限制地使用、分发和复制,前提是原始作品(首次发表在JMIR Medical Informatics上)被适当引用。必须包括完整的书目信息,到https://medinform.www.mybigtv.com/上原始出版物的链接,以及版权和许可信息。gydF4y2B一个
医学文献数量的不断增加,要求对医学文献进行分类。医学关系提取是对大量医学文献进行分类的一种典型方法。随着算术能力的发展,医学关系提取模型已经从基于规则的模型发展到神经网络模型。单神经网络模型在抛弃传统规则的同时,也抛弃了浅层语法信息。因此,我们提出了一种基于句法信息的分类模型,通过对句法信息的补充和均衡来增强模型。gydF4y2B一个
我们的目标是完成一个基于句法信息的关系抽取模型,以实现更高效的医学文献分类。gydF4y2B一个
我们设计了两种方法来增强模型中的句法信息。首先,我们将浅层句法信息引入卷积神经网络,增强非局部句法交互。其次,我们设计了一种跨域修剪方法来平衡局部和非局部语法交互。gydF4y2B一个
我们用3个与医学文献分类相关的数据集进行实验。在BioCreative ViCPR (CPR)和Phenotype-Gene Relationship数据集上的F1值分别为65.5%和91.5%,在PubMed数据集上的准确率为88.7%。我们的模型在实验中优于目前最先进的基线模型。gydF4y2B一个
基于句法信息的模型有效地提高了医学关系的提取。此外,实验结果表明,浅层句法信息有助于获得句子中的非局部交互,有效地强化句法特征。为今后的研究方向提供了新的思路。gydF4y2B一个
鉴于材料的不断增加,医学文献的分类是特别必要的。医学关系提取是一种典型的医学文献分类方法,它利用医学文本对文献进行快速分类。这项技术的进步将对医学研究产生深远的影响。例如,在医学文献中的句子“人类苯丙氨酸羟化酶的催化结构域与儿茶酚抑制剂结合”(gydF4y2B一个
通过引入浅层语法信息和均衡来实现交互特性。(A)没有处理的依赖树;(B)句法结构融合后的依赖树;(C)修剪后的依赖树。森林中每条弧线的重量由它的数字表示。为了清楚起见,省略了一些边。gydF4y2B一个
提取医疗关系有两种主要方法:基于网络的方法和基于规则的方法。基于规则的模型通过施加规则约束只能获得浅层句法信息,导致早期的研究主要集中于获取浅层句法信息,如词性标签[gydF4y2B一个
在医学关系提取中,基于规则的模型和基于神经网络的模型都存在不足。首先,基于规则的方法在为医学文本设计规则方面成本太高。由于医学文本规则的自定义不同于通用领域[gydF4y2B一个
该模型通过引入浅层句法信息和均衡化,可以更好地捕捉句子中的交互特征。我们可以看到,gydF4y2B一个
总之,我们提出了一种基于句法特征的医学文献分类关系提取模型,其中浅层句法信息在神经网络中被整合和均衡。首先,我们模型的编码器是有序神经元LSTM (ON-LSTM) [gydF4y2B一个
我们从医学领域选择了3个数据集来评估我们的模型。利用这些数据集,我们在交叉句和句子层面上对两种类型的医学关系提取任务进行了实验。gydF4y2B一个
为了提取跨句关系,从PubMed中提取了6086个二元关系实例[gydF4y2B一个
用于提取句子级关系。我们参考了BioCreative ViCPR (CPR)和表型-基因关系(PGR)数据集。PGR数据集引入了具有人类表型的人类基因之间的信息;它包含218个测试实例和11,781个训练实例,以及两种类型的关系标签:“否”和“是”。CPR数据集包含有关人体蛋白质和化学成分之间相互作用的信息。它有16,106个训练、14,268个测试和10,031个开发实例,以及包含5个关系,例如“None”、“CPR:2”和“CPR:6”关系。为了更直观,我们将这两组数据合并到一个表中。gydF4y2Ba
对于跨句关系任务,我们参考了与Guo等人[gydF4y2B一个
我们提出的句法增强图卷积网络(SEGCN)模型概述(gydF4y2B一个
语法增强图卷积网络模型的图解表示,展示了实例及其语法信息处理流程。从编码器得到句法结构树,用矩阵树变换特征处理器中的句法依赖树。gydF4y2B一个
我们使用ON-LSTM [gydF4y2B一个
给定一个句子gydF4y2B一个
它与LSTM的不同之处在于,它使用一个新函数来替换单元格状态的更新函数gydF4y2B一个
我们使用softmax预测神经元的层序,然后用cs计算累积和。最后,gydF4y2B一个
根据累积和的属性,主遗忘门gydF4y2B一个
最后是单元格状态gydF4y2B一个
通过建立一个注意力邻接矩阵gydF4y2B一个
在哪里gydF4y2B一个
我们修剪了矩阵树gydF4y2B一个
在哪里gydF4y2B一个
GCN是一种神经网络,它可以利用图的结构信息。在GCN的输入上,我们用上面生成的语法树矩阵A代替输入的图结构,特征向量为输出向量gydF4y2B一个
无向图的邻接矩阵gydF4y2B一个
为了获得最终的分类表示,我们将句子和实体表示结合起来,并将它们输入到前馈神经网络中。gydF4y2B一个
对于交叉句子任务,我们使用了3种模型作为基线:(1)基于特征的分类器[gydF4y2B一个
在多类关系提取任务中(最后2列)gydF4y2B一个
交叉句子任务的结果。gydF4y2B一个
模型gydF4y2B一个 | 二进制类、准确性gydF4y2B一个 | 多层次、准确性gydF4y2B一个 | ||||
|
三元gydF4y2B一个 | 二进制gydF4y2B一个 | 三元gydF4y2B一个 | 二进制gydF4y2B一个 | ||
|
单gydF4y2B一个 | 交叉gydF4y2B一个 | 单gydF4y2B一个 | 交叉gydF4y2B一个 | 交叉gydF4y2B一个 | 交叉gydF4y2B一个 |
基于特征gydF4y2B一个 | 74.7gydF4y2B一个 | 77.7gydF4y2B一个 | 73.9gydF4y2B一个 | 75.2gydF4y2B一个 | - - - - - -gydF4y2B一个一个gydF4y2B一个 | - - - - - -gydF4y2B一个 |
图LSTMgydF4y2B一个bgydF4y2B一个 | 77.9gydF4y2B一个 | 80.7gydF4y2B一个 | 75.6gydF4y2B一个 | 76.7gydF4y2B一个 | - - - - - -gydF4y2B一个 | - - - - - -gydF4y2B一个 |
DAGgydF4y2B一个cgydF4y2B一个LSTMgydF4y2B一个 | 77.9gydF4y2B一个 | 80.7gydF4y2B一个 | 74.3gydF4y2B一个 | 76.5gydF4y2B一个 | - - - - - -gydF4y2B一个 | - - - - - -gydF4y2B一个 |
GS LSTMgydF4y2B一个dgydF4y2B一个 | 80.3gydF4y2B一个 | 83.2gydF4y2B一个 | 83.5gydF4y2B一个 | 83.6gydF4y2B一个 | 71.7gydF4y2B一个 | 71.7gydF4y2B一个 |
政府通讯gydF4y2B一个egydF4y2B一个+修剪gydF4y2B一个 | 85.8gydF4y2B一个 | 85.8gydF4y2B一个 | 83.8gydF4y2B一个 | 83.7gydF4y2B一个 | 78.1gydF4y2B一个 | 73.6gydF4y2B一个 |
AGGCNgydF4y2B一个fgydF4y2B一个 | 87.1gydF4y2B一个 | 87.0gydF4y2B一个 | 85.2gydF4y2B一个 | 85.6gydF4y2B一个 | 80.2gydF4y2B一个 | 77.4gydF4y2B一个 |
LFGCNgydF4y2B一个ggydF4y2B一个 | 87.3gydF4y2B一个 | 86.5gydF4y2B一个 | 86.7gydF4y2B一个 | 85.7gydF4y2B一个 | 79.9gydF4y2B一个 | 77.6gydF4y2B一个 |
Aggcn + BertgydF4y2B一个hgydF4y2B一个 | 87.2gydF4y2B一个 | 87.1gydF4y2B一个 | 86.1gydF4y2B一个 | 84.9gydF4y2B一个 | 80.5gydF4y2B一个 | 78.1gydF4y2B一个 |
LFGCN + BertgydF4y2B一个 | 87.3gydF4y2B一个 | 86.5gydF4y2B一个 | 86.5gydF4y2B一个 | 86.7gydF4y2B一个 | 80.3gydF4y2B一个 | 78.0gydF4y2B一个 |
SEGCNgydF4y2B一个我gydF4y2B一个 | 88.5gydF4y2B一个 | 88.2gydF4y2B一个 | 87.2gydF4y2B一个 | 87.5gydF4y2B一个 | 81.7gydF4y2B一个 | 80.2gydF4y2B一个 |
Segcn + BertgydF4y2B一个 | 88.7gydF4y2B一个 | 88.4gydF4y2B一个 | 86.8gydF4y2B一个 | 87.7gydF4y2B一个 | 81.9gydF4y2B一个 | 80.4gydF4y2B一个 |
一个gydF4y2B一个不确定。gydF4y2B一个
bgydF4y2B一个LSTM:长短期记忆。gydF4y2B一个
cgydF4y2B一个DAG:有向无环图。gydF4y2B一个
dgydF4y2B一个GS LSTM:图结构长短期记忆。gydF4y2B一个
egydF4y2B一个GCN:图卷积网络。gydF4y2B一个
fgydF4y2B一个AGGCN:注意引导图卷积网络。gydF4y2B一个
ggydF4y2B一个LFGCN: lxvvy航班图卷积网络。gydF4y2B一个
hgydF4y2B一个BERT:来自变形金刚的双向编码器表示。gydF4y2B一个
我gydF4y2B一个SEGCN:语法边增强图卷积网络。gydF4y2B一个
在二元类关系提取任务中,我们的SEGCN模型的性能也优于所有基线gydF4y2B一个
这些实验表明,我们的模型比之前的GS LSTM和GCN模型等丢弃浅层语法信息的模型取得了更好的结果。我们将模型的结果归因于引入浅语法信息和均衡过程。最后,为了与最新的方法进行比较,我们尝试引入BERT预训练。我们发现,经过BERT预训练后,任务的结果略有改善。我们认为BERT在预训练过程中也捕获了一些浅层句法信息。gydF4y2B一个
使用CPR的句子级任务的结果[gydF4y2B一个
句子级任务的结果。gydF4y2B一个
型号及型号gydF4y2B一个 | 多类(BioCreative ViCPR数据集),F1分gydF4y2B一个 | 二类(表型-基因关系数据集),F1得分gydF4y2B一个 | |
|
|||
|
Random-DDCNNgydF4y2B一个一个gydF4y2B一个 | 45.4gydF4y2B一个 | - - - - - -gydF4y2B一个bgydF4y2B一个 |
|
Att-GRUgydF4y2B一个cgydF4y2B一个 | 49.5gydF4y2B一个 | - - - - - -gydF4y2B一个 |
|
麸皮gydF4y2B一个 | 50.8gydF4y2B一个 | - - - - - -gydF4y2B一个 |
|
BioBERTgydF4y2B一个dgydF4y2B一个 | - - - - - -gydF4y2B一个 | 67.2gydF4y2B一个 |
|
|||
|
BO-LSTMgydF4y2B一个egydF4y2B一个 | - - - - - -gydF4y2B一个 | 52.3gydF4y2B一个 |
|
政府通讯gydF4y2B一个fgydF4y2B一个 | 52.2gydF4y2B一个 | 81.3gydF4y2B一个 |
|
Edgewise-GRNgydF4y2B一个ggydF4y2B一个 | 53.4gydF4y2B一个 | 83.6gydF4y2B一个 |
|
kBest-GRNgydF4y2B一个 | 52.4gydF4y2B一个 | 85.7gydF4y2B一个 |
|
ForestFT-DDCNNgydF4y2B一个 | 55.7gydF4y2B一个 | 89.3gydF4y2B一个 |
AGGCNgydF4y2B一个hgydF4y2B一个 | 56.7gydF4y2B一个 | 88.5gydF4y2B一个 | |
LFGCNgydF4y2B一个我gydF4y2B一个 | 64.0gydF4y2B一个 | 89.6gydF4y2B一个 | |
LFGCN +伯特gydF4y2B一个 | 64.2gydF4y2B一个 | 89.8gydF4y2B一个 | |
|
|||
|
SEGCNgydF4y2B一个jgydF4y2B一个 | 65.4gydF4y2B一个 | 91.3gydF4y2B一个 |
|
SEGCN +伯特gydF4y2B一个 | 65.6gydF4y2B一个 | 91.5gydF4y2B一个 |
一个gydF4y2B一个DDCNN:扩展深度可分离卷积神经网络。gydF4y2B一个
bgydF4y2B一个不确定。gydF4y2B一个
cgydF4y2B一个Att-GRU:基于注意的多层门控循环单元。gydF4y2B一个
dgydF4y2B一个生物医学文本挖掘的双向编码器表示。gydF4y2B一个
egydF4y2B一个BO-LSTM:基于生物本体的长短期记忆。gydF4y2B一个
fgydF4y2B一个GCN:图卷积网络。gydF4y2B一个
ggydF4y2B一个GRN:图循环网络。gydF4y2B一个
hgydF4y2B一个AGGCN:注意引导图卷积网络。gydF4y2B一个
我gydF4y2B一个LFGCN: lxvvy航班图卷积网络。gydF4y2B一个
jgydF4y2B一个SEGCN:句法增强图卷积网络。gydF4y2B一个
中句子级任务的结果显示gydF4y2B一个
我们在PGR数据集上验证了模型的不同模块,包括BERT预训练、矩阵树修剪层和特征捕获层。gydF4y2B一个
使用表型-基因关系数据集的消融研究。gydF4y2B一个
模型gydF4y2B一个 | F1的分数gydF4y2B一个 |
SEGCNgydF4y2B一个一个gydF4y2B一个(所有)gydF4y2B一个 | 91.5gydF4y2B一个 |
SEGCN (- BERT预训练)gydF4y2B一个 | 91.3gydF4y2B一个 |
SEGCN(-矩阵树修剪)gydF4y2B一个 | 90.0gydF4y2B一个 |
SEGCN(-功能捕获)gydF4y2B一个 | 89.1gydF4y2B一个 |
基线(-全部)gydF4y2B一个 | 88.5gydF4y2B一个 |
一个gydF4y2B一个SEGCN:句法增强图卷积网络。gydF4y2B一个
烧蚀实验表明,浅层句法信息和均衡处理方法可以显著提高模型性能。我们认为这两种方法是通过处理句子中的交互信息来发挥作用的。浅层句法信息补充了句子的非局部相互作用,均衡化过程平衡了句子的局部和非局部相互作用。gydF4y2B一个
我们通过对比实验考察了浅层句法信息的引入对不同句子长度的影响。gydF4y2B一个
基于变形金刚(BERT)预训练的句子长度和双向编码器表示的性能。(A)不同句子长度的F1得分。基于Jin等人的ForestFT -扩展深度可分离卷积神经网络的研究结果[j]。gydF4y2B一个
为了证明我们的模型在句法增强方面的优越性,我们将模型与加入预训练的模型进行了比较。经过BERT预训练后,3个模型的F1分数见gydF4y2B一个
为了证明我们的方法对句子交互的影响,我们比较了从不同模型层获得的特征。gydF4y2B一个
句法增强图卷积网络模型中例句的热图。gydF4y2B一个
如图所示gydF4y2B一个
本研究首次提出在医学关系提取中加入浅层句法信息来增强句法。此外,我们还设计了一种新的剪枝方法来平衡模型中的句法交互。对3个医疗数据集的结果表明,我们的方法可以改善和平衡句法交互,显著优于以前的模型。烧蚀实验证明了这两种方法的有效性。未来,我们将继续研究浅句法信息与句子交互之间的关系。gydF4y2B一个
注意引导图卷积网络gydF4y2B一个
来自变压器的双向编码器表示gydF4y2B一个
有向无环图gydF4y2B一个
扩展和深度可分卷积神经网络gydF4y2B一个
图卷积网络gydF4y2B一个
图循环网络gydF4y2B一个
lsamvy航班图卷积网络gydF4y2B一个
长短期记忆gydF4y2B一个
有序的神经元长短期记忆gydF4y2B一个
Phenotype-Gene关系gydF4y2B一个
随机初始化的扩展深度可分卷积神经网络gydF4y2B一个
语法增强图卷积网络gydF4y2B一个
本文由国家自然科学基金(62006034和62072070)、辽宁省自然科学基金(2021-BS-067)和中央高校基本科研业务费专项基金[DUT21RC(3)015]资助。gydF4y2B一个
WT主导了方法应用、实验传导和结果分析。DZ参与了数据的提取和预处理。YZ参与了稿件的修改。HM为本文提供了理论指导和修改。gydF4y2B一个
没有宣布。gydF4y2B一个