更正和补遗 孟记1博士; Yanmeng刘1,马; 田勇郝2博士 1悉尼大学语言与文化学院,悉尼,澳大利亚 2华南师范大学计算机科学学院,广东,中国 通讯作者: 郝天勇,博士 计算机科学学院 华南师范大学 天河区石牌中山大道西55号 广东,510631年 中国 电话:86 15626239317 电子邮件:haoty@m.scnu.edu.cn 相关的文章修正:https://medinform.www.mybigtv.com/2021/9/e29175 JMIR Med Inform 2021;9(9):e33385 doi: 10.2196/33385 在“预测健康材料可及性:机器学习算法的发展”(JMIR Med Inform 2021;9(9):e29175)中,作者指出了一些错误。为了纠正这些错误,做了以下更改: 作者元数据 在最初发表的论文中,Affiliation 1的出现如下: 悉尼大学语言文化学院,悉尼,澳大利亚 现更正如下: 悉尼大学语言与文化学院,悉尼,澳大利亚 摘要 在“方法”下面,短语“我们对整个数据集进行了10次交叉验证……"已被"我们在整个数据集....上应用了5倍交叉验证" 在“结果”下面,句子“结果表明,集成树(LogitBoost)在AUC(0.97)、敏感性(0.966)、特异性(0.972)和准确性(0.969)方面表现良好。决策树(AUC 0.924,敏感性0.912,特异性0.9358,准确度0.924)和支持向量机(AUC 0.8946,敏感性0.8952,特异性0.894,准确度0.8946)紧随其后。决策树、集成树和支持向量机在AUC、特异性和准确性方面比逻辑回归有统计学上的显著改善。集成树作为性能最好的算法,在AUC、特异性和准确率上均较SVM有显著提高,在灵敏度上较决策树有显著提高"已经被"结果表明,集成分类器(LogitBoost)在AUC(0.858)、灵敏度(0.787)、特异性(0.813)和准确率(0.802)方面均有较好的表现。支持向量机(AUC 0.848,敏感性0.783,特异性0.791,准确度0.786)和决策树(AUC 0.754,敏感性0.7174,特异性0.7424,准确度0.732)紧随其后。集成分类器(LogitBoost)、支持向量机和决策树在AUC、敏感性、特异性和准确性方面均优于逻辑回归。支持向量机在AUC和准确率上均比决策树有统计学上的显著提高。集成分类器(LogitBoost)作为性能最好的算法,在AUC、灵敏度、特异性和准确率方面均比决策树算法有统计学上的显著提高。" 介绍 在“资料收集与分类”下,最后一句“最终的分类包含两组文本:简单(n=499)和困难(n=501;…"已被"最后的分类包含两组文本:简单(n=495)和困难(n=505;....)" 在“材料标注与语义特征提取”中,使用USAS,我们收集了108个语义特征"已被"使用USAS,我们收集了113个语义特征。" 在“健康教育英语文本多维语义特征的统计分析”一文中,第一段“113个语义特征中有29个被认为具有统计显著性……"已被"113个语义特征中有26个被认为具有统计学意义...." 在“健康教育英语文本多维语义特征的统计分析”一文中,第一段“在可理解性较高的卫生文本中,Z8的平均分为52.91分,降至20.15分。"已被"可理解性较高的健康文本中Z8的平均分为52.84分,降至20.48分...." 在“健康教育英语文本多维语义特征的统计分析”一文中,第一段“为0.929 (95% CI 0.905-0.953),…简单读数为0.929…"已被"...0.928 (95% CI 0.905-0.951)…易读值为0.928...." 在“健康教育英语文本多维语义特征的统计分析”一文中,第一段“有统计学意义(P= .005)"已被"...具有统计学意义(P= . 01)”。 在“健康教育英语文本多维语义特征的统计分析”一文中,第一段“Z7的比值比为0.845 (95% CI为0.751-0.951),疑难文本为84.5%。"已被"Z7的比值比为0.86 (95% CI 0.767-0.964),…一个困难的文本为86%...." 在“健康教育英语文本多维语义特征的统计分析”一文中,第一段“大语义范畴X2(心理行为和过程)被发现是健康文本认知可及性的主要贡献因素(优势比Exp(B) 0.92, 95% CI 0.852-0.995;P= .04点)。X2班的典型用语是与推理和思考有关的英语用语,以及信仰或怀疑的程度。知识获取、感知和回顾的术语包括在这个广泛的类别中,例如熟悉、忘记、反映或意识到已被删除。 在第二段“健康教育英语文本多维语义特征的统计分析”中,第一句“逻辑回归结果(多媒体附录1)还确定了13个语义特征…"已被"逻辑回归结果(多媒体附录1)也确定了12个语义特征...." 在“健康教育英语文本多维语义特征的统计分析”中,第二段“典型的例子是B3(药品和医疗;优势比Exp(B) 1.042, 95% CI 1.012-1.073;P=.005), Z99(字典外的单词;优势比Exp(B) 1.01, 95% CI 1.004-1.017;P=.003), L2(生物:动物、微生物、病毒、细菌等;优势比Exp(B) 1.082, 95% CI 1.003-1.167;P=.04)和W5(环境术语:污染物、致癌物、可吸入颗粒等;优势比Exp(B) 2.244, 95% CI 1.11-4.538;P= .02点)"已被"典型的例子是B3(药品和医疗;优势比Exp(B) 1.041, 95% CI 1.012-1.071;P=.005), Z99(字典外的单词;优势比Exp(B) 1.011, 95% CI 1.004-1.018;P=.001), L2(生物:动物、微生物、病毒、细菌等;优势比Exp(B) 1.080, 95% CI 1.005-1.162;P=.036)和W5(环境术语:污染物、致癌物、可吸入颗粒等;优势比Exp(B) 2.441, 95% CI 1.173-5.077;P= .017)”。 在“健康教育英语文本多维语义特征的统计分析”中,第二段“例如,相对较大的优势比(平均2.244,95% CI 1.11 - -4.538) W5包括术语与环境暴露和健康风险表明,随着一个词的增加在这个特定的类别,一个健康的几率文本是一个困难的文本的文本是一个简单的文本的目标读者是2.244,或百分比变化而言,这意味着增加124.4%的文本从一个简单的文本到一个非常困难的健康阅读"已被"例如,相对较大的优势比(2.441,95%可信区间1.173 - -5.077)W5包括术语与环境暴露和健康风险表明,随着一个词的增加在这个特定的类别,一个健康的几率文本是一个困难的文本的文本是一个简单的文本的目标读者是2.441,或百分比变化而言,这意味着增加144.1%的文本从一个简单的文本到一个非常困难的健康阅读。" 在“健康教育英语文本多维语义特征的统计分析”中,第二段“L2(包括微生物在内的生物)的优势比为1.082,在较小程度上表明,随着该类词汇的增加,根据读者英语卫生术语的词汇范围,健康文本的感知难度(难以理解类)平均增加8.2% (95% CI 0.3% ~ 16.7%)"已被"L2(包括微生物在内的生物)的优势比为1.080,在较小程度上表明,随着该类词汇的增加,根据读者英语卫生术语的词汇范围,健康文本的感知难度(难以理解类)平均增加8.0% (95% CI 0.5%-16.2%)。" 在“健康教育英语文本多维语义特征的统计分析”中,第二段“其中包括A2(表示变化倾向的一般或抽象术语,如适应、调整、转换和改变;优势比1.057,95% CI 1.005-1.111;P=.03), A7(抽象的情态术语,如可能性,必要性和确定性;优势比1.099,95% CI 1.006-1.2;P=.04), A11(表示重要性、显著性、可注意性或标记性的抽象术语;优势比1.164,95% CI 1.003-1.351;P= .045)"已被"其中包括A11(表示重要性、显著性、可注意性或标记性的抽象术语);优势比1.219,95% CI 1.070-1.388;P= .003)”。 在“健康教育英语文本多维语义特征的统计分析”中,第二段“这意味着,随着A11类中增加一个单词,健康文本被视为难以理解的文本的几率为1.164,比被视为容易理解的文本的几率增加了16.4%"已被"这意味着,在A11类中每增加一个单元,健康文本被视为难以理解的文本比被视为容易理解的文本的几率为1.219,或增加21.9%”。 方法 在第二段“方法”一栏,“对于决策树分类器,最佳点超参数(图1)为基于Gini多样性指数(最小父节点大小n=10)的最大树分裂数(n=22)。优化决策树模型的最小分类误差为0.203。对于集成分类器,最佳点超参数(图2)的最小分类误差为0.14091。优化的超参数为集成方法(LogitBoost)、学习器数量(n=302)、学习率(0.15456)和最大分割数(n=9)。对于SVM,最佳点超参数(图3)为盒约束水平(0.014832;核函数:线性)。观察到的最小分类误差为0.18722,低于优化的决策树模型(0.203),但高于优化的集成分类器(0.14091)。"已经被"对于决策树分类器,最佳点超参数(图1)为基于最大偏差减除的最大树分裂数(n=22)。优化决策树模型的最小分类误差为0.215。对于集成分类器,最佳点超参数(图2)的最小分类误差为0.168。优化的超参数为集成方法(LogitBoost)、学习器数量(n=210)、学习率(0.1)和最大分割数(n=22)。对于SVM,最佳点超参数(图3)为盒约束水平(0.1),核函数(立方)。观察到的最小分类误差为0.1944,低于优化决策树模型(差值为0.0206),但高于优化集成分类器(差值为0.0264)。" 结果 在“结果”一栏,第一段的句子“通过10倍交叉验证获得工作特征曲线下面积(AUC)、敏感性、特异性和准确性的平均分和SDs。交叉验证将整个数据集分成10个大小相等的折叠。在每次迭代中,使用9个折叠作为训练数据,剩余的折叠作为测试数据。因此,在完成10次交叉验证后,每一次交叉验证仅作为一次测试数据。我们使用两两校正重采样t测试来抵消多重比较的问题。结果,显著性水平调整为.008 (n=6;α=.05)采用Bonferroni校正"已经被"通过5倍交叉验证获得工作特征曲线下面积(AUC)、敏感性、特异性和准确性的均分和标准差。交叉验证将整个数据集分成5个大小相等的折叠。在每次迭代中,使用4个折叠作为训练数据,剩余的折叠作为测试数据。因此,在完成5次交叉验证后,每一次交叉验证仅作为一次测试数据。我们使用成对样本比较来调查四种机器学习算法的工作特征曲线(AUC)下的面积、灵敏度、特异性和准确性差异(n=6;α= . 05)”。 在“结果”的第二段从表2可以看出,在AUC方面,集成分类器(LogitBoost)、决策树和SVM比logistic回归(0.802)的AUC有统计学上的提高:LogitBoost (0.97;P<.001),决策树(0.924;P<.001), SVM (0.8946,P= .002)。在灵敏度方面,只有LogitBoost (0.966;P<.001)优于逻辑回归(0.8364),而决策树(0.9122)和支持向量机(0.8952)的敏感性与逻辑回归相似。在模型特异性方面,LogitBoost、决策树和SVM均达到了较logistic回归(0.7694)有统计学提高的特异性:LogitBoost (0.972;P=.002),决策树(0.9358;P=.003),支持向量机(0.894;P= 04)。最后,关于模型的整体准确性,LogitBoost、决策树和SVM再次优于逻辑回归(0.8029):LogitBoost (0.969;P<.001),决策树(0.924;P<.001),支持向量机(0.8946;P= .002)。对比LogitBoost、决策树和SVM,前两种算法在AUC (P=.001),灵敏度(P=.007),以及准确度(P=.001), LogitBoost和SVM在模型特异性方面优于决策树(P=.003),使用调整后的.008作为成对样本比较的显著性水平(Bonferroni校正:n=6;α= . 05)。这些结果表明,当使用语义特征作为预测变量时,最稳定和性能最好的算法是集成分类器(LogitBoost),其次是优化决策树。LogitBoost、决策树和SVM在AUC、特异性和准确性方面都比逻辑回归有统计学上的显著改善。在敏感性方面,决策树和SVM没有比逻辑回归提高,但LogitBoost提高了。总体而言,LogitBoost作为集成分类器获得了最佳的AUC、灵敏度、特异性和准确性(图4)"已被"从表2可以看出,在AUC方面,集成分类器(LogitBoost)、决策树和SVM比逻辑回归(0.614)的AUC有统计学上的提高:集成分类器(0.858;P=.001),决策树(0.754;P=.004),支持向量机(0.848,P=措施)。在灵敏度方面(表3),集成分类器(0.787,P=.020),决策树(0.7174,P=.036),支持向量机(0.783;P<.001)较logistic回归(0.6282)有统计学意义的改善。在模型特异性方面(表4),集成分类器、决策树和支持向量机均达到了较逻辑回归(0.5724)有统计学提高的特异性:集成分类器(0.813;P=.001),决策树(0.7424;P=.009),支持向量机(0.791;P= .007)。最后,关于模型的总体精度(表5),LogitBoost、决策树和SVM再次优于逻辑回归(0.601):集成分类器(0.802;P=.001),决策树(0.732;P=.003),支持向量机(0.786;P=措施)。对比支持向量机、集成分类器和决策树,前者在AUC上的表现始终优于决策树(P=。001年和P<措施,respectively), and accuracy (P=。022年和P=。001年,分别)。只有集成分类器在模型敏感性方面显著优于决策树(P=.024),特异性(P=.010),使用配对样本比较(n=6;α= . 05)。这些结果表明,当使用语义特征作为预测变量时,最稳定和性能最好的算法是集成分类器(LogitBoost),其次是支持向量机。集成分类器、决策树和支持向量机在AUC、特异性、敏感性和准确性方面均较逻辑回归有统计学上的显著提高。支持向量机在敏感性和特异性方面没有明显优于决策树,而集成分类器有显著提高。总体而言,LogitBoost作为集成分类器获得了最佳的AUC、灵敏度、特异性和准确性(图4)”。 讨论 在"主要发现"的第二段,"(以成对重采样的方式测量t测试,P数值使用Bonferroni校正调整为.008)"已被"(以成对重采样的方式测量t测试)”。 在"主要发现"的最后一段,"…或那些需要更高认知能力的,如评估变化的倾向和描述健康事件和情况的可能性、必要性和确定性的情态表达"已被"…或那些需要更高认知能力的词语,例如表示健康事件和情况的重要性、意义、可注意性或标记性的抽象术语”。 作者的贡献 在最初发表的论文中,以下“作者的贡献”部分未被包括在内。 MJ和TH负责总体研究设计;MJ负责论文的撰写和修改,YL负责形式分析和数据整理。 多媒体附件 所提供的资料多媒体附件1题为“健康文本可理解性成员的逻辑回归中的变量”已更新。原出版的多媒体附录1已在多媒体附件2. 图表及表格 图1-4已被替换,可以在下面查看。最初出版的图1-4在多媒体.表1-5已更新,可在下面查看。原始出版的表1-5已被收录多媒体附件4. 图1。超参数调优(决策树)。 图2。超参数调优(集成分类器)。 图3。超参数调优(支持向量机)。 图4。机器学习算法的平均受试者工作特征(ROC)曲线。LR: logistic回归;支持向量机:支持向量机;DT:决策树;ENS:集成分类器(LogitBoost);ROC:受试者工作特征。 表1。使用多维语义特征作为预测因子的机器学习模型的性能。 算法 AUC一个,平均值(SD) 灵敏度,平均值(SD) 特异性,平均值(SD) 准确度,平均值(SD) LRb 0.614 (0.0554) 0.6282 (0.0597) 0.5724 (0.0733) 0.6010 (0.0523) 支持向量机c 0.848 (0.0172) 0.7830 (0.0368) 0.7910 (0.0420) 0.7860 (0.0153) DTd 0.754 (0.0377) 0.7174 (0.0719) 0.7424 (0.0589) 0.732 (0.0317) 实体e 0.858 (0.041) 0.787 (0.057) 0.813 (0.046) 0.802 (0.032) 一个AUC:工作特性曲线下的面积。 b逻辑回归。 c支持向量机:支持向量机。 dDT:决策树。 eENS:集成分类器(LogitBoost)。
相关的文章修正:https://medinform.www.mybigtv.com/2021/9/e29175 JMIR Med Inform 2021;9(9):e33385 doi: 10.2196/33385
在“预测健康材料可及性:机器学习算法的发展”(JMIR Med Inform 2021;9(9):e29175)中,作者指出了一些错误。为了纠正这些错误,做了以下更改: 作者元数据 在最初发表的论文中,Affiliation 1的出现如下: 悉尼大学语言文化学院,悉尼,澳大利亚 现更正如下: 悉尼大学语言与文化学院,悉尼,澳大利亚 摘要 在“方法”下面,短语“我们对整个数据集进行了10次交叉验证……"已被"我们在整个数据集....上应用了5倍交叉验证" 在“结果”下面,句子“结果表明,集成树(LogitBoost)在AUC(0.97)、敏感性(0.966)、特异性(0.972)和准确性(0.969)方面表现良好。决策树(AUC 0.924,敏感性0.912,特异性0.9358,准确度0.924)和支持向量机(AUC 0.8946,敏感性0.8952,特异性0.894,准确度0.8946)紧随其后。决策树、集成树和支持向量机在AUC、特异性和准确性方面比逻辑回归有统计学上的显著改善。集成树作为性能最好的算法,在AUC、特异性和准确率上均较SVM有显著提高,在灵敏度上较决策树有显著提高"已经被"结果表明,集成分类器(LogitBoost)在AUC(0.858)、灵敏度(0.787)、特异性(0.813)和准确率(0.802)方面均有较好的表现。支持向量机(AUC 0.848,敏感性0.783,特异性0.791,准确度0.786)和决策树(AUC 0.754,敏感性0.7174,特异性0.7424,准确度0.732)紧随其后。集成分类器(LogitBoost)、支持向量机和决策树在AUC、敏感性、特异性和准确性方面均优于逻辑回归。支持向量机在AUC和准确率上均比决策树有统计学上的显著提高。集成分类器(LogitBoost)作为性能最好的算法,在AUC、灵敏度、特异性和准确率方面均比决策树算法有统计学上的显著提高。" 介绍 在“资料收集与分类”下,最后一句“最终的分类包含两组文本:简单(n=499)和困难(n=501;…"已被"最后的分类包含两组文本:简单(n=495)和困难(n=505;....)" 在“材料标注与语义特征提取”中,使用USAS,我们收集了108个语义特征"已被"使用USAS,我们收集了113个语义特征。" 在“健康教育英语文本多维语义特征的统计分析”一文中,第一段“113个语义特征中有29个被认为具有统计显著性……"已被"113个语义特征中有26个被认为具有统计学意义...." 在“健康教育英语文本多维语义特征的统计分析”一文中,第一段“在可理解性较高的卫生文本中,Z8的平均分为52.91分,降至20.15分。"已被"可理解性较高的健康文本中Z8的平均分为52.84分,降至20.48分...." 在“健康教育英语文本多维语义特征的统计分析”一文中,第一段“为0.929 (95% CI 0.905-0.953),…简单读数为0.929…"已被"...0.928 (95% CI 0.905-0.951)…易读值为0.928...." 在“健康教育英语文本多维语义特征的统计分析”一文中,第一段“有统计学意义(P= .005)"已被"...具有统计学意义(P= . 01)”。 在“健康教育英语文本多维语义特征的统计分析”一文中,第一段“Z7的比值比为0.845 (95% CI为0.751-0.951),疑难文本为84.5%。"已被"Z7的比值比为0.86 (95% CI 0.767-0.964),…一个困难的文本为86%...." 在“健康教育英语文本多维语义特征的统计分析”一文中,第一段“大语义范畴X2(心理行为和过程)被发现是健康文本认知可及性的主要贡献因素(优势比Exp(B) 0.92, 95% CI 0.852-0.995;P= .04点)。X2班的典型用语是与推理和思考有关的英语用语,以及信仰或怀疑的程度。知识获取、感知和回顾的术语包括在这个广泛的类别中,例如熟悉、忘记、反映或意识到已被删除。 在第二段“健康教育英语文本多维语义特征的统计分析”中,第一句“逻辑回归结果(多媒体附录1)还确定了13个语义特征…"已被"逻辑回归结果(多媒体附录1)也确定了12个语义特征...." 在“健康教育英语文本多维语义特征的统计分析”中,第二段“典型的例子是B3(药品和医疗;优势比Exp(B) 1.042, 95% CI 1.012-1.073;P=.005), Z99(字典外的单词;优势比Exp(B) 1.01, 95% CI 1.004-1.017;P=.003), L2(生物:动物、微生物、病毒、细菌等;优势比Exp(B) 1.082, 95% CI 1.003-1.167;P=.04)和W5(环境术语:污染物、致癌物、可吸入颗粒等;优势比Exp(B) 2.244, 95% CI 1.11-4.538;P= .02点)"已被"典型的例子是B3(药品和医疗;优势比Exp(B) 1.041, 95% CI 1.012-1.071;P=.005), Z99(字典外的单词;优势比Exp(B) 1.011, 95% CI 1.004-1.018;P=.001), L2(生物:动物、微生物、病毒、细菌等;优势比Exp(B) 1.080, 95% CI 1.005-1.162;P=.036)和W5(环境术语:污染物、致癌物、可吸入颗粒等;优势比Exp(B) 2.441, 95% CI 1.173-5.077;P= .017)”。 在“健康教育英语文本多维语义特征的统计分析”中,第二段“例如,相对较大的优势比(平均2.244,95% CI 1.11 - -4.538) W5包括术语与环境暴露和健康风险表明,随着一个词的增加在这个特定的类别,一个健康的几率文本是一个困难的文本的文本是一个简单的文本的目标读者是2.244,或百分比变化而言,这意味着增加124.4%的文本从一个简单的文本到一个非常困难的健康阅读"已被"例如,相对较大的优势比(2.441,95%可信区间1.173 - -5.077)W5包括术语与环境暴露和健康风险表明,随着一个词的增加在这个特定的类别,一个健康的几率文本是一个困难的文本的文本是一个简单的文本的目标读者是2.441,或百分比变化而言,这意味着增加144.1%的文本从一个简单的文本到一个非常困难的健康阅读。" 在“健康教育英语文本多维语义特征的统计分析”中,第二段“L2(包括微生物在内的生物)的优势比为1.082,在较小程度上表明,随着该类词汇的增加,根据读者英语卫生术语的词汇范围,健康文本的感知难度(难以理解类)平均增加8.2% (95% CI 0.3% ~ 16.7%)"已被"L2(包括微生物在内的生物)的优势比为1.080,在较小程度上表明,随着该类词汇的增加,根据读者英语卫生术语的词汇范围,健康文本的感知难度(难以理解类)平均增加8.0% (95% CI 0.5%-16.2%)。" 在“健康教育英语文本多维语义特征的统计分析”中,第二段“其中包括A2(表示变化倾向的一般或抽象术语,如适应、调整、转换和改变;优势比1.057,95% CI 1.005-1.111;P=.03), A7(抽象的情态术语,如可能性,必要性和确定性;优势比1.099,95% CI 1.006-1.2;P=.04), A11(表示重要性、显著性、可注意性或标记性的抽象术语;优势比1.164,95% CI 1.003-1.351;P= .045)"已被"其中包括A11(表示重要性、显著性、可注意性或标记性的抽象术语);优势比1.219,95% CI 1.070-1.388;P= .003)”。 在“健康教育英语文本多维语义特征的统计分析”中,第二段“这意味着,随着A11类中增加一个单词,健康文本被视为难以理解的文本的几率为1.164,比被视为容易理解的文本的几率增加了16.4%"已被"这意味着,在A11类中每增加一个单元,健康文本被视为难以理解的文本比被视为容易理解的文本的几率为1.219,或增加21.9%”。 方法 在第二段“方法”一栏,“对于决策树分类器,最佳点超参数(图1)为基于Gini多样性指数(最小父节点大小n=10)的最大树分裂数(n=22)。优化决策树模型的最小分类误差为0.203。对于集成分类器,最佳点超参数(图2)的最小分类误差为0.14091。优化的超参数为集成方法(LogitBoost)、学习器数量(n=302)、学习率(0.15456)和最大分割数(n=9)。对于SVM,最佳点超参数(图3)为盒约束水平(0.014832;核函数:线性)。观察到的最小分类误差为0.18722,低于优化的决策树模型(0.203),但高于优化的集成分类器(0.14091)。"已经被"对于决策树分类器,最佳点超参数(图1)为基于最大偏差减除的最大树分裂数(n=22)。优化决策树模型的最小分类误差为0.215。对于集成分类器,最佳点超参数(图2)的最小分类误差为0.168。优化的超参数为集成方法(LogitBoost)、学习器数量(n=210)、学习率(0.1)和最大分割数(n=22)。对于SVM,最佳点超参数(图3)为盒约束水平(0.1),核函数(立方)。观察到的最小分类误差为0.1944,低于优化决策树模型(差值为0.0206),但高于优化集成分类器(差值为0.0264)。" 结果 在“结果”一栏,第一段的句子“通过10倍交叉验证获得工作特征曲线下面积(AUC)、敏感性、特异性和准确性的平均分和SDs。交叉验证将整个数据集分成10个大小相等的折叠。在每次迭代中,使用9个折叠作为训练数据,剩余的折叠作为测试数据。因此,在完成10次交叉验证后,每一次交叉验证仅作为一次测试数据。我们使用两两校正重采样t测试来抵消多重比较的问题。结果,显著性水平调整为.008 (n=6;α=.05)采用Bonferroni校正"已经被"通过5倍交叉验证获得工作特征曲线下面积(AUC)、敏感性、特异性和准确性的均分和标准差。交叉验证将整个数据集分成5个大小相等的折叠。在每次迭代中,使用4个折叠作为训练数据,剩余的折叠作为测试数据。因此,在完成5次交叉验证后,每一次交叉验证仅作为一次测试数据。我们使用成对样本比较来调查四种机器学习算法的工作特征曲线(AUC)下的面积、灵敏度、特异性和准确性差异(n=6;α= . 05)”。 在“结果”的第二段从表2可以看出,在AUC方面,集成分类器(LogitBoost)、决策树和SVM比logistic回归(0.802)的AUC有统计学上的提高:LogitBoost (0.97;P<.001),决策树(0.924;P<.001), SVM (0.8946,P= .002)。在灵敏度方面,只有LogitBoost (0.966;P<.001)优于逻辑回归(0.8364),而决策树(0.9122)和支持向量机(0.8952)的敏感性与逻辑回归相似。在模型特异性方面,LogitBoost、决策树和SVM均达到了较logistic回归(0.7694)有统计学提高的特异性:LogitBoost (0.972;P=.002),决策树(0.9358;P=.003),支持向量机(0.894;P= 04)。最后,关于模型的整体准确性,LogitBoost、决策树和SVM再次优于逻辑回归(0.8029):LogitBoost (0.969;P<.001),决策树(0.924;P<.001),支持向量机(0.8946;P= .002)。对比LogitBoost、决策树和SVM,前两种算法在AUC (P=.001),灵敏度(P=.007),以及准确度(P=.001), LogitBoost和SVM在模型特异性方面优于决策树(P=.003),使用调整后的.008作为成对样本比较的显著性水平(Bonferroni校正:n=6;α= . 05)。这些结果表明,当使用语义特征作为预测变量时,最稳定和性能最好的算法是集成分类器(LogitBoost),其次是优化决策树。LogitBoost、决策树和SVM在AUC、特异性和准确性方面都比逻辑回归有统计学上的显著改善。在敏感性方面,决策树和SVM没有比逻辑回归提高,但LogitBoost提高了。总体而言,LogitBoost作为集成分类器获得了最佳的AUC、灵敏度、特异性和准确性(图4)"已被"从表2可以看出,在AUC方面,集成分类器(LogitBoost)、决策树和SVM比逻辑回归(0.614)的AUC有统计学上的提高:集成分类器(0.858;P=.001),决策树(0.754;P=.004),支持向量机(0.848,P=措施)。在灵敏度方面(表3),集成分类器(0.787,P=.020),决策树(0.7174,P=.036),支持向量机(0.783;P<.001)较logistic回归(0.6282)有统计学意义的改善。在模型特异性方面(表4),集成分类器、决策树和支持向量机均达到了较逻辑回归(0.5724)有统计学提高的特异性:集成分类器(0.813;P=.001),决策树(0.7424;P=.009),支持向量机(0.791;P= .007)。最后,关于模型的总体精度(表5),LogitBoost、决策树和SVM再次优于逻辑回归(0.601):集成分类器(0.802;P=.001),决策树(0.732;P=.003),支持向量机(0.786;P=措施)。对比支持向量机、集成分类器和决策树,前者在AUC上的表现始终优于决策树(P=。001年和P<措施,respectively), and accuracy (P=。022年和P=。001年,分别)。只有集成分类器在模型敏感性方面显著优于决策树(P=.024),特异性(P=.010),使用配对样本比较(n=6;α= . 05)。这些结果表明,当使用语义特征作为预测变量时,最稳定和性能最好的算法是集成分类器(LogitBoost),其次是支持向量机。集成分类器、决策树和支持向量机在AUC、特异性、敏感性和准确性方面均较逻辑回归有统计学上的显著提高。支持向量机在敏感性和特异性方面没有明显优于决策树,而集成分类器有显著提高。总体而言,LogitBoost作为集成分类器获得了最佳的AUC、灵敏度、特异性和准确性(图4)”。 讨论 在"主要发现"的第二段,"(以成对重采样的方式测量t测试,P数值使用Bonferroni校正调整为.008)"已被"(以成对重采样的方式测量t测试)”。 在"主要发现"的最后一段,"…或那些需要更高认知能力的,如评估变化的倾向和描述健康事件和情况的可能性、必要性和确定性的情态表达"已被"…或那些需要更高认知能力的词语,例如表示健康事件和情况的重要性、意义、可注意性或标记性的抽象术语”。 作者的贡献 在最初发表的论文中,以下“作者的贡献”部分未被包括在内。 MJ和TH负责总体研究设计;MJ负责论文的撰写和修改,YL负责形式分析和数据整理。 多媒体附件 所提供的资料多媒体附件1题为“健康文本可理解性成员的逻辑回归中的变量”已更新。原出版的多媒体附录1已在多媒体附件2. 图表及表格 图1-4已被替换,可以在下面查看。最初出版的图1-4在多媒体.表1-5已更新,可在下面查看。原始出版的表1-5已被收录多媒体附件4. 图1。超参数调优(决策树)。 图2。超参数调优(集成分类器)。 图3。超参数调优(支持向量机)。 图4。机器学习算法的平均受试者工作特征(ROC)曲线。LR: logistic回归;支持向量机:支持向量机;DT:决策树;ENS:集成分类器(LogitBoost);ROC:受试者工作特征。 表1。使用多维语义特征作为预测因子的机器学习模型的性能。 算法 AUC一个,平均值(SD) 灵敏度,平均值(SD) 特异性,平均值(SD) 准确度,平均值(SD) LRb 0.614 (0.0554) 0.6282 (0.0597) 0.5724 (0.0733) 0.6010 (0.0523) 支持向量机c 0.848 (0.0172) 0.7830 (0.0368) 0.7910 (0.0420) 0.7860 (0.0153) DTd 0.754 (0.0377) 0.7174 (0.0719) 0.7424 (0.0589) 0.732 (0.0317) 实体e 0.858 (0.041) 0.787 (0.057) 0.813 (0.046) 0.802 (0.032) 一个AUC:工作特性曲线下的面积。 b逻辑回归。 c支持向量机:支持向量机。 dDT:决策树。 eENS:集成分类器(LogitBoost)。