这是一篇开放获取的文章,根据创作共用署名许可(https://creativecommons.org/licenses/by/4.0/)的条款发布,允许在任何媒介上无限制地使用、分发和复制,前提是正确引用最初发表在《医学互联网研究杂志》上的原创作品。必须包括完整的书目信息,//www.mybigtv.com/上的原始出版物的链接,以及此版权和许可信息。gydF4y2B一个
近年来,自杀率和吸毒过量率都在上升。许多与阿片类药物使用障碍作斗争的人容易产生自杀意念;这通常会导致用药过量。然而,这些致命的过量服用很难归类为有意或无意。故意过量服用很难被发现,部分原因是缺乏预测因素和社会污名,导致个人不愿寻求帮助。这些人可能会转而使用网络手段来表达他们的担忧。gydF4y2B一个
这项研究旨在利用机器学习方法提取Reddit上阿片类药物使用者的自杀帖子。模型的性能是数据纯度的衍生品,结果将帮助我们更好地理解这些用户的基本原理,为阿片类药物流行的一部分提供新的见解。gydF4y2B一个
2017年6月至2018年6月间Reddit上的帖子收集自gydF4y2B一个
对于至少一种输入组合,所有模型的分类结果至少为90%;卷积神经网络是最优的分类器gydF4y2B一个
阿片类药物滥用与意外过量和自杀风险有关。像Reddit这样的社交媒体平台包含元数据,可以帮助机器学习,并提供个人层面上无法从其他地方获得的信息。我们证明了使用神经网络作为工具来预测样本外目标是可能的,该模型是由我们希望在样本外目标中区分的特征标记的数据集构建的。gydF4y2B一个
目前阿片类药物危机的特点是,阿片类药物过量导致的死亡人数不断增加;这一数字增长到如此程度,以至于2017年美国卫生与公众服务部宣布进入公共卫生紧急状态[gydF4y2B一个
患有慢性疼痛和精神健康状况不佳的人往往有自杀的风险;然而,目前大多数阿片类药物过量预防方法既没有评估自杀风险,也没有根据个人情况量身定制预防方法[gydF4y2B一个
阿片类药物使用障碍(OUD)的个体由于疾病的性质是过量的候选人。这项研究特别关注自杀意念或意图的个人与高可能性的OUD或至少阿片类药物滥用。《精神障碍诊断与统计手册》将OUD定义为导致临床显著损害或痛苦的阿片类药物使用问题模式[gydF4y2B一个
的gydF4y2B一个
自杀风险的相关预测因素包括慢性疼痛伴抑郁[gydF4y2B一个
那些经历过归属受挫的OUD患者可能不愿意与现实生活中的人讨论他们的担忧,因为社会耻辱[gydF4y2B一个
相比之下,Reddit是一个基于论坛的社交媒体平台,可以讨论许多话题。每个主题都有自己的主题gydF4y2B一个
我们认为自杀行为的人际心理学理论是检验自杀与OUD之间联系的动机[gydF4y2B一个
据我们所知,自杀和OUD的交集还没有以数据驱动的方式用机器学习方法进行分析,尽管这两个领域已经分别进行了检查,并在临床上进行了研究。我们试图结合使用子reddit和机器学习方法对样本内数据进行分类,然后对样本外数据进行预测,以检测OUD背景下的自杀意念。gydF4y2B一个
在这项研究中,我们(1)利用子reddits的结构和性质来训练分类器,目的是提取包含OUD和自杀意念的帖子,(2)比较分类的输入和模型,(3)旨在从阿片类药物环境中提取自杀风险帖子,从自杀环境中提取阿片类药物成瘾,其中gydF4y2B一个
利用Reddit提供大量文本数据的能力进行社交媒体研究已经变得流行起来。其中许多关注当前的心理健康问题,如抑郁和焦虑,并试图分析帖子内容的语言特征,并采用传统方法,如N-grams,潜在狄利克雷分配主题建模,语言查询和字数统计,术语频率逆文档频率(TF-IDF)和词嵌入来提取和分析Reddit用户的情绪和精神状态[gydF4y2B一个
红迪网的子版块r/suicidewatch和r/opiates分别围绕着自杀的话题(例如,关于自杀的讨论,情况披露,情绪表达等)和阿片类药物的使用(例如,药物剂量,高剂量时的活动,戒断痛苦等)。通过对特定reddit子版块的分析,我们可以通过他们使用语言来了解reddit子版块用户的一般心态。例如,Park等人[gydF4y2B一个
这些来自r/suicidewatch的发现支持了对那些试图或完成自杀的人留下的现实生活作品的分析结果。特别是,一项对自杀诗人和非自杀诗人诗歌用词的研究发现,第一人称单数代词和交际用语(如:gydF4y2B一个
神经网络已被证明在自然语言处理中取得了优异的效果。与传统方法不同,gydF4y2B一个
金允[gydF4y2B一个
本研究中使用的社交媒体平台是Reddit。我们关注了reddit版块r/suicidewatch和r/depression和阿片类药物相关论坛;同时,一个对照组被用来模拟健康、正常的语言。reddit的subreddit r/suicidewatch充当了一个gydF4y2B一个
我们使用来自r/suicidewatch的帖子来表示自杀语言,并使用与阿片类药物相关的reddits集合来建模阿片类药物使用者的语言(在本研究中称为r/opiates或gydF4y2B一个
来自属于数据组的reddit子版块的示例帖子。gydF4y2B一个
Subreddit集团gydF4y2B一个 | 标题gydF4y2B一个 | 正文gydF4y2B一个 |
控制gydF4y2B一个 |
随着年龄的增长,人们越来越不能接受在公共场合哭泣,尽管这样做的理由越来越合理gydF4y2B一个 | 孩子们就是不明白gydF4y2B一个 |
阿片类药物相关的gydF4y2B一个 |
幸福就是生病一周后,来一针海洛因。<3gydF4y2B一个 | 你也要知道,你的钱不仅够第二天早上用,而且至少还够你再花几天来想接下来要做什么!gydF4y2B一个 |
抑郁症gydF4y2B一个 | 我不会自杀,但我不介意死gydF4y2B一个 | 有这么多乱七八糟的事。我觉得我没有让我在乎的人感到骄傲,他们跟我说话的唯一原因是出于同情。我不会结束自己的生命,但如果一辆车撞了我,我就得了绝症,或者有什么东西砸到我。我不会因为离开而难过gydF4y2B一个 |
SuicideWatchgydF4y2B一个 | 我在等待结束自己生命的勇气gydF4y2B一个 | 我觉得我很快就会做出认真的尝试,我对此很满意。在过去的几个月里,我的冲动行为变得更糟了,其中一些方式包括伤害身体。9月,我冲动地从一个朋友的窗户里跳了下去,伤了自己,现在我多年来第一次随意割伤自己。我周围的人都不知道每天穿着自己的皮肤醒来有多累。在我自己的脑子里。我受够了胃痛,内疚,哭泣和失望。有些夜晚,我只祈祷我能有勇气结束这一切。世界各地的人都死了,我什么时候走都无所谓gydF4y2Ba |
我们保持了语言的高级结构,只去掉了小写字母和url [gydF4y2B一个
未加工的文本gydF4y2B一个
的问题。什么非处方药对过量用药最有效?我受够了日复一日的苦差事。我是生活中的失败者,准备离开……gydF4y2B一个
处理文本gydF4y2B一个
的问题。最好的非处方药是什么?我受够了日复一日的苦差事。我是生活中的失败者,准备离开了…gydF4y2B一个
标记化的gydF4y2B一个
|问题|。|什么是| |最好| otc |医疗|到| od | | ?|我是|所以|比| |天|到|天|磨|。|我|一个|失败|在|生活|和|准备|到|检查|出|。|。|。|gydF4y2Ba
由于连续文本数据不能用于训练机器学习模型,有几种技术可以将这些数据转换为数值:gydF4y2B一个
TF-IDF:术语频率逆文档频率表示文档中某个单词相对于其在其他文档中的频率有多重要。我们使用100维TF-IDF从样本中的uniggram和biggram [gydF4y2B一个
词嵌入:这是一组用于将文本数据转换为向量空间的方法和语言模型。我们利用了3种方法,包括Gensim Word2Vec模型用于单词表示的全局向量(GloVe),它要求在大量数据的基础上预先训练嵌入,以及一个更简单的单词到ID映射版本,这在运行时执行[gydF4y2B一个
字符嵌入:由于字典之外的单词都在预训练的单词嵌入中映射到随机向量,或者俚语中最轻微的变化最终都可能将单词映射到不同的向量,添加字符嵌入也显示出对训练机器学习模型的改进。gydF4y2B一个
在本研究中,我们利用这些知识表示方法的不同组合来评估分类性能是否通过减轻词汇量问题来改善额外信息。gydF4y2B一个
我们主要关注的是CNN文本分类器。此外,我们实现了几个传统和深度学习模型作为CNN的基线。详情如下。gydF4y2B一个
我们采用了知名的传统机器学习方法作为基线,包括逻辑回归(LR)、随机森林(RF)和支持向量机(svm)。实现使用Python语言,并基于scikit-learn工具包[gydF4y2B一个
我们实现了FastText (FAST), RNN和基于注意力的双向RNN (ATTENTION)在他们的原始架构中进行比较[gydF4y2B一个
我们基于Kim Yoon的CNN架构实现了一个CNN,并使用Python中的Keras NN库[gydF4y2B一个
卷积神经网络体系结构概述。gydF4y2B一个
我们的假设是从直觉的角度出发的。我们考虑了两种情况:(1)在阿片类药物数据集中存在自杀情绪的帖子,(2)在自杀观察数据集中存在阿片类药物成瘾的帖子。我们试图提取包含自杀情绪和阿片类药物滥用的帖子。这两种情况被称为gydF4y2B一个
案例1 (C1)是一个模型,它将使用来自r/suicidewatch和控制子reddits的积极语言的数据进行训练,它将学习区分自杀语言和积极语言。由于r/阿片类药物包含复杂的情绪,如果我们将r/阿片类药物的样本外数据输入C1,那么C1应该能够在自杀风险帖子和非自杀风险帖子之间进行分类。来自r/阿片类药物的帖子被归类为gydF4y2B一个
案例2 (C2)是一个基于r/抑郁症和r/阿片类药物数据训练的模型。reddit上的r/depression和可用的r/suicidewatch最相似。C2将学会区分含有吸毒成瘾和没有吸毒成瘾的帖子。如果我们将r/suicidewatch中的样本外数据输入C2,那么C2应该能够在含有阿片类药物使用和非阿片类药物使用的帖子之间进行分类。来自r/suicidewatch的帖子被归类为使用阿片类药物,将同时包含自杀性和OUD方面。gydF4y2B一个
为了分类,数据集以8:2的比例进行训练和测试。训练数据再次以8:2的比例进行分割,用于训练和训练验证。为了评估预测能力,我们从r/opiates和r/suicidewatch中分别抽取了500个帖子进行注释。为了加强样本质量的下限并减少帖子之间的差异,我们只从30到500字的帖子中进行抽样。由于类别平衡是在500个样本中考虑的问题,如果其中包含感兴趣的关键字或关键短语,则500个帖子中最多选择250个。因此,在整个数据集上使用8:2的训练/测试分割进行样本内测试,然后从属于测试分割的20%的帖子中提取500个样本进行样本外测试。gydF4y2B一个
两种情况下的两种模型的总结。gydF4y2B一个
情况下gydF4y2B一个 | C1gydF4y2B一个 | C2gydF4y2B一个 | |
|
|||
|
目标gydF4y2B一个 | 区分自杀式语言和非自杀式语言;预测阿片类药物使用者的自杀倾向gydF4y2B一个 | 区分阿片类药物使用和抑郁但非阿片类药物使用的语言;预测自杀倾向人群中阿片类药物的使用情况gydF4y2B一个 |
|
数据集gydF4y2B一个 | 来自r/suicidewatch和control版块的51366条帖子gydF4y2B一个 | 来自阿片类药物相关版块和r/depression的帖子有59,940个gydF4y2B一个 |
词汇量的大小gydF4y2B一个 | 70082年gydF4y2B一个 | 64078年gydF4y2B一个 | |
培训gydF4y2B一个 | 在r/suicidewatch和control子reddits的数据上进行训练和验证gydF4y2B一个 | 训练和验证来自阿片类相关reddit和r/抑郁症的数据gydF4y2B一个 | |
|
|||
|
预计在gydF4y2B一个 | 数据来自r/opiatesgydF4y2B一个 | 数据来自r/suicidewatchgydF4y2B一个 |
|
预测目标gydF4y2B一个 | 预测含有自杀风险的帖子在r/鸦片gydF4y2B一个 | 在r/suicidewatch中预测含有阿片类药物滥用的帖子gydF4y2B一个 |
|
30 - 500字的帖子预测数据总数gydF4y2B一个 | 来自r/opiates的23,740个帖子gydF4y2B一个 | 来自r/suicidewatch的21719个帖子gydF4y2B一个 |
|
从包含这些关键字的MTURK预测数据中抽取最大250个样本gydF4y2B一个一个gydF4y2B一个 | 自杀,自杀,自杀,自杀,想死,想做,想吸毒过量gydF4y2B一个 | 苯二氮平类,苯并类,可卡因,可待因,芬太尼,海洛因,氢可定,氢可酮,氢吗啡酮,氢吗啡酮,氢吗啡酮,克瑞托姆,美沙酮,吗啡,麻醉品,麻醉品,阿片类药物,阿片类药物,羟考酮,奥施康定,oxycotin, oxycotton, oxymorphone, subboxonegydF4y2B一个 |
包含关键字的样本计数gydF4y2B一个 | 234gydF4y2B一个 | 231gydF4y2B一个 |
一个gydF4y2B一个MTURK:亚马逊土耳其机器人。gydF4y2B一个
样本帖子由MTURK的众包工作人员注释[gydF4y2B一个
对于C1, MTURK任务的标题是“自杀情绪检测”。描述是“使用者可能有自杀或故意服用过量的风险?”,有两个选项:“有,有自杀风险”和“没有自杀风险”。包含任务关键字gydF4y2B一个
对于C2, MTURK任务的标题是“有自杀倾向的人中的阿片类药物成瘾”。描述是“这篇文章暗示了阿片类药物成瘾吗?”有两个选项:“是,意味着阿片类药物成瘾”和“没有阿片类药物成瘾”。任务关键字和资质与C1 MTURK任务相同。我们在说明书中提供了阿片类药物的名称列表。gydF4y2B一个
计算的指标包括准确性、精密度、召回率、gydF4y2B一个
模型gydF4y2B一个 | LRgydF4y2B一个一个gydF4y2B一个 | 射频gydF4y2B一个bgydF4y2B一个 | 支持向量机gydF4y2B一个cgydF4y2B一个 | 美国有线电视新闻网gydF4y2B一个dgydF4y2B一个 | |
|
|||||
|
TF-IDFgydF4y2B一个egydF4y2B一个 | 0.902gydF4y2B一个 | 0.904gydF4y2B一个 | 0.915gydF4y2B一个 | 0.685gydF4y2B一个 |
|
word2vecgydF4y2B一个 | 0.928gydF4y2B一个 |
|
|
0.961gydF4y2B一个 |
|
TF-IDF + w2vecgydF4y2B一个 |
|
0.921gydF4y2B一个 | 0.941gydF4y2B一个 |
|
|
TF-IDF +手套gydF4y2B一个 | 0.927gydF4y2B一个 | 0.829gydF4y2B一个 | 0.886gydF4y2B一个 | 0.923gydF4y2B一个 |
|
TF-IDF + word2vec + char2vecgydF4y2B一个 | 0.914gydF4y2B一个 | 0.790gydF4y2B一个 | 0.856gydF4y2B一个 | 0.962gydF4y2B一个 |
|
|||||
|
TF-IDFgydF4y2B一个 | 0.889gydF4y2B一个 | 0.800gydF4y2B一个 | 0.811gydF4y2B一个 | 0.729gydF4y2B一个 |
|
word2vecgydF4y2B一个 | 0.852gydF4y2B一个 |
|
|
0.961gydF4y2B一个 |
|
TF-IDF + w2vecgydF4y2B一个 |
|
0.815gydF4y2B一个 | 0.880gydF4y2B一个 | 0.965gydF4y2B一个 |
|
TF-IDF +手套gydF4y2B一个 | 0.860gydF4y2B一个 | 0.494gydF4y2B一个 | 0.765gydF4y2B一个 | 0.814gydF4y2B一个 |
|
TF-IDF + word2vec + char2vecgydF4y2B一个 | 0.858gydF4y2B一个 | 0.581gydF4y2B一个 | 0.741gydF4y2B一个 |
|
一个gydF4y2B一个逻辑回归。gydF4y2B一个
bgydF4y2B一个RF:随机森林。gydF4y2B一个
cgydF4y2B一个支持向量机:支持向量机。gydF4y2B一个
dgydF4y2B一个CNN:卷积神经网络。gydF4y2B一个
egydF4y2B一个TF-IDF:术语频率逆文档频率。gydF4y2B一个
fgydF4y2B一个该模型获得的最佳结果用斜体表示。gydF4y2B一个
文本分类神经网络基线与词嵌入和卷积神经网络的比较。gydF4y2B一个
模型gydF4y2B一个 | 快gydF4y2B一个一个gydF4y2B一个 | RNNgydF4y2B一个bgydF4y2B一个 | 注意gydF4y2B一个cgydF4y2B一个 | 美国有线电视新闻网gydF4y2B一个dgydF4y2B一个 | |
|
|||||
|
精度gydF4y2B一个 | 0.950gydF4y2B一个 | 0.944gydF4y2B一个 | 0.939gydF4y2B一个 |
|
|
精度gydF4y2B一个 | 0.958gydF4y2B一个 | 0.953gydF4y2B一个 | 0.934gydF4y2B一个 |
|
|
回忆gydF4y2B一个 | 0.957gydF4y2B一个 | 0.951gydF4y2B一个 |
|
0.953gydF4y2B一个 |
|
|
0.957gydF4y2B一个 | 0.952gydF4y2B一个 | 0.949gydF4y2B一个 |
|
|
|||||
|
精度gydF4y2B一个 | 0.971gydF4y2B一个 | 0.957gydF4y2B一个 | 0.969gydF4y2B一个 | 0.971gydF4y2B一个 |
|
精度gydF4y2B一个 | 0.964gydF4y2B一个 | 0.964gydF4y2B一个 | 0.967gydF4y2B一个 | 0.970gydF4y2B一个 |
|
回忆gydF4y2B一个 | 0.958gydF4y2B一个 | 0.923gydF4y2B一个 | 0.951gydF4y2B一个 |
|
|
|
0.961gydF4y2B一个 | 0.943gydF4y2B一个 | 0.959gydF4y2B一个 |
|
一个gydF4y2B一个快速:FastText。gydF4y2B一个
bgydF4y2B一个RNN:循环神经网络。gydF4y2B一个
cgydF4y2B一个ATTENTION:基于注意的双向循环神经网络。gydF4y2B一个
dgydF4y2B一个CNN:卷积神经网络。gydF4y2B一个
egydF4y2B一个每个模型的最佳分数用斜体表示。gydF4y2B一个
从gydF4y2B一个
通过神经网络模型对自杀文本和非自杀文本进行分类,从从头学习的结果词嵌入中确定单词重要性的可视化。CNN:卷积神经网络;LSTN:长短期记忆;RNN:循环神经网络。gydF4y2B一个
对于预测,我们使用带有word2vec输入和神经网络的传统基线。为了评估预测性能,使用MTURK来获得每篇文章有3个注释的标签。在阿片类药物数据中,C1预测自杀倾向。注释工作由25名独立的工作人员完成,平均每个帖子花费4分钟。3个标注的两两一致性分别为0.632、0.628和0.644。在500个帖子中,总共有120个被判定有自杀风险。C2预测自杀帖子中的阿片类药物成瘾。注释由92名独立工作者完成,平均11.3分钟(C1: SD 6.667分钟;C2: SD 14.633分钟)花在每个帖子上。注释之间的两两一致性分别为0.524、0.604和0.544。 In total, 261 out of 500 posts were ruled as
使用亚马逊Mechanical Turk标签进行模型预测的计数和准确性。gydF4y2B一个
模型gydF4y2B一个 | LRgydF4y2B一个一个gydF4y2B一个 | 射频gydF4y2B一个bgydF4y2B一个 | 支持向量机gydF4y2B一个cgydF4y2B一个 | 快gydF4y2B一个dgydF4y2B一个 | RNNgydF4y2B一个egydF4y2B一个 | 注意gydF4y2B一个fgydF4y2B一个 | 美国有线电视新闻网gydF4y2B一个ggydF4y2B一个 | |
|
||||||||
|
自杀风险的预测数字gydF4y2B一个 | 24gydF4y2B一个 | 12gydF4y2B一个 | 11gydF4y2B一个 | 97gydF4y2B一个 | 93gydF4y2B一个 | 98gydF4y2B一个 | 103gydF4y2B一个 |
|
所有的数据gydF4y2B一个 | 0.768gydF4y2B一个 | 0.750gydF4y2B一个 | 0.744gydF4y2B一个 | 0.59gydF4y2B一个 | 0.608gydF4y2B一个 | 0.576gydF4y2B一个 | 0.536gydF4y2B一个 |
|
仅限自杀风险gydF4y2B一个 | 0.2gydF4y2B一个 | 0.1gydF4y2B一个 | 0.092gydF4y2B一个 | 0.783gydF4y2B一个 | 0.791gydF4y2B一个 | 0.75gydF4y2B一个 | 0.833gydF4y2B一个 |
|
非自杀风险gydF4y2B一个 | 0.947gydF4y2B一个 | 0.959gydF4y2B一个 | 0.963gydF4y2B一个 | 0.529gydF4y2B一个 | 0.55gydF4y2B一个 | 0.521gydF4y2B一个 | 0.432gydF4y2B一个 |
|
||||||||
|
阿片类药物成瘾的预测数量gydF4y2B一个 | 88gydF4y2B一个 | 92gydF4y2B一个 | 105gydF4y2B一个 | 92gydF4y2B一个 | 158gydF4y2B一个 | 110gydF4y2B一个 | 127gydF4y2B一个 |
|
所有的数据gydF4y2B一个 | 0.524gydF4y2B一个 | 0.518gydF4y2B一个 | 0.538gydF4y2B一个 | 0.54gydF4y2B一个 | 0.588gydF4y2B一个 | 0.552gydF4y2B一个 | 0.562gydF4y2B一个 |
|
阿片类药物成瘾gydF4y2B一个 | 0.230gydF4y2B一个 | 0.237gydF4y2B一个 | 0.273gydF4y2B一个 | 0.251gydF4y2B一个 | 0.414gydF4y2B一个 | 0.295gydF4y2B一个 | 0.334gydF4y2B一个 |
|
非阿片类成瘾gydF4y2B一个 | 0.892gydF4y2B一个 | 0.869gydF4y2B一个 | 0.869gydF4y2B一个 | 0.9gydF4y2B一个 | 0.806gydF4y2B一个 | 0.874gydF4y2B一个 | 0.847gydF4y2B一个 |
一个gydF4y2B一个逻辑回归。gydF4y2B一个
bgydF4y2B一个RF:随机森林。gydF4y2B一个
cgydF4y2B一个支持向量机:支持向量机。gydF4y2B一个
dgydF4y2B一个快速:FastText。gydF4y2B一个
egydF4y2B一个RNN:循环神经网络。gydF4y2B一个
fgydF4y2B一个ATTENTION:基于注意的双向循环神经网络。gydF4y2B一个
ggydF4y2B一个CNN:卷积神经网络。gydF4y2B一个
对于C1和C2,我们注意到,当每个标签的帖子比例改变时,模型指标发生了巨大变化。对于C1,当有自杀和非自杀标签的帖子混合时,传统基线表现更好,因为nn产生了大量的假阳性。然而,当只检查自杀帖子时,nn获得了更好的准确性。因此,根据领域和数据集的不同,最好使用在极端情况下更好的模型,或者保持在相对较少的可变范围内。对于我们在样本外的阿片类药物数据中预测自杀风险的情况,宁可在安全方面犯错,也不要错过有自杀风险的人。如果样本包含很多有自杀风险的帖子,CNN将是一个不错的选择。在预测自杀风险的帖子时,基线的预测能力并不理想,因为假阴性在现实生活中代价高昂。gydF4y2Ba
鉴于模型倾向于预测C1的极端情况,我们推测模型将很好地作为集成模型的弱学习者。我们使用scikit-learn的AdaBoost分类器和LR、SVM、RNN和CNN作为弱学习器探索了一个简单的集成模型。我们使用mturk标记的大小为500的数据作为ground truth,使用弱学习器的概率预测作为输入数据。数据按8:2的比例分成训练集和测试集。AdaBoost以不同的数据洗牌和随机状态运行5次,取平均准确率。gydF4y2B一个
在gydF4y2B一个
顶部柱状图显示了C1中预测性能随数据类别比率的变化。叠加线图显示了在AdaBoost中使用四种模型作为弱学习器所获得的准确性。下面的图表显示了弱学习者的贡献。gydF4y2B一个
对单个帖子的模型预测用一条线表示。接近于1的预测表示没有预测到自杀语言,接近于0的预测表示有预测到自杀语言。个别帖子的颜色编码由他们的MTURK标签。ATTENTION:基于注意的双向循环神经网络;CNN:卷积神经网络;FAST_TEXT: FastText;LR: logistic回归:RF:随机森林;RNN:循环神经网络;支持向量机:支持向量机。gydF4y2Ba
我们对C2的假设是,在使用r/抑郁组与阿片类药物组的数据进行训练后,模型将能够检测出与药物成瘾作斗争的个体使用的短语。尽管这些模型在分类r/抑郁症与阿片类药物数据方面都取得了良好的结果,但它们未能根据MTURK标签提取含有阿片类药物的帖子。一种可能的解释是,用户在不同的上下文中表达自己的方式不同。另一种可能性是,r/suicidewatch中的语言语义放弃了在阿片类药物中发现的特征,例如关于戒除或复发的细节占据了任何阿片类药物上下文帖子的大部分空间。例如,r/suicidewatch上的一篇文章可能会在一个关于过量的句子中简单地提到几个关键词,如“hydros”或“benzos”,而文章的其余部分则专注于个人斗争。另一方面,如果来自r/opiates的用户发帖说想在r/opiates康复中自杀,他们会表达对药物的情绪,因为他们知道他们的观众会理解。有可能用户在潜意识中假设r/suicidewatch的观众对阿片类药物成瘾知之甚少,因此忽略了阿片类药物成瘾对他们生活的影响。因此,阅读整篇文章的MTURK工作人员可能会观察到用户很容易获得阿片类药物,并且对药物混合有经验;然而,模型可能无法捕捉到这些含义,因为这些确切的表达式并没有出现在它所训练的数据中。gydF4y2Ba
根据我们关于C2语言使用的新假设,我们重新评估了C2的预测。我们没有使用mturk确定的标签,而是构建了一组启发式标签,这样,如果一个帖子包含来自C2关键字的任何单词,则该帖子暗示阿片类药物成瘾gydF4y2B一个
启发式标签的模型预测精度由关键字的存在性决定。gydF4y2B一个
模型gydF4y2B一个 | LRgydF4y2B一个一个gydF4y2B一个 | 射频gydF4y2B一个bgydF4y2B一个 | 支持向量机gydF4y2B一个cgydF4y2B一个 | 快gydF4y2B一个dgydF4y2B一个 | RNNgydF4y2B一个egydF4y2B一个 | 注意gydF4y2B一个fgydF4y2B一个 | 美国有线电视新闻网gydF4y2B一个ggydF4y2B一个 |
所有的数据gydF4y2B一个 | 0.606gydF4y2B一个 | 0.588gydF4y2B一个 | 0.648gydF4y2B一个 | 0.666gydF4y2B一个 | 0.774gydF4y2B一个 | 0.69gydF4y2B一个 | 0.712gydF4y2B一个 |
阿片类药物成瘾gydF4y2B一个 | 0.264gydF4y2B一个 | 0.26gydF4y2B一个 | 0.347gydF4y2B一个 | 0.338gydF4y2B一个 | 0.56gydF4y2B一个 | 0.403gydF4y2B一个 | 0.463gydF4y2B一个 |
非阿片类成瘾gydF4y2B一个 | 0.9gydF4y2B一个 | 0.87gydF4y2B一个 | 0.907gydF4y2B一个 | 0.948gydF4y2B一个 | 0.926gydF4y2B一个 | 0.937gydF4y2B一个 | 0.926gydF4y2B一个 |
一个gydF4y2B一个逻辑回归。gydF4y2B一个
bgydF4y2B一个RF:随机森林。gydF4y2B一个
cgydF4y2B一个支持向量机:支持向量机。gydF4y2B一个
dgydF4y2B一个快速:FastText。gydF4y2B一个
egydF4y2B一个RNN:循环神经网络。gydF4y2B一个
fgydF4y2B一个ATTENTION:基于注意的双向循环神经网络。gydF4y2B一个
ggydF4y2B一个CNN:卷积神经网络。gydF4y2B一个
我们从预测为的帖子中构造了一个bigram word2vecgydF4y2B一个
在阿片类药物数据子集中,与自杀最相似的单词被预测属于自杀类别。gydF4y2B一个
模型gydF4y2B一个 | 最热门词汇gydF4y2B一个 |
LRgydF4y2B一个一个gydF4y2B一个 | 时间,死亡,缺乏,睡着,醒来,清醒,自我,他们是,因为,至少,然而,地狱,后来,群体,gydF4y2B一个 |
射频gydF4y2B一个bgydF4y2B一个 | 轻松,生活,然而,打击,等待,可能,寒冷,相同,这样,由,明天,身体,不断,说,工作gydF4y2B一个 |
支持向量机gydF4y2B一个cgydF4y2B一个 | 制造,每个人,一次,药丸,没有,很快,lol,什么都没有,周围,对不起,事情,戒断,开始,精神,宽容gydF4y2B一个 |
快gydF4y2B一个dgydF4y2B一个 | 有自杀念头,抑郁,极端,情绪化,严重焦虑,存在,抑郁,易怒,失眠,严重,恶心,情绪波动,偏执,疲劳,有麻烦gydF4y2B一个 |
RNNgydF4y2B一个egydF4y2B一个 | 严重,抑郁,确诊,孤立,无法忍受,躁郁症,自杀念头,焦虑,创伤后应激障碍,酗酒,强迫症,不堪重负,易怒,嗜睡,极端gydF4y2B一个 |
注意gydF4y2B一个fgydF4y2B一个 | 诊断为抑郁,有自杀念头,社交焦虑,躁郁症,极端,瘫痪,易怒,震颤,情绪化,边缘性,严重抑郁,脑雾,存在,广交症gydF4y2B一个 |
美国有线电视新闻网gydF4y2B一个ggydF4y2B一个 | 偏执,不快乐,抑郁,孤立,冷漠,易怒,酗酒,有自杀念头,创伤,严重,确诊,脑雾,焦虑,躁狂,没有感情gydF4y2B一个 |
一个gydF4y2B一个逻辑回归。gydF4y2B一个
bgydF4y2B一个RF:随机森林。gydF4y2B一个
cgydF4y2B一个支持向量机:支持向量机。gydF4y2B一个
dgydF4y2B一个快速:FastText。gydF4y2B一个
egydF4y2B一个RNN:循环神经网络。gydF4y2B一个
fgydF4y2B一个ATTENTION:基于注意的双向循环神经网络。gydF4y2B一个
ggydF4y2B一个CNN:卷积神经网络。gydF4y2B一个
本研究的目标是利用来自Reddit的结构和数据来构建模型,最终预测阿片类药物使用者的(C1)自杀语言和有自杀想法的个体的(C2)阿片类药物使用。我们评估了几个具有语义输入和知名NN文本分类器组合的模型,以评估它们分类和预测样本外数据的能力,以提取包含自杀意念和阿片类药物滥用的帖子。然后使用MTURK对样本外数据提供启发式的基础真理。gydF4y2B一个
由于数据量大,我们假设reddit下的所有帖子都反映了reddit的官方目的(例如,恢复阿片类药物用户在r/opiatesrecovery中发布的帖子),并且由于大多数内容的庞大容量,偏差被抵消了。人工回顾阿片类药物版块(C1)中预测的自杀倾向发现,许多案例被错误地预测为自杀,因为使用者正在经历极端的戒断,因复发而愤怒,甚至由于无法使用阿片类药物作为应对机制而引起的清醒而愤怒。将r/offmychest纳入对照版块是为了抵消这种强烈的负面情绪,这种情绪可能并不意味着自杀。一篇自杀帖子也可能被预测为非自杀性的,因为它使用了平静的辞职语言,或者因为用户是在自我反思或分享过去的经历。gydF4y2B一个
对r/suicidewatch (C2)中阿片类药物使用预测的人工回顾发现,糟糕的预测可能是由于阿片类药物reddits中出现的情绪混合造成的。由于阿片类药物组包括活跃使用者和恢复期/戒断期使用者(即r/阿片类药物vs r/阿片类药物恢复期),语言变化可能是极端的,从愤怒(即,gydF4y2B一个
我们试图通过提供简短的背景和说明来克服MTURK的限制。无论如何,局限性包括缺乏领域知识,自杀意念或药物滥用的经验,以及解释的主观性。注释也可能存在粗心大意的问题,因为有些帖子比较长,并不是所有的帖子都被彻底阅读了。此外,我们提供了一篇脱离用户生活背景的文章;很难确定这篇文章在现实中有多令人震惊,因为我们无法知道用户后来发生了什么。也没有办法控制有多少用户和哪些用户参与评估——许多不同的工作者的参与可能会在注释一致性方面引入随机变化。手工审查了几篇意见不一致的文章,表明缺乏领域专业知识会使注释变得困难;例如,一篇帖子被不同意提到是gydF4y2Ba
对阿片类药物和其他药物成瘾者进行的研究表明,阿片类药物成瘾往往与其他心理障碍,如人格障碍或创伤,并存[gydF4y2B一个
使用Reddit元数据有许多可能的方向。对于r/阿片类等混合情绪的reddit子版块,可以先使用粗粒分类,根据上下文丢弃过于积极或消极的帖子。考虑到Reddit的互动性,对评论的分析可能会显示那些挣扎的同伴提供了什么样的支持。Reddit的同伴方面很有吸引力,并且整合了非评判性的同伴支持可能有助于恢复OUD用户,使他们更愿意依赖现实生活中的帮助。这是减少OUD带来的频繁社交孤立的第一步。gydF4y2B一个
总的来说,对Reddit数据限制的探索提供了许多可能的研究领域,考虑到活跃的Reddit子版块的数量。在r/ opates的所有帖子中,我们发现了少数几个成功戒掉阿片类药物使用多年的用户,并返回传递完全康复的希望。这样的人可以被视为gydF4y2B一个
在纯自杀标记的帖子中,神经网络的准确率很高,但在混合数据集时表现很差,这引发了一个问题,即哪些语义维度实际上被捕获了。虽然我们在这个实验中使用神经网络作为一个黑盒,但未来的研究可能希望直接关注潜在的语义维度,这可能有助于参数调优和泛化。特别是,通过检查nn从零开始训练的词嵌入来帮助预测样本外数据,提取可能在文本数据域上泛化的确切特征将非常有趣[gydF4y2B一个
我们专注于在OUD的背景下提取表明自杀意念的帖子,并没有对提取的帖子进行过多的分析。许多研究调查了自杀个体的内容,但在特定背景下进行的研究要少得多,可能是由于缺乏可用的数据。尽管这项研究存在局限性,但收集的预测能够揭示阿片类药物使用者的自杀想法。在帮助这些人从OUD中恢复时,重要的是要考虑从个人层面开始[gydF4y2B一个
只要有东西不见了,或者出了什么差错,你他妈就是每个人第一个怀疑有错的人,一定是那个该死的瘾君子,对吧?我也许是个瘾君子,但我从没做过小偷。gydF4y2B一个
倡导理解和帮助那些与阿片类药物成瘾作斗争的人很容易;然而,很难认识到他们自己的行为会如何影响阿片类药物成瘾者。我们认为,作为第一步,具体的案例是必不可少的,自杀风险评估应该在个人层面上进行。我们的研究试图通过帮助那些患有OUD的人获得理解来帮助预防自杀-我们的目标不是取代使用预测模型的风险评估[gydF4y2B一个
本文的目标是利用来自Reddit的大数据来检测阿片类药物使用者的自杀倾向。Reddit的结构为数据集提供了类别,而社交媒体设置可以提供在其他地方可能无法获得的案例细节。这项研究可以作为使用社交媒体网站属性来辅助机器学习方法的概念证明,也可以作为神经网络抽象文本数据并在独立领域执行的可行性研究方向的证明。与高性能基线模型的比较表明,在运行样本外数据时,缺乏硬编码特征可能会使模型具有更高的灵活性和准确性。gydF4y2B一个
使用不同模型输入组合的分类指标。gydF4y2B一个
C1的工作流程说明。gydF4y2B一个
应用编程接口gydF4y2B一个
基于注意的双向循环神经网络gydF4y2B一个
卷积神经网络gydF4y2B一个
FastTextgydF4y2B一个
字表示的全局向量gydF4y2B一个
逻辑回归gydF4y2B一个
亚马逊土耳其机器人gydF4y2B一个
神经网络gydF4y2B一个
阿片类药物使用障碍gydF4y2B一个
Python Reddit API包装器gydF4y2B一个
随机森林gydF4y2B一个
循环神经网络gydF4y2B一个
支持向量机gydF4y2B一个
术语频率-逆文档频率gydF4y2B一个
这项工作得到了美国国家科学基金会ACI 1443054和美国国家科学基金会IIS 1350885的部分支持。gydF4y2B一个
没有宣布。gydF4y2B一个