2020年2月19日

医疗保健平台上算法(il)识字的风险

图片来源:De lzf / Shutterstock

可穿戴技术,移动健康应用程序和在线健康平台的使用是 在上升, allowing us to track and share our 健康数据, and engage in online discussion forums to ask about 健康-related questions. The wealth of data in theory allows us to manage our 健康 more effectively and be better equipped when we visit the doctor. Such 太ls can also act as a new source of knowledge legitimacy, integrating "外行" input and enabling 病人通道 to and control of information. While 病人通道 to secrecy of the 健康care system and its 专有权力 尽管有隐私和安全方面的顾虑,但对患者数据的评估正在增加并显示出具有为患者提供治愈能力的潜力。

根据皮尤研究中心的说法,越来越多的人正在寻找 相关信息在线。在美国, 每天有9300万人这样做,其中55%的人在去看医生之前先寻求与其健康状况相关的信息。诸如PatientLikeMe,MedHelp和MyHealthTeams之类的数字平台提供了改变 长期以来一直是医疗保健行业的特色,将重点重新放在患者身上。确实,具有科学严谨性的传统医学研究正在从研究人员的控制转移到满足患者需求的人群。

其中一个在线医疗平台PatientLikeMe(PLM)汇集了由利益相关者组成的社区,这些利益相关者包括患者,医生,护理人员,研究人员, ,以及政府之间的合作,以进行大数据生成和医学研究。该平台目前吸引了全球600,000多名会员。使用PLM的患者已产生 迄今为止,有4300万个数据点。患有改变生命的疾病或状况(包括多发性硬化症,癫痫和ALS)的患者会公开分享其数据,例如他们使用的药物及其副作用,生活方式的改变以及诊断和预后疾病的信息。

然后,该公司汇总并汇总这些患者生成的数据以进行研究,并使用算法工具对其进行分析和可视化。数据出售给机构和合作伙伴进行医学研究。根据开发出的任何新疗法,患者有机会改变自己的行为并更好地管理自己的健康。患者还可以与医生共享数据,在临床环境中在患者和医生之间建立新的互动形式,并增加 进行临床试验。 PLM在其网站上声称,它试图使用人工智能和其他工具来 “民主学习” 关于健康和医学。

确实, AI医疗保健应用 被用于诊断和治疗目的,设计新药和治疗方法以及支持患者的健康决策。

数据文盲的风险

Despite the promise of these platforms, increased stakeholder inclusiveness is essential for greater transparency in how our 健康数据 is shared with and used by others. As empowering and utopian as these technologies and platforms seem, one cannot help but think about the expert versus 外行 divide. In other words, how expert are patients to provide input on their 以及解释提供给他们的数据?在一个 2008年文章 宏观营销杂志,我提请注意新媒体素养及其增强潜力的问题,以及对能够使用和受益于这些技术的专业知识的需求。

在当今的在线健康跟踪平台上,没有足够的知识来使用工具并描述其症状的患者将无法获得好处。另外,当我们谈论数据素养时,我们不仅需要认知和技术技能,而且需要根据这些数据采取行动来管理健康的能力。因此,大数据算法的社会挑战出现了,因为需要人们的判断才能理解它并采取行动(吉莱斯皮,2017; Kitchin,2014年)。此类行为也可能会影响他人的健康,例如,一个人可能努力跟踪朋友,伴侣或家人的情绪波动,提醒他或他服用某种药物。尽管这些自我跟踪工具具有巨大的潜力,但它们的使用将责任转移到个人身上,不仅对他们自己的健康,而且对他人。

此外,当公司设计跟踪工具时,它们可能无法捕获患者体验的所有方面,而且(最重要的是,)在理解患者经历时也不能理解患者的语言(坦皮尼(Tempini),2015年)。因此,患者和公司的文盲成为导致数字鸿沟的主要因素,这种鸿沟阻碍了报告,分析和理解数据以及相应地管理我们和他人健康的能力。

知道太多

但是当病人 他们跟踪并报告数据时会识字吗?确实,存在数据操纵的风险,要拥有正确的配置文件来提出满足其自身利益的特定要求,这可能会导致导致处理失败的结果。令人震惊的是,诸如PLM之类的平台与制药和研究机构合作从事患者产生的医学研究。

素养太深而无法操纵数据或素养不足以提供必要的数据可能会阻碍医学知识的生成过程。具有科学技能的患者可以操纵构成隐私和安全挑战的数据,例如 工作保障,保险和刑事关注。此外,由于患者与医生共享自己的自我追踪数据,因此这种风险会在临床环境中带给患者与医师的知识交流。尽管在线医疗平台创建了可预测的数据模型,以跟踪药物和症状使用的每个报告变化,但此类数据模型的准确性仍然值得关注。

当我们被开放,透明,个性化和授权的话题所迷住时,我们常常忽略了这种话语对控制和信息不对称的有害影响。在线卫生平台作为新的数据中介者控制着数据的流动和操纵(Gillespie,2017; 祖博夫,2019),充当大数据生成和分发的守门员。祖波夫(2015(2019年)坚决表达大数据在监视资本主义时代的危险,以及它如何通过难以理解的提取,商品化和控制机制将人们从自己的行为中流放开来,并创建看似非民主的新市场,从而构成了“大另一个”。 。

关于自我跟踪工具的(滥用)使用以及道德和隐私问题仍然存在关键问题。其中包括由第三方存储和使用患者生成的数据的方式,拥有和控制数据的第三方以及患者在使用,重用和出售数据方面应具有何种声音。

由...提供 对话

加载评论 (0)