Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >NEJM | 将偏倚数据视为AI辅助医疗中的信息产物

NEJM | 将偏倚数据视为AI辅助医疗中的信息产物

作者头像
DrugAI
发布于 2023-10-08 07:41:44
发布于 2023-10-08 07:41:44
2540
举报
文章被收录于专栏:DrugAIDrugAI

编译 | 曾全晨 审稿 | 王建民

今天为大家介绍的是来自Kadija Ferryman的一篇论文。在医学领域使用的人工智能(AI)工具,就像在其他领域使用的AI一样,通过检测大量数据中的模式来运作。AI工具能够检测这些模式,因为它们可以“学习”,或者被训练以识别数据中的特定特征。然而,使用以某种方式偏斜的数据进行训练的医学AI工具可能会表现出偏见,而当这种偏见与不公正的模式相符时,使用这些工具可能会导致不平等和歧视。虽然试图修复用于AI训练的有偏临床数据的技术解决方案是出于善意的,但支撑所有这些倡议的基本概念是,有偏的临床数据就像“垃圾”,就像计算机科学的格言“垃圾进,垃圾出”所指的意思。相反,作者提出将临床数据视为信息产物,当审视这些产物时,它们可以为所在的社会和机构提供信息。将有偏的临床数据视为信息产物可以识别医学和卫生保健领域中的价值观和不平等模式。将临床数据视为信息产物进行审视还可以为当前的医学AI开发方法提供替代方案。此外,将数据视为产物的这种框架将修复有偏AI的方法从狭义的技术观点扩展到了社会技术的视角,考虑历史和当前的社会背景作为解决偏见的关键因素。这种更宽泛的方法有助于实现公共卫生目标,理解人口不平等问题,还为将AI用作检测与健康平等相关的种族和民族纠正、缺失数据和人口不平等模式的新方法提供了可能。

我们正目睹人工智能(AI)的崛起。像ChatGPT和DALL-E这样的AI工具似乎能够模仿人类智能,但它们实际上是计算机程序,用于对数据进行分类、归类、学习和过滤,以解决问题、做出预测和执行其他看似智能的任务。在医学领域使用的AI工具,就像在其他领域使用的AI一样,通过在大量数据中检测模式来工作。例如,AI可以在经过大量异常图像的训练后,学会检测医学图像中的异常情况。医学AI展示了令人印象深刻的能力,尤其是在放射学领域。一些AI工具在识别医学图像中的疾病方面,至少与经验丰富的放射科医师一样准确。然而,如果医学AI工具是通过某种方式偏倚的数据进行训练的,这些工具可能会表现出偏见。例如,可以开发一个AI工具来检测胸部X射线片中的疾病。该工具将通过使用由成千上万张有病或无病的胸部X射线片组成的数据集进行训练。AI将从这些图像中学会识别疾病。然后,当展示一张新图像时,AI工具将能够确定胸部X射线片上是否存在疾病的证据。理想情况下,该工具在识别疾病方面应该非常准确,对所有人也应该准确无误。然而,如果训练数据中包含具有特定特征的图像过多,比如特定大小或形状的胸部,或者标记图像是否显示疾病的方式存在差异,那么该工具将出现偏见。

图 1

医学AI工具,就像其他AI应用一样,可能会因为训练数据中的偏见而变得有偏。这种偏见可能反映了社会不平等。最近一篇探讨基于胸部图像进行疾病诊断的AI使用的文章指出,即使使用数千张图像的数据集进行训练,AI模型在为弱势群体和种族和族裔少数群体进行诊断时表现出一种低诊断率的模式。这种模式在交叉群体(如黑人和西班牙裔女性)中尤为明显。像这样的医学AI工具不仅存在偏见,还是健康不平等的根源,因为在弱势群体和种族和族裔少数群体中已经存在不公正的健康差距(图1)。例如,在美国,黑人比白人更不太可能得到肺癌早期诊断。在这个例子中,AI偏见,也被称为算法偏见,具有重要影响,因为它可能导致算法歧视。美国总统府科学技术政策办公室最近在其《AI权利法案蓝图》中将算法歧视确定为一个关键问题。研究和学术界也认识到AI偏见可能演变为算法歧视的潜在可能性。一些人提出了技术解决方案,例如试图修复用于AI训练的有偏临床数据。修复训练数据的一种方法是通过将来自不同临床机构的数据进行汇集,从而包含人口统计学上代表性的数据集。其他解决方案包括通过为某些人口统计类别缺失的数据进行填充,或者在不存在数据的地方创建新的合成数据,从而人为地创造人口统计多样性。美国国立卫生研究院最近推出了“Bridge2AI”计划,这是一项耗资1.3亿美元的努力,旨在从零开始构建多样化的数据集,以用于培训和构建新的医学AI工具。

不仅仅是偏见

尽管所有这些努力都是出于善意的,并且可以在减少人工智能偏见和相关歧视方面取得一些进展,但支撑所有这些倡议的核心概念是,倾斜的临床数据就像计算机科学中的“垃圾进,垃圾出”一样,意味着糟糕或有缺陷的数据会导致不良的分析结果。尽管认识到倾斜或缺失的数据可能导致算法性偏见和歧视,但作者提出了一种人工智能偏见的替代方法。作者将这些数据视为历史信息产物,从考古学和历史的角度看,历史产物是可以提供关于社会、包括制度、活动和价值观的信息的物体。工具之所以重要,是因为它们可以揭示早期社会的情况,即使它们揭示的信仰和实践可能与当代社会的信仰和实践不一致。以类似的方式,我们可以将用于AI的临床数据视为产物,这些产物可以揭示可能令人不悦的事实。例如黑人患者的医疗支出低于白人患者,导致分配医疗资源不平等的算法。当将倾斜的临床数据视为信息产物而非垃圾时,我们可以利用AI中的模式识别能力来帮助我们理解这些模式在历史和当代社会背景下的含义。

健康数据产物与价值观

近年来,人们越来越关注在临床数据中应用种族和民族矫正方法。例如,2021年,慢性肾脏病流行病学合作组织报道了一种新的方程,用于估算肾功能的一种指标(肾小球滤过率),而无需使用种族矫正。该方程以前会“矫正”黑人的肌肉质量明显较高的假设。研究已经表明,在医学中的种族矫正实践可以追溯到将白人男性的身体作为参照标准或规范,用以衡量其他身体和生理功能。尽管遗传祖源可能提供一些临床相关信息,比如具有对抗疾病的遗传变异, 但越来越多的人认识到,医学中一些关于种族和民族的矫正需要重新评估,因为支持这些矫正的证据可能已经过时,使用这些矫正可能会加深健康不平等。了解医学临床数据中种族矫正的历史很重要,因为临床预测模型可能基于一种逻辑,即种族与生理学的某些方面(如肺功能)之间存在生物学决定性的关系。这些数据和假设然后可以纳入医学AI工具的开发中。看似看不见的偏见,比如在临床数据中进行种族“矫正”,如果不认识到种族矫正的历史,往往很难通过纯粹的技术手段来修复。虽然在当代医学中否认了白人正常或至上主义等种族主义价值观,但如果将这些数据用作训练集,这些价值观可以影响当前实践以及未来医学AI工具的开发。跨学科团队对临床数据进行上游分析,可以揭示重要但隐含的历史和其他因素塑造了这些数据。这种干预可以帮助识别将导致下游歧视性AI工具的数据,并提出解决这些偏斜数据深层原因的干预措施,比如重新评估临床实践中的种族矫正。

健康数据的产物和实践

将有偏差的健康数据视为值得仔细研究的历史信息产物,还可以识别出医疗保健实践问题,从而指引解决与数据和数据中心工具(如AI)相关问题的社会技术解决方案。例如,性别认同在临床数据中经常缺失。我们不仅可以考虑修复这些数据或放弃我们已经拥有的海量数据,还可以检查这些数据所呈现的丰富信息,并思考数据缺失暗示了关于临床和社会实践的内容,比如在临床用语中涉及性别和性别的术语不一致以及在医疗接诊表格中继续使用过时的性别认同术语,这些术语可能不适用于每个人。缺失的数据还可能表明,一些人可能不愿意或不支持披露这些信息,并且医护人员可能缺乏收集这些信息的培训或权威。健康数据的产物方法还有助于发挥AI的能力,提出新的应用。因为AI可以快速识别模式,它可以发现临床数据中的缺失,比如某些种族群体的缺失,这可以作为一种假设生成工具,可以催生关于临床护理和健康不平等的新的跨学科研究。

健康数据的产物和不平等模式

将健康数据视为产物而不是垃圾,还可以帮助揭示在医疗保健领域不同人群之间的不平等模式。不幸的是,在美国的少数族裔群体中存在许多不公平的健康差距,或称为健康不平等。健康数据反映了这些差距。如上所述,黑人患者的肺癌更有可能在晚期诊断,而不是在白人患者中。如果用于训练癌症预测算法,数据中的这种偏差可能会预测黑人患者的存活率较低。进一步,这种较低的预测存活率可能会影响提供给这些患者的治疗选择,特别是在倾向于预计有更好疗效的患者的治疗分流或配给系统的情况下。然而,将这些数据视为信息产物可以帮助揭示不平等模式,将这些诊断差异凸显出来。这些数据的历史表明,仅在2年前,肺癌筛查指南发生了问题,因为它们过分地将黑人列为不适合进行早期癌症筛查的人群。

结论

作者建议将注意力从健康数据的不足转向将这些数据视为人类活动和价值观的历史信息产物。考古学等领域的产物分析与殖民主义剥削的历史有关,这带有一定的讽刺意味。将医疗保健数据视为信息产物,提供了一种考虑历史和当前社会背景的社会技术方法。这种扩展方法有助于实现公共卫生的目标,即了解人口不平等,并提出了利用AI检测与卫生平等相关的数据模式的新方法。作者提出这种重新构思,以便医疗保健领域的AI开发可以反映我们对确保现在和未来的平等医疗保健的承诺和责任。

参考资料

Ferryman, K., Mackintosh, M., & Ghassemi, M. (2023). Considering Biased Data as Informative Artifacts in AI-Assisted Health Care. New England Journal of Medicine, 389(9), 833-838.

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-10-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 DrugAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
单细胞 | 人类单细胞数据的机器学习模型中的偏差
◉ 社会偏见源于医疗系统中的结构性不平等。◉ 临床偏见源于临床数据收集和处理中的一致性问题,这引入了变异性。◉ 队列偏见源于队列构成的偏差,包括人口统计学和临床多样性。◉ 单细胞测序偏见源于技术限制和测序方法的变异性,影响数据质量。◉ 机器学习偏见源于算法和模型参数的选择,这可能产生或放大偏见。◉ 最后,结果解释偏见源于灵活的可视化和解释工具,这些工具持续或强化偏见结论,影响下游的科学和临床见解。
生信菜鸟团
2025/04/18
670
单细胞 | 人类单细胞数据的机器学习模型中的偏差
制定一个多层次模型,以识别癌症治疗延迟风险的患者
患者在癌症治疗开始方面的延误会导致临床结果恶化,引发痛苦。然而,近年来患者面临更频繁的延误问题。这种延误更常见于弱势群体,包括来自未充分服务的种族和民族群体、收入较低的人以及居住在资源匮乏、高度贫困社区的人。导致延误的因素是复杂多样的,涉及多个层面,通常不仅受到临床因素的影响,还受到社会健康决定因素(SDOH)的影响。鉴于及时的癌症治疗对患者健康至关重要,而且会加剧健康不平等问题,一些认证机构现在将其视为一项质量指标,研究人员也将其作为评估政策干预效果的一个指标。
DrugAI
2023/09/25
1780
制定一个多层次模型,以识别癌症治疗延迟风险的患者
AI模型的公平性与透明性
人工智能(AI)在多个领域取得了显著的进展,但伴随着这些成就而来的,是对其社会影响和伦理问题的深刻关注。特别是在涉及决策支持系统(如招聘、金融、医疗和司法等领域)时,AI模型的公平性与透明性成为了不可忽视的议题。一个重要的问题是算法偏见(Algorithmic Bias),它可能导致AI模型在某些群体之间产生不平等的结果,从而加剧社会不公。
LucianaiB
2025/02/08
1911
MIT新研究:AI仅靠看X光片就能准确识别患者种族,但没人知道为什么
大数据文摘作品 作者:Mickey 人类对于某人是黑人、亚洲人还是白人的判断主要来自于某些外貌特征:皮肤、头发、眼睛这类外在体征,但是,如果仅从一个人的胸部X光片、肢体CT扫描和乳房X光片等影像资料,就能判断出他/她的种族,你相信吗? 当然不,毕竟连最专业的医学影像专家都无法识别。不过最近,根据麻省理工学院的一项研究,经过训练的人工智能可以有效识别这些没有被标注的X光片的主人,到底是黑人、黄种人还是白人,准确率达到90%以上,即使这些图像是损坏、裁剪和噪声的医学影像,而这一点通常是临床专家无法做到的。 并且
大数据文摘
2022/05/25
4850
MIT新研究:AI仅靠看X光片就能准确识别患者种族,但没人知道为什么
Nat Med|迎接医疗人工智能中偏见的挑战
2021年12月10日,Nature Medicine杂志发表文章,对医疗人工智能中偏见产生的原因和解决方法进行了分析。
智药邦
2021/12/20
1K0
Nat Med|迎接医疗人工智能中偏见的挑战
开发和验证用于在手术前识别高风险术后不良事件患者的机器学习模型
今天为大家介绍的是来自Aman Mahajan团队的一篇论文。在手术前识别高风险不良结果的患者,可以为改善术后结果提供干预机会;然而,目前很少有用于自动预测的工具。作者的目的是评估仅使用电子健康记录中的数据来识别手术高风险不良结果的患者的自动机器学习模型的准确性。
DrugAI
2023/10/27
3090
开发和验证用于在手术前识别高风险术后不良事件患者的机器学习模型
Science | 减轻在护理中人工智能的偏见
今天为大家介绍的是来自Matthew DeCamp 和 Charlotta Lindvall的一篇关于AI应用中医疗歧视问题的论文。《摘要总结》。
DrugAI
2023/09/19
2330
Science | 减轻在护理中人工智能的偏见
nature medicine综述:基因组学和大数据时代的精准公共健康
精准公共健康(PPH)考虑了遗传学、生活方式和环境之间的相互作用,以改善疾病的预防、诊断和治疗,从而在群体层面上实现适时提供正确的干预措施给适当的人群。在本文中,我们探讨了PPH作为下一代公共卫生的概念。我们讨论了在公共卫生干预中使用个体级数据的历史背景,并检视了来自人类和病原体基因组学、社会、行为和环境研究以及人工智能的数据如何转变了公共卫生的最新进展。文中讨论了PPH的现实世界例子,强调这些方法如何成为公共卫生的主流,以及在其发展、实施和可持续性方面存在的重大挑战。数据科学、伦理、法律和社会影响研究、能力建设、公平研究和实施科学将在实现“精准”增强传统公共卫生方法的潜力中扮演关键角色。
悦影科技
2024/09/26
3080
谷歌发布 HEAL 架构,4 步评估医学 AI 工具是否公平
面向健康公平问题,Google 团队开发了 HEAL (The health equity framework) 框架,能够定量评估基于机器学习的医疗健康方案是否「公平」。
HyperAI超神经
2024/05/13
1590
谷歌发布 HEAL 架构,4 步评估医学 AI 工具是否公平
白宫发布:大数据与医疗、教育
来源:浙江大学历史数据研究小组,感谢微信公号“互联网产业研究”的推荐。 《浙江大学译美国白宫”大数据“白皮书.pdf》全部译文共61页,回复“白宫报告”可获得全文。仅供网友学习参考,不得用于商业用途。 今年五月,美国白宫发布了大数据白皮书《大数据:抓住机遇、保存价值》,在全球引起了广泛关注。这份调查报告旨在鼓励使用数据以推动社会进步,特别是在市场与现有的机构并未以其他方式来支持这样的进步的领域,与此同时,美国也需要相应的框架、结构与研究,来帮助保护他们的核心价值观念。互联网产业研究主要从报告中关于医疗、教
大数据文摘
2018/05/21
7700
Nat. Aging | 人工智能在长寿医疗中的应用
最近在深度学习方面的进展使人工智能系统的发展能够在许多任务中超越人类,并开始为科学家和医生提供新的工具。Alex(CEO of Insilico Medicine)等人讨论了最近人工智能在老龄化研究中的应用是如何导致长寿医学领域的出现的。
DrugAI
2021/02/01
6730
Nat. Aging | 人工智能在长寿医疗中的应用
关于“大数据”的五大误解
美国《外交政策》杂志网站5月9日刊登微软研究院首席研究员、麻省理工学院公民媒体中心客座教授凯特·克劳福德的一篇文章,文章说,“大数据”是当前的时髦术语,是技术界用来解决世界上最难处理的问题的全能办法。 文章说,这个术语一般用来描述对海量信息进行分析,从而发现规律、收集有价值的见解和预言复杂问题答案的技巧与科学。它也许听起来有些乏味,但是从制止恐怖分子,到消除贫困,到拯救地球,对于大数据的鼓吹者来说,没有什么问题是解决不了的。 维克托·梅耶—舍恩伯格和肯尼思·丘
安恒信息
2018/04/09
7030
大数据帮助将种族、收入信息精确可视化到街区级别
当街区活动家(通俗一点就是居委会大妈)尝试解决诸如收入不平等、住宅区隔离以及环境种族主义等问题之前,他们首先要明确他们希望解决的问题的严重程度,及其对利益相关者的影响范围。虽然联邦政府善于编制各类人口数据供公众使用,但是如果要寻找一款能有效理解这些数据的工具,是需要资金或技术专长的,有时甚至是两者兼顾的。 而其中一位38岁的费城街区活动家Aaron Kreider,由于其具有数据可视化的技术背景,希望给人们带来一种交互式的地图工具,为美国种族和社会经济问题研究提供一种前所未有的观察角度。 在获得了阳光基金会
小莹莹
2018/04/19
6980
大数据帮助将种族、收入信息精确可视化到街区级别
临床模型 | 大型语言模型编码临床知识 | Nature
◉ 我们整理了MultiMedQA,这是一个涵盖医学考试、医学研究和消费者医学问题的基准数据集。◉ 我们在MultiMedQA上评估了PaLM及其指令调优变体Flan-PaLM。◉ 通过结合多种提示策略,Flan-PaLM在MedQA(美国医学执照考试)、MedMCQA、PubMedQA和MMLU临床主题上的表现超过了现有最先进的模型。◉ 特别是在MedQA(美国医学执照考试)上,其性能比之前的最佳水平提高了超过17%。◉ 接下来,我们提出了指令提示调优方法,以进一步使Flan-PaLM与医学领域对齐,生成了Med-PaLM。◉ 根据我们的人类评估框架,Med-PaLM对消费者医学问题的回答与临床医生的回答相当,证明了指令提示调优的有效性。
生信菜鸟团
2025/03/28
710
临床模型 | 大型语言模型编码临床知识 | Nature
【皮尤重磅报告】算法时代七大主题,数据与模型将操控人类
【新智元导读】全球权威调查机构皮尤研究所日前发布报告《算法时代》,采访千余专家,分7大主题探讨算法对生活各方各面的影响。报告的目标是客观全面反映当前人们对即将到来的算法时代的看法,结果仅38%的特定受访者预测算法的积极影响将超过其负面影响,而37%的人认为负面性超过积极性;25%表示算法的整体影响将保持在50%-50%左右。算法势必无处不在,对于未来,你抱有希望吗? 算法是解决问题或完成任务的指示说明。配方是算法,数学公式也是算法。计算机代码还是算法。互联网依靠算法运行,所有的在线搜索都通过算法完成。有了算
新智元
2018/03/27
9120
业界 | Nature:AI为什么总是歧视重重?
当使用谷歌翻译将西班牙语的新闻翻译为英语时,涉及到女性的短语通常都会翻译为“他说”或“他写道”。
大数据文摘
2018/08/21
5140
业界 | Nature:AI为什么总是歧视重重?
如果我们心存偏见,还能做好数据分析吗?
本文转自品觉(pinjue_ali) 序 马克·安德森(Marc Andreessen)的一句名言:“软件正在吞噬整个世界。”各行各业发现,分析对保持竞争力至关重要。政府则发现,分析对履行政府义务至关重要。 我们可能会因为和我们拥有相同购买或信用记录的其他人曾经开车不小心,而不是因为我们自己曾经开车不小心,而在购买汽车保险时被收取更高的费用。这就是偏见的本质:假定一个人将像同类的其他人那样行事。 计算领域的一条重要戒律,就是计算机不能改变人类责任。如果人类做某件事情是不合法或不道德的,那么人类创造的计算机
大数据文摘
2018/05/22
8490
理解深度学习:第二十一章 深度学习与伦理
github: https://github.com/careywyr/UnderstandingDeepLearning-ZH-CN/tree/main
叶子的技术碎碎念
2025/04/08
1040
理解深度学习:第二十一章 深度学习与伦理
第七章 AI数据质量-1
数据对于AI算法来说是非常重要的,它决定了一个算法模型的好坏,有所谓的“Garbage In Garbage Out”的说法,即“输入的如果是垃圾,那么输出的也将是垃圾”。本章我们将介绍数据如何驱动AI算法模型,数据采集的基本流程,如何对AI数据质量进行评估,如何通过程序合成来快速扩充AI样本数据及其局限性和相关的度量手段,最后我们将介绍如何管理AI样本数据。
bettermanlu
2025/04/15
900
第七章 AI数据质量-1
JAMA Psychiatry:遭受创伤的美国黑人女性对威胁的神经反应与种族歧视的关系
种族歧视是指由于一个人的种族或族裔背景而受到的差别待遇和不公平待遇,会对有色人种社区身心健康产生重大影响。歧视性和种族主义经历被定义为一个人因其种族/族裔而受到不公平或不利待遇(在社会、职业或其他情况下)的公开和隐性方式。种族歧视的经历在美国的种族和少数民族人口中很常见,绝大多数(即90%-98%)的黑人在其一生中都经历过种族歧视。前社会神经科学研究已确定偏见反应的神经相关性,主要包括压力反应网络。然而,这项研究通常侧重于了解种族偏见的神经基础,而不是这种偏见在少数族裔群体中的影响。
用户1279583
2022/02/28
6010
JAMA Psychiatry:遭受创伤的美国黑人女性对威胁的神经反应与种族歧视的关系
推荐阅读
相关推荐
单细胞 | 人类单细胞数据的机器学习模型中的偏差
更多 >
LV.1
博士在读AI药物发现、计算生物学
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档