医学、人工智能和偏见:坏数据会破坏好技术吗?

人工智能模型可能有助于预测和预防疾病。但最近的研究强调了他们在提供对所有人有用的见解方面所面临的挑战。

医学、人工智能和偏见:坏数据会破坏好技术吗?

作者:Natalie Sabin

2022年5月18日 C 想象一下,走进拥有数百万册图书的美国国会图书馆,并以读完它们为目标。不可能的,对吗?即使你能读懂每部作品的每一个字,你也不可能记住或理解所有的东西,即使你花了一辈子的时间去尝试。

现在让我们假设你有一个超级强大的大脑,能够阅读和理解所有这些信息。你仍然会有一个问题:你不会知道这些书中没有涉及的内容,也不知道这些书没有回答的问题是什么,也不知道这些书遗漏了谁的经验。

同样地,今天的研究人员有大量的数据需要筛选。世界上所有经同行评议的研究包含了超过3400万次的引用。还有数以百万计的数据集探索诸如血检、医疗和家族史、遗传学以及社会和经济特征如何影响病人的结果。

人工智能让我们比以往更多地使用这些材料。新兴的模型可以快速而准确地组织大量的数据,预测病人的潜在结果,并帮助医生就治疗或预防护理作出决定。

先进的数学有着巨大的前景。一些算法C解决问题的指令C可以比病理学家更准确地诊断出乳腺癌。其他人工智能工具已经在医疗环境中使用,允许医生更快速地查询病人的病史,或提高他们分析放射学图像的能力。

但是,人工智能医学领域的一些专家表示,虽然好处看起来很明显,但较少注意到的偏见会破坏这些技术。事实上,他们警告说,偏见可能导致病人护理中的无效甚至有害决策。

新的工具,同样的偏见?

虽然许多人将偏见与个人、民族或种族偏见联系在一起,但从广义上讲,偏见是一种倾向,倾向于某一方向,支持或反对某一特定事物。

在统计学意义上,当数据不能完全或准确地代表它所要模拟的人群时,就会出现偏见。这可能是由于一开始就有不良的数据,也可能是由于一个人口的数据被错误地应用于另一个人口,从而发生偏差。

医学文献中存在统计学和种族/民族这两种类型的偏见。一些人群被研究得更多,而另一些人群则代表不足。这就提出了一个问题。如果我们从现有的信息中建立人工智能模型,我们是否只是把旧问题传递给新技术?

塔夫茨医疗中心预测分析和比较效果中心主任大卫-M-肯特(David M. Kent)博士说,嗯,这绝对是一个值得关注的问题。

在一项新的研究中,肯特和一个研究小组检查了104个预测心脏病的模型,C模型旨在帮助医生决定如何预防该疾病。研究人员想知道这些以前表现准确的模型,在对一组新的病人进行测试时是否会有同样的表现。

他们的发现?

肯特说,这些模型的表现比人们预期的要差。

他们并不总是能够区分高风险和低风险的病人。有时,这些工具高估或低估了患者的疾病风险。令人震惊的是,如果在真正的临床环境中使用,大多数模型有可能造成伤害。

为什么这些模型在最初的测试中的表现与现在相比有如此大的差异?统计学偏差。

肯特说,预测模型并不像人们认为的那样具有概括性。

当你把一个模型从一个数据库移到另一个数据库时,或者当事情随着时间(从一个十年到另一个十年)或空间(从一个城市到另一个城市)发生变化时,该模型无法捕捉到这些差异。

这就产生了统计偏差。因此,该模型不再代表新的病人群体,而且它可能不那么好用。

肯特说,这并不意味着人工智能不应该被用于医疗保健领域。但它确实表明了为什么人类的监督是如此重要。

他说,这项研究并没有表明这些模型特别糟糕。它强调了试图预测绝对风险的模型的一个普遍弱点。它表明,需要对模型进行更好的审计和更新。

但是,即使是人类的监督也有其局限性,正如研究人员在一篇新的论文中警告的那样,他们主张建立一个标准化的程序。他们指出,如果没有这样一个框架,我们只能找到我们认为要寻找的偏见。同样,我们不知道我们不知道的东西。

黑匣子里的偏见

种族是身体、行为和文化属性的混合物。它是医疗保健中的一个基本变量。但种族是一个复杂的概念,在预测算法中使用种族时可能出现问题。虽然种族群体之间存在健康差异,但不能假设一个群体中的所有人都会有相同的健康结果。

哈佛大学文化和医学教授、《隐蔽在明处的C重新考虑算法中种族修正的使用》一书的作者David S. Jones博士说,很多这些工具[模拟算法]似乎在将医疗保健资源导向白人。

大约在同一时间,研究人员Ziad Obermeyer, MD和Eric Topol, MD也发现了人工智能工具的类似偏见。

长期以来,影响病人护理的临床研究缺乏多样性一直是一个令人关切的问题。琼斯说,现在的担忧是,使用这些研究来建立预测模型,不仅会传递这些偏见,而且会使它们变得更加隐蔽,更难发现。

在人工智能出现之前,模拟算法是唯一的临床选择。这些类型的预测模型是手工计算的,而不是自动的。

琼斯说,当使用模拟模型时,一个人可以很容易地查看信息,并确切地知道哪些病人信息,如种族,已经包括或不包括。

现在,有了机器学习工具,算法可能是专有的,这意味着数据对用户是隐藏的,不能被改变。它是一个黑盒子。这是一个问题,因为用户,即护理提供者,可能不知道哪些病人信息被包括在内,或者这些信息如何影响人工智能的建议。

琼斯说,如果我们在医学上使用种族,它需要完全透明,以便我们能够理解并对使用是否适当做出合理的判断。需要回答的问题是。如何以及在什么地方使用种族标签,使其在做好事的同时不造成伤害。

你应该关注临床护理中的人工智能吗?

尽管人工智能研究大量涌现,但大多数临床模型还没有在现实护理中得到采用。但是,如果你担心你的提供者使用技术或竞赛,琼斯建议要积极主动。你可以问问医疗服务提供者。你对我的治疗是否是基于你对我的种族或族裔的理解?这可以开启关于提供者做出决定的对话。

同时,专家们的共识是,与医学人工智能中的统计和种族偏见有关的问题确实存在,需要在这些工具被广泛使用之前得到解决。

肯特说,真正的危险是有大量的资金被投入到创建预测模型的新公司,这些公司面临着获得良好[投资回报]的压力。这可能会造成冲突,以传播可能还没有准备好或没有经过充分测试的模型,这可能会使护理质量恶化而不是改善。

Hot