医用人工智能无法回答的问题人民资讯
2024/9/24 来源:不详 浏览次数:次北京白癜风医院哪家比较好 https://m.39.net/pf/bdfyy/xwdt/
「本文来源:中国数字科技馆」
人工智能(图片来源:pixabay)
人工智能(AI)正处于医疗保健领域的拐点。算法和软件历经50年的开发已经产生了一些从大数据中提取模型的强大方法。例如,可以进行深度学习的神经网络已经被证实在图像分析方面是很有成效的,这让美国食品药品监督管理局批准了首个针对眼科疾病的人工智能辅助诊断方法,这个方法仅仅通过扫描病人眼睛的图片就可以用来诊断病人是否患有糖尿病型视网膜病变。
然而,人工智能在医疗保健领域的应用也暴露出许多缺点,世界卫生组织(WHO)最近的一份指导文件概述了一些内容。该文件涵盖了一系列的主题,每个主题都同等重要:有责任的、有义务的、包容性的、平等的、符合伦理道德的、无偏见的、有反馈的、可持续的、信息透明的、可信的和可解释的人工智能。这些主题的内容对所提供的医疗保健服务是至关重要的,这也符合我们对待医学的理念,即保证病人的最大利益。
不难理解,一个算法可能是有偏见的、排他的、不公平的或不符合伦理道德的。这可以解释为,它的开发者可能没有给它识别好数据和坏数据的能力,或者他们没有意识到数据本身的问题,因为这些问题往往是由人类的歧视性行为引起的。一个例子是根据皮肤的颜色,无意识地对急诊室的病人进行不同的分类。算法很擅长利用这些偏见,让它们意识到这些偏见是很有挑战性的。正如世卫组织指导文件所建议的,我们必须仔细权衡人工智能所带来的风险和潜在的好处。
但难以理解的是,为什么人工智能的算法可能不透明、缺乏可信度和难以解释。透明度意味着人工智能的算法可以很容易的被理解,我们理解它是如何运行的,以及在屏幕后计算机代码所进行的工作。基于这种透明度,再加上严格的校验,这使得人们建立了对软件的信任,这对病人的护理是至关重要的。不幸的是,医疗保健行业所使用的大部分人工智能软件都来自需要保护知识产权的商业公司,因此这些商业公司不愿意透露自己的算法和代码。这可能会导致人们缺乏对人工智能本身及其工作内容的信任。
AI程序代码(图片来源:pixabay)
当然,人们对人工智能的信任程度和人工智能程序本身的透明性毫无疑问是有研究意义的。但是对于人工智能的可解释性呢?想要理解人工智能或人工智能所的追求是什么,最好的方法之一就是思考人类如何解决医疗保健所带来的挑战并做出正确决策。当面对病情复杂的病人时,通常会咨询其他临床医生。这利用了他们所积累的知识和经验。寻求其他人帮助的一个好处是,我们可以继续问为什么。
“为什么你认为这种疗法是最好的治疗方法?”
“你为什么推荐这个手术?”
一个好的临床医生应该能够解释为什么他们会得到一个特定的建议。不幸的是,现代人工智能算法很少能够回答为什么它们认为其所给出的答案是好的。这是信任的另一个维度,这可以帮助解决偏见和伦理问题,也可以帮助临床医生向人工智能学习,就如同人工智能是另一个人类顾问一样。
临床医生(图片来源:pixabay)
我们怎样才能得到具有可解释性的人工智能?有趣的是,医疗领域最早成功的人工智能算法之一是由内科医生兼计算机科学家EdwardShortliffe在20世纪70年代早期开发的MYCIN程序,其用于给重症监护病房的病人开抗生素。MYCIN是一种被称为专家系统的人工智能,它可以回答“为什么?”通过复盘它所进行的概率计算来告诉用户它是如何得到答案的。
这对人工智能的发展来说是一个重大的进步,而我们似乎在寻找表现更好的算法时失去了这一进步。如果算法的开发者真正理解了具有可解释性的人工智能是如何工作的,那么它应该是可以实现的。这只是花时间和精力对算法进行反复追踪的过程,当算法迭代时,它会以人类可理解的形式向用户展示它所采取的答案的路径。
换句话说,这应该才是开发者首先要考虑的问题,任何连开发者都不能理解其工作原理的人工智能算法都可能不适用于医疗保健领域。
我们在人工智能领域取得了巨大的进步。我们由衷地对人工智能能够帮助病人感到非常高兴。同时我们也对人工智能的失败应用感到羞愧,比如最近的一项研究表明,由于数据存在偏差,用于诊断COVID-19的人工智能给出的结果并不可靠。在开发和评估用于临床的人工智能算法时,我们必须结合临床医生的建议。我们必须不断思考什么对病人是好的,以及如何使用人工智能软件来获得临床医生的信任。人工智能能够解释为何得出答案的能力将是关键。
作者:JasonH.Moore