我在医学领域的经验使我能够区分真正的创新和看似不变实则从根本上改变实践的微妙分类。人工智能最近引起了广泛关注,其中就包括广为流传的“人工智能已获得在美国行医的合法授权”的说法。从字面上理解,这种说法并不准确。没有任何医疗委员会为机器颁发过执照。没有任何算法宣誓、接受过信托义务或承担过对患者伤害的个人责任。也没有任何机器人医生开设诊所、向保险公司收费或站在医疗事故陪审团面前。
然而,仅仅止步于此就忽略了更广泛的问题。目前,法律责任的概念正在被重新定义,而公众往往对此毫不知情。
一场意义深远的变革正在发生,我们不应草率地否定它,也不应盲目地盲目崇拜它。当前的趋势并非人工智能获得行医资格,而是医学核心边界——临床判断与人类责任之间内在联系——的逐渐瓦解。临床判断意味着根据每位患者的独特需求和具体情况做出明智的决策,这需要同理心、直觉以及对医学伦理的深刻理解。
人的责任是指医疗服务提供者对这些决策及其结果所承担的责任。这种责任的削弱并非源于重大立法或公众辩论,而是通过试点项目、监管条款的重新解释以及有意模糊责任的措辞悄然发生。一旦这一界限消失,医学将发生难以逆转的转变。
主要问题不在于人工智能能否自动续开处方或识别异常的化验结果。医学界长期以来一直在使用各种工具,医疗服务提供者通常也欢迎能够减少行政工作或提高模式识别能力的辅助手段。真正的问题在于,医疗判断——即决定正确的治疗方案、患者和风险——是否可以被视为一种脱离道德责任的计算机生成结果。历史上,试图将判断与问责脱钩的做法往往造成了伤害,却并未承担相应的责任。
近期的发展澄清了当前混乱局面的根源。在一些州,有限的试点项目允许人工智能驱动的系统在严格定义的方案下协助处理病情稳定的慢性病患者的处方续开。在联邦层面,拟议的立法考虑了人工智能是否可以在特定法律目的下被视为“执业者”,前提是对其进行适当的监管。这些举措通常被视为应对医生短缺、就医延误和行政效率低下等问题的务实之举。虽然这些举措都没有明确将人工智能定义为医生,但它们共同使一个更令人担忧的前提正常化:医疗行为可以在没有明确可辨识的人类决策者的情况下发生。
在实践中,这种区别至关重要。医学的定义并非在于机械地执行任务,而在于当结果不佳时如何追究责任。开处方很简单;但承担其后果的责任——尤其是在考虑合并症、社会背景、患者价值观或信息不完整等因素时——则要复杂得多。在我的职业生涯中,这项责任始终由人承担,这个人可以被质疑、挑战、纠正并追究责任。当史密斯医生犯错时,家属知道该联系谁,从而确保了能够直接追究人的责任。任何算法,无论多么复杂,都无法取代这一角色。
主要风险并非技术层面,而是监管和理念层面。这种转变标志着从美德伦理向程序主义的转变。当立法者和机构将医疗决策重新定义为系统而非个人行为的功能时,医学的道德框架也随之改变。问责机制变得模糊,伤害更难归咎,责任也从临床医生转移到流程,从判断转移到对规程的遵守。当错误不可避免地发生时,普遍的解释是“系统遵循了既定指南”。认识到这种转变,就能清楚地理解从个体化的伦理决策到机械化的程序性合规的转变。
这种担忧并非纸上谈兵。当代医疗保健已经面临着问责机制薄弱带来的挑战。我曾目睹,因算法驱动的决策而受到伤害的患者,在管理者、供应商和不透明的医疗体系中迷失方向,一个根本性的问题——“谁做的决定?”——始终没有明确的答案。人工智能极大地加剧了这一问题。算法无法提供道德解释,无法基于良知进行约束,无法出于伦理考量而拒绝采取行动,也无法向患者或家属承认错误。
支持提高人工智能自主性的人士经常以效率为由为其辩护。诊所不堪重负,医生疲惫不堪,患者往往要等待数月才能获得原本只需几分钟的诊疗。这些担忧不无道理,任何一位正直的临床医生都会意识到这一点。然而,仅仅为了提高效率而改变医学的伦理基础是站不住脚的。那些为速度和规模而优化的系统往往会牺牲细致入微的诊疗过程、谨慎的判断以及个人的尊严。历史上,医学一直抵制这种趋势,强调医疗的本质是一种关系,而非简单的交易。
人工智能有可能颠覆这种关系。当医疗服务由系统而非个人提供时,患者不再与临床医生建立契约关系,而是成为工作流程的一部分。医生要么扮演机器监督者的角色,要么更令人担忧的是,沦为法律缓冲,承担并非由其本人做出的决定所带来的责任。随着时间的推移,临床判断让位于对流程的遵循,道德主体性也逐渐减弱。
人工智能还引入了一个更微妙也更危险的问题:掩盖不确定性。医学本身就充满不确定性。证据是概率性的。指南是暂时的。患者很少能提供清晰完整的数据。临床医生接受的训练不仅是采取行动,还要学会犹豫——识别信息不足、干预可能弊大于利,以及何时应该等待。试想一下,如果人工智能建议患者出院,但患者的配偶却显得忧心忡忡,这凸显了算法决策与人类直觉之间的矛盾。这种现实世界的摩擦凸显了不确定性的严重性。
人工智能系统不会体验不确定性;它们只会生成输出。即使出错,它们也常常表现得异常自信。这并非程序缺陷,而是统计建模的固有特性。与经验丰富的临床医生会公开表达疑虑不同,大型语言模型和机器学习系统无法识别自身的局限性。即使数据不足,它们也能给出看似合理的答案。在医学领域,缺乏依据的合理性可能非常危险。
随着这些系统更早地整合到临床工作流程中,其输出结果对后续决策的影响也日益增强。久而久之,临床医生可能开始信任这些建议,并非基于其有效性,而是因为这些建议已成为常态。判断逐渐从主动推理转向被动接受。在这种情况下,“人机交互”的作用仅仅是一种象征性的保障。
支持者经常声称,人工智能只会“辅助”临床医生,而不是取代他们。然而,这种说法并不稳固。一旦人工智能展现出效率优势,经济和制度压力往往会推动其自主性不断增强。如果一个系统能够安全地续开处方,它可能很快就会被允许开具处方。如果它能够准确诊断常见疾病,医生审核的必要性就会受到质疑。如果它在受控基准测试中表现优于人类,人们对人类差异的容忍度就会降低。
鉴于这些趋势,实施具体的保障措施至关重要。例如,对5%的AI驱动决策进行强制性差异审计,可以作为一种切实有效的检查手段,确保AI建议与人类临床判断保持一致,同时为监管机构和医院董事会提供可操作的指标,以监控AI的整合情况。
这些问题并非出于恶意,而是在以成本控制和可扩展性为核心的系统中自然产生的。然而,它们预示着未来人类判断将成为例外而非常态。在这种情况下,有资源的人将继续获得人工诊疗,而其他人则通过自动化流程进行诊治。双轨制医疗体系的出现并非源于意识形态,而是优化的结果。
当前形势尤其危险,因为缺乏明确的问责机制。当人工智能驱动的决策对患者造成伤害时,谁该负责?是名义上负责监督系统的临床医生?部署该系统的机构?训练模型的供应商?还是批准其使用的监管机构?如果没有明确的答案,责任就会消失。而一旦责任消失,信任也会随之瓦解。
医学的根本在于信任。患者将自己的身体、恐惧,甚至生命,托付给临床医生。这种信任无法转移到任何算法上,无论算法多么复杂精密。它源于对真人的信任——真人能够倾听、适应,并对自己的行为负责。
完全拒绝人工智能是没有必要的。如果运用得当,人工智能可以减轻文书工作负担,识别人类难以发现的模式,并辅助临床决策。它可以让医生将更多时间投入到患者护理而非行政事务中。然而,要实现这一愿景,就必须坚定地将人文责任置于医疗实践的核心地位。
“人机协作”不应仅仅停留在象征性的监督层面。它应要求每一项医疗决策都由特定人员负责,该人员必须理解决策背后的逻辑,并拥有推翻算法建议的权力和义务。此外,它还必须包含透明度、可解释性和患者知情同意,以及对人类临床医生的投入,而非用人工智能取代他们。
主要风险并非人工智能权力过大,而是机构愿意放弃责任。在追求效率和创新的过程中,医学有可能变成一个技术先进、行政精简,却缺乏道德内涵的领域。
展望未来,我们必须扪心自问:2035年,我们设想在病床边看到的医者是怎样的?这个问题需要我们发挥集体的道德想象力,鼓励我们去塑造一个以人为本、以人为本的医疗实践的未来。调动集体的力量至关重要,这能确保人工智能的进步能够增强而非削弱这些基本价值观。
人工智能尚未获得行医资格。然而,医疗体系正悄然被重塑,围绕着一些缺乏道德约束的系统展开。如果这一进程不受制约地持续下去,我们或许有一天会发现,取代医生的并非机器,而是一套既定的流程——而一旦造成伤害,却无人为此负责。
那不是进步,而是退让。
-
Joseph Varon 医学博士 是一位重症监护医师、教授,同时也是独立医学联盟(Independent Medical Alliance)的主席。他撰写了980多篇同行评审的出版物,并担任《独立医学杂志》(Journal of Independent Medicine)的主编。
查看所有文章