AI为什么无法在医疗领域取代医生
问题不在于AI能否取代医生,而在于医生的哪些工作不可委托。为什么AI应当辅助而非替代。

错误的问题
每周都有人发表一篇文章,追问AI是否会取代医生。
这些文章遵循着相似的结构:一项基准研究显示AI在执业医师考试中超越了住院医师;一个诊断模型在特定影像任务中达到了放射科医生水平的准确率;一个语言模型比初级医生更快地生成出院小结。无论是明说还是暗示,结论都指向同一个方向——自动化即将到来,医生应该做好准备。
过去几年来,我一直是一名临床医生;在过去一年里,我一直在为医疗实践构建AI预问诊系统。我从每一个能找到的角度审视了这个问题。而我得出的结论是:所有在问"AI会取代医生吗?"的人,都在问一个错误的问题。
正确的问题是:医生实际所做的工作中,哪些是不可委托的?
这个问题的答案,将彻底改变我们构建医疗AI系统的方式。
医生实际在做什么
当我在看诊时,我主要做的不是处理信息。任何经过充分训练的模型都能比我更快、更全面地完成这项工作。
我在做的是另一件事。我在见证一个处于不确定性中的人,构建一个使其处境变得可理解的框架,而且——这一点至关重要——将自己置于对后续结果承担责任的位置。
第三个要素不是仪式,而是结构性的。
当医生在诊断、建议或治疗方案上签名时,他们不是在简单地记录结论。他们是在接受一连串的后果——法律的、职业的、伦理的——这些后果无法转移给机器。医生可能犯错。医生可能因为犯错而被追究责任。医生可能失去执业资格、面临诉讼,并承担自己所导致结果的道德重量。这种责任闭环不是医学的附属品,这就是医学本身。
无论AI模型多么精准,都无法占据这个位置。不是因为模型缺乏能力,而是因为责任需要一个主体——一个与结果利害相关、有所失、并能够在时间维度上承担责任的实体。
这不是一个哲学注脚,而是AI无法取代医生的结构性原因。
AI真正拥有的能力
以上所述并不意味着AI与医学无关。恰恰相反。但AI的价值所在,与大多数讨论所承认的不在同一个层面上。
AI能够卓越完成的事情:
将碎片化信息结构化。 前来进行复杂会诊的患者,往往携带着多年来分散的记录、不完整的诊断和记录不充分的病史。AI可以整合这些碎片化信息,比任何人类审阅者都更快地呈现出一幅连贯的全貌。
发现遗漏。 临床预问诊中最常见的失败不是收集了错误的信息——而是未能注意到关键信息的缺失。AI可以系统性地标记这些空白,不会因为疲劳而遗漏。
跨时间维持连续性。 治疗后的监测需要数周至数月的持续关注。AI可以毫无衰减地维持这种关注。它不会疲倦,不会忘记随访。
减少语言和文化障碍。 在国际医疗场景中,沟通失误不仅仅是不便——而是患者安全问题。AI可以以任何人类协调员在大规模场景下都无法匹敌的一致性,跨越语言进行沟通协调。
这些都是真实且重要的能力。但请注意它们的共同点:这些都是准备和支持的能力,而非判断和责任的能力。AI在使医生的工作更完整、更准确、更具可扩展性方面表现卓越。但在结构上,它无法替代医生在责任链中的位置。
医疗AI系统出错的环节
我在医疗AI中最常观察到的失败模式不是幻觉或不准确,而是错位的权威。
一个系统被构建来辅助临床医生。随着时间推移——通过用户体验设计决策、范围蔓延,或仅仅因为更方便——系统开始给出患者当作决定来接受的建议。医生沦为橡皮图章。责任链在无人察觉中断裂。
这不是假设。这是一个在各行业中反复出现的模式——只要自动化在没有清晰的责任理论指导下被部署。
在航空领域,自动驾驶仪并没有取代飞行员。它改变了飞行员所做的事情——将其角色从手动控制转变为系统监督、异常处理以及在新情况下的最终决策权。机长的结构性地位没有改变,驾驶舱围绕这个地位发生了变化。
医学需要类似的设计清晰度。问题不在于AI能吸收多少权力,而在于AI应该如何相对于必须保留在人类手中的权力来定位。

这对构建医疗AI意味着什么
在为我的诊所构建预问诊系统时,我在每一个设计决策的核心都坚持一个原则:AI服务于医生的判断能力,而非替代它。
在实践中,这意味着AI负责预问诊结构化、信息缺口检测和多语言沟通。AI生成一份使医生审阅更快、更全面的病例档案。但医生首先阅读的是患者自己的话——在看到任何摘要之前。医生对决策框架进行最终确认。医生持有传递给医院的权威。
在这个设计中,AI不在医生的下游,而在上游——为优质的医生判断创造条件。
这个区分听起来简单,但在构建真实系统时维持它却出人意料地困难。因为AI在某些任务上确实优于人类,总是存在让AI承担更多的压力。抵抗这种压力需要的不仅是技术护栏,更是清晰的哲学承诺。
值得追问的问题
我想就医疗AI提出一个不同的思考框架。
不要问"AI会取代医生吗?",而应该问:"一个精心设计的AI系统,会对医生判断的质量产生什么影响?"
如果答案是"它使医生的判断更快、信息更充分,并应用于准备更充分的病例"——那就是一个设计精良的系统。
如果答案是"它减少了需要医生判断的情形"——那无论其准确度基准如何,都是一个危险的系统。
医疗AI中最重要的问题不是能力,而是架构。角色如何定义?AI的权限在哪里结束,医生的权限在哪里开始?当AI出错时会发生什么,谁来承担后果?
这些不是工程问题,而是治理问题。而这个领域在提出这些问题方面已经落后了。
未来的方向
我对医疗AI持乐观态度——是真心的,不是表演性的。AI能够减少每天都在伤害患者的信息碎片化、沟通失败和连续性断裂的潜力,是真实而巨大的。
但这种潜力只有在系统设计具备结构性清晰度时才能实现——即清楚地知道医生所做的事情中,哪些是不可自动化的。没有责任的准确性不是解决方案,而是原始问题的一种新形式。
未来十年中脱颖而出的医生,不会是抵制AI的人。而是那些精准理解AI在哪些方面比自己做得更好——并设计出利用这种能力来扩展而非替代自身判断的系统的人。
这就是我围绕的核心问题。我不认为它已经有了答案。但这是正确的问题。
关于 AI 在临床决策中的表现、失败模式与治理的相关研究,PubMed 上关于 AI 在临床决策中应用的文献是一个有用的起点。
Dr. Jee Hoon Ju是一名医生,也是AetherHeal的创始人。AetherHeal是一个面向考虑在韩国接受医疗服务的国际患者的、由医生主导的决策基础设施平台。
常见问题
- AI 能在医疗领域取代医生吗?
- 不能,而且这样提问本身就偏离了重点。医生不可被委托的工作不是信息处理——AI 已经能更快、更广泛地完成这项任务。真正不可委托的是问责:在一个决定上签下名字,并接受由此产生的法律、职业与伦理后果。问责需要一个有所失的主体。无论模型多么精准,它都无法占据这个位置,这也是为什么 AI 可以延展医生的判断,但无法取代它。
- AI 在医学中擅长做什么?
- AI 在四件事上表现卓越:将碎片化的患者记录整合为一幅连贯画面;系统性地标记预问诊中缺失的信息;在数周或数月内毫不疲倦地维持连续关注;在国际医疗场景下跨越语言和文化障碍进行沟通。这些都是准备与支持的能力——它们让医生的工作更完整、更具可扩展性,同时完全不触及医生的问责位置。
- 医疗 AI 最主要的失败模式是什么?
- 最常见的失败不是幻觉或事实错误,而是错位的权威。一套系统最初被构建来辅助临床医生,但随着时间推移——通过 UX 漂移、范围蔓延或仅仅是图方便——它开始给出被患者当作决定来接受的建议。医生沦为橡皮图章,问责链条在无人察觉中断裂。这是治理层面的失败,而不是工程层面的失败,而且在每一个缺乏清晰问责理论就部署自动化的行业里都会反复出现。
- AI 应当如何相对于医生来定位?
- AI 应当处于医生的上游,而不是下游。它应当为优质的医生判断创造条件——结构化病例、标记缺口、跨语言翻译、维持连续性。医生应当先阅读患者自己的话,再看任何 AI 摘要,然后在决策框架上做最终签字,持有传递给医院的权威。AI 服务于医生的判断能力,它不替代。
- 关于医疗 AI,值得追问的正确问题是什么?
- 不要问 AI 是否会取代医生,而要问:一套设计良好的 AI 系统会对医生判断的质量产生什么影响?如果它让判断更快、信息更充分、并应用于准备更充分的病例——它就是一套设计良好的系统。如果它减少了需要医生判断被调用的场景——无论其准确度基准如何,它都是一套危险的系统。重要的问题是架构性的,而非能力性的。
- AI 在 AetherHeal 内部是如何被治理的?
- 在 AetherHeal,AI 负责预问诊结构化、信息缺口检测和多语言沟通——但医生会先阅读患者自己的话,再看任何 AI 摘要。医生在决策框架上签字,并持有传递给医院的权威。原则很简单:AI 服务于医生的判断能力,永远不替代它。守住这条边界需要的不仅是技术护栏,更是清晰的哲学承诺。
- AI 在基准测试中超过医生,是否意味着它应该取代医生?
- 基准测试不是正确的衡量标准。执业考试成绩、特定影像任务上的诊断准确率、更快的出院小结生成——这些展示的是 AI 能计算什么,而不是它能为什么承担责任。一个在考试中胜过住院医师的模型,仍然无法失去执照、被起诉,或对一段时间内的结果承担道德重量。没有问责的准确性不是解决方案,而是原始问题的一种新形式。