AIが医療現場で医師に取って代われない理由
AIが医師を代替できるかではなく、医師の仕事のうち委任できないものは何かが問題です。AIは代替ではなく支援であるべき理由。

間違った問い
毎週、AIが医師に取って代わるかどうかを問う記事が誰かの手で発表されます。
これらの記事は馴染みのある構造をたどります。ベンチマーク研究でAIが専門医試験で研修医を上回り、診断モデルが特定の画像診断タスクで放射線科医レベルの精度を達成し、言語モデルが若手医師よりも速く退院サマリーを作成する。明示的であれ暗示的であれ、その方向性は明確だとされます。自動化がやってくる。医師は備えるべきだと。
私は過去数年間、臨床医として患者を診てきました。そしてこの1年間は、医療現場のためのAIインテイクシステムの構築に取り組んできました。「AIは医師に取って代わるのか?」という問いを、あらゆる角度から検討してきました。そしてたどり着いた結論があります — この問いを発している人たちは、間違った質問をしているということです。
正しい問いはこれです:医師が実際に行っていることの中で、委任できないものは何か?
この問いに対する答えが、ヘルスケアにおけるAIシステムの構築方法をすべて変えます。
医師が実際にしていること
私が患者を診るとき、主にしているのは情報処理ではありません。十分にトレーニングされたモデルであれば、私よりも速く、より広い範囲でそれをこなすことができます。
私がしているのは、それとは異なることです。不確実性の中にいる一人の人間に向き合い、その人の状況を理解可能にするフレームを構築し、そして — 決定的に — その後に起こることに対して責任を負う立場に自分自身を置いているのです。
この三番目の要素は儀式ではありません。構造的なものです。
医師が診断、推奨、あるいは治療計画に署名するとき、単に結論を記録しているのではありません。法的、専門的、倫理的に連なる結果の連鎖を引き受けているのです — そしてそれは機械に譲渡することができません。医師は間違えることがあります。医師は間違いの責任を問われることがあります。医師は医師免許を失い、訴訟に直面し、自らが引き起こした結果の道義的重みを背負うことがあります。この責任のループは、医学において付随的なものではありません。これが医学そのものなのです。
AIモデルは、いかに正確であっても、この立場を占めることはできません。モデルに能力が欠けているからではなく、責任には主体が必要だからです — 結果に利害関係を持ち、失うものがあり、時間を超えて責任を担う能力を持つ存在です。
これは哲学的な脚注ではありません。AIが医師に取って代われない構造的な理由です。
AIが実際に持っている能力
以上のことは、AIが医学と無関係であることを意味しません。むしろその逆です。ただし、その関連性は、多くの議論が認識しているものとは異なる次元にあります。
AIが卓越して得意なこと:
断片化した情報を体系化する。 複雑な相談のために来院する患者は、しばしば何年にもわたる散在した記録、不完全な診断、不十分に記録された病歴を持っています。AIはこの断片化を取り込み、いかなる人間のレビュアーよりもはるかに速く一貫した全体像を提示することができます。
欠落しているものを表面化させる。 臨床インテイクにおいて最も一貫して起こる失敗は、間違った情報を収集することではなく — 重要な情報が欠落していることに気づかないことです。AIは、疲労によって人間のレビュアーが見落とすものを体系的に検出することができます。
時間を超えて連続性を維持する。 治療後のモニタリングには、数週間から数ヶ月にわたる一貫した注意が必要です。AIはその注意を劣化させることなく維持することができます。疲れることがなく、フォローアップを忘れることもありません。
言語的・文化的障壁を軽減する。 国際的な医療の文脈において、コミュニケーションの齟齬は不便なだけではありません — 患者安全の問題です。AIは、いかなる人間のコーディネーターも大規模には実現できない一貫性で、言語間のコミュニケーションを仲介することができます。
これらは実質的かつ重要な能力です。しかし、これらすべてに共通していることに注目してください:これらは準備と支援の能力であり、判断と責任の能力ではありません。AIは医師の仕事をより完全に、より正確に、よりスケーラブルにすることに長けています。しかし、責任の連鎖における医師の立場を置き換えることは、構造的に不可能です。
ヘルスケアにおけるAIシステムが誤る場面
私がヘルスケアAIで最も頻繁に観察する失敗モードは、ハルシネーションや不正確さではありません。誤った権威の付与です。
システムは臨床医を支援するために構築されます。しかし時間の経過とともに — ユーザー体験に関する設計判断、スコープクリープ、あるいは単にそのほうが便利だからという理由で — システムが患者に決定として受け取られる推奨を行い始めます。医師はゴム印になります。誰も気づかないまま、責任の連鎖が断たれます。
これは仮説ではありません。責任が何を要求するかについての明確な理論なしに自動化が導入されるとき、業界を超えて繰り返されるパターンです。
航空において、オートパイロットはパイロットに取って代わりませんでした。パイロットが行うことを変えたのです — 手動制御からシステム監視、例外処理、そして未知の状況における最終権限へと役割が移行しました。機長の構造的立場は変わりませんでした。コックピットがその立場を中心に変化したのです。
医学にも同様の設計の明確さが必要です。問題は、AIがどれだけの権限を吸収できるかではありません。人間に残らなければならない権限に対して、AIがどのように位置づけられるべきかが問題です。

これが医療AI構築にとって意味すること
私がクリニックのためにインテイクシステムを構築した際、すべての設計判断の中心に一つの原則を置きました:AIは医師の判断能力に奉仕するものであり、それを代替するものではない。
実際には、これはAIがインテイクの構造化、情報ギャップの検出、多言語コミュニケーションを担当することを意味します。AIは医師のレビューをより速く、より完全にするケースファイルを生成します。しかし、医師はいかなるサマリーを目にする前に、まず患者自身の言葉を読みます。医師が意思決定のフレームを最終確認します。医師が病院に引き継がれる権限を保持します。
この設計において、AIは医師の下流にあるのではありません。上流にいるのです — 良質な医師の判断が可能となる条件を整えるのです。
この区別はシンプルに聞こえます。しかし実際のシステムを構築する際にこれを維持することは、驚くほど困難です。AIが特定のタスクにおいて人間よりも本当に優れているため、AIにもっと任せようという圧力が絶えず存在するからです。この圧力に抗するには、技術的なガードレールだけでなく、明確な哲学的コミットメントが必要です。
問うべき価値のある問い
医療におけるAIについて、異なるフレームを提案したいと思います。
「AIは医師に取って代わるのか?」と問う代わりに、こう問いかけてください:「よく設計されたAIシステムは、医師の判断の質に何をもたらすか?」
もし答えが「医師の判断をより速く、より十分な情報に基づいたものにし、より良く準備されたケースに適用されるようにする」であれば — それはよく設計されたシステムです。
もし答えが「医師の判断が求められるケースそのものを減らす」であれば — 精度ベンチマークに関わらず、それは危険なシステムです。
ヘルスケアAIにおける最も重要な問いは、能力ではありません。アーキテクチャです。役割はどのように定義されているか?AIの権限はどこで終わり、医師の権限はどこから始まるか?AIが間違ったとき何が起こり、誰がその結果を引き受けるか?
これらはエンジニアリングの問いではありません。ガバナンスの問いです。そしてこの分野は、これらの問いを発することにおいて遅れをとっています。
今後の展望
私は医療におけるAIに楽観的です — 形式的にではなく、心からそう思っています。情報の断片化、コミュニケーションの失敗、連続性のギャップなど、毎日患者に害を与えている問題をAIが軽減できる可能性は、現実的かつ大きなものです。
しかしその可能性は、医師が行っていることの中で自動化できないものについて構造的な明確さを持ってシステムを設計する場合にのみ実現されます。責任のない正確さは解決策ではありません。それは元の問題の新しい形にすぎません。
次の10年で成功する医師は、AIに抵抗する医師ではありません。AIが自分よりも何をうまくできるかを正確に理解し — その能力を自らの判断を置き換えるのではなく拡張するために活用するシステムを設計する医師です。
これが私が取り組んでいる問いです。まだ答えが出たとは思いません。しかしこれが正しい問いなのです。
臨床判断におけるAIの性能、失敗モード、ガバナンスに関する基礎的な研究については、臨床判断におけるAIに関するPubMed文献が有用な出発点となります。
Dr. Jee Hoon Juは医師であり、韓国での医療を検討している海外患者のための医師主導の意思決定インフラプラットフォームAetherHealの創設者です。
よくある質問
- ヘルスケアにおいてAIは医師に取って代われますか?
- いいえ、そしてそうした問いの立て方自体が本質を見誤っています。医師の仕事のうち委任できないのは情報処理ではありません ― それはすでにAIの方が速く広く行えます。委任できないのは説明責任です ― 自らの名を決定に署名し、その法的、専門的、倫理的な結果を引き受けることです。説明責任には失うものを持つ主体が必要です。モデルはどれほど正確であってもこの立場を占めることはできず、だからこそAIは医師の判断を拡張できても代替することはできません。
- AIは医学において何を上手くできますか?
- AIは四つのことに極めて優れています。断片化した患者記録を一貫した全体像に整理すること、インテイクから欠落している情報を体系的に表面化すること、数週間から数ヶ月にわたって疲労なく連続的な注意を維持すること、そして国際医療の文脈で言語的・文化的障壁を仲介することです。これらはすべて準備と支援の能力であり、医師の仕事をより完全でスケーラブルにする一方で、医師の説明責任の立場には触れません。
- ヘルスケアにおけるAIの主な失敗モードは何ですか?
- 最も一般的な失敗はハルシネーションや事実の不正確さではありません。誤った権威の付与です。臨床医を支援するために構築されたシステムが、時間とともに ― UXドリフト、スコープクリープ、あるいは便利さゆえに ― 患者が決定として受け取る推奨を行うようになります。医師はゴム印となり、誰も気づかないまま責任の連鎖が断たれます。これはエンジニアリングではなくガバナンスの失敗であり、説明責任に関する明確な理論なしに自動化が導入されるとき、業界を超えて繰り返されるパターンです。
- AIは医師に対してどのように位置づけられるべきですか?
- AIは医師の下流ではなく上流に位置すべきです。良質な医師の判断が可能となる条件を整えるべきです ― ケースファイルの構造化、ギャップの指摘、言語を超えた翻訳、連続性の維持です。医師はいかなるAIサマリーを目にする前に患者自身の言葉を読み、意思決定のフレームを最終確認し、病院に引き継がれる権限を保持すべきです。AIは医師の判断能力に奉仕するものであり、それを代替するものではありません。
- 医療におけるAIについて問うべき正しい問いは何ですか?
- AIが医師に取って代わるかを問う代わりに、よく設計されたAIシステムが医師の判断の質に何をもたらすかを問うてください。判断をより速く、より十分な情報に基づいたものにし、より良く準備されたケースに適用させるなら、それはよく設計されたシステムです。医師の判断が求められるケースそのものを減らすなら、精度ベンチマークにかかわらず、それは危険なシステムです。重要な問いは能力ではなくアーキテクチャに関するものです。
- AetherHealの中でAIはどのようにガバナンスされていますか?
- AetherHealでは、AIがインテイクの構造化、情報ギャップの検出、多言語コミュニケーションを担当します ― しかし医師はいかなるAIサマリーを目にする前に、まず患者自身の言葉を読みます。医師が意思決定のフレームを最終確認し、病院に引き継がれる権限を保持します。原則はシンプルです ― AIは医師の判断能力に奉仕し、決してそれを代替しません。この境界を維持するには、技術的ガードレールだけでなく哲学的なコミットメントが必要です。
- AIがベンチマークで医師を上回るなら、取って代わるべきではないですか?
- ベンチマーク性能は適切な指標ではありません。専門医試験のスコア、キュレーションされた画像タスクにおける診断精度、より速い退院サマリーは、AIが何を計算できるかを示すものであって、何について責任を負えるかを示すものではありません。研修医をテストで上回るモデルも、免許を失うことはなく、訴訟に直面することもなく、時間を超えたアウトカムに対して道義的重みを担うことはできません。責任のない正確さは解決策ではなく、元の問題の新しい形にすぎません。