Почему ИИ не может заменить врачей в здравоохранении
Вопрос не в том, может ли ИИ заменить врачей, а в том, какую работу врача нельзя делегировать. Почему ИИ должен поддерживать, а не заменять.

Неправильный вопрос
Каждую неделю кто-то публикует статью с вопросом: заменит ли ИИ врачей?
Эти статьи следуют знакомой структуре: результаты бенчмарка показывают, что ИИ превосходит ординаторов на квалификационном экзамене; диагностическая модель достигает точности рентгенолога при определённом типе визуализации; языковая модель формирует выписные эпикризы быстрее молодых врачей. Подразумевается — явно или косвенно — что тенденция очевидна. Автоматизация неизбежна. Врачам следует подготовиться.
Последние несколько лет я работаю практикующим врачом, а последний год занимаюсь созданием ИИ-систем приёма пациентов для медицинской практики. Я рассмотрел этот вопрос через все возможные призмы. И пришёл к убеждению, что все, кто спрашивает «заменит ли ИИ врачей?», задают неправильный вопрос.
Правильный вопрос звучит так: что именно делает врач такого, что нельзя делегировать?
Ответ на этот вопрос меняет всё в подходе к созданию ИИ-систем для здравоохранения.
Что на самом деле делает врач
Когда я принимаю пациента, я занимаюсь не просто обработкой информации. Любая достаточно обученная модель может делать это быстрее и шире, чем я.
Я делаю нечто иное. Я становлюсь свидетелем состояния человека в неопределённости, выстраиваю систему координат, через которую его ситуация становится понятной, и — что крайне важно — принимаю на себя ответственность за то, что произойдёт дальше.
Этот третий компонент — не формальность. Он структурен.
Когда врач ставит свою подпись под диагнозом, рекомендацией или планом лечения, он не просто фиксирует заключение. Он принимает на себя цепочку последствий — юридических, профессиональных, этических — которые невозможно переложить на машину. Врач может ошибиться. Врача можно привлечь к ответственности за ошибку. Врач может лишиться лицензии, столкнуться с судебным иском и нести моральный груз последствий, которые он вызвал. Этот контур ответственности не является побочным элементом медицины. Он и есть медицина.
Модель ИИ, какой бы точной она ни была, не может занять эту позицию. Не потому, что модели не хватает возможностей, а потому, что ответственность требует субъекта — сущности, имеющей интерес в исходе, которой есть что терять, способной нести ответственность во времени.
Это не философское примечание. Это структурная причина, по которой ИИ не может заменить врачей.
Реальные возможности ИИ
Ничто из сказанного не означает, что ИИ не имеет отношения к медицине. Верно обратное. Но его значение лежит в иной плоскости, чем признаёт большинство обсуждений.
Что ИИ действительно умеет делать исключительно хорошо:
Структурировать разрозненную информацию. Пациент, приходящий на сложную консультацию, часто приносит с собой многолетние разрозненные записи, частичные диагнозы и плохо задокументированные истории болезни. ИИ способен обработать эту фрагментацию и сформировать целостную картину гораздо быстрее любого человека.
Выявлять недостающее. Одна из наиболее частых ошибок при клиническом приёме — не сбор неправильной информации, а неспособность заметить отсутствие критически важной информации. ИИ может систематически выявлять пробелы без усталости, из-за которой люди их пропускают.
Поддерживать непрерывность во времени. Мониторинг после лечения требует постоянного внимания на протяжении недель или месяцев. ИИ способен поддерживать это внимание без деградации. Он не устаёт. Он не забывает проконтролировать.
Снижать языковые и культурные барьеры. В международном медицинском контексте недопонимание — это не просто неудобство, это вопрос безопасности пациента. ИИ может обеспечивать коммуникацию между языками с последовательностью, которую ни один координатор-человек не может обеспечить в масштабе.
Это реальные и значительные возможности. Но обратите внимание на то, что их объединяет: это возможности подготовки и поддержки, а не суждения и ответственности. ИИ превосходен в том, чтобы сделать работу врача более полной, точной и масштабируемой. Он структурно неспособен заменить позицию врача в цепочке ответственности.
Где ИИ-системы в здравоохранении допускают ошибки
Наиболее частый сбой ИИ-систем в здравоохранении, который я наблюдаю, — это не галлюцинации и не неточности. Это смещение полномочий.
Система создаётся для помощи клиницистам. Со временем — через решения в области пользовательского опыта, расширение функциональности или просто потому, что так удобнее — система начинает выдавать рекомендации, которые пациенты воспринимают как решения. Врач превращается в формальность. Цепочка ответственности разрывается, и никто этого не замечает.
Это не гипотетическая ситуация. Это паттерн, повторяющийся в разных отраслях, когда автоматизация внедряется без чёткого понимания требований к ответственности.
В авиации автопилот не заменил пилотов. Он изменил то, что делают пилоты — сместив их роль от ручного управления к контролю систем, обработке исключительных ситуаций и принятию окончательных решений в нестандартных обстоятельствах. Структурная позиция командира не изменилась. Кабина изменилась вокруг этой позиции.
Медицине нужна аналогичная ясность проектирования. Вопрос не в том, сколько полномочий может поглотить ИИ. Вопрос в том, как ИИ должен быть позиционирован относительно полномочий, которые должны оставаться за человеком.

Что это значит для создания ИИ в медицине
Когда я создавал систему приёма для своей клиники, я руководствовался одним принципом в каждом проектном решении: ИИ служит способности врача выносить суждения; он не подменяет её.
На практике это означает, что ИИ занимается структурированием приёма, выявлением информационных пробелов и мультиязычной коммуникацией. Он формирует досье пациента, которое делает обзор врачом более быстрым и полным. Но врач сначала читает собственные слова пациента — прежде чем увидит какое-либо резюме. Врач утверждает рамку принятия решений. Врач сохраняет полномочия, которые передаются больнице.
В этом дизайне ИИ находится не после врача. Он находится перед ним — подготавливая условия, при которых качественное врачебное суждение становится возможным.
Это различие звучит просто. Его удивительно трудно сохранить при создании реальных систем, потому что ИИ действительно лучше людей в определённых задачах, и существует постоянное давление позволить ему делать больше. Сопротивление этому давлению требует чёткой философской позиции, а не только технических ограничителей.
Вопрос, который стоит задать
Я хочу предложить другую рамку для размышлений об ИИ в медицине.
Вместо того чтобы спрашивать «заменит ли ИИ врачей?», спросите: «Как хорошо спроектированная ИИ-система влияет на качество врачебного суждения?»
Если ответ — «она делает врачебное суждение более быстрым, информированным и применяемым к лучше подготовленным случаям» — это хорошо спроектированная система.
Если ответ — «она сокращает число случаев, когда врачебное суждение вообще задействуется» — это опасная система, независимо от её показателей точности.
Самый важный вопрос в области ИИ для здравоохранения — это не возможности. Это архитектура. Как распределены роли? Где заканчиваются полномочия ИИ и начинаются полномочия врача? Что происходит, когда ИИ ошибается, и кто несёт последствия?
Это не инженерные вопросы. Это вопросы управления. И отрасль отстаёт в их постановке.
Куда это движется
Я оптимистично оцениваю ИИ в медицине — искренне, не показательно. Потенциал ИИ для уменьшения информационной фрагментации, коммуникационных сбоев и пробелов в непрерывности, которые ежедневно вредят пациентам, реален и велик.
Но этот потенциал реализуется только при условии, что системы проектируются со структурной ясностью относительно того, что делают врачи и что не может быть автоматизировано. Точность без ответственности — это не решение. Это новая форма изначальной проблемы.
Врачи, которые будут процветать в следующем десятилетии, — это не те, кто сопротивляется ИИ. Это те, кто точно понимает, что ИИ может делать лучше них, и кто проектирует системы, использующие эту возможность для расширения своего суждения, а не для его замены.
Вот вопрос, вокруг которого я строю свою работу. Я не думаю, что на него уже получен ответ. Но это правильный вопрос.
Исследования по эффективности ИИ, режимам его сбоев и вопросам управления в клиническом принятии решений удобно начать изучать с литературы PubMed по ИИ в клиническом принятии решений.
Dr. Jee Hoon Ju — врач и основатель AetherHeal, платформы инфраструктуры врачебных решений для иностранных пациентов, рассматривающих лечение в Корее.
Часто задаваемые вопросы
- Может ли ИИ заменить врачей в здравоохранении?
- Нет, и сама такая постановка вопроса упускает суть. То, что делает врач и что нельзя делегировать, — это не обработка информации, с этим ИИ уже справляется быстрее и шире. Это ответственность: поставить свою подпись под решением и принять юридические, профессиональные и этические последствия этого решения. Ответственность требует субъекта, у которого есть что терять. Модель, какой бы точной она ни была, не может занять эту позицию, поэтому ИИ может расширять врачебное суждение, но не заменять его.
- Что ИИ умеет делать хорошо в медицине?
- ИИ исключительно хорош в четырёх вещах: структурировании фрагментированных записей пациента в целостную картину, систематическом выявлении информации, которой не хватает при приёме, поддержании непрерывного внимания в течение недель или месяцев без усталости, а также в преодолении языковых и культурных барьеров в международной медицине. Всё это — возможности подготовки и поддержки, они делают работу врача более полной и масштабируемой, не затрагивая его позицию в контуре ответственности.
- Каков главный режим отказа ИИ в здравоохранении?
- Самый частый сбой — не галлюцинации и не фактические ошибки. Это смещение полномочий. Система создаётся в помощь клиницистам, и со временем — через дрейф пользовательского опыта, расширение функциональности или просто ради удобства — она начинает выдавать рекомендации, которые пациенты воспринимают как решения. Врач превращается в формальность, цепочка ответственности рвётся, и никто этого не замечает. Это провал управления, а не инженерии, и он повторяется в разных отраслях, когда автоматизация внедряется без чёткой теории ответственности.
- Как ИИ должен быть позиционирован относительно врачей?
- ИИ должен стоять выше врача по потоку работы, а не ниже. Он должен готовить условия, при которых качественное врачебное суждение становится возможным, — структурировать досье пациента, подсвечивать пробелы, переводить между языками, поддерживать непрерывность. Врач должен прочесть собственные слова пациента до того, как увидит какое-либо резюме ИИ, утвердить рамку принятия решений и удерживать полномочия, которые передаются больнице. ИИ обслуживает способность врача судить — он её не заменяет.
- Какой вопрос об ИИ в медицине правильный?
- Вместо того чтобы спрашивать, заменит ли ИИ врачей, спросите, что хорошо спроектированная ИИ-система делает с качеством врачебного суждения. Если она делает суждение более быстрым, информированным и применяемым к лучше подготовленным случаям, система спроектирована хорошо. Если она сокращает число случаев, когда врачебное суждение вообще задействуется, система опасна — независимо от её бенчмарков точности. Важный вопрос архитектурный, а не про возможности.
- Как ИИ управляется внутри AetherHeal?
- В AetherHeal ИИ занимается структурированием приёма, выявлением информационных пробелов и мультиязычной коммуникацией, но врач сначала читает собственные слова пациента, прежде чем увидит какое-либо резюме ИИ. Врач утверждает рамку принятия решений и удерживает полномочия, передаваемые больнице. Принцип прост: ИИ обслуживает способность врача судить и никогда её не подменяет. Сохранение этой границы требует философской приверженности, а не только технических ограничителей.
- Если ИИ превосходит врачей на бенчмарках, значит ли это, что он должен их заменить?
- Результаты на бенчмарках — неправильный показатель. Баллы за квалификационный экзамен, диагностическая точность на курированных визуализационных задачах и более быстрые выписные эпикризы показывают, что ИИ умеет вычислять, а не то, за что он может нести ответственность. Модель, превосходящая ординаторов на тесте, всё равно не может лишиться лицензии, столкнуться с судебным иском или нести моральный груз за результаты во времени. Точность без ответственности — не решение, это новая форма изначальной проблемы.