لماذا لا يمكن للذكاء الاصطناعي أن يحلّ محلّ الأطباء في الرعاية الصحية
السؤال ليس هل يستبدل الذكاء الاصطناعي الأطباء — بل ما الذي يفعله الطبيب ولا يمكن تفويضه. لماذا يجب أن يدعم لا أن يحلّ محلّهم.

السؤال الخاطئ
كل أسبوع، ينشر أحدهم مقالاً يسأل فيه ما إذا كان الذكاء الاصطناعي سيحلّ محلّ الأطباء.
تتبع هذه المقالات بنية مألوفة: دراسة مرجعية تُظهر أنّ ذكاءً اصطناعياً تفوّق على الأطباء المقيمين في امتحان البورد؛ نموذج تشخيصي يحقّق دقة بمستوى أخصائي الأشعة في مهمة تصوير محدّدة؛ نموذج لغوي يُنتج ملخّصات الخروج أسرع من الأطباء المبتدئين. الاستنتاج، صريحاً كان أو ضمنياً، هو أنّ المسار واضح. الأتمتة قادمة. على الأطباء أن يستعدّوا.
قضيت السنوات الأخيرة كطبيب ممارس، والسنة الأخيرة في بناء أنظمة استقبال مرضى مدعومة بالذكاء الاصطناعي للممارسة الطبية. درست هذا السؤال من كل زاوية ممكنة. وتوصّلت إلى قناعة بأنّ كل من يسأل "هل سيحلّ الذكاء الاصطناعي محلّ الأطباء؟" يطرح السؤال الخاطئ.
السؤال الصحيح هو: ما الذي يفعله الطبيب فعلاً ولا يمكن تفويضه؟
الإجابة على هذا السؤال تغيّر كل شيء حول كيفية بناء أنظمة الذكاء الاصطناعي للرعاية الصحية.
ما الذي يفعله الطبيب فعلاً
عندما أرى مريضاً، لا أقوم في المقام الأول بمعالجة المعلومات. أيّ نموذج مدرَّب بشكل كافٍ يمكنه فعل ذلك بسرعة أكبر ونطاق أوسع منّي.
ما أفعله هو شيء مختلف. أنا أشهد على إنسان في حالة عدم يقين، وأبني إطاراً يصبح من خلاله وضعه مفهوماً، والأهمّ من ذلك — أضع نفسي في موقع المسؤولية عمّا يحدث بعد ذلك.
هذا المكوّن الثالث ليس شكلياً. إنه هيكلي.
عندما يوقّع طبيب باسمه على تشخيص أو توصية أو خطة علاجية، فهو لا يسجّل مجرّد استنتاج. إنه يقبل سلسلة من العواقب — قانونية ومهنية وأخلاقية — لا يمكن نقلها إلى آلة. يمكن للطبيب أن يُخطئ. يمكن محاسبة الطبيب على خطئه. يمكن للطبيب أن يفقد رخصته، ويواجه دعاوى قضائية، ويتحمّل الثقل الأخلاقي للنتائج التي تسبّب بها. حلقة المساءلة هذه ليست عَرَضية في الطب. إنها هي الطب.
نموذج الذكاء الاصطناعي، مهما كانت دقّته، لا يمكنه شغل هذا الموقع. ليس لأنّ النموذج يفتقر إلى القدرة، بل لأنّ المساءلة تتطلّب ذاتاً — كياناً له مصلحة في النتيجة، وله ما يخسره، ولديه القدرة على تحمّل المسؤولية عبر الزمن.
هذه ليست حاشية فلسفية. إنها السبب الهيكلي لعدم قدرة الذكاء الاصطناعي على استبدال الأطباء.
القدرات التي يملكها الذكاء الاصطناعي فعلاً
لا يعني هذا أنّ الذكاء الاصطناعي غير ذي صلة بالطب. العكس هو الصحيح. لكنّ أهميته تقع في سجلّ مختلف عمّا تعترف به معظم النقاشات.
ما يستطيع الذكاء الاصطناعي فعله بتميّز:
تنظيم المعلومات المتشتّتة. المريض القادم لاستشارة معقّدة غالباً ما يحمل سنوات من السجلّات المبعثرة والتشخيصات الجزئية والتواريخ الطبية الموثّقة بشكل سيء. يمكن للذكاء الاصطناعي استيعاب هذا التشتّت وتقديم صورة متماسكة أسرع بكثير من أيّ مراجع بشري.
كشف ما هو مفقود. أحد أكثر الإخفاقات اتّساقاً في استقبال المرضى ليس جمع معلومات خاطئة — بل الفشل في ملاحظة غياب معلومات حرجة. يمكن للذكاء الاصطناعي تحديد الثغرات بشكل منهجي، دون الإرهاق الذي يجعل المراجعين البشريين يفوّتونها.
الحفاظ على الاستمرارية عبر الزمن. مراقبة ما بعد العلاج تتطلّب اهتماماً مستمراً لأسابيع أو أشهر. يمكن للذكاء الاصطناعي الحفاظ على هذا الاهتمام دون تدهور. لا يتعب. لا ينسى المتابعة. (هكذا صمّمنا عملية AetherHeal — الذكاء الاصطناعي يتولّى الاستمرارية بينما يحتفظ الأطباء بالسلطة.)
تقليل حواجز اللغة والثقافة. في السياقات الطبية الدولية، سوء التواصل ليس مجرّد إزعاج — إنه مسألة سلامة المريض. يمكن للذكاء الاصطناعي التوسّط بين اللغات باتّساق لا يمكن لأيّ منسّق بشري مطابقته على نطاق واسع.
هذه قدرات حقيقية وجوهرية. لكن لاحظ ما يجمعها: إنها قدرات تحضير ودعم، وليست قدرات حكم ومساءلة. الذكاء الاصطناعي استثنائي في جعل عمل الطبيب أكثر اكتمالاً ودقة وقابلية للتوسّع. لكنه عاجز هيكلياً عن استبدال موقع الطبيب في سلسلة المساءلة.
أين تخطئ أنظمة الذكاء الاصطناعي في الرعاية الصحية
نمط الفشل الذي ألاحظه أكثر في الذكاء الاصطناعي الصحي ليس الهلوسة أو عدم الدقة. إنه السلطة في غير موضعها.
يُبنى نظام لمساعدة الأطباء. ومع الوقت — من خلال قرارات تجربة المستخدم أو زحف النطاق أو ببساطة لأنه أكثر ملاءمة — يبدأ النظام في تقديم توصيات يتعامل معها المرضى كقرارات. يصبح الطبيب مجرّد خاتم مطاطي. تنكسر سلسلة المساءلة دون أن يلاحظ أحد.
هذا ليس افتراضياً. إنه نمط يتكرّر عبر الصناعات عندما تُنشر الأتمتة دون نظرية واضحة لما تتطلّبه المساءلة.
في الطيران، لم يحلّ الطيار الآلي محلّ الطيارين. غيّر ما يفعله الطيارون — بتحويل دورهم من التحكّم اليدوي إلى مراقبة الأنظمة ومعالجة الاستثناءات والسلطة النهائية في المواقف الجديدة. الموقع الهيكلي للقبطان لم يتغيّر. قمرة القيادة تغيّرت حول ذلك الموقع.
يحتاج الطب إلى وضوح تصميمي مماثل. السؤال ليس كم من السلطة يمكن للذكاء الاصطناعي استيعابها. السؤال هو كيف يجب وضع الذكاء الاصطناعي بالنسبة للسلطة التي يجب أن تبقى بشرية.

ما يعنيه هذا لبناء الذكاء الاصطناعي في الطب
عندما بنيت نظام الاستقبال لعيادتي، أبقيت مبدأً واحداً في مركز كل قرار تصميمي: الذكاء الاصطناعي يخدم قدرة الطبيب على الحكم؛ ولا يحلّ محلّها.
عملياً، هذا يعني أنّ الذكاء الاصطناعي يتولّى تنظيم الاستقبال واكتشاف ثغرات المعلومات والتواصل متعدّد اللغات. يُنتج ملف حالة يجعل مراجعة الطبيب أسرع وأكثر اكتمالاً. لكنّ الطبيب يقرأ كلمات المريض أولاً — قبل أن يرى أيّ ملخّص. الطبيب يوافق على إطار القرار. الطبيب يحتفظ بالسلطة التي تُمرَّر إلى المستشفى.
الذكاء الاصطناعي ليس في مسار ما بعد الطبيب في هذا التصميم. إنه في مسار ما قبله — يُعدّ الظروف التي يصبح فيها الحكم الطبي الجيد ممكناً.
هذا التمييز يبدو بسيطاً. لكنه صعب بشكل مدهش الحفاظ عليه عند بناء أنظمة حقيقية، لأنّ الذكاء الاصطناعي أفضل فعلاً من البشر في مهام معيّنة، وهناك ضغط مستمر للسماح له بفعل المزيد. مقاومة هذا الضغط تتطلّب التزاماً فلسفياً واضحاً، وليس مجرّد حاجز تقني.
السؤال الجدير بالطرح
أريد أن أقترح إطاراً مختلفاً للتفكير في الذكاء الاصطناعي في الطب.
بدلاً من السؤال "هل سيحلّ الذكاء الاصطناعي محلّ الأطباء؟"، اسأل: "ما الذي يفعله نظام ذكاء اصطناعي مصمَّم جيداً بجودة حكم الطبيب؟"
إذا كانت الإجابة "يجعل حكم الطبيب أسرع وأكثر اطّلاعاً ومطبَّقاً على حالات أفضل إعداداً" — فهذا نظام مصمَّم بشكل جيد.
إذا كانت الإجابة "يقلّل الحالات التي يُستدعى فيها حكم الطبيب أصلاً" — فهذا نظام خطير، بغضّ النظر عن معايير دقّته.
أهمّ سؤال في الذكاء الاصطناعي الصحي ليس القدرة. إنه البنية. كيف تُعرَّف الأدوار؟ أين تنتهي سلطة الذكاء الاصطناعي وأين تبدأ سلطة الطبيب؟ ماذا يحدث عندما يُخطئ الذكاء الاصطناعي، ومن يتحمّل العواقب؟
هذه ليست أسئلة هندسية. إنها أسئلة حوكمة. والمجال متأخّر في طرحها.
أين أرى هذا يتّجه
أنا متفائل بشأن الذكاء الاصطناعي في الطب — بصدق، وليس شكلياً. إمكانية أن يقلّل الذكاء الاصطناعي من تشتّت المعلومات وإخفاقات التواصل وثغرات الاستمرارية التي تضرّ بالمرضى يومياً حقيقية وكبيرة.
لكنّ هذه الإمكانية لا تتحقّق إلا إذا صُمّمت الأنظمة بوضوح هيكلي حول ما يفعله الأطباء ولا يمكن أتمتته. الدقة بدون مساءلة ليست حلاً. إنها شكل جديد من المشكلة الأصلية.
الأطباء الذين سيزدهرون في العقد القادم ليسوا من يقاومون الذكاء الاصطناعي. إنهم من يفهمون، بدقة، ما يمكن للذكاء الاصطناعي فعله بشكل أفضل منهم — ومن يصمّمون أنظمة تستخدم تلك القدرة لتوسيع حكمهم بدلاً من استبداله.
هذا هو السؤال الذي أبني حوله. لا أعتقد أنه أُجيب عنه بعد. لكنه السؤال الصحيح.
للاطلاع على الأبحاث الأساسية حول أداء الذكاء الاصطناعي وأنماط إخفاقه وحوكمته في اتخاذ القرار السريري، تُعدّ قاعدة PubMed للأبحاث حول الذكاء الاصطناعي في اتخاذ القرار السريري نقطة انطلاق مفيدة.
الدكتور جي هون جو طبيب ومؤسّس AetherHeal، منصة يقودها أطباء للمرضى الدوليين الذين يفكّرون في الرعاية الطبية في كوريا. اقرأ المزيد عن كيفية حوكمة الذكاء الاصطناعي في عملية AetherHeal، أو استكشف لماذا أصبحت كوريا وجهة للرعاية الطبية.
الأسئلة الشائعة
- هل يمكن للذكاء الاصطناعي أن يحلّ محلّ الأطباء في الرعاية الصحية؟
- لا، وصياغة السؤال بهذه الطريقة تُفوّت الجوهر. ما يفعله الأطباء ولا يمكن تفويضه ليس معالجة المعلومات — فالذكاء الاصطناعي يستطيع فعل ذلك أسرع وبمدى أوسع بالفعل. إنها المساءلة: توقيع الاسم على قرار وقبول العواقب القانونية والمهنية والأخلاقية لذلك القرار. المساءلة تتطلّب ذاتاً لديها ما تخسره. والنموذج، مهما كانت دقّته، لا يمكنه شغل هذا الموقع، ولذلك يستطيع الذكاء الاصطناعي توسيع حكم الطبيب لكن لا يحلّ محلّه.
- ما الذي يستطيع الذكاء الاصطناعي فعله جيّداً في الطب؟
- الذكاء الاصطناعي بارع بشكل استثنائي في أربعة أمور: هيكلة سجلّات المرضى المشتّتة في صورة متماسكة، والإظهار المنهجي للمعلومات المفقودة من الاستقبال، والحفاظ على انتباه متواصل عبر الأسابيع أو الأشهر دون تعب، والتوسّط في الحواجز اللغوية والثقافية في السياقات الطبية الدولية. كلّها قدرات تحضير ودعم — تجعل عمل الطبيب أكثر اكتمالاً وقابلية للتوسّع، دون أن تمسّ موقع المساءلة الذي يشغله الطبيب.
- ما هو نمط الفشل الرئيسي للذكاء الاصطناعي في الرعاية الصحية؟
- الفشل الأكثر شيوعاً ليس الهلوسة أو عدم الدقّة الواقعية. إنه السلطة في غير موضعها. يُبنى نظام لمساعدة الأطباء، ومع الوقت — عبر انحراف تجربة المستخدم أو زحف النطاق أو الراحة — يبدأ في تقديم توصيات يعاملها المرضى كقرارات. يتحوّل الطبيب إلى ختم مطاطي، وتنكسر سلسلة المساءلة دون أن يلاحظ أحد. هذا فشل حوكمة لا هندسة، ويتكرّر عبر الصناعات كلّما نُشرت الأتمتة دون نظرية واضحة للمساءلة.
- كيف ينبغي وضع الذكاء الاصطناعي بالنسبة للأطباء؟
- ينبغي للذكاء الاصطناعي أن يقع قبل الطبيب في المسار لا بعده. ينبغي أن يُعدّ الظروف التي يصبح فيها حكم الطبيب الجيّد ممكناً — هيكلة ملف الحالة والإشارة إلى الثغرات والترجمة عبر اللغات والحفاظ على الاستمرارية. ينبغي للطبيب أن يقرأ كلمات المريض أولاً قبل أن يرى أيّ ملخّص من الذكاء الاصطناعي، وأن يوافق على إطار القرار، وأن يحتفظ بالسلطة التي تُمرَّر إلى المستشفى. الذكاء الاصطناعي يخدم قدرة الطبيب على الحكم؛ ولا يحلّ محلّها.
- ما السؤال الصحيح الذي يُطرح حول الذكاء الاصطناعي في الطب؟
- بدلاً من السؤال هل سيحلّ الذكاء الاصطناعي محلّ الأطباء، اسأل ماذا يفعل نظام ذكاء اصطناعي مصمَّم جيّداً بجودة حكم الطبيب. إذا كان يجعل الحكم أسرع وأكثر اطّلاعاً ومطبَّقاً على حالات أفضل إعداداً، فهذا نظام مصمَّم جيّداً. إذا كان يُقلّل الحالات التي يُستدعى فيها حكم الطبيب أصلاً، فهذا نظام خطير بغضّ النظر عن معاييره الدقيقة. السؤال المهمّ هو معماري لا قدري.
- كيف يُحكَم الذكاء الاصطناعي داخل AetherHeal؟
- في AetherHeal، يتولّى الذكاء الاصطناعي هيكلة الاستقبال واكتشاف ثغرات المعلومات والتواصل متعدّد اللغات — لكنّ الطبيب يقرأ كلمات المريض أولاً، قبل أن يرى أيّ ملخّص من الذكاء الاصطناعي. الطبيب يوافق على إطار القرار ويحتفظ بالسلطة التي تُمرَّر إلى المستشفى. المبدأ بسيط: الذكاء الاصطناعي يخدم قدرة الطبيب على الحكم، ولا يحلّ محلّها أبداً. الحفاظ على هذا الحدّ يتطلّب التزاماً فلسفياً، لا مجرّد حاجز تقني.
- هل تفوّق الذكاء الاصطناعي على الأطباء في المعايير يعني أنه يجب أن يحلّ محلّهم؟
- أداء المعايير ليس المقياس الصحيح. درجات امتحان البورد والدقّة التشخيصية في مهام تصوير منتقاة وملخّصات الخروج الأسرع تُظهر ما يمكن للذكاء الاصطناعي حسابه — لا ما يمكن تحميله مسؤوليته. النموذج الذي يتفوّق على الأطباء المقيمين في اختبار لا يمكنه أن يفقد رخصة أو يواجه دعاوى قضائية أو يحمل ثقلاً أخلاقياً للنتائج عبر الزمن. الدقّة بدون مساءلة ليست حلاً؛ إنها شكل جديد من المشكلة الأصلية.