ทำไม AI ถึงแทนที่แพทย์ในระบบสาธารณสุขไม่ได้
คำถามไม่ใช่ว่า AI จะแทนที่แพทย์ได้หรือไม่ แต่คืองานใดของแพทย์ที่มอบหมายไม่ได้ ทำไม AI ควรสนับสนุน ไม่ใช่แทนที่

คำถามที่ผิด
ทุกสัปดาห์ มีคนเขียนบทความตั้งคำถามว่า AI จะแทนที่แพทย์ได้หรือไม่
บทความเหล่านั้นมีโครงสร้างคุ้นเคย: ผลการทดสอบมาตรฐานแสดงให้เห็นว่า AI ทำคะแนนได้ดีกว่าแพทย์ประจำบ้านในข้อสอบบอร์ด โมเดลวินิจฉัยมีความแม่นยำเทียบเท่ารังสีแพทย์ในงานภาพถ่ายทางการแพทย์บางประเภท โมเดลภาษาสร้างสรุปการจำหน่ายผู้ป่วยได้เร็วกว่าแพทย์รุ่นใหม่ นัยที่สื่อออกมา ไม่ว่าจะพูดตรงๆ หรือบอกเป็นนัย ก็คือทิศทางนั้นชัดเจน ระบบอัตโนมัติกำลังมา แพทย์ควรเตรียมตัว
ในช่วงหลายปีที่ผ่านมา ผมทำงานเป็นแพทย์ผู้ปฏิบัติงาน และในปีที่ผ่านมาผมได้สร้างระบบ AI สำหรับรับผู้ป่วยในคลินิก ผมพิจารณาคำถามนี้จากทุกมุมมองที่หาได้ และผมเชื่อมั่นว่าทุกคนที่ถามว่า "AI จะแทนที่แพทย์ได้หรือไม่?" กำลังถามคำถามที่ผิด
คำถามที่ถูกต้องคือ: แพทย์ทำสิ่งใดจริงๆ ที่ไม่สามารถมอบหมายให้ผู้อื่นได้?
คำตอบของคำถามนี้เปลี่ยนทุกอย่างเกี่ยวกับวิธีที่เราควรสร้างระบบ AI สำหรับการดูแลสุขภาพ
สิ่งที่แพทย์ทำจริงๆ
เมื่อผมกำลังตรวจผู้ป่วย ผมไม่ได้ทำเพียงแค่ประมวลผลข้อมูล โมเดลที่ผ่านการฝึกฝนเพียงพอสามารถทำเรื่องนี้ได้เร็วกว่าและครอบคลุมกว่าผม
สิ่งที่ผมทำนั้นแตกต่างออกไป ผมกำลังเป็นพยานในความไม่แน่นอนของผู้ป่วย สร้างกรอบความเข้าใจที่ทำให้สถานการณ์ของพวกเขาอ่านออก และ — ที่สำคัญที่สุด — วางตัวเองในตำแหน่งที่ต้องรับผิดชอบต่อสิ่งที่จะเกิดขึ้นต่อไป
องค์ประกอบที่สามนี้ไม่ใช่พิธีการ แต่เป็นโครงสร้าง
เมื่อแพทย์ลงนามในการวินิจฉัย คำแนะนำ หรือแผนการรักษา พวกเขาไม่ได้แค่บันทึกข้อสรุป พวกเขากำลังรับเอาห่วงโซ่ของผลที่ตามมา — ทั้งทางกฎหมาย วิชาชีพ และจริยธรรม — ซึ่งไม่สามารถถ่ายโอนไปยังเครื่องจักรได้ แพทย์อาจผิดพลาดได้ แพทย์อาจถูกเรียกให้รับผิดชอบต่อความผิดพลาดนั้น แพทย์อาจถูกเพิกถอนใบอนุญาต เผชิญกับการฟ้องร้อง และแบกรับภาระทางศีลธรรมจากผลลัพธ์ที่ตนเองเป็นต้นเหตุ วงจรความรับผิดชอบนี้ไม่ใช่สิ่งที่เกิดขึ้นโดยบังเอิญในวงการแพทย์ มันคือแก่นแท้ของการแพทย์
โมเดล AI ไม่ว่าจะแม่นยำเพียงใด ไม่สามารถดำรงตำแหน่งนี้ได้ ไม่ใช่เพราะโมเดลขาดความสามารถ แต่เพราะความรับผิดชอบต้องการ "ตัวตน" — สิ่งมีชีวิตที่มีส่วนได้ส่วนเสียกับผลลัพธ์ มีสิ่งที่จะสูญเสีย และมีขีดความสามารถในการแบกรับความรับผิดชอบข้ามกาลเวลา
นี่ไม่ใช่เชิงอรรถทางปรัชญา นี่คือเหตุผลเชิงโครงสร้างที่ AI ไม่สามารถแทนที่แพทย์ได้
ความสามารถที่แท้จริงของ AI
ทั้งหมดที่กล่าวมาไม่ได้หมายความว่า AI ไม่เกี่ยวข้องกับการแพทย์ ตรงกันข้าม แต่ความเกี่ยวข้องของมันอยู่ในระดับที่แตกต่างจากที่การสนทนาส่วนใหญ่ยอมรับ
สิ่งที่ AI ทำได้ดีอย่างยอดเยี่ยม:
จัดระเบียบข้อมูลที่กระจัดกระจาย ผู้ป่วยที่มาพบแพทย์เพื่อปรึกษาเรื่องซับซ้อนมักนำเวชระเบียนหลายปีที่กระจัดกระจาย การวินิจฉัยที่ไม่สมบูรณ์ และประวัติที่บันทึกไม่ดีมาด้วย AI สามารถรวบรวมความกระจัดกระจายนี้และนำเสนอภาพที่เป็นระบบได้เร็วกว่าผู้ตรวจสอบที่เป็นมนุษย์มาก
ค้นหาสิ่งที่ขาดหายไป หนึ่งในความล้มเหลวที่พบบ่อยที่สุดในการรับผู้ป่วยทางคลินิกไม่ใช่การเก็บข้อมูลผิด แต่เป็นการไม่สังเกตว่าข้อมูลสำคัญหายไป AI สามารถระบุช่องว่างอย่างเป็นระบบ โดยไม่มีความเหนื่อยล้าที่ทำให้ผู้ตรวจสอบที่เป็นมนุษย์พลาด
รักษาความต่อเนื่องข้ามเวลา การติดตามหลังการรักษาต้องการความใส่ใจอย่างสม่ำเสมอตลอดหลายสัปดาห์หรือหลายเดือน AI สามารถรักษาความใส่ใจนั้นได้โดยไม่เสื่อมถอย มันไม่เหนื่อย มันไม่ลืมติดตาม
ลดอุปสรรคด้านภาษาและวัฒนธรรม ในบริบทการแพทย์ระหว่างประเทศ การสื่อสารผิดพลาดไม่ใช่แค่เรื่องไม่สะดวก แต่เป็นประเด็นด้านความปลอดภัยของผู้ป่วย AI สามารถเป็นตัวกลางข้ามภาษาได้อย่างสม่ำเสมอในระดับที่ไม่มีผู้ประสานงานที่เป็นมนุษย์คนใดทำได้
เหล่านี้คือความสามารถที่แท้จริงและมีนัยสำคัญ แต่สังเกตสิ่งที่เชื่อมโยงทั้งหมดเข้าด้วยกัน: มันคือความสามารถด้านการเตรียมการและสนับสนุน ไม่ใช่ด้านการตัดสินและความรับผิดชอบ AI ยอดเยี่ยมในการทำให้งานของแพทย์สมบูรณ์ขึ้น แม่นยำขึ้น และขยายขนาดได้มากขึ้น แต่มันไม่สามารถแทนที่ตำแหน่งของแพทย์ในห่วงโซ่ความรับผิดชอบได้ในเชิงโครงสร้าง
จุดที่ระบบ AI ในสาธารณสุขผิดพลาด
รูปแบบความล้มเหลวที่ผมพบบ่อยที่สุดใน AI ด้านสุขภาพไม่ใช่การหลอนหรือความไม่แม่นยำ แต่คือการวางอำนาจผิดที่
ระบบถูกสร้างขึ้นเพื่อช่วยแพทย์ เมื่อเวลาผ่านไป — ผ่านการตัดสินใจด้านประสบการณ์ผู้ใช้ การขยายขอบเขตการทำงาน หรือเพียงเพราะสะดวกกว่า — ระบบเริ่มให้คำแนะนำที่ผู้ป่วยปฏิบัติเสมือนเป็นคำตัดสิน แพทย์กลายเป็นเพียงตรายาง ห่วงโซ่ความรับผิดชอบขาดโดยไม่มีใครสังเกต
นี่ไม่ใช่สมมติฐาน นี่คือรูปแบบที่เกิดซ้ำในหลายอุตสาหกรรมเมื่อมีการนำระบบอัตโนมัติมาใช้โดยไม่มีทฤษฎีที่ชัดเจนว่าความรับผิดชอบต้องการอะไร
ในอุตสาหกรรมการบิน ระบบนักบินอัตโนมัติไม่ได้แทนที่นักบิน มันเปลี่ยนสิ่งที่นักบินทำ — เปลี่ยนบทบาทจากการควบคุมด้วยมือเป็นการกำกับดูแลระบบ การจัดการสถานการณ์พิเศษ และอำนาจสุดท้ายในสถานการณ์ที่ไม่คุ้นเคย ตำแหน่งเชิงโครงสร้างของกัปตันไม่ได้เปลี่ยน ห้องนักบินเปลี่ยนรอบๆ ตำแหน่งนั้น
วงการแพทย์ต้องการความชัดเจนในการออกแบบที่คล้ายกัน คำถามไม่ใช่ว่า AI สามารถดูดซับอำนาจได้มากแค่ไหน คำถามคือ AI ควรถูกวางตำแหน่งอย่างไรเมื่อเทียบกับอำนาจที่ต้องคงอยู่กับมนุษย์

สิ่งนี้หมายความว่าอย่างไรสำหรับการสร้าง AI ในวงการแพทย์
เมื่อผมสร้างระบบรับผู้ป่วยสำหรับคลินิกของผม ผมยึดหลักการหนึ่งไว้เป็นศูนย์กลางของทุกการตัดสินใจในการออกแบบ: AI รับใช้ความสามารถในการตัดสินของแพทย์ ไม่ใช่ทดแทนมัน
ในทางปฏิบัติ หมายความว่า AI จัดการโครงสร้างการรับผู้ป่วย การตรวจจับช่องว่างของข้อมูล และการสื่อสารหลายภาษา มันสร้างเอกสารผู้ป่วยที่ทำให้การตรวจสอบของแพทย์เร็วขึ้นและสมบูรณ์ขึ้น แต่แพทย์อ่านคำพูดของผู้ป่วยเองก่อน — ก่อนที่จะเห็นบทสรุปใดๆ แพทย์อนุมัติกรอบการตัดสินใจ แพทย์เป็นผู้ถืออำนาจที่ส่งต่อไปยังโรงพยาบาล
ในการออกแบบนี้ AI ไม่ได้อยู่ปลายน้ำจากแพทย์ มันอยู่ต้นน้ำ — เตรียมเงื่อนไขที่ทำให้การตัดสินที่ดีของแพทย์เป็นไปได้
ความแตกต่างนี้ฟังดูเรียบง่าย แต่น่าแปลกใจที่รักษาไว้ได้ยากเมื่อสร้างระบบจริง เพราะ AI ทำบางอย่างได้ดีกว่ามนุษย์จริงๆ และมีแรงกดดันอย่างต่อเนื่องที่จะให้มันทำมากขึ้น การต้านทานแรงกดดันนั้นต้องการจุดยืนทางปรัชญาที่ชัดเจน ไม่ใช่แค่กลไกป้องกันทางเทคนิค
คำถามที่คุ้มค่าที่จะถาม
ผมอยากเสนอกรอบคิดที่แตกต่างสำหรับการคิดเรื่อง AI ในวงการแพทย์
แทนที่จะถามว่า "AI จะแทนที่แพทย์หรือไม่?" ให้ถามว่า: "ระบบ AI ที่ออกแบบมาดีทำอะไรกับคุณภาพของการตัดสินใจของแพทย์?"
ถ้าคำตอบคือ "มันทำให้การตัดสินใจของแพทย์เร็วขึ้น มีข้อมูลมากขึ้น และนำไปใช้กับกรณีที่เตรียมมาดีกว่า" — นั่นคือระบบที่ออกแบบมาดี
ถ้าคำตอบคือ "มันลดกรณีที่ต้องใช้การตัดสินใจของแพทย์ลง" — นั่นคือระบบที่อันตราย ไม่ว่าจะมีคะแนนความแม่นยำดีแค่ไหน
คำถามที่สำคัญที่สุดใน AI ด้านสุขภาพไม่ใช่เรื่องความสามารถ แต่เป็นเรื่องสถาปัตยกรรม บทบาทถูกกำหนดอย่างไร? อำนาจของ AI สิ้นสุดที่ไหนและอำนาจของแพทย์เริ่มต้นที่ไหน? เกิดอะไรขึ้นเมื่อ AI ผิดพลาด และใครเป็นผู้รับผลที่ตามมา?
เหล่านี้ไม่ใช่คำถามทางวิศวกรรม แต่เป็นคำถามด้านธรรมาภิบาล และวงการนี้ยังตามไม่ทันในการถามคำถามเหล่านี้
ทิศทางที่ผมเห็น
ผมมองโลกในแง่ดีเกี่ยวกับ AI ในวงการแพทย์ — อย่างจริงใจ ไม่ใช่แค่ทำเป็น ศักยภาพของ AI ในการลดความกระจัดกระจายของข้อมูล ความล้มเหลวในการสื่อสาร และช่องว่างในความต่อเนื่องที่ทำร้ายผู้ป่วยทุกวันนั้นเป็นจริงและมหาศาล
แต่ศักยภาพนั้นจะเป็นจริงได้ก็ต่อเมื่อระบบถูกออกแบบด้วยความชัดเจนเชิงโครงสร้างเกี่ยวกับสิ่งที่แพทย์ทำซึ่งไม่สามารถทำให้เป็นอัตโนมัติได้ ความแม่นยำที่ไร้ความรับผิดชอบไม่ใช่ทางออก มันคือรูปแบบใหม่ของปัญหาเดิม
แพทย์ที่จะเติบโตในทศวรรษหน้าไม่ใช่คนที่ต่อต้าน AI แต่คือคนที่เข้าใจอย่างแม่นยำว่า AI ทำอะไรได้ดีกว่าพวกเขา — และออกแบบระบบที่ใช้ความสามารถนั้นเพื่อขยายการตัดสินใจของพวกเขา แทนที่จะแทนที่มัน
นั่นคือคำถามที่ผมกำลังสร้างงานรอบๆ มัน ผมไม่คิดว่ามันได้รับคำตอบแล้ว แต่มันคือคำถามที่ถูกต้อง
สำหรับงานวิจัยพื้นฐานเกี่ยวกับประสิทธิภาพของ AI รูปแบบความล้มเหลว และธรรมาภิบาลในการตัดสินใจทางคลินิก งานวิจัยใน PubMed เกี่ยวกับ AI ในการตัดสินใจทางคลินิก เป็นจุดเริ่มต้นที่มีประโยชน์
Dr. Jee Hoon Ju เป็นแพทย์และผู้ก่อตั้ง AetherHeal แพลตฟอร์มโครงสร้างพื้นฐานการตัดสินใจที่นำโดยแพทย์สำหรับผู้ป่วยต่างชาติที่กำลังพิจารณารับการรักษาในเกาหลี
คำถามที่พบบ่อย
- AI สามารถแทนที่แพทย์ในระบบสาธารณสุขได้หรือไม่?
- ไม่ และการตั้งคำถามแบบนั้นพลาดประเด็น สิ่งที่แพทย์ทำซึ่งไม่สามารถมอบหมายได้ไม่ใช่การประมวลผลข้อมูล — AI สามารถทำสิ่งนั้นได้เร็วกว่าและครอบคลุมกว่าอยู่แล้ว มันคือความรับผิดชอบ: การลงนามในการตัดสินใจและยอมรับผลที่ตามมาทางกฎหมาย วิชาชีพ และจริยธรรม ความรับผิดชอบต้องการตัวตนที่มีสิ่งจะสูญเสีย โมเดลไม่ว่าจะแม่นยำเพียงใดก็ไม่สามารถดำรงตำแหน่งนี้ได้ ซึ่งเป็นเหตุผลที่ AI สามารถขยายการตัดสินใจของแพทย์ได้แต่แทนที่ไม่ได้
- AI ทำอะไรได้ดีในวงการแพทย์?
- AI เก่งมากในสี่เรื่อง: การจัดโครงสร้างเวชระเบียนที่กระจัดกระจายให้เป็นภาพที่เชื่อมโยง การค้นหาข้อมูลที่ขาดหายไปจากการรับผู้ป่วยอย่างเป็นระบบ การรักษาความใส่ใจอย่างต่อเนื่องข้ามสัปดาห์หรือเดือนโดยไม่เหนื่อยล้า และการเป็นตัวกลางระหว่างอุปสรรคด้านภาษาและวัฒนธรรมในบริบทการแพทย์ระหว่างประเทศ ทั้งหมดนี้เป็นความสามารถด้านการเตรียมการและสนับสนุน — ทำให้งานของแพทย์สมบูรณ์และขยายได้มากขึ้น โดยไม่แตะต้องตำแหน่งความรับผิดชอบของแพทย์
- รูปแบบความล้มเหลวหลักของ AI ในระบบสาธารณสุขคืออะไร?
- ความล้มเหลวที่พบบ่อยที่สุดไม่ใช่การหลอนหรือความไม่แม่นยำ แต่คือการวางอำนาจผิดที่ ระบบถูกสร้างขึ้นเพื่อช่วยแพทย์ และเมื่อเวลาผ่านไป — ผ่านการเปลี่ยนแปลง UX การขยายขอบเขต หรือความสะดวก — มันเริ่มให้คำแนะนำที่ผู้ป่วยปฏิบัติเป็นคำตัดสิน แพทย์กลายเป็นตรายาง และห่วงโซ่ความรับผิดชอบขาดโดยไม่มีใครสังเกต นี่เป็นความล้มเหลวด้านธรรมาภิบาล ไม่ใช่ด้านวิศวกรรม และมันเกิดซ้ำในหลายอุตสาหกรรมเมื่อระบบอัตโนมัติถูกนำไปใช้โดยไม่มีทฤษฎีที่ชัดเจนเกี่ยวกับความรับผิดชอบ
- AI ควรถูกวางตำแหน่งอย่างไรเมื่อเทียบกับแพทย์?
- AI ควรอยู่ต้นน้ำจากแพทย์ ไม่ใช่ปลายน้ำ ควรเตรียมเงื่อนไขที่ทำให้การตัดสินที่ดีของแพทย์เป็นไปได้ — จัดโครงสร้างเวชระเบียน ตั้งค่าช่องว่าง แปลข้ามภาษา รักษาความต่อเนื่อง แพทย์ควรอ่านคำพูดของผู้ป่วยเองก่อนเห็นบทสรุปของ AI ลงนามกรอบการตัดสินใจ และถืออำนาจที่ส่งต่อไปยังโรงพยาบาล AI รับใช้ความสามารถในการตัดสินของแพทย์ ไม่ได้แทนที่
- คำถามที่ถูกต้องเกี่ยวกับ AI ในการแพทย์คืออะไร?
- แทนที่จะถามว่า AI จะแทนที่แพทย์หรือไม่ ให้ถามว่าระบบ AI ที่ออกแบบมาดีทำอะไรกับคุณภาพของการตัดสินใจของแพทย์ ถ้ามันทำให้การตัดสินใจเร็วขึ้น มีข้อมูลมากขึ้น และนำไปใช้กับกรณีที่เตรียมดีกว่า ระบบก็ออกแบบมาดี ถ้ามันลดกรณีที่ต้องใช้การตัดสินใจของแพทย์ ระบบก็อันตรายไม่ว่าเกณฑ์มาตรฐานความแม่นยำจะเป็นอย่างไร คำถามที่สำคัญเป็นเรื่องสถาปัตยกรรม ไม่ใช่ความสามารถ
- AI ถูกควบคุมภายใน AetherHeal อย่างไร?
- ใน AetherHeal AI จัดการการจัดโครงสร้างการรับผู้ป่วย การตรวจจับช่องว่างของข้อมูล และการสื่อสารหลายภาษา — แต่แพทย์อ่านคำพูดของผู้ป่วยเองก่อนที่จะเห็นบทสรุปของ AI แพทย์ลงนามกรอบการตัดสินใจและถืออำนาจที่ส่งต่อไปยังโรงพยาบาล หลักการเรียบง่าย: AI รับใช้ความสามารถในการตัดสินของแพทย์ และไม่เคยแทนที่มัน การรักษาขอบเขตนั้นต้องการความมุ่งมั่นทางปรัชญา ไม่ใช่แค่กลไกป้องกันทางเทคนิค
- การที่ AI ทำคะแนนได้ดีกว่าแพทย์ในเกณฑ์มาตรฐานหมายความว่ามันควรแทนที่พวกเขาหรือไม่?
- ประสิทธิภาพในเกณฑ์มาตรฐานไม่ใช่ตัวชี้วัดที่ถูกต้อง คะแนนสอบบอร์ด ความแม่นยำในการวินิจฉัยในงานภาพที่คัดสรร และสรุปการจำหน่ายที่เร็วกว่าแสดงสิ่งที่ AI สามารถคำนวณได้ — ไม่ใช่สิ่งที่มันสามารถรับผิดชอบได้ โมเดลที่ทำคะแนนดีกว่าแพทย์ประจำบ้านในข้อสอบยังไม่สามารถเสียใบอนุญาต เผชิญการฟ้องร้อง หรือแบกรับภาระทางศีลธรรมต่อผลลัพธ์ข้ามเวลาได้ ความแม่นยำที่ไร้ความรับผิดชอบไม่ใช่ทางออก มันคือรูปแบบใหม่ของปัญหาเดิม