- แม้ว่า โมเดล AI อย่าง CheXNet ที่เผยแพร่ในปี 2017 จะแสดงความแม่นยำในการวินิจฉัยปอดบวมได้ดีกว่ารังสีแพทย์มนุษย์ แต่ในภาคสนามการแพทย์จริงกลับไม่สามารถทำผลงานซ้ำได้
- แม้ โมเดล AI ด้านรังสีวิทยา หลายร้อยตัวจะได้รับการอนุมัติจาก FDA เมื่อไม่นานมานี้ แต่จำนวนตำแหน่งงานและเงินเดือนของรังสีแพทย์ในสหรัฐฯ กลับทำสถิติสูงสุดเป็นประวัติการณ์
- ข้อจำกัดของ Medical AI เกิดจากการขาดแคลนข้อมูล ความแตกต่างจากสภาพแวดล้อมจริง อุปสรรคด้านกฎระเบียบและประกัน รวมถึงโครงสร้างที่รังสีแพทย์มนุษย์ต้องรับบทบาทหลากหลายนอกเหนือจากการวินิจฉัย
- แทนที่จะเป็นระบบอัตโนมัติเต็มรูปแบบ กลับกลายเป็นว่า ระบบที่มนุษย์และ AI ทำงานควบคู่กัน ได้กลายเป็นมาตรฐานของอุตสาหกรรมการแพทย์ และแม้ AI จะพัฒนาขึ้น จำนวนแรงงานรังสีแพทย์ก็ไม่ได้ลดลง
- 10 ปีแรกของการขยายตัวของ Medical AI แสดงให้เห็นความย้อนแย้งว่า แม้ AI จะมีศักยภาพสูงในการเพิ่มผลิตภาพ แต่ในทางปฏิบัติกลับก่อให้เกิดความต้องการแรงงานมนุษย์มากขึ้น
บทนำ: การนำ AI มาใช้และความคาดหวัง
- โมเดล AI อย่าง CheXNet ที่ปรากฏในปี 2017 ได้เรียนรู้จากข้อมูลเอกซเรย์ทรวงอกมากกว่า 100,000 เคส และแสดงผลว่ามีความแม่นยำในการอ่านภาพปอดบวมเหนือกว่าผู้เชี่ยวชาญมนุษย์
- หลายบริษัท เช่น Annalise.ai, Lunit, Aidoc, Qure.ai ได้เปิดตัวระบบ AI ที่สามารถตรวจพบโรคได้หลายร้อยชนิด และยังผสานเข้ากับระบบบันทึกของโรงพยาบาลได้
- มีโมเดล AI ด้านรังสีวิทยาที่ได้รับการอนุมัติจาก FDA มากกว่า 700 ตัว คิดเป็น 75% ของอุปกรณ์ Medical AI ทั้งหมด
- แผนกรังสีวิทยาถูกมองว่าเป็นสาขาที่เหมาะที่สุดต่อการถูกแทนที่ด้วย AI เพราะมี ข้อมูลนำเข้าแบบดิจิทัล การ จดจำรูปแบบ และสามารถวัดผลลัพธ์ได้ชัดเจน
- แต่ในความเป็นจริง ความต้องการฝึกอบรมรังสีแพทย์กลับสูงเป็นประวัติการณ์ และค่าจ้างก็เพิ่มขึ้น 48% เมื่อเทียบกับปี 2015 สะท้อนว่าความต้องการกำลังคนมนุษย์กำลังเพิ่มขึ้น
ข้อจำกัดของระบบวินิจฉัยรังสีด้วย AI
ความแตกต่างระหว่างสภาพแวดล้อมจริงกับข้อมูลที่ใช้ฝึก
- โมเดล AI ด้านรังสีวิทยาแสดงประสิทธิภาพยอดเยี่ยมกับข้อมูลที่เป็นมาตรฐานและอยู่ภายใต้เงื่อนไขเฉพาะ แต่ในสภาพแวดล้อมของโรงพยาบาลจริง ประสิทธิภาพกลับลดลงจาก ความแตกต่างของข้อมูลในแต่ละโรงพยาบาล ลักษณะเฉพาะของอุปกรณ์วินิจฉัย และการขาดความหลากหลายของข้อมูล
- โมเดลส่วนใหญ่ทำความแม่นยำได้สูงเฉพาะกับโรคบางชนิดหรือภาพประเภทเดียวเท่านั้น และเมื่อเจอกรณีที่หลากหลายก็เกิดความไม่สะดวกที่ต้องสลับใช้หลายโมเดล
- แม้อัลกอริทึมที่ได้รับการอนุมัติจาก FDA ก็ยังครอบคลุมเพียงบางส่วนของงานอ่านภาพจริง โดยมักเน้นไปที่โรคสำคัญเพียงไม่กี่ชนิด เช่น โรคหลอดเลือดสมอง มะเร็งเต้านม และมะเร็งปอด
- ยังมีปัญหาข้อมูลของเด็ก ผู้หญิง และชนกลุ่มน้อยที่ไม่เพียงพอ รวมถึงกรณีที่โรคแสดงอาการอย่างละเอียดอ่อนหรือปะปนกับโรคอื่น ซึ่งทำให้ความสามารถในการพยากรณ์ลดลง
ช่องว่างระหว่าง benchmark กับการใช้งานทางคลินิก
- ในการทดสอบ benchmark นั้น AI ทำคะแนนเชิงปริมาณได้สูง แต่ในสภาพแวดล้อมทางคลินิกจริง ทั้งรังสีแพทย์มนุษย์และระบบช่วยวิเคราะห์กลับให้ผลลัพธ์ได้ไม่ดีเท่าที่คาดหวัง
- ตัวอย่างเช่น ในการตรวจแมมโมแกรม ระบบ AI ช่วยอ่านภาพเพิ่มความไวในการอ่านได้ก็จริง แต่กลับเพิ่มอัตราการตรวจเพิ่มเติมและการตัดชิ้นเนื้อ (biopsy) ที่ไม่จำเป็น โดยไม่ได้เพิ่มอัตราการพบมะเร็ง
- การอ่านแบบคู่โดยผู้อ่านมนุษย์หนึ่งหรือสองคนกลับตรวจพบมะเร็งได้ดีกว่าการใช้ AI ช่วย และยังมีอัตราการเรียกตรวจซ้ำโดยไม่จำเป็นต่ำกว่า
กฎหมายและกฎระเบียบจำกัดความเร็วของระบบอัตโนมัติ
- FDA แบ่งซอฟต์แวร์ด้านรังสีวิทยาออกเป็น ‘เครื่องมือช่วย/จัดหมวดหมู่’ และ ‘เครื่องมืออัตโนมัติเต็มรูปแบบ’
- ระบบอัตโนมัติเต็มรูปแบบพบได้น้อย และใช้ได้เฉพาะในเงื่อนไขเฉพาะบางกรณี เช่น IDx-DR
- หาก AI เจอภาพที่อ่านได้ยาก ซอฟต์แวร์ต้องหยุดการทำงานเองและส่งต่อให้บุคลากรทางการแพทย์
- ข้อกำหนดด้านกำกับดูแลอยู่ในระดับสูง และทุกครั้งที่มีการฝึกใหม่หรือเปลี่ยนแปลงโมเดลก็ต้องขออนุมัติใหม่
- บริษัทประกันมองว่าเครื่องมืออัตโนมัติมีความเสี่ยงต่อความเสียหายเป็นวงกว้างหากเกิดความผิดพลาด จึงมีแนวโน้มไม่ต้องการชดเชยผลวินิจฉัยที่ได้จาก AI เพียงอย่างเดียว
- ในทางกฎหมาย มาตรฐานโดยทั่วไปคือเฉพาะผลอ่านภาพที่แพทย์ตีความและลงนามเองเท่านั้นจึงจะใช้สิทธิประกันได้
บทบาทของรังสีแพทย์มนุษย์ที่เปลี่ยนไป
- ในความเป็นจริง รังสีแพทย์ใช้เวลาเพียง 36% ไปกับการแปลผลภาพ ขณะที่เวลาที่เหลือใช้กับงานหลากหลาย เช่น ให้คำปรึกษากับผู้ป่วยและเพื่อนร่วมงาน กำกับการตรวจ การสอน และการปรับเปลี่ยนคำสั่งการรักษา
- แม้เวลาที่ใช้ในการอ่านภาพจะลดลง ก็ไม่ได้เกิดการเลิกจ้างที่ไม่จำเป็น ตรงกันข้ามกลับมีงานรูปแบบใหม่เพิ่มขึ้น จนทำให้ปริมาณการอ่านภาพโดยรวมเพิ่มสูงขึ้น
- ตัวอย่างเช่น ตอนเปลี่ยนจากฟิล์มเป็นดิจิทัล ผลิตภาพในการอ่านภาพเพิ่มขึ้นมาก แต่ไม่ได้มีการลดจำนวนบุคลากรทางการแพทย์ และจำนวนการตรวจภาพรวมกลับเพิ่มขึ้นมากกว่า 60%
- ความเร็วในการประมวลผลภาพที่สูงขึ้นนำไปสู่การใช้งานในระบบการแพทย์ที่หลากหลายขึ้น เช่น การลดเวลารอการตรวจ และการตอบสนองต่อสถานการณ์ฉุกเฉินได้ดีขึ้น
แนวโน้มในอนาคต: บทเรียนจาก 10 ปีแรกของการขยายตัวของ AI
- ตลอด 10 ปีที่ผ่านมา การนำไปใช้ในงานรักษาพยาบาลประจำวันคืบหน้าช้ากว่าระดับความก้าวหน้าทางเทคนิคของโมเดล AI มาก
- ปัจจัยที่ไม่ใช่ด้านเทคนิค เช่น กฎระเบียบ ประกัน การให้คำปรึกษาผู้ป่วย และความเป็นเจ้าของการตัดสินใจของแพทย์ กลายเป็นกำแพงต่อการแทนที่แบบสมบูรณ์
- รูปแบบพื้นฐานที่เกิดขึ้นคือ AI มีบทบาทในการ เสริมผลิตภาพผ่านการทำงานร่วมกับมนุษย์ มากกว่าการแทนที่แรงงาน
- ในแพลตฟอร์มขนาดใหญ่ เช่น Facebook ความเป็นไปได้ของระบบอัตโนมัติด้วย AI อาจสูง แต่ยิ่งงานเชิงความรู้ประกอบด้วยภารกิจที่หลากหลายมากเท่าไร การนำซอฟต์แวร์มาใช้ก็มักมีแนวโน้มเพิ่มปริมาณแรงงานมนุษย์มากกว่าลดลง
- ประสบการณ์ในสาขารังสีวิทยาแสดงให้เห็นผลลัพธ์เชิงย้อนแย้งว่า AI ไม่ได้แทนที่งานของมนุษย์ในทันที แต่กลับรักษาหรือแม้แต่ขยายความต้องการกำลังคนมนุษย์ ควบคู่ไปกับการเปลี่ยนแปลงด้านสังคม สถาบัน และพฤติกรรม
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
ฉันเป็นแพทย์รังสีร่วมรักษาและมีปริญญาโทด้านวิทยาการคอมพิวเตอร์ อธิบายแบบนี้แล้วกันว่า คนที่อยู่นอกวงการรังสีวิทยามักไม่ค่อยเข้าใจว่าทำไม AI ถึงยังแทนที่รังสีวิทยาไม่ได้ คำตอบของคำถามว่า AI อ่านภาพวินิจฉัยได้ดีกว่ารังสีแพทย์มนุษย์หรือไม่ คือเกือบจะเป็น “ใช่” หรืออย่างน้อยก็จะเป็นในไม่ช้า แต่ถ้าถามว่ารังสีวิทยาจะถูกแทนที่หรือไม่ คำตอบกลับเกือบจะเป็น “ไม่” เหตุผลคือความเสี่ยงทางกฎหมายทางการแพทย์ ตราบใดที่กฎหมายปัจจุบันยังไม่เปลี่ยน รังสีแพทย์ยังต้องเป็นผู้ลงนามขั้นสุดท้ายในรายงานทุกฉบับ ดังนั้นต่อให้ AI เป็นคนอ่านภาพและเขียนรายงานได้สมบูรณ์แบบ สุดท้ายคอขวดก็ยังอยู่ที่การตรวจทานขั้นสุดท้ายของรังสีแพทย์ ตอนนี้รังสีแพทย์อ่านการตรวจหลากหลายชนิดวันละอย่างน้อย 60~100 เคสอย่างรวดเร็ว ซึ่งก็ใกล้ขีดจำกัดที่มนุษย์จะรับไหวแล้ว ต่อให้ AI เขียนรายงานให้ทั้งหมด เวลาที่ต้องใช้ก็แทบไม่ต่างกัน เพราะยังต้องตรวจและเซ็นทั้งหมด แน่นอนว่าอาจมีหมอไร้ความรับผิดชอบสักคนที่กดเซ็นอย่างเดียว แต่ก็ย่อมมีทนายที่พร้อมจะฟ้องเรื่องนั้นเช่นกัน
ตอนที่ Tesla ปล่อยวิดีโอสาธิตการขับขี่อัตโนมัติเต็มรูปแบบในปี 2016 พร้อมข้อความทำนองว่า “คนขับนั่งอยู่เพราะเหตุผลทางกฎหมายเท่านั้น ไม่ได้ทำอะไรเลย รถขับเองทั้งหมด” ฉันเคยคิดว่าอุตสาหกรรมรถบรรทุกจะเปลี่ยนไปตลอดกาลจนถึงกับทบทวนการเข้ามาทำงานในวงการนี้ แต่ตอนนี้ปี 2025 ก็ใกล้เข้ามาแล้ว การเปลี่ยนแปลงส่วนใหญ่กลับช้ามากหรือแทบไม่เกิดขึ้นเลย มีความมองโลกแง่ดีอย่างมากว่าเทคโนโลยีจะเปลี่ยนโลกครั้งใหญ่ แต่ในความเป็นจริง หลายครั้งการเปลี่ยนแปลงกลับช้ามากหรือหยุดนิ่ง
เรื่องเล่าที่ดีที่สุดเกี่ยวกับแมชชีนเลิร์นนิงกับรังสีวิทยาคือช่วงที่ทุกคนแข่งกันทำ AI เพื่อแยก X-ray ปอดของผู้ป่วยโควิดออกมาให้ได้ มีกลุ่มวิจัยหนึ่งทำผลลัพธ์ได้ดูค่อนข้างดี แต่ภายหลังกลับพบว่า AI ไปเรียนรู้ความต่างของฟอนต์ลายน้ำในภาพจากโรงพยาบาลแต่ละแห่ง ไม่ได้แยกว่าติดโควิดหรือไม่ แต่แยก “ฟอนต์” ต่างหาก ดูงานวิจัยได้ที่: บทความ Nature Machine Intelligence คำค้น: “AI for radiographic COVID-19 detection selects shortcuts over signal” น่าจะหาเวอร์ชัน open access ได้เช่นกัน
แก่นของบทความมีอยู่สามข้อ: 1) ถ้าพยายามให้โมเดลรับงานมากขึ้น จะติดข้อกำกับทางกฎหมาย 2) หน่วยงานกำกับดูแลและบริษัทประกันยังไม่อนุมัติ/ชดเชยให้โมเดลอัตโนมัติ 3) ในงานของรังสีแพทย์ การวินิจฉัยกินสัดส่วนเวลาไม่มาก ยังมีงานอื่น ๆ อย่างการสื่อสารกับคนไข้และบุคลากรทางการแพทย์อีกมาก ต่อให้โมเดลแมชชีนเลิร์นนิงวินิจฉัยได้สมบูรณ์แบบและฟรี รังสีแพทย์ก็ยังไม่ถูก “แทนที่” ในทันทีเพราะโครงสร้างระบบเป็นแบบนั้น
แค่วันนี้วันเดียว ฉันก็ส่งผู้ป่วยหญิงคนหนึ่งไปให้รังสีแพทย์ทำ core biopsy ส่งผู้ป่วยชายไปฉีดยาบริเวณกระดูกสันหลังส่วนเอว ส่งอีกคนไปฉีดยาที่ไหล่ และเมื่อเดือนก่อนก็ส่งผู้ป่วยหญิงอีกรายไปทำ uterine artery embolization สำหรับ endometriosis ต่อไปยังมีแผนส่งเคสอุดรอยรั่วปัสสาวะหลังผ่าตัดไตออกอีก LLM จะทำหัตถการพวกนี้ได้ไหม? เมื่อ AI ทำให้ทักษะหนึ่งกลายเป็นของทั่วไปได้ กลุ่มผู้เชี่ยวชาญก็จะย้ายไปใช้ทักษะอื่น และปล่อยงานที่กลายเป็น commodity แล้วออกไป ตัวอย่างเช่น หลังเครื่องอ่าน ECG อัตโนมัติเข้ามา ค่าตอบแทนก็ลดฮวบ ฉันเองเลยตั้งใจละทิ้งทักษะนี้และไปโฟกัสการรักษาสมองกับความผิดปกติการเคลื่อนไหวแทน ดังนั้นถ้าคนไข้ต้องการแปลผล ECG ฉันก็ส่งไปหาหมอโรคหัวใจเลย และมักมีการสั่งตรวจเพิ่มเติมอีกหลายอย่าง ทำให้คนไข้และระบบสาธารณสุขมีต้นทุนและเวลาเพิ่มขึ้น แต่ก็ช่วยไม่ได้ อนาคตอาจมี “ทะเลทรายทางการแพทย์” แบบใหม่ คือสาขาที่ผู้เชี่ยวชาญด้าน AI ไม่อยากทำงาน โดยเฉพาะผู้สูงอายุ พื้นที่ชนบท และจิตเวช
ABNORMAL ECG – EVALUATION NEEDEDซ้ำไปมา ก็ยิ่งทำให้อยากได้เครื่องมือที่ใช้งานได้จริงมากกว่านี้ในปี 2016 ศาสตราจารย์ Geoffrey Hinton เคยพูดว่า “ถึงเวลาหยุดฝึกรังสีแพทย์แล้ว” ถ้าเชื่อคำกล่าวของฝั่งสนับสนุน AI ทั้งหมด โลกคงพังไปนานแล้ว
ฉันเป็นหมอและก็เป็นฟูลสแตกเอนจิเนียร์ด้วย ดังนั้นฉันไม่ได้อยากไปทำรังสีวิทยาหรือฝึกต่อเพิ่ม AI จะเข้ามาเสริมรังสีวิทยาก่อน แล้วค่อยเริ่มแทนที่งานบางประเภท รังสีแพทย์เดิมก็จะค่อย ๆ ย้ายไปยังพื้นที่ใหม่อย่างรังสีร่วมรักษาเองตามธรรมชาติ
เมื่อเดือนพฤษภาคมปีนี้ New York Times ก็ลงบทความคล้ายกันว่า “AI ไม่ได้แทนที่รังสีวิทยา” ดูบทความ NYT ความเห็นของแพทย์และคำพูดของ Hinton น่าสนใจมาก “AI จะช่วยเสริมและช่วยทำเชิงปริมาณ แต่จะไม่ก้าวไปถึงข้อสรุปเชิงตีความของทักษะนี้” “อีก 5 ปี การไม่ใช้ AI อาจกลายเป็นความประมาททางการแพทย์เสียเอง” “แต่สุดท้ายมนุษย์กับ AI ก็จะไปด้วยกัน” Hinton เองก็ยอมรับภายหลังทางอีเมลว่าตอนนั้นเขาพูดกว้างเกินไป พูดถึงเฉพาะการแปลภาพเท่านั้น และแม้ทิศทางจะถูก แต่คาดการณ์เรื่องจังหวะเวลาไม่ถูก
ควรบังคับการทรานส์ฟอร์มรังสีวิทยาด้วย AI รังสีแพทย์ต้องใช้ AI ทุกวันเกินสัดส่วนที่กำหนด ต้องเพิ่มผลิตภาพให้ได้สองเท่า และถ้าทำไม่ได้ก็ควรถูกไล่ออก ตามที่บรรดา CEO พูด AI คือเทคโนโลยีที่ปฏิวัติที่สุดเท่าที่เราเคยเห็น ดังนั้นทุกคนต้องยอมรับมันเพราะความหวาดกลัว นอกเหนือจากนั้นยอมรับไม่ได้
ฉันไม่ไว้ใจให้แพทย์ที่ไม่ใช่รังสีแพทย์เป็นคนตีความผลอ่านภาพจาก AI ต่อให้ AI ทำ benchmark ได้ดีมากแค่ไหน ถ้าไม่มีพื้นฐานความรู้พอจะวิเคราะห์เอง มันก็เหมือนอ่านบทความวิชาการยาว 20 หน้าแล้วตัดสินไม่ได้ว่าน่าเชื่อถือหรือไม่