4 คะแนน โดย GN⁺ 2025-09-27 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • แม้ว่า โมเดล AI อย่าง CheXNet ที่เผยแพร่ในปี 2017 จะแสดงความแม่นยำในการวินิจฉัยปอดบวมได้ดีกว่ารังสีแพทย์มนุษย์ แต่ในภาคสนามการแพทย์จริงกลับไม่สามารถทำผลงานซ้ำได้
  • แม้ โมเดล AI ด้านรังสีวิทยา หลายร้อยตัวจะได้รับการอนุมัติจาก FDA เมื่อไม่นานมานี้ แต่จำนวนตำแหน่งงานและเงินเดือนของรังสีแพทย์ในสหรัฐฯ กลับทำสถิติสูงสุดเป็นประวัติการณ์
  • ข้อจำกัดของ Medical AI เกิดจากการขาดแคลนข้อมูล ความแตกต่างจากสภาพแวดล้อมจริง อุปสรรคด้านกฎระเบียบและประกัน รวมถึงโครงสร้างที่รังสีแพทย์มนุษย์ต้องรับบทบาทหลากหลายนอกเหนือจากการวินิจฉัย
  • แทนที่จะเป็นระบบอัตโนมัติเต็มรูปแบบ กลับกลายเป็นว่า ระบบที่มนุษย์และ AI ทำงานควบคู่กัน ได้กลายเป็นมาตรฐานของอุตสาหกรรมการแพทย์ และแม้ AI จะพัฒนาขึ้น จำนวนแรงงานรังสีแพทย์ก็ไม่ได้ลดลง
  • 10 ปีแรกของการขยายตัวของ Medical AI แสดงให้เห็นความย้อนแย้งว่า แม้ AI จะมีศักยภาพสูงในการเพิ่มผลิตภาพ แต่ในทางปฏิบัติกลับก่อให้เกิดความต้องการแรงงานมนุษย์มากขึ้น

บทนำ: การนำ AI มาใช้และความคาดหวัง

  • โมเดล AI อย่าง CheXNet ที่ปรากฏในปี 2017 ได้เรียนรู้จากข้อมูลเอกซเรย์ทรวงอกมากกว่า 100,000 เคส และแสดงผลว่ามีความแม่นยำในการอ่านภาพปอดบวมเหนือกว่าผู้เชี่ยวชาญมนุษย์
  • หลายบริษัท เช่น Annalise.ai, Lunit, Aidoc, Qure.ai ได้เปิดตัวระบบ AI ที่สามารถตรวจพบโรคได้หลายร้อยชนิด และยังผสานเข้ากับระบบบันทึกของโรงพยาบาลได้
  • มีโมเดล AI ด้านรังสีวิทยาที่ได้รับการอนุมัติจาก FDA มากกว่า 700 ตัว คิดเป็น 75% ของอุปกรณ์ Medical AI ทั้งหมด
  • แผนกรังสีวิทยาถูกมองว่าเป็นสาขาที่เหมาะที่สุดต่อการถูกแทนที่ด้วย AI เพราะมี ข้อมูลนำเข้าแบบดิจิทัล การ จดจำรูปแบบ และสามารถวัดผลลัพธ์ได้ชัดเจน
  • แต่ในความเป็นจริง ความต้องการฝึกอบรมรังสีแพทย์กลับสูงเป็นประวัติการณ์ และค่าจ้างก็เพิ่มขึ้น 48% เมื่อเทียบกับปี 2015 สะท้อนว่าความต้องการกำลังคนมนุษย์กำลังเพิ่มขึ้น

ข้อจำกัดของระบบวินิจฉัยรังสีด้วย AI

ความแตกต่างระหว่างสภาพแวดล้อมจริงกับข้อมูลที่ใช้ฝึก

  • โมเดล AI ด้านรังสีวิทยาแสดงประสิทธิภาพยอดเยี่ยมกับข้อมูลที่เป็นมาตรฐานและอยู่ภายใต้เงื่อนไขเฉพาะ แต่ในสภาพแวดล้อมของโรงพยาบาลจริง ประสิทธิภาพกลับลดลงจาก ความแตกต่างของข้อมูลในแต่ละโรงพยาบาล ลักษณะเฉพาะของอุปกรณ์วินิจฉัย และการขาดความหลากหลายของข้อมูล
  • โมเดลส่วนใหญ่ทำความแม่นยำได้สูงเฉพาะกับโรคบางชนิดหรือภาพประเภทเดียวเท่านั้น และเมื่อเจอกรณีที่หลากหลายก็เกิดความไม่สะดวกที่ต้องสลับใช้หลายโมเดล
  • แม้อัลกอริทึมที่ได้รับการอนุมัติจาก FDA ก็ยังครอบคลุมเพียงบางส่วนของงานอ่านภาพจริง โดยมักเน้นไปที่โรคสำคัญเพียงไม่กี่ชนิด เช่น โรคหลอดเลือดสมอง มะเร็งเต้านม และมะเร็งปอด
  • ยังมีปัญหาข้อมูลของเด็ก ผู้หญิง และชนกลุ่มน้อยที่ไม่เพียงพอ รวมถึงกรณีที่โรคแสดงอาการอย่างละเอียดอ่อนหรือปะปนกับโรคอื่น ซึ่งทำให้ความสามารถในการพยากรณ์ลดลง

ช่องว่างระหว่าง benchmark กับการใช้งานทางคลินิก

  • ในการทดสอบ benchmark นั้น AI ทำคะแนนเชิงปริมาณได้สูง แต่ในสภาพแวดล้อมทางคลินิกจริง ทั้งรังสีแพทย์มนุษย์และระบบช่วยวิเคราะห์กลับให้ผลลัพธ์ได้ไม่ดีเท่าที่คาดหวัง
  • ตัวอย่างเช่น ในการตรวจแมมโมแกรม ระบบ AI ช่วยอ่านภาพเพิ่มความไวในการอ่านได้ก็จริง แต่กลับเพิ่มอัตราการตรวจเพิ่มเติมและการตัดชิ้นเนื้อ (biopsy) ที่ไม่จำเป็น โดยไม่ได้เพิ่มอัตราการพบมะเร็ง
  • การอ่านแบบคู่โดยผู้อ่านมนุษย์หนึ่งหรือสองคนกลับตรวจพบมะเร็งได้ดีกว่าการใช้ AI ช่วย และยังมีอัตราการเรียกตรวจซ้ำโดยไม่จำเป็นต่ำกว่า

กฎหมายและกฎระเบียบจำกัดความเร็วของระบบอัตโนมัติ

  • FDA แบ่งซอฟต์แวร์ด้านรังสีวิทยาออกเป็น ‘เครื่องมือช่วย/จัดหมวดหมู่’ และ ‘เครื่องมืออัตโนมัติเต็มรูปแบบ’
    • ระบบอัตโนมัติเต็มรูปแบบพบได้น้อย และใช้ได้เฉพาะในเงื่อนไขเฉพาะบางกรณี เช่น IDx-DR
    • หาก AI เจอภาพที่อ่านได้ยาก ซอฟต์แวร์ต้องหยุดการทำงานเองและส่งต่อให้บุคลากรทางการแพทย์
  • ข้อกำหนดด้านกำกับดูแลอยู่ในระดับสูง และทุกครั้งที่มีการฝึกใหม่หรือเปลี่ยนแปลงโมเดลก็ต้องขออนุมัติใหม่
  • บริษัทประกันมองว่าเครื่องมืออัตโนมัติมีความเสี่ยงต่อความเสียหายเป็นวงกว้างหากเกิดความผิดพลาด จึงมีแนวโน้มไม่ต้องการชดเชยผลวินิจฉัยที่ได้จาก AI เพียงอย่างเดียว
  • ในทางกฎหมาย มาตรฐานโดยทั่วไปคือเฉพาะผลอ่านภาพที่แพทย์ตีความและลงนามเองเท่านั้นจึงจะใช้สิทธิประกันได้

บทบาทของรังสีแพทย์มนุษย์ที่เปลี่ยนไป

  • ในความเป็นจริง รังสีแพทย์ใช้เวลาเพียง 36% ไปกับการแปลผลภาพ ขณะที่เวลาที่เหลือใช้กับงานหลากหลาย เช่น ให้คำปรึกษากับผู้ป่วยและเพื่อนร่วมงาน กำกับการตรวจ การสอน และการปรับเปลี่ยนคำสั่งการรักษา
  • แม้เวลาที่ใช้ในการอ่านภาพจะลดลง ก็ไม่ได้เกิดการเลิกจ้างที่ไม่จำเป็น ตรงกันข้ามกลับมีงานรูปแบบใหม่เพิ่มขึ้น จนทำให้ปริมาณการอ่านภาพโดยรวมเพิ่มสูงขึ้น
    • ตัวอย่างเช่น ตอนเปลี่ยนจากฟิล์มเป็นดิจิทัล ผลิตภาพในการอ่านภาพเพิ่มขึ้นมาก แต่ไม่ได้มีการลดจำนวนบุคลากรทางการแพทย์ และจำนวนการตรวจภาพรวมกลับเพิ่มขึ้นมากกว่า 60%
  • ความเร็วในการประมวลผลภาพที่สูงขึ้นนำไปสู่การใช้งานในระบบการแพทย์ที่หลากหลายขึ้น เช่น การลดเวลารอการตรวจ และการตอบสนองต่อสถานการณ์ฉุกเฉินได้ดีขึ้น

แนวโน้มในอนาคต: บทเรียนจาก 10 ปีแรกของการขยายตัวของ AI

  • ตลอด 10 ปีที่ผ่านมา การนำไปใช้ในงานรักษาพยาบาลประจำวันคืบหน้าช้ากว่าระดับความก้าวหน้าทางเทคนิคของโมเดล AI มาก
  • ปัจจัยที่ไม่ใช่ด้านเทคนิค เช่น กฎระเบียบ ประกัน การให้คำปรึกษาผู้ป่วย และความเป็นเจ้าของการตัดสินใจของแพทย์ กลายเป็นกำแพงต่อการแทนที่แบบสมบูรณ์
  • รูปแบบพื้นฐานที่เกิดขึ้นคือ AI มีบทบาทในการ เสริมผลิตภาพผ่านการทำงานร่วมกับมนุษย์ มากกว่าการแทนที่แรงงาน
  • ในแพลตฟอร์มขนาดใหญ่ เช่น Facebook ความเป็นไปได้ของระบบอัตโนมัติด้วย AI อาจสูง แต่ยิ่งงานเชิงความรู้ประกอบด้วยภารกิจที่หลากหลายมากเท่าไร การนำซอฟต์แวร์มาใช้ก็มักมีแนวโน้มเพิ่มปริมาณแรงงานมนุษย์มากกว่าลดลง
  • ประสบการณ์ในสาขารังสีวิทยาแสดงให้เห็นผลลัพธ์เชิงย้อนแย้งว่า AI ไม่ได้แทนที่งานของมนุษย์ในทันที แต่กลับรักษาหรือแม้แต่ขยายความต้องการกำลังคนมนุษย์ ควบคู่ไปกับการเปลี่ยนแปลงด้านสังคม สถาบัน และพฤติกรรม

1 ความคิดเห็น

 
GN⁺ 2025-09-27
ความคิดเห็นจาก Hacker News
  • ฉันเป็นแพทย์รังสีร่วมรักษาและมีปริญญาโทด้านวิทยาการคอมพิวเตอร์ อธิบายแบบนี้แล้วกันว่า คนที่อยู่นอกวงการรังสีวิทยามักไม่ค่อยเข้าใจว่าทำไม AI ถึงยังแทนที่รังสีวิทยาไม่ได้ คำตอบของคำถามว่า AI อ่านภาพวินิจฉัยได้ดีกว่ารังสีแพทย์มนุษย์หรือไม่ คือเกือบจะเป็น “ใช่” หรืออย่างน้อยก็จะเป็นในไม่ช้า แต่ถ้าถามว่ารังสีวิทยาจะถูกแทนที่หรือไม่ คำตอบกลับเกือบจะเป็น “ไม่” เหตุผลคือความเสี่ยงทางกฎหมายทางการแพทย์ ตราบใดที่กฎหมายปัจจุบันยังไม่เปลี่ยน รังสีแพทย์ยังต้องเป็นผู้ลงนามขั้นสุดท้ายในรายงานทุกฉบับ ดังนั้นต่อให้ AI เป็นคนอ่านภาพและเขียนรายงานได้สมบูรณ์แบบ สุดท้ายคอขวดก็ยังอยู่ที่การตรวจทานขั้นสุดท้ายของรังสีแพทย์ ตอนนี้รังสีแพทย์อ่านการตรวจหลากหลายชนิดวันละอย่างน้อย 60~100 เคสอย่างรวดเร็ว ซึ่งก็ใกล้ขีดจำกัดที่มนุษย์จะรับไหวแล้ว ต่อให้ AI เขียนรายงานให้ทั้งหมด เวลาที่ต้องใช้ก็แทบไม่ต่างกัน เพราะยังต้องตรวจและเซ็นทั้งหมด แน่นอนว่าอาจมีหมอไร้ความรับผิดชอบสักคนที่กดเซ็นอย่างเดียว แต่ก็ย่อมมีทนายที่พร้อมจะฟ้องเรื่องนั้นเช่นกัน

    • ฟังดูคล้ายกับการบอกว่ารถขับเคลื่อนอัตโนมัติจะไม่มีวันใช้งานเชิงพาณิชย์ได้ เพราะต้องมีคนนั่งที่เบาะคนขับไว้ “รับผิดชอบ” ตลอด ซึ่งไม่ตรงกับความจริง เพราะ FDA อนุมัติระบบ AI ที่ทำงานได้โดยไม่ต้องให้แพทย์ยืนยันแล้ว
    • ถ้า AI ดีกว่ารังสีแพทย์มนุษย์จริง สิ่งที่จะเกิดขึ้นคือรังสีแพทย์อาจกลายเป็นคนที่นั่งกด “อนุมัติ อนุมัติ” ทั้งวัน หรือแม้จะโต้แย้งผลของ AI สุดท้ายก็พิสูจน์ได้ว่า AI ถูกอยู่ดี พอเรื่องนี้กลายเป็นความเข้าใจทั่วไปในวงการแพทย์ โรงพยาบาลก็จะวิ่งเต้นให้แก้กฎหมายเพื่อลดต้นทุน และสุดท้ายก็จะเดินระบบโดยไม่ต้องมีรังสีแพทย์มนุษย์
    • ก็น่าจะมีคนไข้ที่ไม่อยากจ่ายเพิ่ม 6,000 ดอลลาร์ เพื่อขยับความแม่นยำจาก 99.9% ไปเป็น 99.95%
    • ฉันเป็นรังสีแพทย์วินิจฉัยที่มีประสบการณ์ทางคลินิกมากกว่า 20 ปี และเขียนโปรแกรมมาตั้งแต่ปี 1979 อยากโต้แย้งสมมติฐานหลักข้อหนึ่งของคุณ คือส่วนที่ว่า “AI อ่านภาพได้ดีกว่ามนุษย์แล้ว หรืออีกไม่นานจะดีกว่า” ฉันไม่เห็นด้วย ฉันติดตามผลิตภัณฑ์ AI ใหม่ ๆ และข้อมูลล่าสุดอยู่เสมอ แต่ยังไม่มีตัวไหนเข้าใกล้ระดับที่ใช้กับการอ่านภาพทางคลินิกจริงได้เลย เพราะข้อจำกัดของข้อมูลและความแปรผันที่แทบไร้ขีดจำกัดของกายวิภาคมนุษย์กับการเปลี่ยนแปลงทางพยาธิวิทยา เว้นแต่จะมี AGI ตัวจริงเกิดขึ้น มันก็ยังแทนที่การคิดแบบสัญชาตญาณ การวิเคราะห์ และการสังเคราะห์ของรังสีแพทย์มนุษย์ไม่ได้ เราเจอรูปแบบใหม่และเคสที่ไม่เคยเห็นมาก่อนทุกวัน ซึ่งหลายอย่างไม่มีทางอยู่ในข้อมูลฝึกได้ ฉันใกล้ปลายอาชีพแล้ว ไม่ได้มีแรงจูงใจจะปกป้องตำแหน่งของตัวเอง ถ้ามีเทคโนโลยีทดแทนที่ดีจริง ฉันยินดีวางไมค์ทันที แต่ตอนนี้ยังห่างไกลจากจุดนั้นมาก
    • คนนอกวงการรังสีวิทยามักไม่เข้าใจว่าทำไม AI ถึงยังตั้งหลักไม่ได้จริง ๆ แล้ว AI ไม่น่าจะแทนที่รังสีวิทยาได้ทั้งหมด แต่ควรทำงานร่วมกับรังสีแพทย์เพื่อบรรเทาภาระงานหนักและปัญหาขาดแคลนบุคลากร ลองดูตัวอย่างในโรคหัวใจ แม้แต่โรคหัวใจก็ยังมีสัดส่วนผู้เชี่ยวชาญต่ำมาก การอ่าน ECG เป็นงานที่ยากและซ้ำซาก หลายประเทศจึงกำลังเปลี่ยน Holter ECG ไปเป็นการแปลผลอัตโนมัติเกือบทั้งหมด แต่ความแม่นยำของ AI/ML ต่ำมากจนต้องดัน sensitivity ให้ใกล้ 100% ถึงจะทำงานร่วมกับแพทย์โรคหัวใจได้ ดังนั้นระบบอัตโนมัติควรอยู่ในบทบาท “ช่วยเสริม” ไม่ใช่ “แทนที่” แพทย์โรคหัวใจเองก็อยากใช้เวลาไปกับการสอนคนรุ่นถัดไป หัตถการ งานวิจัย หรือการพักผ่อนมากกว่า ตัวอย่างเช่นอัลกอริทึม Pan–Tompkins: วิกิอัลกอริทึม Pan–Tompkins
  • ตอนที่ Tesla ปล่อยวิดีโอสาธิตการขับขี่อัตโนมัติเต็มรูปแบบในปี 2016 พร้อมข้อความทำนองว่า “คนขับนั่งอยู่เพราะเหตุผลทางกฎหมายเท่านั้น ไม่ได้ทำอะไรเลย รถขับเองทั้งหมด” ฉันเคยคิดว่าอุตสาหกรรมรถบรรทุกจะเปลี่ยนไปตลอดกาลจนถึงกับทบทวนการเข้ามาทำงานในวงการนี้ แต่ตอนนี้ปี 2025 ก็ใกล้เข้ามาแล้ว การเปลี่ยนแปลงส่วนใหญ่กลับช้ามากหรือแทบไม่เกิดขึ้นเลย มีความมองโลกแง่ดีอย่างมากว่าเทคโนโลยีจะเปลี่ยนโลกครั้งใหญ่ แต่ในความเป็นจริง หลายครั้งการเปลี่ยนแปลงกลับช้ามากหรือหยุดนิ่ง

    • ฉันไม่ได้มองโรโบแท็กซี่ แต่จับตา Waymo มากกว่า Waymo กำลังทำให้วิสัยทัศน์รถขับเองแบบที่ฉันจินตนาการไว้ตอนเด็กเป็นจริง และจำนวนลูกค้าก็เติบโตแบบทวีคูณ ถ้าเชื่อสถิติความปลอดภัยของ Waymo ก็ถือว่าเป็นบริการที่ปลอดภัยจริง ๆ สุภาษิตที่ว่าเทคโนโลยีมักถูกประเมินค่าสูงเกินไปในระยะสั้น และต่ำเกินไปในระยะยาว ดูจะใช้ได้ดี แม้กรณีรังสีวิทยาจะเป็นคนละเรื่องก็ตาม… ดูเรื่องความปลอดภัยของ Waymo ได้ที่: ความปลอดภัยและผลกระทบของ Waymo
    • ไม่จำเป็นต้องรู้สึกว่าถูกวิดีโอของ Tesla หลอก เพราะภายหลังมีการเปิดเผยว่าวิดีโอนั้นถูกจัดฉากไว้ บทความที่เกี่ยวข้อง: Reuters – วิดีโอโปรโมตระบบขับเคลื่อนอัตโนมัติของ Tesla ถูกจัดฉาก ฉันใช้บริการ Waymo มาตลอดปีที่ผ่านมาและพอใจมาก อยากให้เทคโนโลยีแพร่หลายเร็วกว่านี้ แต่ปัญหาปลีกย่อยที่คาดไม่ถึงต่างหากที่ทำให้ใช้เวลานาน ไม่ได้หมายความว่าเป็นความท้าทายที่เป็นไปไม่ได้
    • เดิมทีแมชชีนเลิร์นนิงทำได้ยอดเยี่ยมใน 98% ของกรณี และพวกเราก็เผลอคิดว่าอีก 2% ที่เหลือจะจัดการได้ง่าย ๆ
    • เทคโนโลยีที่ถูกมองโลกสวยเกินไปมักมีเดโมที่น่าประทับใจมาก แต่มีข้อยกเว้นร้ายแรงอยู่เป็นหมื่นกรณี การขับขี่อัตโนมัติและการอ่านภาพรังสีเป็นตัวอย่างชัดเจน ยิ่งเคสข้อยกเว้นน้อย เทคโนโลยีกลับยิ่งทำงานได้ดีกว่าที่คาด เช่น TikTok recommendations, Shazam
    • ฉันแปลกใจจริง ๆ ที่รถไฟส่วนใหญ่ทุกวันนี้ยังมีคนขับอยู่
  • เรื่องเล่าที่ดีที่สุดเกี่ยวกับแมชชีนเลิร์นนิงกับรังสีวิทยาคือช่วงที่ทุกคนแข่งกันทำ AI เพื่อแยก X-ray ปอดของผู้ป่วยโควิดออกมาให้ได้ มีกลุ่มวิจัยหนึ่งทำผลลัพธ์ได้ดูค่อนข้างดี แต่ภายหลังกลับพบว่า AI ไปเรียนรู้ความต่างของฟอนต์ลายน้ำในภาพจากโรงพยาบาลแต่ละแห่ง ไม่ได้แยกว่าติดโควิดหรือไม่ แต่แยก “ฟอนต์” ต่างหาก ดูงานวิจัยได้ที่: บทความ Nature Machine Intelligence คำค้น: “AI for radiographic COVID-19 detection selects shortcuts over signal” น่าจะหาเวอร์ชัน open access ได้เช่นกัน

    • ฉันก็เคยเห็นความพยายามใช้แมชชีนเลิร์นนิงแยกผู้ติดโควิดจากเสียงไอเหมือนกัน ถ้าเสียงไอของผู้ป่วยโควิดกับผู้ป่วยโรคทางเดินหายใจอีกชนิดหนึ่งต่างกันอย่างมีนัยสำคัญทางสถิติจริง มนุษย์ที่ฟังก็น่าจะแยกได้ง่ายเหมือนกัน เลยไม่เข้าใจว่าทำไมถึงคิดว่าจะเวิร์ก
    • เรื่องพวกนี้ให้บทเรียนได้ดี แต่จริง ๆ แล้วเป็นกรณีของข้อมูลแย่และการฝึกที่หละหลวม มากกว่าจะเป็นข้อจำกัดของอัลกอริทึมเอง ถ้าจัดข้อมูลและวิธีการให้ถูกต้อง ในเชิงเทคนิคแล้วการแทนที่รังสีวิทยาไม่ใช่เรื่องยาก เพราะตราบใดที่ไม่มีหลักการทั่วไปหรือข้อจำกัดชัดเจนมาขวาง โมเดลด้านวิชันเหมาะกับงานแบบนี้มากเกินไป
  • แก่นของบทความมีอยู่สามข้อ: 1) ถ้าพยายามให้โมเดลรับงานมากขึ้น จะติดข้อกำกับทางกฎหมาย 2) หน่วยงานกำกับดูแลและบริษัทประกันยังไม่อนุมัติ/ชดเชยให้โมเดลอัตโนมัติ 3) ในงานของรังสีแพทย์ การวินิจฉัยกินสัดส่วนเวลาไม่มาก ยังมีงานอื่น ๆ อย่างการสื่อสารกับคนไข้และบุคลากรทางการแพทย์อีกมาก ต่อให้โมเดลแมชชีนเลิร์นนิงวินิจฉัยได้สมบูรณ์แบบและฟรี รังสีแพทย์ก็ยังไม่ถูก “แทนที่” ในทันทีเพราะโครงสร้างระบบเป็นแบบนั้น

    • ฉันไม่เห็นด้วยกับคำกล่าวที่ว่า “รังสีแพทย์ใช้เวลาส่วนใหญ่ไปกับการสื่อสารกับคนไข้และเพื่อนร่วมงาน มากกว่าการวินิจฉัย” รังสีแพทย์ส่วนใหญ่ก็ไปทำงาน นั่งอ่านภาพตรวจต่อเนื่อง อัดเสียงผล แล้วก็กลับบ้าน ถ้ามี AI ที่สมบูรณ์แบบจริง อาชีพนี้ก็หมดความหมายไปเลย คล้ายกับการนั่งเฝ้ากล้องวงจรปิดอย่างเดียว
    • ถ้ามี AI สมบูรณ์แบบ ก็ไม่ต้องมีรังสีแพทย์อีกแล้ว ตอนนี้กระบวนการคือแพทย์เจ้าของไข้ → ช่างรังสี → รังสีแพทย์(อ่านผล) → แพทย์เจ้าของไข้ แต่ถ้ามี AI สมบูรณ์แบบ กระบวนการจะกลายเป็นช่างรังสี → โมเดล ML → แพทย์เจ้าของไข้
    • ทุกครั้งที่ฉันไปเอกซเรย์ ฉันไม่เคยคุยกับรังสีแพทย์เลย โดยมากมีเพียงช่างเทคนิคที่ควบคุมเครื่อง ส่วนการวินิจฉัยก็เป็นรังสีแพทย์ทางไกลเขียนรายงานแยกต่างหาก และหมอคนอื่นที่ฉันพบโดยตรงก็ดูเหมือนจะไม่ได้สื่อสารกับรังสีแพทย์โดยตรงเหมือนกัน เลยสงสัยว่าทั่วสหรัฐเป็นแบบนี้หรือเปล่า
    • ขอถามกับข้ออ้างที่ว่าการสื่อสารกับคนไข้เป็นงานสำคัญของรังสีแพทย์ จากประสบการณ์ของฉัน การตรวจทางรังสีทุกอย่างไม่มีการสื่อสารกับรังสีแพทย์เลย คนไข้แทบไม่เจอหน้า และการสื่อสารกับบุคลากรทางการแพทย์คนอื่นส่วนใหญ่ช่างรังสีก็ทำได้ เหตุผลที่ว่าต้องใช้แพทย์ผู้เชี่ยวชาญสำหรับการสื่อสารนี้ดูไม่หนักแน่นนัก ถ้า AI เป็นคนอ่านผล บทบาทด้านการสื่อสารอาจย้ายไปอยู่กับพยาบาลหรือช่างเทคนิครังสีแทนก็ได้
  • แค่วันนี้วันเดียว ฉันก็ส่งผู้ป่วยหญิงคนหนึ่งไปให้รังสีแพทย์ทำ core biopsy ส่งผู้ป่วยชายไปฉีดยาบริเวณกระดูกสันหลังส่วนเอว ส่งอีกคนไปฉีดยาที่ไหล่ และเมื่อเดือนก่อนก็ส่งผู้ป่วยหญิงอีกรายไปทำ uterine artery embolization สำหรับ endometriosis ต่อไปยังมีแผนส่งเคสอุดรอยรั่วปัสสาวะหลังผ่าตัดไตออกอีก LLM จะทำหัตถการพวกนี้ได้ไหม? เมื่อ AI ทำให้ทักษะหนึ่งกลายเป็นของทั่วไปได้ กลุ่มผู้เชี่ยวชาญก็จะย้ายไปใช้ทักษะอื่น และปล่อยงานที่กลายเป็น commodity แล้วออกไป ตัวอย่างเช่น หลังเครื่องอ่าน ECG อัตโนมัติเข้ามา ค่าตอบแทนก็ลดฮวบ ฉันเองเลยตั้งใจละทิ้งทักษะนี้และไปโฟกัสการรักษาสมองกับความผิดปกติการเคลื่อนไหวแทน ดังนั้นถ้าคนไข้ต้องการแปลผล ECG ฉันก็ส่งไปหาหมอโรคหัวใจเลย และมักมีการสั่งตรวจเพิ่มเติมอีกหลายอย่าง ทำให้คนไข้และระบบสาธารณสุขมีต้นทุนและเวลาเพิ่มขึ้น แต่ก็ช่วยไม่ได้ อนาคตอาจมี “ทะเลทรายทางการแพทย์” แบบใหม่ คือสาขาที่ผู้เชี่ยวชาญด้าน AI ไม่อยากทำงาน โดยเฉพาะผู้สูงอายุ พื้นที่ชนบท และจิตเวช

    • เป้าหมายของระบบการแพทย์ไม่ใช่การรับประกันรายได้สูงของแพทย์ แต่คือการรักษาคนไข้ สิ่งใดที่ทำอัตโนมัติได้ก็ควรทำเพื่อเพิ่มการเข้าถึง และระบบ ECG อัตโนมัติก็ช่วยขยายการเข้าถึง
    • รังสีร่วมรักษาไม่เหมือนรังสีวิทยาแบบอ่านผลอย่างเดียว และต้องฝึกหนักกว่ามาก
    • เครื่องแปลผล ECG อัตโนมัติหลายตัวให้ผลลัพธ์แบบตีความตรงตัวและมี sensitivity ต่ำมาก จนในงานภาคสนามของหน่วยฉุกเฉินแทบใช้ไม่ได้เลย ถ้าเครื่องเอาแต่ขึ้นว่า ABNORMAL ECG – EVALUATION NEEDED ซ้ำไปมา ก็ยิ่งทำให้อยากได้เครื่องมือที่ใช้งานได้จริงมากกว่านี้
  • ในปี 2016 ศาสตราจารย์ Geoffrey Hinton เคยพูดว่า “ถึงเวลาหยุดฝึกรังสีแพทย์แล้ว” ถ้าเชื่อคำกล่าวของฝั่งสนับสนุน AI ทั้งหมด โลกคงพังไปนานแล้ว

    • คนชอบยกคำพูดนี้ขึ้นมา แต่ตอนนั้น Hinton พูดแบบฉับพลันโดยไม่เข้าใจความจริงว่ารังสีแพทย์ไม่ได้มีแค่งานวินิจฉัย Hinton เองก็ไม่ใช่แฟนพันธุ์แท้ AI แบบสุดโต่ง กลับออกจะเป็นพวกมอง AI ในแง่ร้ายมากกว่า
    • สมมติเริ่มเรียนแพทย์ประจำบ้านในปี 2016 ก็จะจบการฝึก 5 ปีในปี 2021 อายุประมาณ 31 ปี จากนั้นยังทำงานเป็นแพทย์ได้อีกประมาณ 30 ปี เท่ากับมีเวลาพอจะลุ้นไปถึงยุค 2050s ถ้ามองในกรอบเวลา 25 ปี ฉันว่าคำพูดของ Hinton ก็น่าจะถูกอยู่สัก 50%
    • ถ้าลดกฎระเบียบทางการแพทย์และยุบ AMA ไปเสีย คำทำนายของ Hinton อาจเป็นจริงไปแล้วก็ได้ และชีวิตของทุกคนอาจดีขึ้นด้วย
    • อุปสรรคใหญ่ที่สุดที่ขวาง AI ไม่ให้แทนที่รังสีวิทยาคือกฎหมาย อาชีพที่ต้องเรียนมาหลายปีแต่ดำรงอยู่เพราะข้อกำกับเป็นหลัก ถือเป็นทางเลือกที่เสี่ยง เพราะถ้ากฎหมายเปลี่ยนเมื่อไร ก็หายไปได้ทันที
    • การคาดการณ์อนาคตยากจริง ๆ อีก 20 ปีข้างหน้า โลกจะเป็นอย่างไรไม่มีใครรู้
  • ฉันเป็นหมอและก็เป็นฟูลสแตกเอนจิเนียร์ด้วย ดังนั้นฉันไม่ได้อยากไปทำรังสีวิทยาหรือฝึกต่อเพิ่ม AI จะเข้ามาเสริมรังสีวิทยาก่อน แล้วค่อยเริ่มแทนที่งานบางประเภท รังสีแพทย์เดิมก็จะค่อย ๆ ย้ายไปยังพื้นที่ใหม่อย่างรังสีร่วมรักษาเองตามธรรมชาติ

    • ฉันเป็นรังสีแพทย์และเป็นฟูลสแตกเอนจิเนียร์ด้วย ไม่กังวลว่าอาชีพนี้จะหายไป มันจะเปลี่ยน แต่ก็คงเดินไปตามเส้นทางคล้ายอาชีพอื่น ๆ
    • ฉันเองก็เป็นอดีตนักศึกษาแพทย์และเห็นด้วย AI ของทันตแพทย์ฉันตอนนี้ช่วยออกแบบแบบจำลองช่องปากใหม่ทั้งชุดสำหรับรากเทียมและอื่น ๆ ได้แล้ว เหลือแค่การเก็บรายละเอียดขั้นสุดท้ายด้วยมือ ฉันคิดว่าผู้ประกอบวิชาชีพทางการแพทย์หลายประเภทสุดท้ายอาจเหลือบทบาทแค่รับผิดชอบด้านประกันและกฎหมายก็ได้ อีกประเด็นที่น่าสนใจคือ 30% ของตำแหน่งแพทย์ประจำบ้านในสหรัฐถูกเติมเต็มด้วยชาวต่างชาติ
    • การเป็นทั้งหมอและวิศวกรเป็นเรื่องหายากจริง แต่รอบตัวฉันก็เริ่มมีแล้ว มุมมองแบบนี้จำเป็นกับวงการแพทย์มาก และเป็นข้อได้เปรียบที่เฉพาะตัวมาก เหมือน Neo กับ Morpheus
    • ถ้าเป็นทั้งหมอและวิศวกร ในรังสีวิทยายิ่งมีอนาคตใหญ่ อาชีพนี้จะไม่หายไป และยิ่งต้องการคนที่เชื่อมโลกแพทย์กับเทคโนโลยีได้
    • อยากรู้ว่าคุณมองอนาคตของเภสัชกรอย่างไร สำหรับฉันมันดูเหมือนจะถูกทำอัตโนมัติได้ทั้งหมด และไม่เห็นชัดว่าการตัดสินใจของมนุษย์สร้างความต่างจริง ๆ ตรงไหน
  • เมื่อเดือนพฤษภาคมปีนี้ New York Times ก็ลงบทความคล้ายกันว่า “AI ไม่ได้แทนที่รังสีวิทยา” ดูบทความ NYT ความเห็นของแพทย์และคำพูดของ Hinton น่าสนใจมาก “AI จะช่วยเสริมและช่วยทำเชิงปริมาณ แต่จะไม่ก้าวไปถึงข้อสรุปเชิงตีความของทักษะนี้” “อีก 5 ปี การไม่ใช้ AI อาจกลายเป็นความประมาททางการแพทย์เสียเอง” “แต่สุดท้ายมนุษย์กับ AI ก็จะไปด้วยกัน” Hinton เองก็ยอมรับภายหลังทางอีเมลว่าตอนนั้นเขาพูดกว้างเกินไป พูดถึงเฉพาะการแปลภาพเท่านั้น และแม้ทิศทางจะถูก แต่คาดการณ์เรื่องจังหวะเวลาไม่ถูก

  • ควรบังคับการทรานส์ฟอร์มรังสีวิทยาด้วย AI รังสีแพทย์ต้องใช้ AI ทุกวันเกินสัดส่วนที่กำหนด ต้องเพิ่มผลิตภาพให้ได้สองเท่า และถ้าทำไม่ได้ก็ควรถูกไล่ออก ตามที่บรรดา CEO พูด AI คือเทคโนโลยีที่ปฏิวัติที่สุดเท่าที่เราเคยเห็น ดังนั้นทุกคนต้องยอมรับมันเพราะความหวาดกลัว นอกเหนือจากนั้นยอมรับไม่ได้

    • ตอนนี้ฉันแยกไม่ออกแล้วว่านี่พูดจริงหรือประชด
  • ฉันไม่ไว้ใจให้แพทย์ที่ไม่ใช่รังสีแพทย์เป็นคนตีความผลอ่านภาพจาก AI ต่อให้ AI ทำ benchmark ได้ดีมากแค่ไหน ถ้าไม่มีพื้นฐานความรู้พอจะวิเคราะห์เอง มันก็เหมือนอ่านบทความวิชาการยาว 20 หน้าแล้วตัดสินไม่ได้ว่าน่าเชื่อถือหรือไม่

    • แนวคิดเรื่อง “งานวิจัยระดับ PhD” เองก็คลุมเครือเกินไป ทั้ง preprint, โปสเตอร์งานประชุม, บทความร่วมที่ยัง WIP, บทความก่อน peer review, monograph ฯลฯ แต่ละขั้นคุณภาพต่างกันมาก
    • บางทีก็อดล้อเล่นไม่ได้ว่า งั้นก็ให้โมเดลวิจัย deep learning อีกตัวมาวิจารณ์แทนดีไหม