9 คะแนน โดย darjeeling 22 일 전 | 4 ความคิดเห็น | แชร์ทาง WhatsApp

นักวิจัยชาวสวีเดนได้สร้างโรคสมมติขึ้นมาโดยสมบูรณ์ชื่อ "Bixonimania" เพื่อทดลองว่า AI แชตบอตจะอธิบายมันเหมือนเป็นโรคจริงหรือไม่ ผลลัพธ์น่าตกใจมาก ทั้ง ChatGPT, Google Gemini, Microsoft Copilot, Perplexity และระบบ AI หลักอื่น ๆ ล้วนเล่าโรคปลอมนี้ราวกับเป็นของจริง และถึงขั้นเกิดเหตุการณ์ที่งานวิจัยปลอมถูกอ้างอิงในวารสารวิชาการจริงด้วย


เบื้องหลังการทดลอง

Almira Osmanovic Thunström นักวิจัยด้านการแพทย์จากมหาวิทยาลัยโกเธนเบิร์ก ออกแบบการทดลองนี้เพื่อตรวจสอบว่าโมเดลภาษาขนาดใหญ่ (LLM) จะรับข้อมูลผิด ๆ แล้วนำไปนำเสนอเหมือนเป็นข้อมูลสุขภาพที่เชื่อถือได้หรือไม่

เธอเลือกชื่อ "Bixonimania" เพราะการนำคำทางจิตเวชอย่าง "mania(ภาวะแมเนีย)" ไปประกบกับโรคตาเป็นการจับคู่ที่บุคลากรทางการแพทย์คนไหนเห็นก็ต้องรู้สึกแปลก จึงตั้งใจเลือกชื่อที่ดูน่าขันโดยเจตนา

ในช่วงเดือนเมษายนถึงพฤษภาคม 2024 เธอได้ลงทะเบียน preprint ปลอม 2 ฉบับในเครือข่ายสังคมวิชาการ SciProfiles โดยใช้นามของนักวิจัยสมมติ "Lazljiv Izgubljenovic" ซึ่งใช้ภาพโปรไฟล์ที่สร้างด้วย AI

ในตัวบทความมีการซ่อนเบาะแสว่าเป็นของปลอมไว้หลายจุด ในกิตติกรรมประกาศมีการขอบคุณ "ห้องปฏิบัติการบนยาน USS Enterprise" และ "Starfleet Academy" รวมถึง "มหาวิทยาลัยลอร์ดออฟเดอะริงส์" อีกทั้งในเนื้อหายังมีข้อความว่า "บทความนี้ทั้งหมดเป็นเรื่องแต่ง" รวมอยู่ด้วย


ปฏิกิริยาของ AI

เพียงไม่กี่วันหลังจากข้อมูลปลอมถูกเผยแพร่ AI แชตบอตรายใหญ่ก็เริ่มอธิบาย Bixonimania ราวกับเป็นโรคจริง เมื่อวันที่ 13 เมษายน 2024 Copilot ของ Microsoft เรียกมันว่าเป็น "ภาวะที่น่าสนใจและพบได้น้อย" และในวันเดียวกัน Google Gemini ก็ระบุว่าเป็น "โรคที่เกิดจากการได้รับแสงสีน้ำเงินมากเกินไป" พร้อมแนะนำให้ไปพบจักษุแพทย์ ส่วน Perplexity ถึงขั้นให้ตัวเลขความชุกว่า 1 คนต่อประชากร 90,000 คน

แม้ในเดือนมีนาคม 2026 สถานการณ์ก็ยังไม่ได้ดีขึ้นมากนัก Microsoft Copilot ตอบว่า "แม้ยังไม่ใช่ชื่อวินิจฉัยที่ได้รับการยอมรับอย่างแพร่หลาย แต่มีรายงานว่าเป็นภาวะไม่ร้ายแรงที่เกี่ยวข้องกับการได้รับแสงสีน้ำเงิน" ขณะที่ Perplexity เรียกมันว่าเป็น "คำศัพท์ที่กำลังเกิดขึ้นใหม่"


ปัญหาที่ร้ายแรงกว่า: การปนเปื้อนของวารสารวิชาการ

งานวิจัยปลอมชิ้นนี้ถูกอ้างอิงในวารสารวิชาการจริงด้วย โดยทีมวิจัยจากอินเดียได้อ้างถึง Bixonimania ในบทความที่ตีพิมพ์ใน Cureus ซึ่งเป็นวารสารในเครือ Springer Nature ว่าเป็น "ภาวะผิวคล้ำรอบเบ้าตารูปแบบใหม่ที่เกี่ยวข้องกับแสงสีน้ำเงิน" ราวกับเป็นข้อเท็จจริง บทความดังกล่าวถูกถอนเมื่อวันที่ 30 มีนาคม 2026 หลังจาก Nature ส่งคำถามไปสอบถาม

Alex Ruani นักวิจัยด้านข้อมูลสุขภาพเท็จจาก UCL ประเมินการทดลองนี้ว่าเป็น "กรณีศึกษาแบบตำราเรียนของการทำงานของข้อมูลเท็จและข้อมูลบิดเบือน" พร้อมเตือนว่า "ไม่ใช่แค่ AI เท่านั้นที่ถูกหลอก แต่นักวิจัยมนุษย์ที่อ้างอิงงานปลอมก็ถูกหลอกด้วย เราจึงต้องปกป้องความไว้วางใจของเราให้มีค่าดั่งทองคำ"


ทำไมเรื่องแบบนี้จึงเกิดขึ้น?

ตามงานวิจัยของ Mahmud Omar ผู้เชี่ยวชาญด้าน AI และการแพทย์จาก Harvard Medical School ระบุว่า LLM มีแนวโน้มสร้างข้อมูลเท็จและแต่งเติมคำอธิบายมากขึ้นเมื่อประมวลผลข้อความที่ถูกจัดรูปแบบอย่างมืออาชีพ เช่น บันทึกจำหน่ายผู้ป่วยออกจากโรงพยาบาลหรือบทความคลินิก เมื่อเทียบกับโพสต์บนโซเชียลมีเดีย เขากล่าวว่า "ยิ่งข้อความดูเหมือนเขียนโดยแพทย์มากเท่าไร อัตราการหลอนก็ยิ่งสูงขึ้น"


คำชี้แจงจากบริษัทต่าง ๆ

  • OpenAI: "โมเดลที่ขับเคลื่อน ChatGPT ในปัจจุบันมีความแม่นยำด้านข้อมูลการแพทย์ดีขึ้นอย่างมากแล้ว และผลการวิจัยที่อ้างอิงโมเดลรุ่นก่อนแตกต่างจากประสบการณ์ของผู้ใช้ในปัจจุบัน"
  • Google: "ผลลัพธ์นี้สะท้อนข้อจำกัดของโมเดลยุคแรก และสำหรับข้อมูลทางการแพทย์ที่อ่อนไหว เราแนะนำให้ปรึกษาผู้เชี่ยวชาญ"
  • Perplexity: "ความแม่นยำคือจุดแข็งหลักของเรา แต่เราไม่ได้อ้างว่าถูกต้อง 100%"
  • Microsoft: ไม่มีคำตอบอย่างเป็นทางการ

ประเด็นที่ชวนคิด

การทดลองครั้งนี้แสดงให้เห็นอย่างชัดเจนว่า ในโลกที่ AI แชตบอตกำลังก้าวขึ้นมาเป็นผู้ให้ข้อมูลทางการแพทย์อย่างรวดเร็ว ข้อมูลที่ออกแบบมาผิดเพียงชิ้นเดียวสามารถแพร่กระจายผ่าน AI ได้รวดเร็วเพียงใด แทนที่จะยอมรับข้อมูลการแพทย์ที่ AI ปล่อยออกมาโดยไม่ตั้งคำถาม การตรวจสอบแหล่งข้อมูลที่น่าเชื่อถือด้วยตนเองกำลังกลายเป็นเรื่องสำคัญยิ่งกว่าที่เคย


ต้นฉบับ: Nature, 2026.04.07

4 ความคิดเห็น

 
kalista22 22 일 전

นึกถึงกรณีสเร็กโควิชของพัค มุนซอง

 
beepp 22 일 전

น่าจะมีกระบวนการตัดสินอยู่ว่าแหล่งข้อมูลนั้นมีความน่าเชื่อถือหรือเป็นที่ยอมรับหรือไม่ แต่ถึงอย่างนั้นก็ดูเหมือนว่ายังเปราะบางอยู่ดี

 
cjinzy 22 일 전

สงสัยว่าทำไม anthropic ถึงไม่รวมอยู่ด้วยนะ ''

 
baam12 21 일 전

เอไอจะเป็นแบบนั้นก็ช่างเถอะ แต่ทีมวิจัยจากอินเดียไม่ได้อ่านเลยหรือไง