- คำตอบของ Large Language Model (LLM) ไม่ใช่ข้อเท็จจริง แต่เป็น ผลลัพธ์ของการคาดการณ์ทางสถิติของคำ
- ChatGPT, Claude, Gemini และอื่น ๆ เพียงแค่ คาดการณ์คำถัดไปที่น่าจะเป็นไปได้มากที่สุด โดยไม่ได้รับรู้แหล่งที่มาหรือความจริงแท้ของข้อมูล
- พวกมันสามารถสร้าง ประโยคที่ฟังดูน่าเชื่อถือ ได้ แต่เนื้อหาอาจ ไม่ถูกต้องหรือไม่น่าเชื่อถือ
- การ คัดลอกและส่งต่อคำตอบของ AI ราวกับเป็นหลักฐานที่มีอำนาจ ก็ไม่ต่างจากการทวนซ้ำ “ชุดคำที่มักถูกใช้ร่วมกันบ่อย ๆ” เท่านั้น
- พฤติกรรมการอ้างคำตอบของ AI เป็นข้อเท็จจริงสะท้อนถึง ความเสี่ยงของการอ่อนแอลงของการตรวจสอบความรู้และการคิดวิเคราะห์
ธรรมชาติของคำตอบจาก AI
- คำตอบจาก Large Language Model อย่าง ChatGPT, Claude, Gemini ไม่ใช่ข้อเท็จจริง
- โมเดลเหล่านี้ทำงานด้วยวิธี คาดการณ์คำถัดไปในประโยค
- ผลลัพธ์คืออาจสร้าง ข้อมูลที่ฟังดูน่าเชื่อแต่ไม่แม่นยำ ได้
- โมเดลลักษณะนี้เปรียบได้กับ คนที่อ่านข้อมูลมามหาศาลแต่จำแหล่งที่มาไม่ได้
- กล่าวคือ มัน นำประโยคมาประกอบใหม่โดยไม่เข้าใจหลักฐานและบริบทของข้อมูล
ข้อจำกัดด้านความน่าเชื่อถือ
- คำตอบหรือคำแนะนำที่ AI ให้มาอาจ ถูกต้องก็ได้ แต่ที่มาของเหตุผลนั้นไม่ชัดเจน
- คำตอบไม่ใช่ “หนังสือที่ถูกจำไว้” แต่เป็น การผสมคำที่มักปรากฏร่วมกันบ่อย ๆ
- ดังนั้นการ อ้างผลลัพธ์ของ AI ว่าเป็นข้อเท็จจริงหรือข้อมูลที่มีอำนาจ จึงไม่เหมาะสม
- คำกล่าวอย่าง “ChatGPT บอกแบบนั้น” ก็เป็นเพียง การอ้างผลจากการคาดการณ์คำเท่านั้น
ความเสี่ยงของการอ้างอิง
- การคัดลอกและส่งต่อคำตอบของ AI ตรง ๆ ก็เท่ากับ เผยแพร่ชุดคำที่ไม่ใช่ความจริง
- บางครั้งมันอาจมีประโยชน์หรือให้มุมมองที่น่าสนใจได้ แต่ ไม่ใช่ความจริงหรือเกณฑ์ตัดสินสุดท้าย
- บทความนี้อธิบายพฤติกรรมเช่นนี้ว่าเป็น “ภาพของคนฉลาดที่หยุดคิด”
แหล่งข้อมูลเพิ่มเติม
บทสรุป
- แม้ตัวเทคโนโลยี AI และ machine learning เองจะถูกมองในแง่บวก แต่
ควรระวังท่าทีที่อ้างอิงหรือเชื่อคำตอบของ AI โดยไม่วิพากษ์อย่างเพียงพอ
- เว็บไซต์นี้แนะนำให้แชร์เนื้อหานี้กับคนที่พูดว่า “But ChatGPT Said…”
5 ความคิดเห็น
เป็นบทความเมื่อ 1 ปีก่อนหรือเปล่า?
555555
https://github.com/leoherzog/stopcitingai/blob/main/index.html
ไม่ใช่ครับ ถ้าคุณดูประวัติการแก้ไขไฟล์ จะเห็นว่ามีการเขียนฉบับร่างไว้ตั้งแต่หนึ่งสัปดาห์ก่อน
"เป็นผลลัพธ์จากการคาดการณ์เชิงสถิติของคำ" แค่ตระหนักถึงข้อเท็จจริงนี้ก็ดูเหมือนจะทำให้มองออกว่าควรรับมือกับ AI อย่างไร
ความคิดเห็นจาก Hacker News
คำตอบจาก LLM อย่าง ChatGPT, Claude, Gemini ไม่ใช่ข้อเท็จจริง
มันเป็นเพียงการทำนายคำถัดไปเท่านั้น
อุปมาแบบ “แม้แต่บทความในวิกิพีเดียก็ไม่ใช่ข้อเท็จจริง เป็นแค่ความผันผวนของ magnetic flux” นั้นไม่มีความหมาย
สุดท้ายสิ่งสำคัญคือ การระบุแหล่งที่มา ไม่ว่าจะเป็นวิกิพีเดีย มนุษย์ หรือหมา ถ้าไม่มีที่มาก็จะไม่เชื่อ
ผลลัพธ์เป็นเพียงการผสมคำที่ถูกเลือกแบบอาศัยความน่าจะเป็น บางคำมาจากสำนวนที่พบบ่อย บางคำอาจมาจากที่อย่าง 4chan และบางคำก็อาจเป็น ภาพหลอน (hallucination)
ในกรณีแบบนี้ แนวคิดเรื่อง “แหล่งที่มาของข้อเท็จจริง” จึงใช้ไม่ได้ตั้งแต่แรก
ประเด็นจะเปลี่ยนไปตามว่าเรานิยามคำว่า “ข้อเท็จจริง” อย่างไร
ปัญหาไม่ได้อยู่ที่ผลลัพธ์ แต่อยู่ที่ ความน่าเชื่อถือของกระบวนการที่สร้างผลลัพธ์นั้น
ต่อให้ทอยลูกเต๋าแล้วบังเอิญได้คำตอบว่า “3+4=7” มันก็แค่ถูกโดยบังเอิญ เพราะกระบวนการผิดตั้งแต่ต้น
ปัญหาของ LLM ก็ใกล้เคียงกับ ความผิดพลาดของกระบวนการ แบบนี้
ในความเป็นจริงมันถูกฝึกให้สอดคล้องกับ ความชอบของมนุษย์และการประจบเอาใจ (sycophancy) จนผลิต “ข้อความน้ำเชื่อมข้าวโพดฟรุกโตสสูงที่อ่านลื่น” ออกมา
เพราะแบบนั้นมันจึงกลับไม่ค่อยเหมาะกับการระดมความคิดหรือการสรุป
แต่กับคำถามข้อเท็จจริงง่าย ๆ มันก็ค่อย ๆ ดีขึ้น
ท้ายที่สุดแล้ว LLM ไม่ใช่แค่ตัวทำนายธรรมดา แต่เป็น สิ่งที่ถูกปรับให้ดูน่าเชื่อถือและชวนเชื่อมากขึ้น
แม้แต่ในบริษัทเล็ก ๆ การตั้ง ความคาดหวังต่อการใช้ AI ก็สำคัญ
แค่ยึดหลักง่าย ๆ ว่า “ถึงจะใช้ AI คนที่ใช้ก็ยังต้องรับผิดชอบผลลัพธ์เอง” ก็เพียงพอแล้ว
การตรวจสอบข้อมูล การทดสอบโค้ด และการเช็กคำตอบเป็นสิ่งจำเป็น
สมัยก่อนเราพูดกันว่า “อย่าก็อปแปะจาก Stack Overflow ให้อ่านและทำความเข้าใจก่อน”
โลกเปลี่ยนไปแล้ว แต่ แก่นของเรื่องยังเหมือนเดิม
นั่นแหละคือความเปลี่ยนแปลงใหญ่
มีคนรู้สึกว่าอุปมาแบบ “คนที่อ่านหนังสือมาหลายพันเล่ม แต่จำไม่ได้ว่าอ่านมาจากที่ไหน” คล้ายกับ LLM มาก
บางครั้งฉันเองก็เผลอ มโนแหล่งที่มา ว่า “น่าจะอยู่ในชุด Schaum มั้ง?”
ตอนแรกเราอาจจำได้ว่าเรียนรู้ข้อเท็จจริงอย่าง “ปารีสเป็นเมืองหลวงของฝรั่งเศส” มาจากไหน แต่พอเวลาผ่านไป แหล่งที่มาจะเลือนหาย เหลือแค่เนื้อหา
LLM เป็นไปตามหลัก Garbage In, Garbage Out แบบตรงตัว
มันทำงานได้ดีในขอบเขตที่มีเอกสารชัดเจน แต่กับหัวข้อที่คลุมเครือจะให้ ข้อมูลมั่ว
โดยเฉพาะเพราะมันเข้าใจบริบทได้ไม่ดีพอ ถ้าไม่ระบุให้ชัดก็มักตอบผิด
ในงานซัพพอร์ตเทคนิคจึงมักมีการโต้เถียงกับลูกค้าที่เชื่อคำตอบของ ChatGPT แบบตรง ๆ
ต่อให้ขอให้แก้ มันก็มักส่งคำตอบผิดชุดใหม่กลับมาพร้อม คำขอโทษที่ไม่ช่วยอะไร
แม้ยุค “post-truth” จะน่ากังวล แต่กลับรู้สึกว่าผู้คนเริ่ม สงสัยและตั้งคำถาม มากขึ้น
อย่างที่ Rorty พูดไว้ว่า “ข้อเท็จจริงคือสิ่งที่เราเลิกโต้เถียงกันแล้ว” จึงควรมองมันเป็น ผลผลิตของฉันทามติทางสังคม
สำคัญกว่าการถกเรื่องความจริง คือ วิธีประสานความขัดแย้งทางภาษา ระหว่างชุมชนวาทกรรมต่าง ๆ
ถ้าพูดกับหัวหน้าว่า “นั่นเป็นความคิดที่โง่มาก” ก็คงไม่มีทางถูกใจแน่
การถามว่า “ขอดูบันทึกบทสนทนานั้นด้วยกันได้ไหม?” น่าจะดีกว่า
จะได้ตรวจดูว่า LLM ใส่อคติเข้ามาตรงไหน
ฉันไม่มีเหตุผลต้องไปโต้แย้งผลลัพธ์จาก LLM ที่ไม่ผ่านการตรวจสอบ และ ความรับผิดชอบเป็นของคนที่เอามาอ้าง
การถกเรื่อง “การอ้างแหล่งที่มา” ทำให้พลาดประเด็นที่ลึกกว่านั้น
LLM เก่งกับ งานที่ตรวจสอบได้ (โค้ด การแปล การสรุป) แต่ไม่เก่งกับ งานที่ตรวจสอบไม่ได้ (งานวิจัย งานเฉพาะทาง)
เพราะอย่างนั้นฉันจึงใช้ LLM แค่เป็น เครื่องสร้างร่างแรกที่ผู้เชี่ยวชาญสามารถตรวจทานต่อได้
ความเสี่ยงไม่ใช่ภาพหลอน แต่คือ ช่องว่างของความมั่นใจที่เกิดขึ้นเมื่อความลื่นไหลของโมเดลแซงหน้าความเชี่ยวชาญของผู้ใช้
แนวทางเรียกใช้เครื่องมืออย่าง RAG หรือการค้นเว็บ สุดท้ายก็เป็นเพียง การแลกไปสู่รูปแบบความล้มเหลวอีกแบบหนึ่ง
ปฏิกิริยาของฉันคือ “ถ้า ChatGPT น่าเชื่อถือกว่าฉัน แล้วคุณจะจ้างฉันมาทำไม?”
ฉันอาจใช้เวลาหลายชั่วโมงอธิบายได้ แต่ เชื่อผู้เชี่ยวชาญตรง ๆ จะไม่ดีกว่าหรือ?