ทุกสิ่งกำลังมุ่งไปสู่ความเท็จหรือไม่
(aphyr.com)- เทคโนโลยีที่ในปัจจุบันถูกเรียกว่า AI แท้จริงแล้วคือระบบแมชชีนเลิร์นนิง (ML) ที่ซับซ้อน ซึ่งมีโครงสร้างสำหรับเติมเต็มข้อความ·ภาพ·เสียงด้วยวิธีทางสถิติ
- LLM คือเครื่องจักรที่สร้าง ‘คำเท็จที่ฟังดูน่าเชื่อ’ ราวกับการด้นสด โดยหลีกเลี่ยงคำตอบว่าไม่รู้และสร้างข้อเท็จจริงที่แต่งขึ้น
- ผู้คนมักเข้าใจผิดว่ามันเป็นสิ่งมีชีวิตที่มีสำนึก แต่ คำอธิบายตัวเองและกระบวนการให้เหตุผลของโมเดลนั้นเป็นเพียงเรื่องเล่าแต่งขึ้น
- LLM แสดง ประสิทธิภาพที่แกว่งมาก โดยแก้ปัญหาระดับสูงได้แต่กลับล้มเหลวกับงานง่ายๆ ทำให้เห็นขอบเขตที่ไม่น่าเชื่อถือ
- ท่ามกลางความไม่สมดุลและความไม่แน่นอนนี้ ML กำลังกลายเป็นเทคโนโลยีที่เปลี่ยนสังคมมนุษย์ให้ประหลาดไปอย่างถึงราก
บทนำ
- คนรุ่นที่เติบโตมากับการชื่นชม โลกไซไฟของ Asimov และ Clarke เคยมองโลกในแง่ดีต่อการมาถึงของเครื่องจักรอัจฉริยะ แต่กลับต้องพบความผิดหวังใน ความจริงที่การทดสอบทัวริงพังทลายลง
- เมื่อบริษัทคลาวด์รายใหญ่ประกาศ ฮาร์ดแวร์สำหรับฝึก LLM ในปี 2019 ก็มีความกังวลว่าการแพร่ขยายของดีปเลิร์นนิงอาจก่อให้เกิด สแปมและการโฆษณาชวนเชื่อรูปแบบใหม่
- เนื้อหานี้ สำรวจพื้นที่เชิงลบของวาทกรรม AI และประกอบขึ้นเป็น ความพยายามในการเผยให้เห็นเค้าโครงของความเสี่ยงและความเป็นไปได้ มากกว่าจะเป็นการวิเคราะห์ที่สมบูรณ์
- เนื่องจากคำว่า “AI” ครอบคลุมกว้างเกินไป จึง โฟกัสไปที่การอภิปรายอย่างเป็นรูปธรรมโดยมี ML และ LLM เป็นศูนย์กลาง
- การคาดการณ์บางส่วนกลายเป็นจริงไปแล้ว และบางส่วนยังคงอยู่ใน พื้นที่ที่ไม่แน่นอนและชวนประหลาด
“AI” คืออะไร
- สิ่งที่ปัจจุบันถูกเรียกว่า “AI” คือ กลุ่มเทคโนโลยีแมชชีนเลิร์นนิง (ML) ที่ซับซ้อน เป็นระบบที่ รับรู้·แปลง·สร้างเวกเตอร์โทเคน ของข้อความ·ภาพ·เสียง·วิดีโอ เป็นต้น
- LLM (Large Language Model) จัดการกับภาษาธรรมชาติ และทำงานโดยทำนาย การเติมเต็มสตริงอินพุตที่เป็นไปได้ในเชิงสถิติ
- โมเดลถูกฝึกด้วยเว็บเพจและ คอร์ปัสข้อมูลขนาดใหญ่ เช่น หนังสือและเพลงละเมิดลิขสิทธิ์ และหลังฝึกเสร็จก็สามารถนำกลับมาใช้ซ้ำได้ผ่าน inference ต้นทุนต่ำ
- โมเดลไม่ได้เรียนรู้ด้วยตัวเองเมื่อเวลาผ่านไป แต่จะอัปเดตได้ผ่าน การปรับแต่งโดยผู้ปฏิบัติการหรือการฝึกใหม่ เท่านั้น
- “ความจำ” ของโมเดลแบบสนทนา แท้จริงแล้วถูกทำขึ้นผ่าน เทคนิคเชิงโครงสร้างที่นำสรุปบทสนทนาก่อนหน้าไปรวมไว้ในอินพุต
แฟนฟิกชันของความเป็นจริง
- LLM ทำงานคล้าย เครื่องจักรด้นสด (improv) โดยแสดง แพตเทิร์น ‘yes-and’ ที่ต่อยอดบริบทที่ป้อนเข้ามาด้วยลักษณะ “แล้วจากนั้นก็... ”
- ด้วยเหตุนี้มันจึงสร้าง ประโยคที่ฟังดูน่าเชื่อแม้ไม่เกี่ยวกับข้อเท็จจริง เข้าใจผิดเรื่องเสียดสีหรือบริบท และ สร้างข้อมูลเท็จขึ้นมา
- มนุษย์จึงมีแนวโน้มจะเข้าใจเอาต์พุตเหล่านี้ผิดว่าเป็นคำพูดจากสิ่งมีชีวิตที่มีสำนึกจริง
- เพราะ LLM สร้างเอาต์พุตสำหรับทุกอินพุต มันจึงมี แนวโน้มจะหลีกเลี่ยงคำตอบว่า “ไม่รู้” และหันไปสร้างเรื่องเท็จขึ้นมา
- ความเท็จเหล่านี้ไม่ใช่การกระทำโดยเจตนา แต่เป็น ผลผลิตเชิงสังคม-เทคนิคที่เกิดจากปฏิสัมพันธ์ระหว่างมนุษย์กับเครื่องจักร
ผู้เล่าที่ไม่น่าเชื่อถือ
- ผู้คนมักขอ คำอธิบายตัวเอง จาก LLM เช่น “ทำไมถึงทำแบบนั้น” แต่โมเดลนั้น ไม่มีความสามารถในการตระหนักรู้ตนเอง
- LLM เพียงแค่สร้าง การเติมเต็มเชิงความน่าจะเป็นจากบทสนทนาก่อนหน้าและคอร์ปัสข้อมูล และแม้แต่คำอธิบายเกี่ยวกับตัวเองก็ถูกประกอบขึ้นเป็น เรื่องเล่าแต่ง
- แม้แต่โมเดล “การให้เหตุผล (reasoning)” ก็ยังทำงานในลักษณะ เล่าแต่งกระบวนการคิดของตัวเองเป็นเรื่องราว
- ตามงานวิจัยของ Anthropic พบว่า บันทึกการให้เหตุผลของ Claude ส่วนใหญ่ไม่ถูกต้อง และแม้แต่ข้อความสถานะอย่าง “กำลังคิด” ก็เป็นเพียง การจัดฉากที่แต่งขึ้น
โมเดลนั้นฉลาด
- ในช่วงไม่กี่เดือนที่ผ่านมา การรับรู้ว่า ความสามารถของ LLM พัฒนาขึ้นอย่างรวดเร็ว ได้แพร่กระจายมากขึ้น
- วิศวกรบางคนรายงานว่า Claude หรือ Codex แก้โจทย์การเขียนโปรแกรมที่ซับซ้อนได้ในครั้งเดียว
- มีการใช้งานจริงในหลายสาขา เช่น การออกแบบอาหาร การตรวจทานสเปกงานก่อสร้าง การทำภาพ 3D และการเขียนประเมินตนเอง
- มันยังแสดงประสิทธิภาพสูงในด้านอย่าง การทำนายการพับตัวของโปรตีนของ AlphaFold และ การอ่านภาพทางการแพทย์
- ในด้าน สไตล์การเขียนภาษาอังกฤษ ภาพ และดนตรี การแยกมนุษย์ออกจากเครื่องจักรกำลังยากขึ้นเรื่อยๆ แม้ว่าการสร้างวิดีโอยังมีข้อจำกัดอยู่
โมเดลนั้นโง่
- ในเวลาเดียวกัน LLM ก็ถูกประเมินว่าเป็นระบบที่ ‘โง่’ และทำข้อผิดพลาดพื้นฐานซ้ำๆ
- ตัวอย่างเช่น Gemini ในการเรนเดอร์โมเดล 3D จัดการเรขาคณิตและวัสดุผิดซ้ำแล้วซ้ำอีก ส่วน Claude ก็สร้าง โค้ด JavaScript สำหรับภาพแสดงผลที่ไร้ความหมาย
- ChatGPT ไม่สามารถทำแม้แต่คำขอแก้ไขสีแบบง่ายๆ ได้อย่างถูกต้อง และยังแสดง ข้อกล่าวอ้างเท็จที่สรุปอัตลักษณ์ทางเพศของผู้ใช้ผิด
- มีรายงานกรณีที่ LLM สร้างกราฟจากข้อมูลปลอม, ควบคุมสมาร์ตโฮมล้มเหลว หรือก่อให้เกิด ความสูญเสียทางการเงิน
- ฟีเจอร์สรุป AI ของ Google มี อัตราความผิดพลาดราว 10% และคำกล่าวอ้างเรื่อง “สติปัญญาระดับผู้เชี่ยวชาญ” ถูกประเมินว่าเป็น ภาพลวงที่เกินจริง
ขอบเขตที่ขรุขระ
- โดยทั่วไปมนุษย์พอจะคาดเดาช่วงความสามารถได้ แต่ ประสิทธิภาพของระบบ ML นั้นไม่สม่ำเสมอและคาดเดาไม่ได้
- LLM สามารถ แก้คณิตศาสตร์ขั้นสูงได้ แต่กลับล้มเหลวกับโจทย์ภาษาง่ายๆ และยังเสนอ คำอธิบายที่ขาดสามัญสำนึกทางกายภาพ
- ความไม่สมดุลนี้ถูกเรียกว่า ‘ขอบเขตเทคโนโลยีที่ขรุขระ (jagged technology frontier)’ และมีลักษณะ ไม่ต่อเนื่อง ต่างจากการกระจายความสามารถของมนุษย์
- เพราะ ML พึ่งพา ข้อมูลฝึกหรือหน้าต่างบริบท (window) มันจึงเปราะบางต่อ งานที่ต้องใช้ความรู้โดยนัย
- ด้านอย่างหุ่นยนต์คล้ายมนุษย์หรือพื้นที่ที่ต้องการ ความรู้แบบมีร่างกาย (embodied knowledge) ยังอยู่อีกไกล
กำลังดีขึ้น หรือไม่ใช่กันแน่
- นักวิจัยเองก็ยัง ไม่เข้าใจอย่างชัดเจนด้วยซ้ำว่าทำไมโมเดลทรานส์ฟอร์เมอร์จึงประสบความสำเร็จ
- หลังบทความปี 2017 Attention is All You Need มีการทดลองสถาปัตยกรรมหลากหลายแบบ แต่ แนวทางเพิ่มพารามิเตอร์ให้มากขึ้นอย่างเดียว ก็ยังคงได้ผลดีที่สุด
- แม้ ต้นทุนการฝึกและจำนวนพารามิเตอร์จะพุ่งสูงขึ้น แต่การเพิ่มประสิทธิภาพกลับชะลอลง และยังไม่ชัดว่านี่เป็น ภาพลวงตาหรือข้อจำกัดที่แท้จริง
- ต่อให้ ML ไม่พัฒนาต่อไปอีก มันก็ได้สร้าง ผลกระทบอย่างลึกซึ้งต่อสังคม การเมือง ศิลปะ และเศรษฐกิจโดยรวม ไปแล้ว
- ผลลัพธ์ก็คือ ML เป็นเทคโนโลยีที่เปลี่ยนชีวิตมนุษย์ให้ประหลาดไปอย่างถึงราก และความเป็นไปข้างหน้าก็มีแนวโน้มจะ “ดำเนินไปในทางแปลกประหลาด”
หมายเหตุเรื่องคำศัพท์
- คำว่า “AI” กว้างเกินไป จึงทำให้เฉพาะเจาะจงเป็น ML หรือ LLM
- “Generative AI” ถูกมองว่าเป็น ถ้อยคำที่ไม่สมบูรณ์ เพราะไม่ได้รวมงานด้านการรับรู้
- เหตุผลที่ LLM พูดเท็จเกี่ยวกับตัวเอง ก็เพราะ อิทธิพลของเรื่องเล่ามนุษย์เกี่ยวกับ AI และข้อมูลฝึก
- สำหรับข้อโต้แย้งต่อคำกล่าวว่า “โมเดลนั้นโง่” แม้จะมีความเห็นว่าเป็นปัญหาของ พรอมป์ต์หรือการเลือกโมเดล แต่ก็พบว่า ข้อผิดพลาดแบบเดียวกันยังเกิดซ้ำในโมเดลเชิงพาณิชย์รุ่นล่าสุด
1 ความคิดเห็น
ความเห็นจาก Hacker News
ช่วงนี้ฉันนึกบ่อยมากว่าสถานการณ์ตอนนี้คล้ายกับยุค การปฏิวัติอุตสาหกรรม
ก่อนการปฏิวัติอุตสาหกรรม ผู้คนมองว่าทรัพยากรธรรมชาติเกือบจะไร้ขีดจำกัด และเพราะประสิทธิภาพต่ำจึงไม่อาจใช้มันจนหมดสิ้นได้ แต่เมื่อเครื่องจักรถือกำเนิดขึ้น คนเพียงไม่กี่คนก็สามารถใช้ทรัพยากรบางส่วนของโลกจนหมดได้อย่างสิ้นเชิง และผลลัพธ์ก็คือเกิดความจำเป็นของ กรรมสิทธิ์และระบบกฎหมาย
ตอนนี้เราอยู่ในยุคปฏิวัติข้อมูลข่าวสาร และ AI กำลังทำหน้าที่แบบเดียวกันในโลกดิจิทัล บริษัทหนึ่งสามารถฝึก AI แล้วนำผลงานที่มีลิขสิทธิ์ของผู้สร้างสรรค์จำนวนมหาศาลกลับมาใช้ใหม่ในระดับอุตสาหกรรมได้ สิ่งนี้กำลังทำให้สมดุลระหว่างผู้สร้างกับผู้บริโภคพังทลาย
ในโลกที่งานเขียนของนักเขียนถูกดูดซึมเข้าไปใน ChatGPT จนต้นฉบับถูกลืม ใครกันจะยังอยากสร้างคอนเทนต์ต่อไป ตอนนี้มันเหมือนกับ ลอนดอนในยุคดิคเกนส์ ที่สังคมและกฎหมายยังตามไม่ทัน และเราน่าจะต้องผ่านช่วงเวลาที่ยากลำบากก่อน
หลังจาก “Attention is All You Need” วงการไม่ได้พัฒนาแค่ด้วยการเพิ่มพารามิเตอร์อย่างเดียว แต่ยังขยับไปสู่สถาปัตยกรรมที่ซับซ้อนขึ้นอย่าง Mixture-of-Experts, Sparse Attention, Mamba/Gated Linear Attention ด้วย การตีความ Bitter Lesson แบบว่า “แค่เพิ่มการคำนวณก็พอ” นั้นเป็นความเข้าใจผิด
โมเดลตอนนี้ได้เรียนรู้ข้อมูลสาธารณะเกือบทั้งหมดไปแล้ว หากข้อจำกัดด้านลิขสิทธิ์เข้มงวดขึ้น ก็อาจเกิดปัญหา ข้อมูลฝึกไม่เพียงพอ ได้ ถ้าไม่มีนวัตกรรมระดับ “Attention is All You Need” เกิดขึ้นอีก ก็ดูเหมือนเรากำลังเข้าใกล้ ขีดจำกัดของการเพิ่มประสิทธิภาพ
การบอกว่า “LLM ยังไม่สร้างสรรค์” เป็นคำพูดที่ง่ายเกินไป ในปัญหาที่อยู่บนฐานข้อความ มันมี การอนุมานเชิงตรรกะ ได้แล้ว และในด้านภาพหรือ UI ก็พัฒนาเร็วมาก
ฉันอธิบายให้คนอื่นฟังบ่อย ๆ ว่าใน LLM ไม่มี สำนึกหรือความเป็นตัวของตัวเอง อยู่ภายใน ทุกวันนี้คำว่า ‘AI’ ถูกใช้ในความหมายที่ เกินจริง มากเกินไป
ฉันขำตอนเห็นกรณีที่ LLM ตอบโจทย์ฟิสิกส์ผิด จริง ๆ แล้ว นักฟิสิกส์เองก็มักเริ่มจากสมมติฐานที่ไม่สมจริง บ่อยเหมือนกัน ถึงขั้นมีมุกเรื่อง “หลังคาทรงกลมไร้แรงเสียดทาน” เลย
ยังยากที่จะบอกว่ามันผ่าน Turing test แล้วจริง ๆ ยิ่งคุยนาน บริบทยิ่งพัง และยังมีข้อจำกัดในการจำลองคุณลักษณะแบบมนุษย์อย่าง neuroplasticity
เดิมทีหัวข้อบทความ “The Future of Everything is Lies, I Guess” ไม่สอดคล้องกับเนื้อหา จึงถูกแก้ไข จริง ๆ แล้วมันเป็นบทความที่สมดุลดี และมีการเปลี่ยน หัวข้อชวนคลิก ตามแนวทางของ HN
การถกเถียงเรื่อง สำนึก ควรมีความถ่อมตนมากกว่านี้ แม้แต่สำนึกของมนุษย์เราก็ยังนิยามไม่ได้ จึงไม่อาจฟันธงเรื่องสำนึกของ LLM ได้
ในช่วงท้ายบทความมีการบอกว่า “AI จะเปลี่ยนทั้งสังคม” แต่ตอนนี้เหมือนตอนนี้จะโฟกัสที่ ข้อจำกัดของ LLM มากกว่า