- ข้ออ้างที่ว่า LLM เป็นเพียง นกแก้วเชิงสถิติ นั้นแทบหายไปแล้วในปี 2025 และคนส่วนใหญ่ยอมรับว่ามีตัวแทนภายในเกี่ยวกับความหมายของพรอมป์ต์และทิศทางของคำตอบ
- Chain of Thought(CoT) กลายเป็นเทคนิค แกนหลัก ที่ช่วยยกระดับคุณภาพเอาต์พุตของ LLM ผ่านการผสานการสุ่มตัวอย่างในตัวแทนภายในของโมเดลกับการเรียนรู้โทเค็นแบบลำดับผ่านการเสริมแรงเรียนรู้
- การเสริมแรงเรียนรู้โดยใช้รางวัลที่ตรวจสอบได้ เปิดทางให้การสเกลก้าวข้ามข้อจำกัดด้านจำนวนโทเค็น และคาดว่าจะเป็นทิศทางพัฒนาหลักถัดไปของ AI
- การต่อต้านต่อ การช่วยเขียนโปรแกรมด้วย LLM ลดลงอย่างมาก และรูปแบบการใช้งานแยกเป็นแบบร่วมงานผ่านเว็บอินเทอร์เฟซกับแบบ coding agent อิสระ
- มีทั้งงานวิจัยทางเลือกแทน Transformer และการสำรวจความเป็นไปได้ของ AGI ควบคู่กันไป พร้อมมุมมองที่ว่าหลากหลายสถาปัตยกรรมอาจไปถึงปัญญาทั่วไปได้อย่างอิสระ
- เป็นเวลานานที่มีข้ออ้างว่า LLM คือ เครื่องจักรเชิงสถิติ (stochastic parrots) ที่ ไม่เข้าใจความหมาย โดยมี 2 ลักษณะ
- 1. ไม่มีข้อมูลใด ๆ เลยเกี่ยวกับความหมายของพรอมป์ต์
- 2. ไม่มีข้อมูลใด ๆ เลยเกี่ยวกับสิ่งที่ตัวเองกำลังจะพูด
- แต่เมื่อผลลัพธ์เชิงหน้าที่และเบาะแสทางวิทยาศาสตร์สะสมต่อเนื่อง มุมมองนี้ก็ค่อย ๆ สูญเสียพลังในการโน้มน้าว และเมื่อถึงปี 2025 ข้ออ้างนี้ก็แทบหายไปแล้ว
- Chain of Thought(CoT) ได้กลายเป็น เทคนิคหลัก สำหรับยกระดับประสิทธิภาพของ LLM ในปัจจุบัน
- ผลของ CoT คือการดึงข้อมูลและแนวคิดที่เกี่ยวข้องขึ้นมาไว้ในคอนเท็กซ์ เพื่อให้เกิด การสุ่มตัวอย่างในพื้นที่ตัวแทนภายในของโมเดล หรือก็คือการสำรวจภายใน
- เมื่อ ผสานกับการเสริมแรงเรียนรู้ โมเดลจะเรียนรู้ กระบวนการค่อย ๆ ลู่เข้าสู่คำตอบที่เป็นประโยชน์ ผ่านการวางโทเค็นทีละตัวและเปลี่ยนสถานะของโมเดลไปเรื่อย ๆ
- มุมมองเดิมที่ว่าขีดจำกัดของการสเกลถูกกำหนดด้วยจำนวนโทเค็นนั้นใช้ไม่ได้อีกต่อไป
- การนำ การเสริมแรงเรียนรู้บนรางวัลที่ตรวจสอบได้ (RLVR) เข้ามาใช้ ทำให้ขอบเขตของการสเกลขยายออกไป
- ในงานที่มีสัญญาณรางวัลชัดเจน เช่น การปรับปรุงความเร็วของโปรแกรม ในทางทฤษฎีมีความเป็นไปได้ของ การปรับปรุงอย่างต่อเนื่องในระยะยาว
- การพัฒนาการเสริมแรงเรียนรู้ที่นำมาใช้กับ LLM จะกลายเป็น เทคโนโลยีหลักของ AI รุ่นถัดไป
- การต่อต้านของนักพัฒนาต่อ AI ช่วยเขียนโปรแกรม ลดลงอย่างเห็นได้ชัด
- แม้ LLM จะยังทำผิดพลาด แต่ความสามารถในการ ให้โค้ดและคำใบ้ที่เป็นประโยชน์ ดีขึ้นอย่างมาก
- เมื่อ ความคุ้มค่าต่อการลงทุน ชัดเจนขึ้น แม้แต่นักพัฒนาที่เคยกังขาก็เริ่มนำไปใช้
- มีทั้งการใช้ LLM แบบ เพื่อนร่วมงานผ่านเว็บอินเทอร์เฟซ และแบบ coding agent อิสระ ที่อยู่ร่วมกัน
- แม้หลังยุค Transformer ก็ยังมีการรับรู้ในหมู่นักวิทยาศาสตร์ AI ชื่อดังบางส่วนว่าอาจมีจุดทะลุใหม่เกิดขึ้นได้อีก
- มีทีมและบริษัทที่สำรวจทางเลือกแทนทรานส์ฟอร์เมอร์, symbolic representation แบบชัดแจ้ง, และ world model เกิดขึ้น
- มีมุมมองว่า LLM คือ เครื่องจักรที่เรียนรู้ได้แบบดิฟเฟอเรนเชียล ซึ่งถูกฝึกในพื้นที่ที่สามารถประมาณขั้นตอนการให้เหตุผลแบบไม่ต่อเนื่องได้
- มีความคิดว่าแม้ไม่มีพาราไดม์ใหม่อย่างสิ้นเชิง ก็อาจ ไปถึง AGI ผ่าน LLM ได้
- มีความเป็นไปได้ว่า สถาปัตยกรรมที่หลากหลายอาจไปถึงปัญญาประดิษฐ์ทั่วไป (AGI) ได้อย่างอิสระ
- ยังมีการเสนอข้ออ้างว่า Chain of Thought ได้เปลี่ยนธรรมชาติของ LLM ไปแล้ว
- มีปรากฏการณ์ที่ผู้ซึ่งเคยมองว่า LLM มีข้อจำกัด เปลี่ยนจุดยืนหลังจาก CoT ปรากฏขึ้น
- พวกเขาบอกว่าเพราะ CoT ทำให้ LLM เปลี่ยนไปอย่างสิ้นเชิง แต่นั่นไม่จริง
- มันยังคงเป็นสถาปัตยกรรมเดิมและมี เป้าหมายทำนายโทเค็นถัดไป เหมือนเดิม โดย CoT ก็ยังเป็นเพียงกระบวนการสร้างโทเค็นทีละตัวเช่นเดิม
- ในอดีต การทดสอบ ARC เพื่อพิสูจน์ข้อจำกัดของ LLM บัดนี้ได้ เปลี่ยนเป็นตัวชี้วัดที่ใช้ยืนยันประสิทธิภาพของ LLM
- การทดสอบ ARC ไม่ได้ดูเป็นโจทย์ที่เอาชนะไม่ได้อีกต่อไปเหมือนในช่วงแรก
- โมเดลขนาดเล็ก ที่ปรับแต่งมาสำหรับงานเฉพาะได้สร้างผลงานที่มีนัยสำคัญใน ARC-AGI-1
- ด้วยสถาปัตยกรรมที่หลายคนคิดว่าจะไม่สามารถสร้างผลลัพธ์ได้ กลับสามารถ ทำผลงานน่าประทับใจใน ARC-AGI-2 ด้วย LLM ขนาดใหญ่และ CoT อย่างกว้างขวาง
- ในอีก 20 ปีข้างหน้า ความท้าทายที่เป็นรากฐานที่สุดที่ AI จะต้องเผชิญคือ ปัญหาการหลีกเลี่ยงการสูญพันธุ์ของมนุษยชาติ
2 ความคิดเห็น
อ่านคู่กับ รีวิวประจำปี 2025 ของ LLM โดย Andrej Karpathy ก็น่าจะดีครับ
ความคิดเห็นจาก Hacker News
แม้ว่า LLM จะมีประโยชน์มากสำหรับ วิศวกรซอฟต์แวร์ แต่ก็น่ากลัวที่สังคมโดยรวมเชื่อถือผลลัพธ์ของมันมากเพียงใด
นักพัฒนาสามารถรันโค้ดเพื่อตรวจสอบประโยชน์ใช้สอยได้ทันที แต่คนทั่วไปมักเชื่อ ภาพหลอน (hallucination) ว่าเป็นความจริงในด้านที่ตรวจสอบได้ยาก เช่น คำแนะนำทางการแพทย์หรือการใช้ชีวิต
เมื่อเห็นคำอ้างปลอมหรือข่าวเท็จส่งผลต่อการตัดสินใจจริง ก็รู้สึกว่าทุกคนกำลังเมินปัญหาเรื่อง ความรับผิดชอบ (accountability)
ในความเป็นจริงคนเราไม่สามารถถามหมอวันละสิบครั้งได้ และ LLM ก็ให้คำตอบระดับ 80~90% ได้ทันที
ดีกว่าการค้นหาใน Google และที่สำคัญ LLM ไม่ได้ หลอกลวงหรือแสวงหาผลประโยชน์ส่วนตน
มันไม่สมบูรณ์แบบ แต่ก็เป็นทางเลือกที่ใช้งานได้ดีพอ
แต่คนส่วนใหญ่แทบไม่มีโอกาสได้คุยกับผู้เชี่ยวชาญตัวจริง และหลายครั้ง LLM ก็ยังดีกว่าบล็อกหรือฟอรัมอยู่ขั้นหนึ่ง
เช่นเดียวกับคำแนะนำทางการแพทย์ เมื่อคำนึงถึงความจริงที่ว่าการเข้าถึงผู้เชี่ยวชาญต่ำ การใช้ LLM ก็ไม่ได้เป็นเรื่องแย่เสมอไป
ตอนนี้ LLM ยังพยายามให้ข้อมูลที่ค่อนข้างน่าเชื่อถือ แต่ก็น่ากลัวที่โลกยิ่งสับสนขึ้นเรื่อย ๆ และยากจะเข้าใจสถานการณ์จริง
ลิงก์ข่าว
เรื่องจบลงด้วยการขอโทษ แต่ก็ยังสงสัยว่ามี ข้อมูลผิดพลาด มากแค่ไหนที่ส่งผลต่อการตัดสินใจจริงไปแล้ว
จุดที่ต่างจากเสิร์ชเอนจินแบบเดิมคือมันไม่ได้ กดดันให้ merge PR
ในฐานะคนที่เขียนโค้ดมากว่า 30,000 ชั่วโมง รู้สึกว่า LLM มักสร้าง โค้ดแย่ ๆ แต่ก็ยังมีประโยชน์มาก
เคล็ดลับคือคุณต้องรู้อยู่แล้วว่าควรทำอะไรแม้ไม่มี LLM
สุดท้ายก็จะถึงเวลาที่ต้องปรับให้เข้ากับโครงสร้างต้นทุนที่สมจริง
แค่โยนปัญหาไว้แล้วไปทำอย่างอื่นก่อน จากนั้นค่อยกลับมาดูผลลัพธ์
ถ้าต้องลงแรงกับ input มากกว่านี้ มันคงไม่ได้มีประโยชน์ขนาดนี้
สุดท้ายคือมันอ่อนในสภาพตั้งต้น แต่ถ้า นิยามปัญหาดี มันจะกลายเป็นนักออกแบบที่ยอดเยี่ยม
ตอนนี้ก็เริ่มอยากรู้แล้วว่านายจ้างประเมินนักพัฒนาจบใหม่กันอย่างไร
ไม่ชอบคำพูดที่ว่า “โปรแกรมเมอร์ต้าน AI น้อยลงแล้ว”
คำอย่าง ‘ต่อต้าน’ หรือ ‘พวกขี้สงสัย’ ให้ความรู้สึกเหมือนคนเหล่านั้นเป็นฝ่ายผิด
การเปลี่ยนแปลงไม่ได้เกิดเพราะคน แต่เกิดเพราะ เทคโนโลยีพัฒนาขึ้น
ฉันใช้ LLM อย่างมีประโยชน์มากในการสร้างโค้ดหรือค้นหาเอกสาร แต่ไม่ได้เชื่อว่ามันมี สติปัญญา
เหมือนที่ Python ไม่ได้มาแทนที่ Java, LLM ก็จะไม่ทำให้งานหายไป
คำกล่าวสุดโต่งว่า ‘AI จะเหนือกว่าสติปัญญามนุษย์’ ก็ยังไม่ถูกพิสูจน์
ในบรรยากาศที่เหมือนกับว่า “ถ้าไม่รัก AI ก็อาจโดนไล่ออก” ทุกคนก็จำเป็นต้องพูดว่าชอบมัน
ต่อให้เป็นปี 2026 ก็คงยังมีคอมเมนต์ว่า “LLM ไร้ประโยชน์” ไม่ขาด
ฉันใช้มันเบา ๆ เดือนละประมาณ 20 ดอลลาร์ แต่พอแชร์เทคนิคการใช้ก็โดนมองเป็น ‘หน้าม้า AI’
คนที่คิดแบบนี้กำลังเข้าใจผิดจริง ๆ
ตอนนี้เทคโนโลยีพัฒนาขึ้นจน ปรับให้เข้ากับรสนิยมของโปรแกรมเมอร์ ได้แล้ว
คิดว่า LLM ยังทำตาม คำสัญญาเรื่องการเติบโตแบบก้าวกระโดด ในช่วง 2022~2023 ไม่ได้
ความต่างระหว่างปี 2025 กับ 2023 ไม่ได้ใหญ่เท่าความต่างระหว่าง 2023 กับ 2021
ถึงอย่างนั้นมันก็ยังมีประโยชน์ และได้เปลี่ยนวิธีการเขียนซอฟต์แวร์ไปแล้ว
แต่ผู้คนก็ยังยึดติดอยากให้ LLM เป็น มากกว่านั้น
บางคนถึงขั้นตกอยู่ใน อาการหลงผิดจาก AI (psychosis) จนเสียความสัมพันธ์กับมนุษย์ หรือใช้ AI เป็น ที่ปรึกษาถาวร
เอาแค่ ขนาดคอนเท็กซ์ ก็เห็นแล้วว่า GPT‑4 จาก 8K ขยายไปสู่ระดับหลายล้านคำ
ถ้ารวมความสามารถด้านการให้เหตุผลและมัลติโหมดด้วย ความก้าวหน้าก็มหาศาล
ทำไมอนาคตของ AGI ต้องถูกมองว่าเป็นหายนะเสมอ?
อาจเพราะมีเพียง ‘AGI ชั่วร้าย’ เท่านั้นที่ช่วยทำให้ผู้มีอำนาจทางเทคโนโลยีมีความชอบธรรม
LLM ให้ความรู้สึกเหมือนเป็น เทคโนโลยีที่เจาะจิตวิทยามนุษย์ได้อย่างแยบยล
ผู้คนยังไม่มี ความพร้อมทางจิตใจ ที่จะรับมือกับเทคโนโลยีนี้
มันชมผู้ใช้ไม่หยุดเพื่อเอาใจ
แชตบอต ไม่วิจารณ์และเอาแต่ประจบ จึงถูกยกสถานะเป็นที่ปรึกษาส่วนตัวอย่างรวดเร็ว
ให้ความรู้สึกราวกับ ดวงตาแห่งซอรอน ในยุคเทคโนโลยี
เมื่อพูดถึงงานที่มีสัญญาณรางวัลชัดเจนอย่าง “การเพิ่มประสิทธิภาพด้านความเร็ว” แล้วบอกว่า LLM จะพัฒนาต่อไปได้ ก็ทำให้นึกถึง กฎของกูดฮาร์ต (Goodhart's law)
ตาม Goodhart’s law เมื่อค่าที่ใช้วัดกลายเป็นเป้าหมาย มันจะเกิดความบิดเบือน
อาจได้โค้ดที่เร็วขึ้นแต่เข้าใจยาก
LLM ก็น่าจะให้ผลลัพธ์คล้ายกัน
Superoptimization มีมาตั้งแต่ปี 1987 และสร้าง โค้ดที่เร็วแต่ไม่มีใครเข้าใจ
ไม่เห็นด้วยกับคำพูดที่ว่า “โค้ดฟรี”
เบื้องหลังโค้ดที่ LLM สร้างมีดาต้าเซ็นเตอร์ที่ใช้ พลังงาน น้ำ และทรัพยากร
วัฒนธรรม “เขียนโค้ดฟรี” แบบนี้กำลังสร้างความเสียหายจริงต่อโลก
เรื่องนี้ต้องดูบริบทด้วย
ต้องมองตัวเลขแบบสัมพัทธ์
ในความเป็นจริงยังมี ต้นทุนที่ไม่ได้ถูกตีเป็นเงิน อยู่
มีคำวิจารณ์ว่า “นี่ก็แค่ชุดของข้ออ้างที่ไม่มีหลักฐานรองรับ”
ไม่จำเป็นที่ทุกบทความต้องเป็นงานวิชาการ
เป็นเพียงพื้นที่สำหรับแลกเปลี่ยนความเห็น
ไม่เห็นด้วยกับข้ออ้างที่ว่า “LLM ไม่ได้แสดงความหมาย”
กลไก attention ของ Transformer เองก็เป็นโครงสร้างที่สร้างการแทนความหมายหลายชั้น
ยิ่งมีพารามิเตอร์มาก ก็ยิ่งเก็บ representation ได้มากขึ้น
นักวิจัยคงไม่ใช่ฝ่ายที่จะปฏิเสธหลักการพื้นฐานนี้
ฉันเองก็คิดว่าเราอาจ ไปถึง AGI ได้ แม้ไม่มีพาราไดม์ใหม่
ต่อคำวิจารณ์ว่า “มีแต่คำกล่าวอ้างที่ตรวจสอบไม่ได้”
นั่นก็เป็นเพียง บทความที่แสดงความเห็น เท่านั้น
บล็อกก็เป็นพื้นที่แบบนั้นอยู่แล้ว และบางครั้งความคิดเช่นนี้ก็ เปิดมุมมองใหม่ ๆ ได้