21 คะแนน โดย GN⁺ 2025-12-23 | 2 ความคิดเห็น | แชร์ทาง WhatsApp
  • ข้ออ้างที่ว่า LLM เป็นเพียง นกแก้วเชิงสถิติ นั้นแทบหายไปแล้วในปี 2025 และคนส่วนใหญ่ยอมรับว่ามีตัวแทนภายในเกี่ยวกับความหมายของพรอมป์ต์และทิศทางของคำตอบ
  • Chain of Thought(CoT) กลายเป็นเทคนิค แกนหลัก ที่ช่วยยกระดับคุณภาพเอาต์พุตของ LLM ผ่านการผสานการสุ่มตัวอย่างในตัวแทนภายในของโมเดลกับการเรียนรู้โทเค็นแบบลำดับผ่านการเสริมแรงเรียนรู้
  • การเสริมแรงเรียนรู้โดยใช้รางวัลที่ตรวจสอบได้ เปิดทางให้การสเกลก้าวข้ามข้อจำกัดด้านจำนวนโทเค็น และคาดว่าจะเป็นทิศทางพัฒนาหลักถัดไปของ AI
  • การต่อต้านต่อ การช่วยเขียนโปรแกรมด้วย LLM ลดลงอย่างมาก และรูปแบบการใช้งานแยกเป็นแบบร่วมงานผ่านเว็บอินเทอร์เฟซกับแบบ coding agent อิสระ
  • มีทั้งงานวิจัยทางเลือกแทน Transformer และการสำรวจความเป็นไปได้ของ AGI ควบคู่กันไป พร้อมมุมมองที่ว่าหลากหลายสถาปัตยกรรมอาจไปถึงปัญญาทั่วไปได้อย่างอิสระ

  • เป็นเวลานานที่มีข้ออ้างว่า LLM คือ เครื่องจักรเชิงสถิติ (stochastic parrots) ที่ ไม่เข้าใจความหมาย โดยมี 2 ลักษณะ
    • 1. ไม่มีข้อมูลใด ๆ เลยเกี่ยวกับความหมายของพรอมป์ต์
    • 2. ไม่มีข้อมูลใด ๆ เลยเกี่ยวกับสิ่งที่ตัวเองกำลังจะพูด
  • แต่เมื่อผลลัพธ์เชิงหน้าที่และเบาะแสทางวิทยาศาสตร์สะสมต่อเนื่อง มุมมองนี้ก็ค่อย ๆ สูญเสียพลังในการโน้มน้าว และเมื่อถึงปี 2025 ข้ออ้างนี้ก็แทบหายไปแล้ว
  • Chain of Thought(CoT) ได้กลายเป็น เทคนิคหลัก สำหรับยกระดับประสิทธิภาพของ LLM ในปัจจุบัน
  • ผลของ CoT คือการดึงข้อมูลและแนวคิดที่เกี่ยวข้องขึ้นมาไว้ในคอนเท็กซ์ เพื่อให้เกิด การสุ่มตัวอย่างในพื้นที่ตัวแทนภายในของโมเดล หรือก็คือการสำรวจภายใน
  • เมื่อ ผสานกับการเสริมแรงเรียนรู้ โมเดลจะเรียนรู้ กระบวนการค่อย ๆ ลู่เข้าสู่คำตอบที่เป็นประโยชน์ ผ่านการวางโทเค็นทีละตัวและเปลี่ยนสถานะของโมเดลไปเรื่อย ๆ
  • มุมมองเดิมที่ว่าขีดจำกัดของการสเกลถูกกำหนดด้วยจำนวนโทเค็นนั้นใช้ไม่ได้อีกต่อไป
  • การนำ การเสริมแรงเรียนรู้บนรางวัลที่ตรวจสอบได้ (RLVR) เข้ามาใช้ ทำให้ขอบเขตของการสเกลขยายออกไป
  • ในงานที่มีสัญญาณรางวัลชัดเจน เช่น การปรับปรุงความเร็วของโปรแกรม ในทางทฤษฎีมีความเป็นไปได้ของ การปรับปรุงอย่างต่อเนื่องในระยะยาว
  • การพัฒนาการเสริมแรงเรียนรู้ที่นำมาใช้กับ LLM จะกลายเป็น เทคโนโลยีหลักของ AI รุ่นถัดไป
  • การต่อต้านของนักพัฒนาต่อ AI ช่วยเขียนโปรแกรม ลดลงอย่างเห็นได้ชัด
  • แม้ LLM จะยังทำผิดพลาด แต่ความสามารถในการ ให้โค้ดและคำใบ้ที่เป็นประโยชน์ ดีขึ้นอย่างมาก
  • เมื่อ ความคุ้มค่าต่อการลงทุน ชัดเจนขึ้น แม้แต่นักพัฒนาที่เคยกังขาก็เริ่มนำไปใช้
  • มีทั้งการใช้ LLM แบบ เพื่อนร่วมงานผ่านเว็บอินเทอร์เฟซ และแบบ coding agent อิสระ ที่อยู่ร่วมกัน
  • แม้หลังยุค Transformer ก็ยังมีการรับรู้ในหมู่นักวิทยาศาสตร์ AI ชื่อดังบางส่วนว่าอาจมีจุดทะลุใหม่เกิดขึ้นได้อีก
    • มีทีมและบริษัทที่สำรวจทางเลือกแทนทรานส์ฟอร์เมอร์, symbolic representation แบบชัดแจ้ง, และ world model เกิดขึ้น
  • มีมุมมองว่า LLM คือ เครื่องจักรที่เรียนรู้ได้แบบดิฟเฟอเรนเชียล ซึ่งถูกฝึกในพื้นที่ที่สามารถประมาณขั้นตอนการให้เหตุผลแบบไม่ต่อเนื่องได้
  • มีความคิดว่าแม้ไม่มีพาราไดม์ใหม่อย่างสิ้นเชิง ก็อาจ ไปถึง AGI ผ่าน LLM ได้
  • มีความเป็นไปได้ว่า สถาปัตยกรรมที่หลากหลายอาจไปถึงปัญญาประดิษฐ์ทั่วไป (AGI) ได้อย่างอิสระ
  • ยังมีการเสนอข้ออ้างว่า Chain of Thought ได้เปลี่ยนธรรมชาติของ LLM ไปแล้ว
  • มีปรากฏการณ์ที่ผู้ซึ่งเคยมองว่า LLM มีข้อจำกัด เปลี่ยนจุดยืนหลังจาก CoT ปรากฏขึ้น
  • พวกเขาบอกว่าเพราะ CoT ทำให้ LLM เปลี่ยนไปอย่างสิ้นเชิง แต่นั่นไม่จริง
  • มันยังคงเป็นสถาปัตยกรรมเดิมและมี เป้าหมายทำนายโทเค็นถัดไป เหมือนเดิม โดย CoT ก็ยังเป็นเพียงกระบวนการสร้างโทเค็นทีละตัวเช่นเดิม
  • ในอดีต การทดสอบ ARC เพื่อพิสูจน์ข้อจำกัดของ LLM บัดนี้ได้ เปลี่ยนเป็นตัวชี้วัดที่ใช้ยืนยันประสิทธิภาพของ LLM
  • การทดสอบ ARC ไม่ได้ดูเป็นโจทย์ที่เอาชนะไม่ได้อีกต่อไปเหมือนในช่วงแรก
  • โมเดลขนาดเล็ก ที่ปรับแต่งมาสำหรับงานเฉพาะได้สร้างผลงานที่มีนัยสำคัญใน ARC-AGI-1
  • ด้วยสถาปัตยกรรมที่หลายคนคิดว่าจะไม่สามารถสร้างผลลัพธ์ได้ กลับสามารถ ทำผลงานน่าประทับใจใน ARC-AGI-2 ด้วย LLM ขนาดใหญ่และ CoT อย่างกว้างขวาง
  • ในอีก 20 ปีข้างหน้า ความท้าทายที่เป็นรากฐานที่สุดที่ AI จะต้องเผชิญคือ ปัญหาการหลีกเลี่ยงการสูญพันธุ์ของมนุษยชาติ

2 ความคิดเห็น

 
xguru 2025-12-23

อ่านคู่กับ รีวิวประจำปี 2025 ของ LLM โดย Andrej Karpathy ก็น่าจะดีครับ

 
GN⁺ 2025-12-23
ความคิดเห็นจาก Hacker News
  • แม้ว่า LLM จะมีประโยชน์มากสำหรับ วิศวกรซอฟต์แวร์ แต่ก็น่ากลัวที่สังคมโดยรวมเชื่อถือผลลัพธ์ของมันมากเพียงใด
    นักพัฒนาสามารถรันโค้ดเพื่อตรวจสอบประโยชน์ใช้สอยได้ทันที แต่คนทั่วไปมักเชื่อ ภาพหลอน (hallucination) ว่าเป็นความจริงในด้านที่ตรวจสอบได้ยาก เช่น คำแนะนำทางการแพทย์หรือการใช้ชีวิต
    เมื่อเห็นคำอ้างปลอมหรือข่าวเท็จส่งผลต่อการตัดสินใจจริง ก็รู้สึกว่าทุกคนกำลังเมินปัญหาเรื่อง ความรับผิดชอบ (accountability)

    • แก่นของปัญหาคือการ ขาดแคลนผู้เชี่ยวชาญ
      ในความเป็นจริงคนเราไม่สามารถถามหมอวันละสิบครั้งได้ และ LLM ก็ให้คำตอบระดับ 80~90% ได้ทันที
      ดีกว่าการค้นหาใน Google และที่สำคัญ LLM ไม่ได้ หลอกลวงหรือแสวงหาผลประโยชน์ส่วนตน
      มันไม่สมบูรณ์แบบ แต่ก็เป็นทางเลือกที่ใช้งานได้ดีพอ
    • แม้แต่ในสาย เครือข่ายคอมพิวเตอร์ ที่ฉันรู้ดี LLM ก็มักให้คำตอบที่ดูน่าเชื่อแต่ผิด
      แต่คนส่วนใหญ่แทบไม่มีโอกาสได้คุยกับผู้เชี่ยวชาญตัวจริง และหลายครั้ง LLM ก็ยังดีกว่าบล็อกหรือฟอรัมอยู่ขั้นหนึ่ง
      เช่นเดียวกับคำแนะนำทางการแพทย์ เมื่อคำนึงถึงความจริงที่ว่าการเข้าถึงผู้เชี่ยวชาญต่ำ การใช้ LLM ก็ไม่ได้เป็นเรื่องแย่เสมอไป
    • ในโลกทุกวันนี้รู้สึกว่ายากจะเชื่อถือแหล่งข้อมูลที่มี แรงจูงใจด้านกำไร
      ตอนนี้ LLM ยังพยายามให้ข้อมูลที่ค่อนข้างน่าเชื่อถือ แต่ก็น่ากลัวที่โลกยิ่งสับสนขึ้นเรื่อย ๆ และยากจะเข้าใจสถานการณ์จริง
    • มีกรณีที่นักการเมืองสวีเดน Ebba Busch ใช้ LLM เขียนสุนทรพจน์แล้วใส่คำพูดปลอมลงไป
      ลิงก์ข่าว
      เรื่องจบลงด้วยการขอโทษ แต่ก็ยังสงสัยว่ามี ข้อมูลผิดพลาด มากแค่ไหนที่ส่งผลต่อการตัดสินใจจริงไปแล้ว
    • โค้ดเองก็ดูเหมือนถูกแต่ผิดอย่างแนบเนียนได้
      จุดที่ต่างจากเสิร์ชเอนจินแบบเดิมคือมันไม่ได้ กดดันให้ merge PR
  • ในฐานะคนที่เขียนโค้ดมากว่า 30,000 ชั่วโมง รู้สึกว่า LLM มักสร้าง โค้ดแย่ ๆ แต่ก็ยังมีประโยชน์มาก
    เคล็ดลับคือคุณต้องรู้อยู่แล้วว่าควรทำอะไรแม้ไม่มี LLM

    • ในเชิงเศรษฐกิจ ตอนนี้แทบไม่มีบริษัท AI ไหนทำกำไรได้จาก ต้นทุนการอนุมาน (inference cost) เพียงอย่างเดียว และดูเหมือนความก้าวหน้าทางเทคโนโลยีก็เริ่มเข้าสู่ช่วง ชะงักงัน
      สุดท้ายก็จะถึงเวลาที่ต้องปรับให้เข้ากับโครงสร้างต้นทุนที่สมจริง
    • การใช้ LLM แทบให้ความรู้สึกเหมือน “การลงมือที่ฟรี”
      แค่โยนปัญหาไว้แล้วไปทำอย่างอื่นก่อน จากนั้นค่อยกลับมาดูผลลัพธ์
      ถ้าต้องลงแรงกับ input มากกว่านี้ มันคงไม่ได้มีประโยชน์ขนาดนี้
    • ถ้าให้โมเดลล่าสุดไปสร้างฟีเจอร์ตรง ๆ โครงสร้างมักไม่ดีนัก แต่ถ้าขอ คำแนะนำด้านสถาปัตยกรรม มันกลับให้คำตอบที่ยอดเยี่ยม
      สุดท้ายคือมันอ่อนในสภาพตั้งต้น แต่ถ้า นิยามปัญหาดี มันจะกลายเป็นนักออกแบบที่ยอดเยี่ยม
    • แต่ก็สงสัยว่าอีก 10 ปีข้างหน้า จะยังเหลือโปรแกรมเมอร์ที่เข้าใจข้อจำกัดพวกนี้อยู่มากแค่ไหน
      ตอนนี้ก็เริ่มอยากรู้แล้วว่านายจ้างประเมินนักพัฒนาจบใหม่กันอย่างไร
  • ไม่ชอบคำพูดที่ว่า “โปรแกรมเมอร์ต้าน AI น้อยลงแล้ว”
    คำอย่าง ‘ต่อต้าน’ หรือ ‘พวกขี้สงสัย’ ให้ความรู้สึกเหมือนคนเหล่านั้นเป็นฝ่ายผิด
    การเปลี่ยนแปลงไม่ได้เกิดเพราะคน แต่เกิดเพราะ เทคโนโลยีพัฒนาขึ้น

    • คำว่า ‘พวกขี้สงสัย’ เองก็คลุมเครือ
      ฉันใช้ LLM อย่างมีประโยชน์มากในการสร้างโค้ดหรือค้นหาเอกสาร แต่ไม่ได้เชื่อว่ามันมี สติปัญญา
      เหมือนที่ Python ไม่ได้มาแทนที่ Java, LLM ก็จะไม่ทำให้งานหายไป
      คำกล่าวสุดโต่งว่า ‘AI จะเหนือกว่าสติปัญญามนุษย์’ ก็ยังไม่ถูกพิสูจน์
    • เหตุผลหนึ่งที่การต่อต้านลดลงคือ แรงกดดันจากผู้บริหาร
      ในบรรยากาศที่เหมือนกับว่า “ถ้าไม่รัก AI ก็อาจโดนไล่ออก” ทุกคนก็จำเป็นต้องพูดว่าชอบมัน
    • ฝั่ง ต่อต้าน AI ก็ยังเคลื่อนไหวอยู่มาก
      ต่อให้เป็นปี 2026 ก็คงยังมีคอมเมนต์ว่า “LLM ไร้ประโยชน์” ไม่ขาด
      ฉันใช้มันเบา ๆ เดือนละประมาณ 20 ดอลลาร์ แต่พอแชร์เทคนิคการใช้ก็โดนมองเป็น ‘หน้าม้า AI’
    • ข้ออ้างว่า “LLM ก็เป็นแค่ตัวทำนายโทเคนตัวถัดไป” เป็นมุมมองที่ ผิดอย่างชัดเจน
      คนที่คิดแบบนี้กำลังเข้าใจผิดจริง ๆ
    • ถ้าย้อนไปดู เธรด vibe coding เมื่อ 10 เดือนก่อน จะเห็นได้ว่าตอนนั้น แรงต้าน สูงแค่ไหน
      ตอนนี้เทคโนโลยีพัฒนาขึ้นจน ปรับให้เข้ากับรสนิยมของโปรแกรมเมอร์ ได้แล้ว
  • คิดว่า LLM ยังทำตาม คำสัญญาเรื่องการเติบโตแบบก้าวกระโดด ในช่วง 2022~2023 ไม่ได้
    ความต่างระหว่างปี 2025 กับ 2023 ไม่ได้ใหญ่เท่าความต่างระหว่าง 2023 กับ 2021
    ถึงอย่างนั้นมันก็ยังมีประโยชน์ และได้เปลี่ยนวิธีการเขียนซอฟต์แวร์ไปแล้ว
    แต่ผู้คนก็ยังยึดติดอยากให้ LLM เป็น มากกว่านั้น
    บางคนถึงขั้นตกอยู่ใน อาการหลงผิดจาก AI (psychosis) จนเสียความสัมพันธ์กับมนุษย์ หรือใช้ AI เป็น ที่ปรึกษาถาวร

    • การบอกว่า “ความต่างระหว่าง 2025 กับ 2023 ไม่ได้มาก” นั้น ไร้สาระ
      เอาแค่ ขนาดคอนเท็กซ์ ก็เห็นแล้วว่า GPT‑4 จาก 8K ขยายไปสู่ระดับหลายล้านคำ
      ถ้ารวมความสามารถด้านการให้เหตุผลและมัลติโหมดด้วย ความก้าวหน้าก็มหาศาล
    • สมมติฐานเชิงสมคบคิด ของฉันคือแนวคิดวันสิ้นโลกแบบ AGI มีรากมาจาก ความคิดแบบชนชั้นนำ
      ทำไมอนาคตของ AGI ต้องถูกมองว่าเป็นหายนะเสมอ?
      อาจเพราะมีเพียง ‘AGI ชั่วร้าย’ เท่านั้นที่ช่วยทำให้ผู้มีอำนาจทางเทคโนโลยีมีความชอบธรรม
  • LLM ให้ความรู้สึกเหมือนเป็น เทคโนโลยีที่เจาะจิตวิทยามนุษย์ได้อย่างแยบยล
    ผู้คนยังไม่มี ความพร้อมทางจิตใจ ที่จะรับมือกับเทคโนโลยีนี้

    • ChatGPT และ Claude Code เหมือน เครื่องจักรประจบสอพลอระดับอุตสาหกรรม แบบตรงตัว
      มันชมผู้ใช้ไม่หยุดเพื่อเอาใจ
    • ปัญหานี้เป็นสิ่งที่รู้กันอยู่แล้ว
      แชตบอต ไม่วิจารณ์และเอาแต่ประจบ จึงถูกยกสถานะเป็นที่ปรึกษาส่วนตัวอย่างรวดเร็ว
      ให้ความรู้สึกราวกับ ดวงตาแห่งซอรอน ในยุคเทคโนโลยี
  • เมื่อพูดถึงงานที่มีสัญญาณรางวัลชัดเจนอย่าง “การเพิ่มประสิทธิภาพด้านความเร็ว” แล้วบอกว่า LLM จะพัฒนาต่อไปได้ ก็ทำให้นึกถึง กฎของกูดฮาร์ต (Goodhart's law)
    ตาม Goodhart’s law เมื่อค่าที่ใช้วัดกลายเป็นเป้าหมาย มันจะเกิดความบิดเบือน
    อาจได้โค้ดที่เร็วขึ้นแต่เข้าใจยาก

    • แม้แต่มนุษย์เองเวลา optimize ก็มักทำให้ ความอ่านง่ายและการบำรุงรักษา แย่ลง
      LLM ก็น่าจะให้ผลลัพธ์คล้ายกัน
    • จริง ๆ แล้วแนวทางนี้ไม่ใช่เรื่องใหม่
      Superoptimization มีมาตั้งแต่ปี 1987 และสร้าง โค้ดที่เร็วแต่ไม่มีใครเข้าใจ
    • ท้ายที่สุด ถ้าโครงสร้างมันโอเคพอประมาณ ก็เหมือนเราได้ เคอร์เนลที่ไม่ต้องไปแตะต้อง
  • ไม่เห็นด้วยกับคำพูดที่ว่า “โค้ดฟรี”
    เบื้องหลังโค้ดที่ LLM สร้างมีดาต้าเซ็นเตอร์ที่ใช้ พลังงาน น้ำ และทรัพยากร
    วัฒนธรรม “เขียนโค้ดฟรี” แบบนี้กำลังสร้างความเสียหายจริงต่อโลก

    • แต่ในสหรัฐฯ การ ปลูกข้าวโพด ใช้น้ำมากกว่าดาต้าเซ็นเตอร์ AI ทั่วโลกถึง 80 เท่า
      เรื่องนี้ต้องดูบริบทด้วย
    • ถ้าอย่างนั้นเมื่อเทียบกับสิ่งที่เราทำในชีวิตประจำวันอย่าง ขับรถ อาบน้ำ กินเนื้อสัตว์ หรือขึ้นเครื่องบิน ล่ะ?
      ต้องมองตัวเลขแบบสัมพัทธ์
    • คำว่า “ฟรี” หมายถึงแค่ ไม่มีต้นทุนแรงงานคน เท่านั้น
      ในความเป็นจริงยังมี ต้นทุนที่ไม่ได้ถูกตีเป็นเงิน อยู่
  • มีคำวิจารณ์ว่า “นี่ก็แค่ชุดของข้ออ้างที่ไม่มีหลักฐานรองรับ”

    • แต่เดิมทีบล็อกก็คือ รูปแบบการเขียนเพื่อบันทึกความคิดส่วนตัว
      ไม่จำเป็นที่ทุกบทความต้องเป็นงานวิชาการ
    • ผู้เขียนคือ ผู้ก่อตั้ง Redis แม้ไม่ใช่นักวิจัย AI แต่ก็เป็น โปรแกรมเมอร์ที่มีชื่อเสียง มากพอ
    • สุดท้ายแล้วนี่ก็เป็นบล็อกชื่อ “Reflections
      เป็นเพียงพื้นที่สำหรับแลกเปลี่ยนความเห็น
    • ดังนั้นสิ่งที่สำคัญกว่าคือ คุณ เชื่ออะไร และคิดอย่างไร เกี่ยวกับบทความนี้
  • ไม่เห็นด้วยกับข้ออ้างที่ว่า “LLM ไม่ได้แสดงความหมาย”
    กลไก attention ของ Transformer เองก็เป็นโครงสร้างที่สร้างการแทนความหมายหลายชั้น
    ยิ่งมีพารามิเตอร์มาก ก็ยิ่งเก็บ representation ได้มากขึ้น
    นักวิจัยคงไม่ใช่ฝ่ายที่จะปฏิเสธหลักการพื้นฐานนี้
    ฉันเองก็คิดว่าเราอาจ ไปถึง AGI ได้ แม้ไม่มีพาราไดม์ใหม่

    • แต่ก็อาจเป็นเพียง ความสับสนเชิงแนวคิด ที่เกิดจากแต่ละคนเข้าใจคำว่า “ความหมาย” ไม่เหมือนกัน
  • ต่อคำวิจารณ์ว่า “มีแต่คำกล่าวอ้างที่ตรวจสอบไม่ได้”
    นั่นก็เป็นเพียง บทความที่แสดงความเห็น เท่านั้น
    บล็อกก็เป็นพื้นที่แบบนั้นอยู่แล้ว และบางครั้งความคิดเช่นนี้ก็ เปิดมุมมองใหม่ ๆ ได้