5 คะแนน โดย GN⁺ 2025-07-07 | 4 ความคิดเห็น | แชร์ทาง WhatsApp
  • ผู้เขียนมองว่า AGI (ปัญญาประดิษฐ์ทั่วไป) จะยังไม่ปรากฏขึ้นในอนาคตอันใกล้
  • แม้ LLM (โมเดลภาษาขนาดใหญ่) จะแสดงความสามารถที่น่าทึ่ง แต่ยังขาดความสามารถในการ เรียนรู้อย่างต่อเนื่อง และค่อย ๆ พัฒนาตัวเองเหมือนมนุษย์
  • LLM ในปัจจุบันยังมีข้อจำกัดในการปรับให้เข้ากับ ฟีดแบ็กจากผู้ใช้ หรือสะสมบริบทได้ดีพอ และนี่เป็นอุปสรรคสำคัญต่อการทำงานอัตโนมัติในงานออฟฟิศจริง
  • ความท้าทายในโลกจริง เช่น การใช้งานคอมพิวเตอร์และข้อมูลมัลติโมดัล นั้นคาดว่าจะพัฒนาได้ช้า เนื่องจากการขาดแคลนข้อมูล ระยะเวลาการทำงานที่ยาว และความยากทางเทคนิค
  • ในระยะยาว ผู้เขียนคาดว่าเมื่อ การเรียนรู้ออนไลน์เกิดขึ้นได้จริง จะเกิดการเปลี่ยนแปลงอย่างรวดเร็วมาก แต่ยังไม่เห็นว่าจะทำได้ง่าย ๆ ภายใน 10 ปีข้างหน้า

บทนำและการถกเถียงเรื่องช่วงเวลาของ AGI

  • ผู้เขียนนำเสนอมุมมองของตนเอง โดยอิงจากประสบการณ์ที่เคยพูดคุยกับผู้เชี่ยวชาญหลากหลายคนเกี่ยวกับช่วงเวลาที่ AGI จะมาถึง
  • บางคนคาดว่า AGI จะมาในอีก 2 ปี หรืออีก 20 ปี แต่ ณ เดือนมิถุนายน 2025 ผู้เขียนยังไม่คิดว่า AGI จะมาถึงในเร็ว ๆ นี้

ข้อจำกัดของการเรียนรู้อย่างต่อเนื่อง (Continual Learning)

  • หลายคนมองว่าเทคโนโลยี AI ปัจจุบันเพียงอย่างเดียวก็ เปลี่ยนแปลงเศรษฐกิจได้มากกว่าอินเทอร์เน็ต แล้ว แต่ผู้เขียนไม่เห็นด้วย
  • เหตุผลที่บริษัทใน Fortune 500 ยังไม่สามารถใช้ LLM เพื่อพลิกโฉมการทำงานอย่างถึงราก ไม่ใช่เพราะผู้บริหารอนุรักษนิยม แต่เป็นเพราะ AI ปัจจุบัน ขาดการเรียนรู้อย่างต่อเนื่อง
  • จากการที่ผู้เขียนสร้างและใช้งานเครื่องมือที่อิงกับ LLM ด้วยตนเองหลายตัว พบว่า LLM ทำงานซ้ำ ๆ ได้ประมาณ 5/10 แต่ขาดความสามารถในการค่อย ๆ ปรับปรุงตัวเอง
  • มนุษย์สามารถพัฒนาผลิตภาพผ่านการสร้างบริบท การวิเคราะห์ความล้มเหลวของตนเอง และการเรียนรู้การปรับปรุงเล็ก ๆ น้อย ๆ ผ่านการทำซ้ำ แต่ LLM ไม่มีเส้นทางส่งผ่านฟีดแบ็กระดับสูง และไม่สามารถ “เรียนรู้” แบบมนุษย์ได้ด้วยการปรับพรอมป์ต์เพียงอย่างเดียว
  • แม้จะมีการ fine-tune แบบ RL (RLHF) แต่ก็ยังห่างไกลจากการเรียนรู้ที่ ปรับตัวได้และเป็นธรรมชาติแบบมนุษย์ และนี่เป็นข้อจำกัดชี้ขาดต่อการทำงานอัตโนมัติในภาคปฏิบัติ
  • วิธีที่โมเดล AI จะเติบโตเหมือนพนักงานมนุษย์ โดย สะสมและจดจำบริบทที่เข้มข้นระหว่างการทำงาน ยังไม่มีแนวทางที่ชัดเจนพอ
  • ภายในเซสชันอาจมีการเรียนรู้บริบทบางส่วนได้ แต่ เมื่อจบเซสชัน บริบทที่เรียนรู้ทั้งหมดก็หายไป
  • มีความพยายามใช้แนวทางอย่างหน่วยความจำระยะยาว (rolling context window) แต่ การสรุปความรู้เชิงประสบการณ์ที่เข้มข้นนั้นเปราะบาง และยิ่งทำงานได้ไม่มีประสิทธิภาพมากขึ้นนอกโดเมนที่อิงข้อความ
  • แม้ การพัฒนา AI จะหยุดนิ่งอยู่ที่ระดับปัจจุบัน งานออฟฟิศจำนวนมากก็ยังแทนที่ด้วยเทคโนโลยีนี้ได้ยาก เพราะความสามารถในการเรียนรู้บริบทของมนุษย์ยังเป็นจุดแข็งในการแข่งขัน
  • กล่าวคือ มูลค่าของ AI จะพุ่งขึ้นแบบไม่ต่อเนื่องก็ต่อเมื่อเทคโนโลยีการเรียนรู้อย่างต่อเนื่องถูกทำให้เกิดขึ้นจริง และท้ายที่สุด หากเทคโนโลยีนี้เป็นไปได้ ก็อาจนำไปสู่ซูเปอร์อินเทลลิเจนซ์ที่พัฒนาเร็วกว่ามนุษย์ผ่าน การแบ่งปันการเรียนรู้ระหว่างหลายอินสแตนซ์
  • อย่างไรก็ตาม ห้องแล็บต่าง ๆ ก็มีแรงจูงใจสูงที่จะปล่อยเวอร์ชันที่ยังไม่สมบูรณ์ออกมาก่อนเทคโนโลยีจะเสร็จสมบูรณ์ ดังนั้นผู้เขียนจึงคาดว่า จะมีสัญญาณล่วงหน้าก่อนการก้าวกระโดดครั้งแท้จริงของการเรียนรู้อย่างต่อเนื่อง

ความยากเชิงปฏิบัติของการใช้งานคอมพิวเตอร์และระบบอัตโนมัติ

  • จากการสนทนากับนักวิจัยของ Anthropic ผู้เขียนได้ยินการคาดการณ์ว่า ภายในปลายปี 2026 จะมีเอเจนต์ที่ใช้งานคอมพิวเตอร์ได้อย่างน่าเชื่อถือสูง แต่ผู้เขียนยังสงสัยในเรื่องนี้
  • ปัจจุบันก็มีเอเจนต์สำหรับใช้งานคอมพิวเตอร์อยู่แล้ว แต่ ประสิทธิภาพยังต่ำเกินกว่าจะใช้งานจริงได้ดี
  • หากต้องการทำงานจริงอย่างการยื่นภาษีแบบอัตโนมัติ จำเป็นต้องมี หลายระบบ การรันเอเจนต์เป็นเวลานาน และการประมวลผลข้อมูลมัลติโมดัลหลากหลายรูปแบบ ซึ่งทำให้กระบวนการฝึกและตรวจสอบช้ามาก
  • ต่างจากข้อมูล pretraining แบบข้อความที่มีอยู่เดิมจำนวนมาก (เช่น เอกสารอินเทอร์เน็ตปริมาณมหาศาลที่ใช้กับโมเดลภาษา) ชุดข้อมูลสำหรับการใช้งานคอมพิวเตอร์แบบมัลติโมดัลยังขาดแคลน จึงคาดว่าการพัฒนาเอเจนต์ที่เชื่อถือได้จะต้องใช้เวลา
  • แม้จะมีการเสนออัลกอริทึมใหม่ที่ก้าวล้ำ แต่กว่าจะนำไปใช้จริงใน ภาคสนาม ก็ยังต้องอาศัยการปรับจูนทางวิศวกรรมอีกหลายปี ทำให้ความก้าวหน้าในโจทย์การใช้งานคอมพิวเตอร์น่าจะค่อนข้างช้า

การยกระดับความสามารถในการให้เหตุผลและข้อจำกัด

  • โมเดลรุ่นใหม่อย่าง Gemini 2.5 แสดงความสามารถในการให้เหตุผลจริงในด้านต่าง ๆ เช่น การตีความเจตนาของผู้พูด การตรวจสอบตัวเองเชิงตรรกะ และการตอบสนองตามบริบท
  • Claude Code และเครื่องมือคล้ายกันสามารถสร้างโค้ดที่ทำงานได้อย่างรวดเร็วจากสเปกที่กำหนดเพียงอย่างเดียว แสดงให้เห็นอย่างชัดเจนถึง เค้าลางของ “ปัญญาทั่วไป” ระดับเริ่มต้นในหลายโดเมน
  • ในโดเมนที่โมเดล LLM ระดับแนวหน้าสามารถแสดงศักยภาพได้ ก็มี ผลงานที่น่าประทับใจพอสมควร

การคาดการณ์ AI/AGI ระยะสั้นและระยะยาว

  • ผู้เขียนเน้นว่าตนมองการคาดการณ์เหล่านี้ในเชิงความน่าจะเป็น จึงยังเห็นว่าการเตรียมมาตรการรับมือเป็นเรื่องสมเหตุสมผล
  • ผู้เขียนยินดีเดิมพันด้วยความน่าจะเป็น 50% กับประเด็นต่อไปนี้
    • ภายในปี 2028: AI อาจไปถึงระดับที่สามารถจัดการกระบวนการยื่นภาษีทั้งหมดของธุรกิจขนาดเล็กได้แบบครบวงจร
      • ความสามารถในการใช้งานคอมพิวเตอร์ในปัจจุบันยังอยู่ราวระดับ GPT-2 และด้วยปัญหาขาดข้อมูลรวมถึง time horizon ที่ยาว ทำให้การปรับให้เหมาะสมทำได้ยาก
      • แม้จะมีเดโมที่น่าตื่นตาออกมาในปี 2026~2027 แต่ผู้เขียนคาดว่า การทำงานซับซ้อนระยะยาวได้อย่างอัตโนมัติเต็มรูปแบบยังเป็นเรื่องยาก
    • ภายในปี 2032: AI อาจไปถึงจุดที่เรียนรู้ระหว่างทำงานได้อย่างเป็นธรรมชาติและค่อยเป็นค่อยไปเหมือนมนุษย์ จนหลังจากปรับตัวในงานจริงอยู่หลายเดือน ก็สามารถซึมซับบริบท ความชอบ และเคล็ดลับการทำงานได้เทียบเท่ามนุษย์
      • แม้ตอนนี้ยังไม่เห็นสัญญาณว่าการเรียนรู้ออนไลน์แบบต่อเนื่องใกล้เกิดขึ้น แต่ในช่วงเวลา 7 ปี ก็อาจมีการค้นพบที่เป็นการทะลุข้อจำกัดอย่างแท้จริง

ปัจจัยจำกัดความก้าวหน้าของ AI และแนวโน้มอนาคต

  • ช่วงเวลาที่ AGI จะเกิดขึ้นจริงนั้น กระจายตัวกว้างมากในเชิงความน่าจะเป็น (lognormal) และความก้าวหน้าของ AI ในช่วง 10 ปีที่ผ่านมาเกี่ยวข้องอย่างใกล้ชิดกับการเพิ่มขึ้นของพลังประมวลผล (training compute)
  • การเพิ่มพลังประมวลผลคาดว่าจะ ชนข้อจำกัดหลังปี 2030 และนวัตกรรมด้านอัลกอริทึมจะกลายเป็นคอขวด
  • หากไม่มีการเปลี่ยนกระบวนทัศน์ครั้งใหญ่ ความน่าจะเป็นที่ AGI จะปรากฏในแต่ละปีอาจลดลงเรื่อย ๆ ตามเวลา
  • หากการเดิมพันฝั่ง “ใช้เวลานาน” เป็นจริง ก็มีความเป็นไปได้ว่า โลกในชีวิตประจำวันอาจไม่เปลี่ยนไปมากนักจนถึงช่วงปี 2030~2040 แต่ในทางกลับกัน หากข้อจำกัดของ AI ปัจจุบันถูกฝ่าไปได้ ก็อาจเกิดการเปลี่ยนแปลงที่รุนแรงมาก

4 ความคิดเห็น

 
mirea0 2025-07-08

ผมคิดว่า AGI จะไม่เกิดขึ้นจริงเพราะมีข้อจำกัดทางกายภาพทั้งในด้านความต่อเนื่องและการเรียนรู้
พูดตามตรงคือมีข้อจำกัดทางกายภาพจริง ๆ ไม่ใช่เพราะเทคโนโลยียังไม่ก้าวหน้าพอ
และถ้าก้าวไปอีกขั้นในฐานะ AGI โดยไม่ตั้งข้อจำกัดเหล่านั้นไว้ ตอนนั้นก็จะยากที่จะย้อนกลับ อีกทั้งผมคิดว่านักพัฒนา AI เองก็รู้เรื่องนั้นดี จึงพัฒนาไปในทางที่ปรับให้เหมาะกับบริการเท่านั้น มากกว่าจะพยายามปลดข้อจำกัดเหล่านั้น

 
iolothebard 2025-07-08

ฉันเห็นด้วยกับคุณอย่างยิ่ง!

 
GN⁺ 2025-07-07
ความเห็นจาก Hacker News
  • “ผมคิดว่าประเด็นสำคัญมากจริง ๆ คือ LLM มีปัญหาพื้นฐานตรงที่มันไม่ได้ค่อย ๆ ดีขึ้นแบบมนุษย์เมื่อเวลาผ่านไป ความสามารถพื้นฐานของ LLM อาจสูงกว่ามนุษย์โดยเฉลี่ยในหลายงาน แต่ปัญหาคือไม่มีวิธีให้ฟีดแบ็กระดับสูงกับโมเดลเลย ทำให้มันพัฒนาเกินกว่าสภาพตอนแกะออกจากกล่องไม่ได้ มองว่านี่เป็นข้อจำกัดที่พบได้บ่อยในโครงข่ายประสาท ระบบอย่าง Driver ของ Waymo เลี่ยงปัญหานี้ได้ เช่น ถ้าเกิดปัญหาระหว่างวิ่ง Waymo จะรันซิมูเลชันหลากหลายแบบ แปลงสถานการณ์ปัญหาออกมาเป็นหลายรูปแบบ แล้วนำกลับไปฝึก Driver ใหม่ แม้จะไม่ได้เปิดเผยวิธีที่แน่ชัด แต่ก็เคยพูดว่านี่เป็นโครงสร้างที่ต่างจากโครงข่ายประสาทแบบ end-to-end โปรเจ็กต์ภายในของ Waymo เคยลองโครงข่ายประสาทแบบ end-to-end แล้ว แต่ผลไม่ดีกว่าระบบปัจจุบัน จึงใช้สิ่งอื่นอยู่ตอนนี้ และมีคนรู้น้อยมากว่ามันคืออะไร”
    • “ถึง LLM จะไม่พัฒนาแบบค่อยเป็นค่อยไปเหมือนมนุษย์ แต่ประเด็นสำคัญคือมันสามารถขยายขีดความสามารถได้ด้วยเครื่องมืออย่าง Prolog ผมคิดว่าขั้นต่อไปของ AI คือการทำให้ LLM ใช้เครื่องมือหรือกลยุทธ์ที่ดีขึ้นได้ เช่น รวมกฎเชิงตรรกะ อัลกอริทึมแบบ heuristic และเอเจนต์ LLM ที่ผ่านการ fine-tune เข้าด้วยกันเป็นสถาปัตยกรรมเดียว เพื่อใช้เป็นเครื่องมือของ LLM และคิดว่าแนวทางนี้จะค่อย ๆ สมบูรณ์ขึ้น นอกจากนี้ควรสังเกตด้วยว่าแรงกดดันทางเศรษฐกิจกำลังกระตุ้นการพัฒนา AI ทางทหารเป็นพิเศษ หากใช้ระบบ Prolog ก็เปิดทางให้ LLM เพิ่มข้อเท็จจริงลงฐานข้อมูล อนุมานความสัมพันธ์ใหม่ ๆ และเรียนรู้ต่อเนื่องได้ รวมถึงใส่ heuristic ใหม่ ๆ เพื่อเสนอโมเดลหรือวิธีใหม่สำหรับการสำรวจได้ด้วย”
    • “เท่าที่ผมรู้ Waymo คือระบบที่มนุษย์นำ heuristic กฎ และโครงข่ายประสาทหลายแบบมาประกอบเข้าด้วยกัน ไม่ใช่โครงข่ายประสาทแบบ end-to-end เต็มรูปแบบ คำว่า AI-ish น่าจะเหมาะดี เพราะโดยการออกแบบแล้วมันยังห่างจาก AGI”
    • “ผมแปลกใจว่าทำไมคนถึงแทบไม่ถามคำถามแบบนี้เลย: AI ระดับล้ำสมัยในตอนนี้ไม่ได้ทำให้มนุษย์เก่งขึ้นมากอย่างมหาศาลอยู่แล้วหรือ? การเร่งตัวแบบยกกำลังของการปรับปรุงตัวเองกลับเป็นสิ่งที่น่ากลัวกว่าเสียอีก ผมคิดว่าแม้ทุกอย่างจะเป็นไปด้วยดี มนุษย์ก็คงรักษาตำแหน่งอันดับหนึ่งด้านความสามารถทางสติปัญญาไว้ไม่ได้อีกต่อไป และนั่นจะเป็นจุดเปลี่ยนที่ยอมรับได้ยาก ถ้าเราอยากได้การพัฒนาตัวเองจริง ๆ เราก็ต้องชินกับการที่มนุษย์เองจะไม่มีประโยชน์อีกต่อไป”
    • “ถ้าอยากรู้ข้อจำกัดของโครงข่ายประสาท ลองดูบรรยายล่าสุดของ John Carmack ได้ ลิงก์ YouTube ช่วงประมาณนาทีที่ 30 พูดถึงประเด็นนี้ตรง ๆ”
    • “AI ส่วนใหญ่ฝึกจากข้อมูลมหาศาล เพราะงั้นข้อจำกัดก็คือมันต้องใช้เวลานานมากกว่าจะมีชุดข้อมูลขนาดใหญ่ชุดถัดไปพร้อมใช้”
  • “คนที่พูดว่า AGI (ปัญญาประดิษฐ์ทั่วไป) จะมาในเร็ว ๆ นี้ โดยมากน่าจะเป็น 1. คนที่กำลังพยายามขายอะไรบางอย่าง 2. คนที่อินกับเรื่องของตัวเองมากเกินไป 3. คนที่ตื่นเต้นด้วยเหตุผลอื่น หรือ 4. ทั้งสามอย่างรวมกัน LLM ถูกออกแบบมาให้เก่งด้านภาษาและสรุปข้อความได้พอใช้ แต่แย่เรื่องตรรกะและอ่อนมากด้านการให้เหตุผลเชิงพื้นที่ เพราะงั้นมันเลยเชื่อมโยงแนวคิดได้ไม่ดีนัก ถ้าลองถาม LLM ชื่อดังว่า ‘โจทย์เปิดที่ยังไม่ถูกแก้ที่ยากที่สุดในทุกสาขาคืออะไร’ คุณอาจได้บทความสไตล์นิตยสารวิทยาศาสตร์ แต่เต็มไปด้วยข้อผิดพลาดเล็ก ๆ ที่สำคัญ และแม้คำตอบจะดูน่าเชื่อถือ จริง ๆ แล้วมันใช้การไม่ได้”
    • “LLM ก็เป็นแค่เครื่องมือที่บีบอัดชุดข้อมูลฝึก แล้วให้ฟังก์ชันค้นคืนผ่านการโต้ตอบด้วยข้อความเท่านั้น”
    • “ผมคิดว่าคำว่า ‘ไม่ชัดเจน’ นี่แหละคือหัวใจ LLM โดยรวมแล้วก็ฉลาดมาก จนสำหรับผมมันรู้สึกเหมือนเราเข้าสู่ยุค AGI แล้ว แต่คนจำนวนมากน่าจะมอง AGI ว่าเป็น ‘AI เหนือมนุษย์’ ถ้าใช้เกณฑ์นั้นเรายังไปไม่ถึง และต่อจากนี้ก็คงไม่ง่าย สำหรับผม ตอนนี้ก็คือยุค AGI แล้ว”
    • “LLM ทำงานได้ยอดเยี่ยมมากในโลกของข้อความที่เราสร้างขึ้น แต่ไม่ได้เป็นสิ่งมีชีวิตที่แสวงหาความจริง สิ่งมีชีวิตตายได้จากความผิดพลาดร้ายแรง แต่ AI ต่อให้ผิดก็แค่สร้างโทเค็นต่อไปอีกหลายพันตัว”
    • “ผมเห็นด้วยว่าการไม่แสวงหาความจริงเป็นปัญหาของ LLM แต่ในมนุษย์เองก็มีลักษณะนั้นเยอะเหมือนกัน เลยไม่รู้สึกว่าเป็นคำวิจารณ์ที่รุนแรงอะไรมาก ถ้าใช้คำนิยาม AGI เดิมคือทำงานเกือบทุกอย่างได้ในระดับอย่างน้อยค่ากลางของมนุษย์ ผมว่าตอนนี้ก็ใกล้มากแล้ว และภายใน 5 ปีข้างหน้า งานที่ไม่ต้องใช้ร่างกายน่าจะสามารถแข่งขันกับผู้เชี่ยวชาญได้ด้วยซ้ำ (งานทางกายคาดว่าใช้เวลาอีก 5–10 ปี) ที่ว่า LLM เก่งด้านภาษาก็จริง แต่ผมมองว่านั่นสะท้อนระดับสติปัญญาได้เหมือนกัน ส่วนคำวิจารณ์ว่าอ่อนด้านการคิดเชิงพื้นที่ ผมว่าบางทีก็พูดเกินไป เพราะมันดีขึ้นกว่ารุ่นเฉพาะทางด้านการให้เหตุผลเชิงพื้นที่ในอดีตมาก ถึงจะยังไม่เก่งเท่ามนุษย์ แต่แค่เอาโมเดลล่าสุดไปใช้กับหุ่นยนต์แล้วใช้งานได้จริง ก็ถือว่ากำลังก้าวหน้าเร็วมากตามมาตรฐาน AI”
    • “คำนิยาม AGI ของผมคือ ถ้า AI ดีกว่าคนทำงานเฉพาะทางอย่างน้อย 5% ล่างสุดในเกือบทุกงานของสายอาชีพนั้น ผมจะถือว่ามันถึง AGI แล้ว ผมคิดว่าความสามารถทางสติปัญญาของมนุษย์ในเปอร์เซ็นไทล์ที่ 5 ล่างสุดก็ยังนับว่าเป็น ‘สติปัญญา’ ได้ ดังนั้นถ้า AI เก่งกว่ามนุษย์จำนวนมากในทุกด้าน ก็ควรเรียกมันว่า AGI มันต้องเก่งกว่าในงานเชิงสติปัญญาทุกประเภท ไม่ใช่แค่ด้านเดียว”
  • “ผมหวังแค่ว่า AGI จะยังไม่มาในเร็ว ๆ นี้ เพราะในเชิงสังคมและการเมืองเรายังไม่พร้อมเลย และถ้าพลาดขึ้นมา อนาคตของมนุษยชาติก็เสี่ยงกลายเป็นดิสโทเปียสูงมาก ทั้งที่ตอนนี้แค่ลดการใช้พลังงานลงอีกนิดและปรับปรุงเล็กน้อย AI ก็มีประโยชน์มหาศาลในหลายสาขาอยู่แล้ว แต่แค่นี้สังคมมนุษย์ก็ยังไม่พร้อมรับมือ ปัญหาคือบริษัทที่สร้าง foundation model แทบไม่มีวิธีชัดเจนในการเอาคืนเงินที่ทุ่มไปจนถึงตอนนี้ ดังนั้นดูเหมือนจะเหลือแค่การรอจุดทะลุครั้งใหญ่ หรือไม่ก็ฝืนผลัก AI เข้าไปในหลายอุตสาหกรรม”
    • “ผมก็คิดเหมือนกัน และหวังจากใจว่าฟองสบู่นี้จะแตกในไม่ช้า มีข่าวว่า Meta ลงทุนใน AR ไป 1 แสนล้านดอลลาร์ แล้วก็มีเพื่อนคนนั้นบนบอร์ดที่เอาแต่เดิมพันแบบเสี่ยง ๆ แทนที่จะลดค่าโฆษณา คนอย่าง Altman ก็เลือกเส้นทางที่ถอยกลับไม่ได้ไปแล้ว และคงจะพยายามกอบโกยเงินให้ได้มากที่สุดตอนยังมีโอกาส ที่พวกเราหวังได้ก็คือให้คนพวกนี้ล้มเหลวเหมือนยุคดอตคอมบับเบิล”
    • “ขนาดการลงทุนใน AI ใหญ่มากจนแค่ค่าเสื่อมราคาก็น่าจะมากกว่ารายได้รวมของบริษัท AI ทั้งหมดแล้ว แต่หลายคนกลับมองข้ามเรื่องวิธีการกู้คืนต้นทุนคงที่พวกนี้”
    • “ถ้า AI หนึ่งตัวสามารถแทนที่ทั้งอุตสาหกรรมได้แทบหมดโดยไม่ต้องมีพนักงานเลย การกู้คืนต้นทุนก็คงง่ายมาก มันอาจทำกำไรมหาศาลได้”
    • “ถ้าคุณคิดว่าปัญหาเด็กเกิดน้อยรุนแรงจริง ๆ ผมกลับมองว่า AGI ที่มาเร็วอาจเป็นทางออกได้ เราจำเป็นต้องทบทวนกรอบคิดที่พยายามแก้ปัญหาเศรษฐกิจโดยตั้งอยู่บนสมมติฐานว่าประชากรจะต้องโตตลอดไป”
    • “AGI จำเป็นต้องเหมือนสติปัญญามนุษย์แบบเป๊ะ ๆ ไหม? ถ้าบางความสามารถเด่นกว่า แต่บางอย่างด้อยกว่า เรายังควรเรียกมันว่า AGI หรือเปล่า เป็นคำถามที่น่าคิด”
  • “ผมไม่เพียงไม่คิดว่า AGI จะมาเร็ว ๆ นี้ แต่ยังไม่มั่นใจเลยว่ามันทำได้จริงหรือไม่ อย่างน้อยก็บนฮาร์ดแวร์คอมพิวเตอร์แบบดั้งเดิม ผมไม่คิดว่าความสามารถในการนำข้อมูลมาเรียบเรียงซ้ำให้ดูดีจะเพียงพอสำหรับนิยามหรือการวัดสติปัญญา ถ้าเราจะสร้างปัญญาประดิษฐ์ขึ้นมาจริง ๆ ตอนเปิดตัวครั้งแรกมันอาจมีระดับสติปัญญาต่ำมากเมื่อเทียบกับมนุษย์ แต่เป็น AI ที่แท้จริงเพราะมันสามารถเรียนรู้ได้เองโดยไม่ต้องพึ่งความช่วยเหลือภายนอก”
    • “ตราบใดที่คุณไม่ได้เชื่อว่าสติปัญญาทั่วไปของมนุษย์มีองค์ประกอบลึกลับเหนือธรรมชาติหรือวัดไม่ได้ แนวคิดที่ว่า AGI เป็นไปไม่ได้ก็ควรถูกปัดตกไป เพราะท้ายที่สุดมนุษย์เองก็เป็นเครื่องจักร ดังนั้นสมองก็น่าจะทำซ้ำได้ด้วยวิธีที่ไม่ใช่ชีววิทยา บางที AGI ตัวแรกอาจเป็นสมองที่เลี้ยงอยู่ในจานเพาะเชื้อพร้อม Python API ก็ได้ หรืออาจเป็นระบบที่สร้างบนซิลิคอน”
    • “เราควรคิดถึงอีกด้านด้วย ถ้าเครื่องมือมีสติปัญญาสูงกว่าที่ผมมี ผมควรรับมืออย่างไร ทุกวันนี้ออนไลน์มีทั้งกรณีที่เพื่อนร่วมงานใช้ ChatGPT มาตอบคำถาม และแม้แต่คำถามนั้นเองก็อาจถูก ChatGPT สร้างขึ้นมา จนสุดท้ายไม่มีใครรู้ว่าใครเป็นคนทำอะไรกันแน่”
    • “สำหรับผม ขีดจำกัดของการขยายสติปัญญามาจากทรัพยากรการคำนวณ การคำนวณที่ต้องใช้เพื่อจำลองระบบให้ดีจะเพิ่มขึ้นแทบเป็นเลขชี้กำลังตามความซับซ้อนหรือความโกลาหลของระบบ ดังนั้นผลของสติปัญญาอาจเกิดได้โดยเนื้อแท้เฉพาะกับระบบที่เรียบง่ายและมีระเบียบ วิธีที่ใช้ได้จริงและแข็งแรงที่สุดคือกำจัดปัจจัยผันผวนออกให้มากที่สุด สุดท้ายไม่ว่าจะเป็นซูเปอร์อินเทลลิเจนซ์หรือไม่ นั่นแหละคือขีดจำกัดที่แท้จริงของสติปัญญา”
    • “อยากรู้ว่าทำไมคุณถึงคิดว่ามันเป็นไปไม่ได้”
    • “ตอนนี้ยังไม่มีคำนิยามหรือฉันทามติที่ชัดเจนเกี่ยวกับ AGI ผมคิดว่าจากนี้ไป AI ก็คงค่อย ๆ ดีขึ้นต่อในด้านที่มันทำได้ดีอยู่แล้ว เช่น การสร้างข้อความ ภาพ และโค้ด แต่ภาพฝันที่ AI จะแก้ทุกปัญหาให้ทุกคน แล้วมนุษยชาติจะได้นั่งเสพความรุ่งเรืองแบบยูโทเปียริมชายหาดนั้น ไม่มีฐานอยู่บนความเป็นจริงเลย”
  • “ผมชอบมุมมองของ Dwarkesh มาก ฟังเขาพูดว่าเรื่องนี้พัฒนาไปถึงไหนแล้วทีไรก็น่าสนใจเสมอ ข้ออ้างหลักของเขาคือเราต้องมีการเรียนรู้แบบปรับตัวได้ แต่ตอนนี้ยังไม่เห็นสัญญาณแบบนั้น เดาว่าห้องแล็บระดับ frontier กำลังหวังว่า long context จะช่วยแก้ปัญหาได้ ถ้ามี context ยาว 10 ล้านโทเค็น ก็น่าจะรักษาสถานะภายในได้ดีและจัดการงานหลากหลายได้ ตอนนี้ข้อจำกัดคือยิ่งโมเดล context ยาวมากเท่าไร คุณภาพในแต่ละหน้าต่างก็ยิ่งแกว่ง คำถามอีกแบบคือ ภายใน 2 ปี เราจะมี context window ที่มีประโยชน์จริงเกิน 10 ล้านโทเค็นได้ไหม? ผมคิดว่ามีโอกาสสูง”
    • “เคยมีบริษัทหนึ่งอ้างว่าแก้ปัญหานี้ได้แล้ว แต่ตอนนี้ได้ยินแต่ความเงียบ”
    • “ถ้าพูดถึง ‘long context’ ก็ยังมีคำถามว่ามันต้องยาวแค่ไหน เพราะในกรณีของมนุษย์ เราใช้ข้อมูลหลายรูปแบบตลอดหลายสิบปีเป็นบริบท”
    • “ผมเชื่อคำพูดของ Demmis ที่ว่า AGI จะมาถึงภายใน 10 ปี เขาเป็นคนบุกเบิกสาขานี้มานานมาก และแม้แต่ OpenAI ก็มีส่วนหนึ่งที่ก่อตั้งขึ้นเพราะกลัวความเร็วในการวิจัยของ Demmis ผมเชื่อการคาดการณ์ของ Demmis ว่าราวปี 2035 เราน่าจะได้เห็น AGI ที่เทียบเท่าหรือเหนือกว่ามนุษย์ในแทบทุกงาน”
    • “ผมมั่นใจว่าในไม่ช้า (<5 ปี) เราจะได้เห็น test-time learning ที่แท้จริง Alphaproof (ความท้าทาย IMO ของ DeepMind) ก็ใช้เทคนิคนี้อยู่แล้ว”
  • “มีสถิติว่าผู้ใหญ่ในสหรัฐ 54% มีทักษะการอ่านในระดับชั้นประถมปีที่ 6 หรือต่ำกว่านั้นทั่วประเทศ ผมเลยสงสัยว่าเราอาจมาถึง AGI แล้วก็ได้ ลิงก์วิกิพีเดีย
    • “ผมสงสัยว่าความล้มเหลวทางการศึกษาของประเทศหนึ่งมันเกี่ยวอะไรกับ AGI”
    • “เป็นข้อสังเกตที่ดี งั้นผมก็อยากเห็น LLM ซักผ้ากับล้างจานเหมือนกัน ต่อให้สร้างร่างกายเป็นหุ่นยนต์ให้ มันก็คงไม่ง่าย”
    • “ทำให้ผมต้องคิดว่า แค่อ่านออกนี่ถือเป็นเงื่อนไขทั้งหมดของ AGI แล้วหรือ”
    • “ถ้ามองเชิงเศรษฐศาสตร์ การเทียบ AGI กับแรงงานทั่วไป หรือคนที่ถูกจ้างมาทำงานเฉพาะอย่างเช่น copy editing จะสมจริงกว่า เราควรโฟกัสที่ความเหมาะสมกับงานมากกว่าค่าเฉลี่ยระดับประเทศที่โอกาสถูกจ้างจริงต่ำ”
    • “แม้แต่คนที่อ่านไม่ออกเขียนไม่ได้ก็ยังแก้โจทย์ยากมหาศาลหลายอย่างที่ LLM ทำไม่ได้”
  • “ปัญหาในหลายการถกเถียงเรื่องความก้าวหน้าของ AI คือการสมมติว่า AI แห่งอนาคตจะต้องแก้ปัญหาแบบเดียวกับมนุษย์ ถ้ามองแบบนั้น การไม่มี continuous learning ก็จะดูเหมือนเป็นข้อบกพร่องร้ายแรง แต่ในความเป็นจริง ตลอดประวัติศาสตร์ของ deep learning การเรียนรู้ต่อเนื่องไม่เคยเป็นตัวขับเคลื่อนหลักเลย ชุดข้อมูลขนาดใหญ่และการสเกลต่างหากที่เป็นวิธีที่ประสบความสำเร็จที่สุด ถ้าจะบอกว่า continuous learning เป็นสิ่งจำเป็น ก็ต้องชี้ให้ชัดถึงข้อจำกัดของการเรียนรู้ข้ามงาน และขอบเขตที่ AI จะไม่มีวันไปถึง ผู้เขียนพูดถึงความไม่แน่นอนใน RL flywheel (ผลเร่งจากการนำ RL ไปใช้ซ้ำกับ AI ด้านโปรแกรมมิงที่เก่งมาก) แต่โดยรวมผมรู้สึกว่าบทความมีน้ำเสียงมั่นใจเกินไป”
    • “Alphaproof ใช้วิธีสร้างโจทย์คล้ายกันใหม่สำหรับแต่ละข้อ โดยอาศัย test-time training แบบ AlphaZero”
    • “เหตุผลที่ continuous learning ไม่ได้สำคัญในประวัติศาสตร์ deep learning อาจเป็นเพราะคนทำ deep learning ตั้งเป้าต่างกันก็ได้ ถ้าเป้าหมายไม่ใช่ AI ที่ฉลาดที่สุด แต่เป็น AI ที่มีประโยชน์และสร้างผลผลิตได้มากที่สุด บางครั้งสิ่งที่โง่กว่าแต่เรียนรู้จากความล้มเหลวได้ ก็มีค่ากว่าอัจฉริยะที่ดื้อรั้นเสียอีก”
  • “ในมุมมองของผม LLM ปัจจุบันเป็นโครงสร้างที่ทำนายว่ามนุษย์น่าจะพูดอะไร เพราะงั้นระดับสติปัญญา/ความสามารถในการให้เหตุผลของมันก็น่าจะถูกจำกัดอยู่แค่ระดับมนุษย์ ถึงความกว้างของความรู้จะเกินมนุษย์ได้ แต่สติปัญญาหรือความคิดสร้างสรรค์อาจเทียบมนุษย์ได้หรือด้อยกว่า บริษัท AI คาดการณ์ว่า LLM รุ่นถัดไปจะสร้างอินไซต์ใหม่และแก้ปัญหาที่ยังไม่ถูกแก้ได้ แต่ผมคิดว่าอินไซต์ที่แท้จริงต้องอาศัยโครงสร้างภายในที่สามารถสร้างแนวคิดขึ้นใหม่ได้อย่างอิสระจากหลักการระดับล่าง LLM สะสมชั้นความเข้าใจใหม่ไม่ได้ จึงมีข้อจำกัด ถ้าทำงานแบบสมองมนุษย์จริง ที่ค่อย ๆ สร้างขึ้นจากอินพุตไปสู่ความเข้าใจเชิงนามธรรม ก็น่าจะก้าวข้ามขีดจำกัดนี้ได้ สักวันหนึ่งอาจมีพาราไดม์ AI ใหม่ที่เหนือกว่า LLM ไปเลย ซึ่งพูดตรง ๆ ผมหวังว่าตัวเองจะเดาผิด หรือไม่ก็ ASI (ปัญญาประดิษฐ์เหนือมนุษย์) ก็น่ากลัวอยู่ดี”
    • “แม้จะได้ AI ที่มีประสิทธิภาพระดับมนุษย์ แต่เครื่องจักรก็ต่างจากมนุษย์ตรงที่แค่เพิ่มประสิทธิภาพ GPU ก็อาจได้ปัญญาประดิษฐ์ที่เร็วขึ้น 10 เท่าทันที ความเร็วเพียงอย่างเดียวก็เป็นความสามารถเหนือมนุษย์แล้ว แถมยังสามารถรันระบบเดียวกันหลายครั้ง เพื่อสำรวจหลายแนวทางพร้อมกันแล้วเลือกวิธีที่ดีที่สุดได้ด้วย ในงานที่ตรวจสอบความถูกต้องได้ มันมีข้อได้เปรียบมหาศาล”
    • “LLM ยุคนี้ไม่ได้เป็นแค่เครื่องทำนายประโยคมนุษย์อย่างง่ายอีกต่อไป แต่กำลังพัฒนาไปในทิศทางของการทำนายโทเค็นที่สัมพันธ์กับคำตอบที่ถูกต้องของโจทย์คณิตศาสตร์และการเขียนโปรแกรม”
  • “การถกเถียงส่วนใหญ่ดูออกไปทางมองลบต่อ AI แต่จริง ๆ แล้วผู้เขียนกลับบอกว่าโอกาสที่ AGI จะเกิดภายในต้นทศวรรษ 2030 มีถึง 50% และยังพูดด้วยว่าควรเตรียมรับความเป็นไปได้ที่ ASI จะพัฒนาไปผิดทางภายในปี 2028 ซึ่งหมายความว่าผู้เขียนจริง ๆ แล้วมอง AI ในแง่ค่อนข้างบวก”
    • “ถ้า ASI ทำงานผิดพลาดภายใน 3 ปี ผมคิดว่ามาตรการรับมือแบบไหนก็คงไม่มีความหมายแล้ว”
  • “ผมคิดว่าปรากฏการณ์ที่ช่วงนี้ไม่มีใครเปิดเผยขนาดโมเดลอีกแล้ว อาจเป็นสัญญาณว่าการฝึกโมเดลชนกำแพงหรือถึงขีดจำกัดแล้ว”
 
kandk 2026-02-17

ก็ยังพูดเรื่องเดิมอีกจนได้