- ในกฎบัตร (Charter) ปี 2018 OpenAI ระบุ “เงื่อนไขเสียสละตนเอง” ว่า “หากมีโครงการอื่นที่ให้ความสำคัญกับความปลอดภัยและเข้าใกล้ AGI ก็จะหยุดแข่งขันและหันไปร่วมมือ”
- ตามตารางที่สรุปคำพูดของ Sam Altman ช่วงเวลาคาดการณ์การบรรลุ AGI ถูกย่นลงอย่างรวดเร็วจากปี 2033 เหลือปี 2025 และล่าสุดถึงขั้นมีคำกล่าวว่า “ได้สร้าง AGI แล้ว”
- ใน ตารางจัดอันดับโมเดลของ Arena.ai Claude ของ Anthropic และ Gemini ของ Google อยู่ในอันดับต้น ๆ ขณะที่ GPT-5.4 ของ OpenAI ตามหลังอยู่ที่อันดับ 6
- บทความชี้ว่าสถานการณ์นี้เข้าเงื่อนไขในกฎบัตรที่ระบุว่า “หากมีคู่แข่งที่มีโอกาสสำเร็จเกินครึ่งภายใน 2 ปี ก็ให้ร่วมมือ”
- ผลคือแม้ OpenAI ควรต้องหยุดแข่งขันและร่วมมือตามกฎบัตร, แต่ในความเป็นจริงกรณีนี้สะท้อน ความขัดแย้งระหว่างอุดมคติกับแรงจูงใจทางเศรษฐกิจ
เงื่อนไขเสียสละตนเองในกฎบัตรของ OpenAI
- กฎบัตร OpenAI ปี 2018 สะท้อน ความกังวลว่าการแข่งขันพัฒนา AGI อาจกระทบต่อความปลอดภัย
- มีข้อความว่า “หากมีโครงการที่เน้นการจัดแนวคุณค่าและความปลอดภัยเข้าใกล้ AGI ก็จะหยุดแข่งขันและให้การสนับสนุน”
- โดยยกกรณี “มีโอกาสสำเร็จมากกว่าครึ่งภายใน 2 ปี” เป็นเงื่อนไขการเริ่มใช้โดยทั่วไป
- เงื่อนไขนี้ยังคงเผยแพร่อยู่บน เว็บไซต์ทางการ(openai.com/charter) และ ยังเป็นนโยบายทางการของบริษัท
การเปลี่ยนแปลงของคำทำนาย AGI ของ Sam Altman
- ตามตาราง Altman ขยับเวลาคาดการณ์การบรรลุ AGI ให้เร็วขึ้นอย่างต่อเนื่อง ตั้งแต่ปี 2023 ถึง 2026
- ในเดือนพฤษภาคม 2023 เขากล่าวว่า “ภายใน 10 ปีจะเกินระดับผู้เชี่ยวชาญ” แต่
- ในช่วงปี 2024~2025 มีคำพูดต่อเนื่องไปถึง “จะบรรลุ AGI ในปี 2025” และ “ได้สร้าง AGI แล้ว”
- ค่ามัธยฐานของการคาดการณ์หลังปี 2025 คือ ภายในราว 2 ปี ซึ่งสอดคล้องกับเงื่อนไขการเริ่มใช้ในกฎบัตร
- ในบางบทสัมภาษณ์ยังมีการใช้ถ้อยคำว่า “กำลังก้าวข้าม AGI ไปสู่ ASI (ปัญญาเหนือมนุษย์)”
การเปรียบเทียบอันดับโมเดลใน Arena.ai
- ในบรรดา 10 อันดับแรกของลีดเดอร์บอร์ด Arena.ai รุ่น Claude-opus-4-6 ของ Anthropic อยู่อันดับ 1 และ Gemini 3.1 ของ Google อยู่อันดับ 3
- GPT-5.4-high ของ OpenAI อยู่อันดับ 6 ซึ่ง ได้คะแนนต่ำกว่าโมเดลของคู่แข่ง
- บทความระบุว่าโมเดลของ Anthropic และ Google มีลักษณะ “เน้นความปลอดภัยและการจัดแนวคุณค่า” และถือเป็น ทางเลือกทดแทนที่เข้ากันได้ กับ GPT
เข้าเงื่อนไขการหยุดแข่งขันหรือไม่
- เมื่อช่วงเวลาพัฒนา AGI แคบลงเหลือภายใน 2 ปี และโมเดลของคู่แข่งนำหน้าอยู่ จึงถูกประเมินว่า เข้าเงื่อนไข “หยุดแข่งขันและร่วมมือ” ตามกฎบัตร
- แม้จะยังมีข้อถกเถียงว่า Arena.ai เหมาะสมต่อการใช้วัด AGI หรือไม่ แต่ เจตนารมณ์ของกฎบัตรคือ “หลีกเลี่ยงการแข่งขันแบบสะสมอาวุธ”
- ดังนั้นจึงนำไปสู่ข้อสรุปว่า OpenAI ควรร่วมมือกับ Anthropic และ Google
ช่องว่างระหว่างอุดมคติกับความเป็นจริง
- บทความระบุชัดว่าในทางปฏิบัติ OpenAI แทบไม่มีทางหยุดแข่งขันจริง
- กรณีนี้แสดงให้เห็นว่า หลักการเชิงอุดมคติอาจไร้พลังต่อหน้าแรงจูงใจทางเศรษฐกิจ
- นอกจากนี้ยังชี้ให้เห็นว่า นิยามและเป้าหมายเวลาของ AGI ขยับเปลี่ยนตลอดเวลา และช่วงหลัง จุดสนใจได้ย้ายไปสู่การถกเถียงเรื่อง ASI
1 ความคิดเห็น
ความเห็นจาก Hacker News
ในเธรดนี้ทุกคนเอาแต่เถียงกันเรื่องนิยาม
ประเด็นที่สำคัญจริง ๆ คือจุดเปลี่ยนทางเศรษฐกิจ — เมื่อไรกันแน่ที่ ระบบอัตโนมัติที่มี AI ช่วยมนุษย์ จะเปลี่ยนเป็น ผลผลิตที่เป็นอิสระอย่างสมบูรณ์
ถ้ามองสภาพแวดล้อมการใช้งาน AI ในโปรดักชันตอนนี้ มนุษย์ก็ยังคงเป็นฝ่ายตรวจทาน แก้ไข และกำกับดูแลอยู่ดี AI จัดการปริมาณงาน ส่วนมนุษย์รับหน้าที่ตัดสินใจ สุดท้ายแล้ว การตัดสินใจคือคอขวด
มันไม่ได้แทนที่แรงงาน แค่ย้ายตำแหน่งของแรงงานเท่านั้น ค่าตอบแทนแรงงานทั่วโลกมีมูลค่าราว 50 ล้านล้านดอลลาร์ต่อปี และตลาดทุนก็กำลังเดิมพันว่า AI จะดูดซับส่วนหนึ่งของสิ่งนี้ได้จริงหรือไม่ ชื่อเรียก AGI ไม่ได้สำคัญ — ทุนสนใจไม่ใช่นิยาม แต่คือ แรงงานกับผลผลิตถูกแยกออกจากกันหรือไม่
ทุกครั้งที่เห็นคำอย่าง “AGI”, “ASI” ฉันจะนึกแทนมันว่า “อะไรบางอย่างที่ไม่มีใครนิยามได้ชัดเจน”
พูดอีกแบบคือ มันเป็นแนวคิดที่นิยามไม่สมบูรณ์จนสรุปอะไรไม่ได้ เลยแทนที่มันด้วยคำไร้สาระแบบ “สกิปติบูฟ” ไปเลย
ถ้านิยาม AGI ว่าเป็น “AI เอนกประสงค์ที่ไม่ได้จำกัดอยู่แค่งานเฉพาะทาง” มันก็มีอยู่แล้ว
ถ้าหมายถึง “สติปัญญาระดับมนุษย์ในทุกงาน” งั้นมนุษย์บางคนก็ไม่ใช่ AGI
ถ้าหมายถึง “อัลกอริทึมเวทมนตร์ที่ทำได้ทุกอย่างอย่างสมบูรณ์แบบ” แบบนั้นก็คงไม่มีอยู่จริง
ตอนที่คำว่า AGI เพิ่งถูกใช้ใหม่ ๆ มันคงหมายถึงอะไรแบบ HAL 9000 แต่ตอนนี้มันกลายเป็น เกมที่เส้นชัยขยับตลอดเวลา ไปแล้ว
ทันทีที่ทุ่มสุดตัวกับการทำเทคโนโลยีให้เป็นสินค้า ผลลัพธ์ก็ถูกกำหนดไว้แล้ว
LLM ปัจจุบันถูกใช้งานอย่าง อันตราย อยู่แล้ว และถ้าข่าวแบบนี้ยังได้รับความสนใจต่อไป OpenAI ก็คงจะค่อย ๆ ลบกฎบัตรของตัวเองออกจากเว็บไซต์แบบเงียบ ๆ
โมเดลปัจจุบันยังห่างไกลจาก AGI
การทำนายโทเคนถัดไป พัฒนาไปอย่างน่าทึ่งก็จริง แต่ก็ยังไม่มีโมเดลของโลกความจริงหรือความสามารถในการเรียนรู้ที่แท้จริง
ถ้าไม่มีการกำกับจากมนุษย์ ข้อจำกัดก็ชัดเจนมาก
มีคนพูดถึง “ความไร้พลังของอุดมคติอันไร้เดียงสา” แต่สำหรับฉัน มันคือ การหยิบภาษาของอุดมคติมาใช้เป็นเครื่องมือทางการตลาด มากกว่า
เอาเข้าจริงมันคือ องค์กรที่ขับเคลื่อนด้วยกำไร ซึ่งค่อย ๆ เผยธาตุแท้ออกมา
AGI จะยังไม่มาในอีก 30 ปีข้างหน้า
นักวิจัยก็พูดแบบนั้น
AGI ที่แท้จริงต้องมี การเรียนรู้อย่างต่อเนื่องและความจำเชิงลึก แต่ LLM ทำแบบนั้นไม่ได้
“หน่วยความจำ” ตอนนี้เป็นแค่การค้นคืนและสรุปข้อมูลเท่านั้น — เหมือนคนหนึ่งไปฟังเลคเชอร์ฟิสิกส์แล้วเขียนทุกอย่างลง Post-it จากนั้นให้อีกคนมาดูผ่าน ๆ แล้วตอบคำถาม
ต้องใช้ RL และการฝึกใหม่ แต่สิ่งนั้นแพง ช้า และซับซ้อนเกินไป
LLM เขียนโค้ดสวยก็จริง แต่ถึงจะบอกว่า “อย่าลบไฟล์ในโฟลเดอร์ X” สุดท้ายมันก็ลบอยู่ดี
มันยังทำตามคำสั่งที่ผู้โจมตีแทรกไว้ในเอกสารอีกด้วย
ถ้าไม่มีความจำจริงและ RL แบบเรียลไทม์ ปัญหาเหล่านี้ก็แก้ไม่ได้
ถ้าดู ทวีต ของ Daniel Kokotajlo, ความเห็น ของ Karpathy และ แบบสำรวจนักวิจัย AI ก็จะเห็นว่ามีการคาดการณ์ที่สั้นกว่านี้มากเหมือนกัน
ระหว่างคุยก็ดูฉลาด แต่พอจบเซสชันก็ลืมหมด
แม้แต่ระหว่างเซสชันเองประสิทธิภาพก็ยังตก — context ที่ยาวกลับยิ่งเป็นพิษ
ท้ายที่สุด การไม่มีโครงสร้างความจำ คือข้อจำกัดหลัก มนุษย์แก้ปัญหานี้ด้วยความจำระยะยาวและการนอนหลับ แต่ LLM ทำไม่ได้
ต่อให้ฉลาดแค่ไหน อัจฉริยะที่ไร้ความจำก็เป็นได้แค่ savant ระยะสั้น
LLM สามารถคัดลอกและจัดโครงสร้างข้อมูลหลายพันหน้าใหม่ได้ทันที
ตอนนี้มีทั้ง RL ตอนเวลา inference และ การเรียนรู้อย่างต่อเนื่องบนฐาน LoRA อยู่แล้ว และตามนิยามบางแบบ AGI ก็ถือว่าทำสำเร็จแล้ว
เพียงแต่ยังไม่คุ้มค่าในเชิงเศรษฐกิจ
และแทนที่งานโปรแกรมเมอร์จะหายไป สุดท้ายแล้วน่าจะยิ่งต้องการคนที่มี ทักษะการคิดเชิงคำนวณ มากขึ้น
จากประสบการณ์ส่วนตัว ช่วงหลัง ๆ GPT 5.4 ดีกว่า Opus 4.6
แต่ก็น่าสนใจที่บนตารางอันดับ Chatbot Arena กลับอยู่ต่ำกว่า
เพราะอิงจากการโหวตของผู้ใช้ทั่วไปจึง ขาดการตรวจสอบความเชี่ยวชาญ และบริษัทยักษ์ใหญ่ก็มีการ ปั่นอันดับ กันด้วย
เวลาจะใช้เทียบโมเดลใหม่ ๆ จึงไม่ค่อยมีความหมายมากนัก
เมื่อให้พรอมป์ต์เดียวกัน GPT 5.4 สร้างการรีแฟกเตอร์ที่ไม่จำเป็นและทำให้เกิดบั๊ก ส่วน Opus 4.6 กลับรับรู้ฟีเจอร์ที่ถูกทำไว้แล้วและเสนอให้เพิ่มทั้งเทสต์กับการอัปเดตเอกสาร
ฉันยังคิดว่า Opus 4.6 ยังเป็นเอเจนต์เขียนโค้ดที่ดีที่สุด
การคาดการณ์ว่า “กันยายน 2026 จะมี AI ฝึกงานวิจัยอัตโนมัติ และมีนาคม 2028 จะมีนักวิจัย AI เต็มรูปแบบ” น่าสนใจดี
มันยังสอดคล้องกับจังหวะที่ โปรเจกต์ Autoresearch ของ Karpathy ขึ้นหน้าแรกของ HN ด้วย
เป็นไปได้ว่า แล็บขนาดใหญ่คงกำลังทดลองเวอร์ชันที่ใหญ่กว่านี้มาก อยู่แล้ว
ฉันเห็นด้วยกับทั้ง “ความไร้พลังของอุดมคติอันไร้เดียงสา” และ “เส้นเป้าหมายที่เปลี่ยนไปเรื่อย ๆ” ของ AGI
ช่วงนี้หลายคนพูดถึง ASI แทน AGI มากขึ้น จนให้ความรู้สึกว่าเราอาจบรรลุ AGI ไปแล้วก็ได้
ฟังดูเหมือนมุกตลก แต่จริง ๆ แล้วไม่มีใครเข้าใกล้ AGI ของจริงเลย
ตัว Altman เองก็ยอมรับว่าการจะไปถึง AGI ต้องมี ความก้าวหน้าแบบทะลุเพดานหลายขั้นกลางทาง
เขาคาดว่าแถว ๆ ปี 2026 AI จะก้าวข้ามระดับการนำข้อมูลเดิมมาจัดเรียงใหม่ ไปสู่การ สร้างอินไซต์ใหม่ ได้ และเขามองว่านั่นคือจุดวิกฤตของ AGI
ฉันคิดว่า LLM ในปัจจุบัน มีความสามารถโดยเฉลี่ยสูงกว่ามนุษย์ทั่วไป ไปแล้ว