1 คะแนน โดย GN⁺ 2026-03-09 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • ในกฎบัตร (Charter) ปี 2018 OpenAI ระบุ “เงื่อนไขเสียสละตนเอง” ว่า “หากมีโครงการอื่นที่ให้ความสำคัญกับความปลอดภัยและเข้าใกล้ AGI ก็จะหยุดแข่งขันและหันไปร่วมมือ”
  • ตามตารางที่สรุปคำพูดของ Sam Altman ช่วงเวลาคาดการณ์การบรรลุ AGI ถูกย่นลงอย่างรวดเร็วจากปี 2033 เหลือปี 2025 และล่าสุดถึงขั้นมีคำกล่าวว่า “ได้สร้าง AGI แล้ว”
  • ใน ตารางจัดอันดับโมเดลของ Arena.ai Claude ของ Anthropic และ Gemini ของ Google อยู่ในอันดับต้น ๆ ขณะที่ GPT-5.4 ของ OpenAI ตามหลังอยู่ที่อันดับ 6
  • บทความชี้ว่าสถานการณ์นี้เข้าเงื่อนไขในกฎบัตรที่ระบุว่า “หากมีคู่แข่งที่มีโอกาสสำเร็จเกินครึ่งภายใน 2 ปี ก็ให้ร่วมมือ”
  • ผลคือแม้ OpenAI ควรต้องหยุดแข่งขันและร่วมมือตามกฎบัตร, แต่ในความเป็นจริงกรณีนี้สะท้อน ความขัดแย้งระหว่างอุดมคติกับแรงจูงใจทางเศรษฐกิจ

เงื่อนไขเสียสละตนเองในกฎบัตรของ OpenAI

  • กฎบัตร OpenAI ปี 2018 สะท้อน ความกังวลว่าการแข่งขันพัฒนา AGI อาจกระทบต่อความปลอดภัย
    • มีข้อความว่า “หากมีโครงการที่เน้นการจัดแนวคุณค่าและความปลอดภัยเข้าใกล้ AGI ก็จะหยุดแข่งขันและให้การสนับสนุน”
    • โดยยกกรณี “มีโอกาสสำเร็จมากกว่าครึ่งภายใน 2 ปี” เป็นเงื่อนไขการเริ่มใช้โดยทั่วไป
  • เงื่อนไขนี้ยังคงเผยแพร่อยู่บน เว็บไซต์ทางการ(openai.com/charter) และ ยังเป็นนโยบายทางการของบริษัท

การเปลี่ยนแปลงของคำทำนาย AGI ของ Sam Altman

  • ตามตาราง Altman ขยับเวลาคาดการณ์การบรรลุ AGI ให้เร็วขึ้นอย่างต่อเนื่อง ตั้งแต่ปี 2023 ถึง 2026
    • ในเดือนพฤษภาคม 2023 เขากล่าวว่า “ภายใน 10 ปีจะเกินระดับผู้เชี่ยวชาญ” แต่
    • ในช่วงปี 2024~2025 มีคำพูดต่อเนื่องไปถึง “จะบรรลุ AGI ในปี 2025” และ “ได้สร้าง AGI แล้ว”
  • ค่ามัธยฐานของการคาดการณ์หลังปี 2025 คือ ภายในราว 2 ปี ซึ่งสอดคล้องกับเงื่อนไขการเริ่มใช้ในกฎบัตร
  • ในบางบทสัมภาษณ์ยังมีการใช้ถ้อยคำว่า “กำลังก้าวข้าม AGI ไปสู่ ASI (ปัญญาเหนือมนุษย์)”

การเปรียบเทียบอันดับโมเดลใน Arena.ai

  • ในบรรดา 10 อันดับแรกของลีดเดอร์บอร์ด Arena.ai รุ่น Claude-opus-4-6 ของ Anthropic อยู่อันดับ 1 และ Gemini 3.1 ของ Google อยู่อันดับ 3
  • GPT-5.4-high ของ OpenAI อยู่อันดับ 6 ซึ่ง ได้คะแนนต่ำกว่าโมเดลของคู่แข่ง
  • บทความระบุว่าโมเดลของ Anthropic และ Google มีลักษณะ “เน้นความปลอดภัยและการจัดแนวคุณค่า” และถือเป็น ทางเลือกทดแทนที่เข้ากันได้ กับ GPT

เข้าเงื่อนไขการหยุดแข่งขันหรือไม่

  • เมื่อช่วงเวลาพัฒนา AGI แคบลงเหลือภายใน 2 ปี และโมเดลของคู่แข่งนำหน้าอยู่ จึงถูกประเมินว่า เข้าเงื่อนไข “หยุดแข่งขันและร่วมมือ” ตามกฎบัตร
  • แม้จะยังมีข้อถกเถียงว่า Arena.ai เหมาะสมต่อการใช้วัด AGI หรือไม่ แต่ เจตนารมณ์ของกฎบัตรคือ “หลีกเลี่ยงการแข่งขันแบบสะสมอาวุธ”
  • ดังนั้นจึงนำไปสู่ข้อสรุปว่า OpenAI ควรร่วมมือกับ Anthropic และ Google

ช่องว่างระหว่างอุดมคติกับความเป็นจริง

  • บทความระบุชัดว่าในทางปฏิบัติ OpenAI แทบไม่มีทางหยุดแข่งขันจริง
  • กรณีนี้แสดงให้เห็นว่า หลักการเชิงอุดมคติอาจไร้พลังต่อหน้าแรงจูงใจทางเศรษฐกิจ
  • นอกจากนี้ยังชี้ให้เห็นว่า นิยามและเป้าหมายเวลาของ AGI ขยับเปลี่ยนตลอดเวลา และช่วงหลัง จุดสนใจได้ย้ายไปสู่การถกเถียงเรื่อง ASI

1 ความคิดเห็น

 
GN⁺ 2026-03-09
ความเห็นจาก Hacker News
  • ในเธรดนี้ทุกคนเอาแต่เถียงกันเรื่องนิยาม
    ประเด็นที่สำคัญจริง ๆ คือจุดเปลี่ยนทางเศรษฐกิจ — เมื่อไรกันแน่ที่ ระบบอัตโนมัติที่มี AI ช่วยมนุษย์ จะเปลี่ยนเป็น ผลผลิตที่เป็นอิสระอย่างสมบูรณ์
    ถ้ามองสภาพแวดล้อมการใช้งาน AI ในโปรดักชันตอนนี้ มนุษย์ก็ยังคงเป็นฝ่ายตรวจทาน แก้ไข และกำกับดูแลอยู่ดี AI จัดการปริมาณงาน ส่วนมนุษย์รับหน้าที่ตัดสินใจ สุดท้ายแล้ว การตัดสินใจคือคอขวด
    มันไม่ได้แทนที่แรงงาน แค่ย้ายตำแหน่งของแรงงานเท่านั้น ค่าตอบแทนแรงงานทั่วโลกมีมูลค่าราว 50 ล้านล้านดอลลาร์ต่อปี และตลาดทุนก็กำลังเดิมพันว่า AI จะดูดซับส่วนหนึ่งของสิ่งนี้ได้จริงหรือไม่ ชื่อเรียก AGI ไม่ได้สำคัญ — ทุนสนใจไม่ใช่นิยาม แต่คือ แรงงานกับผลผลิตถูกแยกออกจากกันหรือไม่

  • ทุกครั้งที่เห็นคำอย่าง “AGI”, “ASI” ฉันจะนึกแทนมันว่า “อะไรบางอย่างที่ไม่มีใครนิยามได้ชัดเจน”
    พูดอีกแบบคือ มันเป็นแนวคิดที่นิยามไม่สมบูรณ์จนสรุปอะไรไม่ได้ เลยแทนที่มันด้วยคำไร้สาระแบบ “สกิปติบูฟ” ไปเลย

    • ช่วงนี้ฉันแทบไม่ใช้คำว่า “AI” ด้วยซ้ำ ฉันคิดว่าการเรียก LLM หรือเทคโนโลยีเชิงกำเนิดตอนนี้แบบนั้นมัน คลุมเครือเกินไปและกลบปัญหา
    • ในกฎบัตรของ OpenAI นิยาม AGI คือ “ระบบที่มีความเป็นอิสระสูงและเหนือกว่ามนุษย์ในงานส่วนใหญ่ที่มีคุณค่าทางเศรษฐกิจ”
    • ปัญหาคือไม่มีใครนิยามคำศัพท์กันเลย
      ถ้านิยาม AGI ว่าเป็น “AI เอนกประสงค์ที่ไม่ได้จำกัดอยู่แค่งานเฉพาะทาง” มันก็มีอยู่แล้ว
      ถ้าหมายถึง “สติปัญญาระดับมนุษย์ในทุกงาน” งั้นมนุษย์บางคนก็ไม่ใช่ AGI
      ถ้าหมายถึง “อัลกอริทึมเวทมนตร์ที่ทำได้ทุกอย่างอย่างสมบูรณ์แบบ” แบบนั้นก็คงไม่มีอยู่จริง
      ตอนที่คำว่า AGI เพิ่งถูกใช้ใหม่ ๆ มันคงหมายถึงอะไรแบบ HAL 9000 แต่ตอนนี้มันกลายเป็น เกมที่เส้นชัยขยับตลอดเวลา ไปแล้ว
    • ฉันเรียกสิ่งนี้ว่า “นิยามเชิงโรแมนติก” หรือ “แนวคิดเชิงท่าที” มันใช้ได้ถ้าเป็นเรื่องส่วนตัวหรือใช้กันในทีม แต่สุดท้ายก็เป็นแค่คำชั่วคราวเพื่อช่วยขัดเกลาคำศัพท์เท่านั้น
    • จะสรุปว่าเป็น “enskibidification ของ AI” ก็ได้ — หรือก็คือแนวคิดนี้กำลังถูกทำให้กลายเป็นเรื่องตลกมากขึ้นเรื่อย ๆ
  • ทันทีที่ทุ่มสุดตัวกับการทำเทคโนโลยีให้เป็นสินค้า ผลลัพธ์ก็ถูกกำหนดไว้แล้ว
    LLM ปัจจุบันถูกใช้งานอย่าง อันตราย อยู่แล้ว และถ้าข่าวแบบนี้ยังได้รับความสนใจต่อไป OpenAI ก็คงจะค่อย ๆ ลบกฎบัตรของตัวเองออกจากเว็บไซต์แบบเงียบ ๆ

  • โมเดลปัจจุบันยังห่างไกลจาก AGI
    การทำนายโทเคนถัดไป พัฒนาไปอย่างน่าทึ่งก็จริง แต่ก็ยังไม่มีโมเดลของโลกความจริงหรือความสามารถในการเรียนรู้ที่แท้จริง
    ถ้าไม่มีการกำกับจากมนุษย์ ข้อจำกัดก็ชัดเจนมาก

    • จำไม่ได้แล้วด้วยซ้ำว่าผ่านมากี่เดือนตั้งแต่มีคนพูดว่า “ภายใน 12 เดือน วิศวกรซอฟต์แวร์จะหายไป”
    • ถ้าดูผลวิจัยด้าน mechanistic interpretability ฉันคิดว่าคำพูดที่ว่า “ไม่มีโมเดลของโลกความจริง” ตอนนี้เริ่มฟังไม่ค่อยขึ้นแล้ว
  • มีคนพูดถึง “ความไร้พลังของอุดมคติอันไร้เดียงสา” แต่สำหรับฉัน มันคือ การหยิบภาษาของอุดมคติมาใช้เป็นเครื่องมือทางการตลาด มากกว่า
    เอาเข้าจริงมันคือ องค์กรที่ขับเคลื่อนด้วยกำไร ซึ่งค่อย ๆ เผยธาตุแท้ออกมา

    • ตอนแรกฉันเชื่อว่าพวกเขาจริงใจ แต่คิดว่า Altman ถูกความโลภครอบงำจนทรยศต่ออุดมการณ์นั้น
  • AGI จะยังไม่มาในอีก 30 ปีข้างหน้า
    นักวิจัยก็พูดแบบนั้น
    AGI ที่แท้จริงต้องมี การเรียนรู้อย่างต่อเนื่องและความจำเชิงลึก แต่ LLM ทำแบบนั้นไม่ได้
    “หน่วยความจำ” ตอนนี้เป็นแค่การค้นคืนและสรุปข้อมูลเท่านั้น — เหมือนคนหนึ่งไปฟังเลคเชอร์ฟิสิกส์แล้วเขียนทุกอย่างลง Post-it จากนั้นให้อีกคนมาดูผ่าน ๆ แล้วตอบคำถาม
    ต้องใช้ RL และการฝึกใหม่ แต่สิ่งนั้นแพง ช้า และซับซ้อนเกินไป
    LLM เขียนโค้ดสวยก็จริง แต่ถึงจะบอกว่า “อย่าลบไฟล์ในโฟลเดอร์ X” สุดท้ายมันก็ลบอยู่ดี
    มันยังทำตามคำสั่งที่ผู้โจมตีแทรกไว้ในเอกสารอีกด้วย
    ถ้าไม่มีความจำจริงและ RL แบบเรียลไทม์ ปัญหาเหล่านี้ก็แก้ไม่ได้

    • อุปมา Post-it นี้อธิบายแก่นของ LLM ได้ดีที่สุด ต่อให้คนที่สองได้โน้ตที่ดีมาก ๆ มา ความเข้าใจเชิงลึก ก็ยังไม่พออยู่ดี
    • สำหรับคำกล่าวว่า “เป็นไปไม่ได้ใน 30 ปี” ฉันสงสัยว่าอ้างอิงคำพูดของนักวิจัยคนไหน
      ถ้าดู ทวีต ของ Daniel Kokotajlo, ความเห็น ของ Karpathy และ แบบสำรวจนักวิจัย AI ก็จะเห็นว่ามีการคาดการณ์ที่สั้นกว่านี้มากเหมือนกัน
    • ในฐานะจิตแพทย์ ฉันเปรียบ LLM กับ ผู้ป่วยความจำเสื่อมแบบ anterograde amnesia
      ระหว่างคุยก็ดูฉลาด แต่พอจบเซสชันก็ลืมหมด
      แม้แต่ระหว่างเซสชันเองประสิทธิภาพก็ยังตก — context ที่ยาวกลับยิ่งเป็นพิษ
      ท้ายที่สุด การไม่มีโครงสร้างความจำ คือข้อจำกัดหลัก มนุษย์แก้ปัญหานี้ด้วยความจำระยะยาวและการนอนหลับ แต่ LLM ทำไม่ได้
      ต่อให้ฉลาดแค่ไหน อัจฉริยะที่ไร้ความจำก็เป็นได้แค่ savant ระยะสั้น
    • ฉันคิดว่า “อุปมา Post-it” นั้นผิด
      LLM สามารถคัดลอกและจัดโครงสร้างข้อมูลหลายพันหน้าใหม่ได้ทันที
      ตอนนี้มีทั้ง RL ตอนเวลา inference และ การเรียนรู้อย่างต่อเนื่องบนฐาน LoRA อยู่แล้ว และตามนิยามบางแบบ AGI ก็ถือว่าทำสำเร็จแล้ว
      เพียงแต่ยังไม่คุ้มค่าในเชิงเศรษฐกิจ
      และแทนที่งานโปรแกรมเมอร์จะหายไป สุดท้ายแล้วน่าจะยิ่งต้องการคนที่มี ทักษะการคิดเชิงคำนวณ มากขึ้น
    • ฉันเห็นด้วยกับคำกล่าวว่า “เป็นไปไม่ได้ใน 30 ปี” แต่ก็อยากฟังเหตุผลรองรับเพิ่มเติม
  • จากประสบการณ์ส่วนตัว ช่วงหลัง ๆ GPT 5.4 ดีกว่า Opus 4.6
    แต่ก็น่าสนใจที่บนตารางอันดับ Chatbot Arena กลับอยู่ต่ำกว่า

    • Chatbot Arena ไม่น่าเชื่อถือเท่าไร
      เพราะอิงจากการโหวตของผู้ใช้ทั่วไปจึง ขาดการตรวจสอบความเชี่ยวชาญ และบริษัทยักษ์ใหญ่ก็มีการ ปั่นอันดับ กันด้วย
      เวลาจะใช้เทียบโมเดลใหม่ ๆ จึงไม่ค่อยมีความหมายมากนัก
    • ประสบการณ์ของฉันกลับตรงกันข้าม
      เมื่อให้พรอมป์ต์เดียวกัน GPT 5.4 สร้างการรีแฟกเตอร์ที่ไม่จำเป็นและทำให้เกิดบั๊ก ส่วน Opus 4.6 กลับรับรู้ฟีเจอร์ที่ถูกทำไว้แล้วและเสนอให้เพิ่มทั้งเทสต์กับการอัปเดตเอกสาร
      ฉันยังคิดว่า Opus 4.6 ยังเป็นเอเจนต์เขียนโค้ดที่ดีที่สุด
  • การคาดการณ์ว่า “กันยายน 2026 จะมี AI ฝึกงานวิจัยอัตโนมัติ และมีนาคม 2028 จะมีนักวิจัย AI เต็มรูปแบบ” น่าสนใจดี
    มันยังสอดคล้องกับจังหวะที่ โปรเจกต์ Autoresearch ของ Karpathy ขึ้นหน้าแรกของ HN ด้วย
    เป็นไปได้ว่า แล็บขนาดใหญ่คงกำลังทดลองเวอร์ชันที่ใหญ่กว่านี้มาก อยู่แล้ว

  • ฉันเห็นด้วยกับทั้ง “ความไร้พลังของอุดมคติอันไร้เดียงสา” และ “เส้นเป้าหมายที่เปลี่ยนไปเรื่อย ๆ” ของ AGI
    ช่วงนี้หลายคนพูดถึง ASI แทน AGI มากขึ้น จนให้ความรู้สึกว่าเราอาจบรรลุ AGI ไปแล้วก็ได้

  • ฟังดูเหมือนมุกตลก แต่จริง ๆ แล้วไม่มีใครเข้าใกล้ AGI ของจริงเลย
    ตัว Altman เองก็ยอมรับว่าการจะไปถึง AGI ต้องมี ความก้าวหน้าแบบทะลุเพดานหลายขั้นกลางทาง
    เขาคาดว่าแถว ๆ ปี 2026 AI จะก้าวข้ามระดับการนำข้อมูลเดิมมาจัดเรียงใหม่ ไปสู่การ สร้างอินไซต์ใหม่ ได้ และเขามองว่านั่นคือจุดวิกฤตของ AGI

    • แต่ฉันรู้สึกว่าเราเลย AGI มาแล้วด้วยซ้ำ
      ฉันคิดว่า LLM ในปัจจุบัน มีความสามารถโดยเฉลี่ยสูงกว่ามนุษย์ทั่วไป ไปแล้ว