18 คะแนน โดย GN⁺ 2026-02-11 | 3 ความคิดเห็น | แชร์ทาง WhatsApp
  • วิเคราะห์ด้วย ตัวชี้วัดจริง 5 อย่าง สำหรับวัดความก้าวหน้าของ AI และคำนวณ เวลาที่จะไปถึง Singularity ได้ละเอียดถึงระดับมิลลิวินาที ผลที่ออกมาคือ วันอังคารที่ 18 กรกฎาคม 2034
  • เมื่อนำ คะแนน MMLU, จำนวนโทเคนต่อดอลลาร์, ช่วงห่างการเปิดตัวโมเดล frontier, จำนวนบทความ arXiv ที่มีคำว่า "emergent", ส่วนแบ่งโค้ดของ Copilot ทั้ง 5 ตัวชี้วัดมา fit แยกกันอย่างอิสระ พบว่าตัวชี้วัดที่แสดงความโค้งแบบไฮเพอร์โบลาจริง ๆ มีเพียง จำนวนบทความ arXiv ที่มีคำว่า "emergent" เท่านั้น
  • ตัวชี้วัดด้านความสามารถของเครื่องทั้งหมดเป็นไปตาม แนวโน้มเชิงเส้น และไม่มีสัญญาณของซิงกูลาริตี สิ่งเดียวที่เร่งขึ้นมีเพียง ความสนใจ ความตื่นเต้น/ความกังวลของมนุษย์ ต่อปรากฏการณ์การเกิดพฤติกรรมใหม่ของ AI
  • ณ ปี 2026 ได้เกิด ซิงกูลาริตีทางสังคมที่มาก่อนซิงกูลาริตีทางเทคโนโลยี แล้ว ทั้งการปลดพนักงานครั้งใหญ่ ความล่าช้าของสถาบัน การกระจุกตัวของทุน ความเชื่อมั่นที่ลดลง และการปรับแนวทางทางการเมือง
  • แก่นแท้ของซิงกูลาริตีไม่ใช่จังหวะที่เครื่องไปถึงระดับอภิปัญญา แต่คือจังหวะที่มนุษย์ สูญเสียความสามารถในการตัดสินใจร่วมกันอย่างสม่ำเสมอ ต่อเครื่องจักร

ข้อมูล: 5 ตัวชี้วัดความก้าวหน้าของ AI

  • ใช้ตัวชี้วัด 5 อย่างที่คัดเลือกโดยอิงจากความหมายแบบกรีกของ "ความสำคัญเชิงมนุษย์ (anthropic significance)" (ไม่ได้หมายถึงบริษัท Anthropic)
  • คะแนน MMLU: benchmark ที่เปรียบได้กับ SAT ของโมเดลภาษา โดยมีข้อมูลตั้งแต่ GPT-3 (มิถุนายน 2020, 43.9%) ถึง Claude Opus 4.5 (พฤศจิกายน 2025, 90.8%)
  • จำนวนโทเคนเอาต์พุตต่อดอลลาร์: ใช้วัดการพังทลายของต้นทุนด้านปัญญา และใช้การแปลงลอการิทึม ครอบคลุมตั้งแต่ GPT-3 davinci (16,667 โทเคน/$) ถึง Gemini 2.0 Flash (2,500,000 โทเคน/$) กินช่วงถึง 5 หลัก
  • ช่วงห่างการเปิดตัวโมเดล frontier: ช่องว่างเวลาที่หดสั้นลงระหว่างช่วงเวลาที่ "ช็อก" ตั้งแต่ GPT-3→ChatGPT (902 วัน) ไปจนถึง Gemini 2.5 Pro→GPT-4.1 (20 วัน)
  • จำนวนบทความ arXiv ที่มีคำว่า "emergent": คิดแบบ rolling 12 เดือน เป็นตัววัดเชิงมีมของระดับความตื่นเต้นในวงวิชาการ
  • ส่วนแบ่งโค้ดของ Copilot: สัดส่วนของโค้ดที่ AI เป็นผู้เขียน
  • ตัวชี้วัดแต่ละตัวถูก normalize เป็น [0,1], ช่วงห่างการเปิดตัวถูกแปลงกลับด้าน (ยิ่งสั้นยิ่งค่าสูง), โทเคน/$ ถูกแปลงลอการิทึมก่อน normalize และแต่ละซีรีส์คงสเกลของตัวเองไว้อย่างอิสระ

ทำไมต้องใช้โมเดลไฮเพอร์โบลา

  • ฟังก์ชันเอ็กซ์โพเนนเชียล f(t) = ae^(bt) ที่มักใช้ในการคาดการณ์ AI ส่วนใหญ่ จะไปถึงอนันต์ก็ต่อเมื่อ t→∞ เท่านั้น จึงไม่สามารถแทนซิงกูลาริตีที่เกิดในเวลาจำกัดได้
  • การเติบโตแบบพหุนาม (t^n) ก็ไม่สามารถไปถึงอนันต์ได้ภายในเวลาจำกัดเช่นกัน
  • ฟังก์ชันไฮเพอร์โบลา x(t) = k/(t_s − t) + c มีคุณสมบัติที่เมื่อ t→t_s ตัวส่วนจะเป็น 0 และค่าจะพุ่งแตกในเวลาจำกัด
  • การเติบโตแบบไฮเพอร์โบลาเกิดขึ้นเมื่อสิ่งที่เติบโต เร่งการเติบโตของตัวเอง: AI ที่ดีขึ้น → เครื่องมือวิจัย AI ที่ดีขึ้น → AI ที่ดีขึ้น → วงจรป้อนกลับบวกแบบเหนือเชิงเส้น

ระเบียบวิธีการ fit

  • สำหรับตัวชี้วัดแต่ละตัว j จะ fit ไฮเพอร์โบลาอิสระรูป y_i^(j) = k_j/(t_s − t_i) + c_j โดย แชร์เวลาซิงกูลาริตี t_s ร่วมกัน
  • แต่ละซีรีส์มีสเกล k_j และออฟเซ็ต c_j ของตัวเอง ดังนั้นแม้ตัวชี้วัดที่มีแกน y ต่างกัน เช่น คะแนน MMLU กับโทเคนต่อดอลลาร์ ก็ยัง เห็นพ้องกันได้ในค่า t_s
  • เมื่อทำให้ RSS รวมต่ำที่สุด จะเกิดปัญหาว่า t_s ที่เหมาะสมที่สุดมักไหลไปที่อนันต์เสมอ เพราะไฮเพอร์โบลาที่อยู่ไกลจะเสื่อมรูปเป็นเส้นตรง ซึ่งเข้ากับข้อมูลที่มี noise ได้ดี
  • ทางเลือกที่ใช้คือทำ grid search หา R² ที่พีก แบบอิสระในแต่ละซีรีส์
    • ถ้า R² พีกที่ t_s แบบมีขอบเขตจำกัด แปลว่ามีสัญญาณไฮเพอร์โบลาจริง
    • ถ้า R² เพิ่มขึ้นต่อเนื่องเมื่อ t_s→∞ แปลว่าจริง ๆ แล้วเป็นเส้นตรงและไม่มีสัญญาณซิงกูลาริตี
  • ผลลัพธ์: มีเพียง arXiv "emergent" ที่มี R² พีกชัดเจน ส่วนอีก 4 ตัวชี้วัด เส้นตรงเหมาะกว่า ทั้งหมด

วันที่ที่ได้ออกมา

  • เวลาที่คาดการณ์ซิงกูลาริตี: วันอังคารที่ 18 กรกฎาคม 2034 เวลา 02:52:52.170 UTC
  • n = 52 (5 ซีรีส์), ช่วงความเชื่อมั่น 95%: มกราคม 2030 ~ มกราคม 2041 (กว้าง 132.4 เดือน)
  • ค่า R² รายซีรีส์ (ภายใต้ t_s ร่วม): MMLU 0.747, โทเคน/$ 0.020, ช่วงห่างการเปิดตัว 0.291, arXiv "emergent" 0.926, ส่วนแบ่งโค้ดของ Copilot 1.000
  • ช่วงความเชื่อมั่น 95% ได้จาก profile likelihood ของ t_s โดยใช้เกณฑ์ F-critical

การวิเคราะห์ความไว

  • การวิเคราะห์ Drop-One-Out: วัดว่าเมื่อถอดตัวชี้วัดแต่ละตัวออก t_s จะขยับไปเท่าไร
  • เมื่อตัด MMLU, โทเคน/$, ช่วงห่างการเปิดตัว, ส่วนแบ่งโค้ดของ Copilot ออกทีละตัว t_s ไม่เปลี่ยนเลย (+0.0 เดือน)
  • แต่เมื่อตัด arXiv "emergent" ออก t_s จะขยับไปเป็น กุมภาพันธ์ 2036 เลื่อนไป 18.6 เดือน (ถูกผลักไปชนขอบเขตการค้นหา)
  • ข้อสรุป: arXiv เป็นตัวที่ทำงานทั้งหมด ส่วนซีรีส์อื่นเพียงให้เส้นประกอบบริบทร่วมภายใต้ t_s เดียวกัน
  • Copilot มีข้อมูลเพียง 2 จุดกับพารามิเตอร์ 2 ตัว จึงมี องศาอิสระเป็น 0 และ fit ได้สมบูรณ์กับไฮเพอร์โบลาใดก็ได้ จึงไม่ส่งผลต่อ t_s

t_s มีความหมายจริง ๆ ว่าอะไร

  • การที่จำนวนบทความ arXiv วิ่งไปหาอนันต์ ไม่ได้หมายความว่าในวันอังคารปี 2034 จะมีบทความถูกตีพิมพ์ออกมาอนันต์ชิ้น
  • t_s คือ จุดที่ความโค้งของวิถีปัจจุบันไม่อาจคงอยู่ต่อไปได้ กล่าวคือเป็น ตัวบ่งชี้การเปลี่ยนเฟส ที่จะต้องเกิดการทะลุไปสู่สิ่งใหม่เชิงคุณภาพ หรือไม่ก็อิ่มตัวจนพิสูจน์ได้ว่าไฮเพอร์โบลานั้นผิด
  • ข้อเท็จจริงที่ชวนอึดอัดคือ ตัวชี้วัดที่ตามไฮเพอร์โบลาจริง ๆ ไม่ใช่ ความสามารถของเครื่อง แต่เป็นความสนใจของมนุษย์
  • MMLU, โทเคน/$, ช่วงห่างการเปิดตัว และตัวชี้วัดด้านความสามารถ/โครงสร้างพื้นฐานจริงอื่น ๆ ล้วน เป็นเส้นตรงและไม่มีจุดวิกฤต
  • เส้นโค้งเดียวที่ชี้ไปยังวันที่จำกัด คือความถี่ที่นักวิจัยค้นพบและตั้งชื่อพฤติกรรมใหม่ นั่นคือ "ความตื่นเต้นในวงวิชาการที่วัดแบบมีม"
  • ข้อสรุปจากข้อมูลคือ เครื่องกำลังดีขึ้นอย่างสม่ำเสมอ ขณะที่มนุษย์กำลัง เร่งและตื่นเต้นกับมันในอัตราเร่งที่เพิ่มขึ้น

ซิงกูลาริตีทางสังคม: ปรากฏการณ์ที่เกิดขึ้นแล้ว

  • หาก t_s คือช่วงเวลาที่อัตราความน่าประหลาดใจของ AI สูงเกินขีดความสามารถในการประมวลผลของมนุษย์ คำถามที่น่าสนใจก็คือ เกิดอะไรขึ้นกับมนุษย์ ไม่ใช่กับเครื่อง
  • ตลาดแรงงานผันผวนหนัก: ในปี 2025 มีการประกาศ ปลดพนักงาน 1.1 ล้านตำแหน่ง (เป็นครั้งที่ 6 ตั้งแต่ปี 1993 ที่ทะลุเกณฑ์นี้) และมากกว่า 55,000 ตำแหน่งระบุชัดว่า AI เป็นสาเหตุ
    • HBR พบว่า บริษัทต่าง ๆ ลดคนโดยอิงจาก ศักยภาพของ AI ไม่ใช่จากผลงานจริงของ AI
    • เส้นโค้งไม่จำเป็นต้องไปถึงจุดวิกฤต แค่ ดูเหมือนว่าจะไปถึง ก็เพียงพอให้เกิดการปรับโครงสร้างล่วงหน้า
  • สถาบันตอบสนองล้มเหลว: กฎ high-risk ของ EU AI Act ถูก เลื่อนไปเป็นปี 2027, สหรัฐยกเลิกคำสั่งบริหารด้าน AI ปี 2023 ในเดือนมกราคม 2025 แล้วออกคำสั่งใหม่ในเดือนธันวาคมเพื่อกันกฎหมายระดับรัฐ, ส่วน California และ Colorado เดิน คนละแนวทาง
    • กฎหมายที่กำลังร่างอยู่ตอนนี้กำลังควบคุมปัญหาของปี 2023 และพอถึงเวลาที่กฎหมายตาม GPT-4 ทัน โลกก็อาจไปถึง GPT-7 แล้ว
    • ความไร้ความสามารถที่ประชาชนมองเห็นของรัฐบาลไม่ได้กัดกร่อนความเชื่อมั่น แต่เป็นการ ทำให้พังทลาย โดยความเชื่อมั่นต่อ AI ทั่วโลกลดลงเหลือ 56%
  • การกระจุกตัวของทุนระดับดอทคอม: หุ้น 10 อันดับแรกใน S&P 500 (ส่วนใหญ่เกี่ยวข้องกับ AI) มีสัดส่วนในดัชนีปี 2025 ถึง 40.7%, สูงกว่าจุดพีกยุคดอทคอม
    • หลัง ChatGPT เปิดตัว หุ้นที่เกี่ยวข้องกับ AI สร้าง 75% ของผลตอบแทน S&P 500, 80% ของการเติบโตของกำไร และ 90% ของการเติบโตของการลงทุนทุน
    • Shiller CAPE อยู่ที่ 39.4 ซึ่งระดับนี้เคยเห็นครั้งล่าสุดใน ปี 1999
  • ผลกระทบทางจิตวิทยา: นักบำบัดรายงานการพุ่งขึ้นของ FOBO(Fear of Becoming Obsolete) โดยผู้ป่วยอธิบายว่า "จักรวาลกำลังบอกว่า 'คุณไม่จำเป็นอีกต่อไปแล้ว'"
    • คนทำงานในสหรัฐ 60% คาดว่า AI จะทำให้ตำแหน่งงานหายไปมากกว่าสร้างขึ้น
    • การใช้ AI เพิ่มขึ้น 13% เมื่อเทียบปีก่อน แต่ความเชื่อมั่นต่อ AI ลดลง 18%: ยิ่งใช้มากก็ยิ่งเชื่อน้อยลง
  • รอยแยกทางญาณวิทยา: งานวิจัย AI ที่ ทำซ้ำได้มีไม่ถึง 1/3, นักวิจัยที่แชร์โค้ดมี ไม่ถึง 5%, และการตีพิมพ์ของแล็บเอกชนลดลง
    • ช่องว่างระหว่างความรู้ของแล็บ frontier กับความรู้ของสาธารณะกว้างขึ้น ผู้กำหนดนโยบายทำงานบนข้อมูลที่ ล้าสมัยไปแล้ว
    • ผู้เชี่ยวชาญที่ไปให้การต่อสภากลับขัดแย้งกันเอง เพราะสาขานี้เคลื่อนไหวเร็วกว่าความเร็วที่ความเชี่ยวชาญจะก่อตัว
  • การจัดระเบียบใหม่ทางการเมือง: TIME รายงานถึงกระแสต้าน AI แบบประชานิยม, Foreign Affairs ระบุว่า "เศรษฐกิจแห่งความโกรธจะเสริมพลังประชานิยม", และ HuffPost มองว่า AI จะเป็นตัว กำหนดการเลือกตั้งกลางเทอมปี 2026
    • MAGA แตกออกว่ามอง AI เป็นฝ่ายหนุนธุรกิจหรือฝ่ายต้านแรงงาน ขณะที่ Sanders เสนอ moratorium ต่อ data center
    • แกนซ้าย-ขวาเดิมไม่อาจรับน้ำหนักของคำถามนี้ได้อีกและกำลัง พังทลาย
  • ทั้งหมดนี้เกิดขึ้น ก่อน t_s ถึง 8 ปี: ซิงกูลาริตีทางสังคมมาก่อนซิงกูลาริตีทางเทคโนโลยี และความสับสนระดับสถาบันกับจิตวิทยาไม่ได้รอให้ความสามารถพุ่งขึ้นแนวดิ่ง แต่เริ่มตั้งแต่วินาทีที่ วิถีนั้นถูกรับรู้

ข้อควรระวัง (Caveats)

  • วันที่นี้มาจากซีรีส์เดียว: มีเพียง arXiv "emergent" ที่มีความโค้งไฮเพอร์โบลาจริง อีก 4 ตัวชี้วัดเหมาะกับเส้นตรงมากกว่า
    • ความหมายที่แท้จริงของวันที่ซิงกูลาริตีจึงคือ "จุดที่งานวิจัยด้าน AI แบบ emergent พุ่งขึ้นในแนวดิ่ง" และประเด็นสำคัญคือความตื่นเต้นในวงวิชาการเป็น ตัวชี้นำหรือเป็นตัวตาม กันแน่
  • โมเดลตั้งสมมติฐานเรื่อง stationarity: ในที่สุดเส้นโค้งย่อมเปลี่ยนทิศเป็นลอจิสติก (ความอิ่มตัวของกระแส hype) หรือเปลี่ยนเป็นรูปแบบที่โมเดลนี้แทนไม่ได้ (การเปลี่ยนเฟสจริง) ดังนั้น t_s คือ จุดที่ระบบปัจจุบันทนต่อไปไม่ไหว ไม่ใช่การทำนายสิ่งที่จะเกิดหลังจากนั้น
  • ผลเพดานของ MMLU: เป็น artifact จากการอิ่มตัวของ benchmark ที่บีบความแหลมของข้อมูล ค่า R² ที่ต่ำสะท้อนเรื่องนี้
  • โทเคน/$ ถูกแปลงลอการิทึมและไม่เป็นโมโนโทนิก: GPT-4 แพงกว่า 3.5 และ Opus 4.5 ก็มีต้นทุนสูงกว่า DeepSeek-R1 เส้นต้นทุนจึงไม่เรียบ และมีทั้ง ความก้าวหน้าแบบ Pareto กับโมเดลต้นทุนสูงปะปนกัน
  • 5 ตัวชี้วัดยังไม่พอ: หากเพิ่ม SWE-bench, ARC, GPQA, ปริมาณการซื้อ compute, เงินเดือนบุคลากร ฯลฯ ก็อาจลดการพึ่งพา arXiv ได้ เหตุผลที่ใช้ 5 ตัวเพียงเพราะว่า มันพอดีกับตาราง
  • Copilot มีข้อมูล 2 จุด: มีองศาอิสระเป็น 0 จึงไม่ช่วยกำหนด t_s

บทสรุป

  • จากข้อมูลจริงและแบบจำลองทางคณิตศาสตร์ ทำให้ได้ ช่วงเวลาซิงกูลาริตีที่ชัดเจนหนึ่งจุด
    • แต่ซิงกูลาริตีนี้ไม่ได้หมายถึง เครื่องจักรกลายเป็นอภิปัญญา หากหมายถึงความพังทลายของความใส่ใจในสังคมมนุษย์
  • สิ่งที่คณิตศาสตร์ค้นพบคือ ตัวชี้วัดหนึ่งเดียวที่ลากเส้นโค้งไปหาจุดวิกฤต ณ มิลลิวินาทีใดมิลลิวินาทีหนึ่ง นั่นคือความเร็วที่มนุษย์ ค้นพบพฤติกรรม emergent ของ AI
    • อีก 4 ตัวชี้วัดเป็นเส้นตรง: เครื่องกำลังพัฒนาอย่างต่อเนื่อง ส่วนที่กำลังเร่งคือมนุษย์
  • ทั้งแรงงาน สถาบัน ทุน การรับรู้ และการเมือง ล้วนกำลังอยู่ใน ภาวะซิงกูลาริตีทางสังคม แล้ว
  • ก่อนซิงกูลาริตีทางเทคโนโลยีจะมาถึง มนุษย์น่าจะเผชิญ ขีดจำกัดร่วมกัน ในการรับมือความเร็วของการเปลี่ยนแปลงจาก AI ก่อน
  • ซิงกูลาริตีในข้อมูลนี้คือ ซิงกูลาริตีของความสนใจของมนุษย์ และกำลังออกแรงโน้มถ่วงต่อทุกสิ่งที่มันสัมผัสอยู่แล้ว
    • มนุษยชาติได้ก้าวเข้าสู่การนับถอยหลังนั้นแล้ว

3 ความคิดเห็น

 
mammal 2026-02-11

จุดที่น่าสนใจคือ วันประกาศใหญ่ ๆ อย่างโมเดลใหม่ของ OpenAI, Google และ Anthropic มักจะเป็นวันอังคารกับวันพฤหัสบดี

ถ้าอิงตามเวลาเกาหลี ก็จะประกาศกันราว ๆ ตี 2-3 ของเช้าวันพุธและวันศุกร์ (10 โมงเช้าตามเวลาแคลิฟอร์เนีย) ดังนั้นถ้าคืนนั้นนอนไม่หลับ ลองเช็กข่าวช่วงนี้ดู

 
GN⁺ 2026-02-11
ความคิดเห็นจาก Hacker News
  • บทความนี้น่าสนใจมาก ผู้เขียนอธิบาย โมเดลและวิธีวิทยา ของตัวเองอย่างยืดยาวก่อนจะเข้าประเด็นหลักในที่สุด — สิ่งที่สำคัญกว่าการที่ singularity จะมาจริงหรือไม่ คือ จะมีคนจำนวนมากแค่ไหนที่เชื่อมันและลงมือทำตามนั้น
    เพราะแบบนั้น ฉันเลยย้ายจุดสนใจจากข้อถกเถียงทางเทคนิคไปสู่การถกเถียงทางสังคมแทน ฝั่งที่บอกว่า “การพยายามแทนที่แรงงานมนุษย์โดยที่สังคมยังไม่เปลี่ยนโครงสร้างที่ทำให้การอยู่รอดต้องพึ่งแรงงานรับจ้างนั้นเป็นเรื่องแย่มาก” ฟังดูน่าเห็นด้วยกว่ามาก

    • ทำให้นึกถึงแนวคิดที่ฉันชอบคือ ‘epistemic takeover(การยึดครองทางญาณวิทยา)’
      รูปแบบง่าย ๆ คือ “ทำให้ทุกคนเชื่อว่าชนะไปแล้ว” ส่วนรูปแบบที่ซับซ้อนกว่าคือ “ทำให้ทุกคนเชื่อว่าคนอื่นก็เชื่อแบบนั้นเหมือนกัน” สุดท้ายผู้คนก็จะลงมือทำตามความเชื่อนั้น
    • ฉันคิดว่าการอธิบายว่า “LLM ทำงานจริง ๆ อย่างไร” ก็คล้ายกับการบอกว่า “มนุษย์ก็เป็นแค่กลุ่มของโมเลกุลกับนิวรอน เลยไม่มีความหมายอะไร”
      LLM เป็นเพียง เครื่องทำนายเชิงสถิติ แต่ในกระบวนการนั้นอาจเกิด emergent behavior หรือก็คือ พฤติกรรมแบบชาญฉลาด ขึ้นมาก็ได้ ตอนนี้เรายังบอกไม่ได้แน่ชัด
    • หลายคนก็ไม่เห็นด้วยกับข้ออ้างที่ว่า “การแทนที่แรงงานเกิดก่อนการปฏิรูปสังคมเป็นเรื่องไม่ดี” ปัญหาคือคนพวกนั้นไม่ได้เป็นฝ่ายจ่ายต้นทุน กลับเป็นฝ่ายได้ stock option แทน
    • ฉันไม่เห็นด้วยกับคำพูดที่ว่า “การที่ singularity จะเกิดขึ้นจริงหรือไม่นั้นไม่สำคัญ”
      ถ้า singularity ไม่มา ความเชื่อของผู้คนก็สำคัญมาก แต่ถ้ามันมาจริง ความเชื่อก็แทบไม่มีความหมายเลย
    • การถกเถียงแบบนี้มีมาตั้งแต่ยุค 1980 แล้ว อุตสาหกรรมเทคโนโลยีควรสร้างคนที่สนใจ ความสามารถจริงและความละเอียดอ่อนของมัน มากกว่า และควรเขี่ยพวกผู้ตามแนวพัฒนาตัวเองที่เชื่อว่า “สำเร็จได้โดยไม่ต้องมีผลิตภัณฑ์” ออกไป
  • มีการยกข้อความจาก 『Dune』 ของ Frank Herbert มาอ้าง โดยบอกว่าผลจากการที่มนุษย์มอบการคิดให้เครื่องจักรคือ มนุษย์คนอื่นได้ปกครองมนุษย์ผ่านเครื่องจักร
    เขาเตือนว่าเราจะไม่อ่าน ไม่เขียน และไม่คิดอีกต่อไป ถ้า LLM มาทำทุกอย่างแทนก็จะนำไปสู่ จุดจบของมนุษยชาติ
    และยังพูดถึง โครงการ Poison Fountain ในฐานะ อาวุธต่อต้าน AI ที่ฉีด ‘ข้อมูลพิษ’ ให้เว็บครอว์เลอร์ทุกวัน พร้อมชวนให้เข้าร่วม

    • สำหรับฉัน LLM ไม่ได้มีผลแบบนั้น กลับใช้มันได้เป็นประโยชน์เหมือน เครื่องมือค้นหาแบบเสริมพลัง มากกว่า
    • จินตนาการถึง ยูโทเปียแบบ Iain Banks เพื่อต้านดิสโทเปียของ Herbert
    • ไม่ควรรับคำพูดของนักเขียน SF เป็นคำพยากรณ์ Herbert แค่สร้างกลไกขึ้นมาเพื่ออธิบายว่าทำไม singularity ถึงไม่เกิดในโลกแบบที่เขาสร้างเท่านั้น
    • “จุดจบของมนุษยชาติ” ถูกทำนายมาหลายครั้งแล้ว แต่มนุษยชาติก็ เปลี่ยนตัวเองและอยู่รอดมาเสมอ พอแก้ปัญหาหนึ่งได้ก็มีปัญหาใหม่เกิดขึ้นเท่านั้น
  • มีการแนะนำเรื่องสั้นปี 1965 ของ R.A. Lafferty ชื่อ 「Slow Tuesday Night
    เป็น SF ความยาว 2600 คำที่描绘สังคมความเร็วสูงลิบลิ่ว โลกที่หนึ่งวันผ่านไปในเวลาเพียงไม่กี่นาที

    • มีฉากที่นักปรัชญาเขียนหนังสือปรัชญาเสร็จในเวลาแค่ 7 นาที ซึ่งดูเหมือน การปรับพรอมป์ต์ของ LLM มาก กระบวนการสลับคำแล้วใส่ ‘ลายเซ็นความเป็นตัวตน’ นั้นคล้ายการเขียนด้วย AI ในปัจจุบันอย่างน่าทึ่ง
  • มีคนยกประโยคที่ว่า “singularity ไม่ใช่ช่วงเวลาที่เครื่องจักรกลายเป็นอภิปัญญา แต่คือช่วงเวลาที่มนุษย์ ไม่อาจตัดสินใจร่วมกันเกี่ยวกับเครื่องจักรได้อย่าง coherently อีกต่อไป” แล้วบอกว่าประทับใจมาก

    • รู้สึกว่าเราผ่านจุดนั้นมาไกลแล้ว
    • แถมพวก บริษัท Big Tech ก็ทำให้สถานการณ์แย่ลง ด้วยท่าทีที่พยายามเลี่ยงกฎระเบียบและเคลื่อนตัวให้เร็วกว่าระบบราชการ
  • เนื้อหาบทความน่าสนใจ ปี 2025 มีการประกาศเลิกจ้าง 1.1 ล้านคน และในนั้น 55,000 คนถูกอ้างเหตุผลว่าเป็นเพราะ AI แต่สิ่งนี้คือ การเลิกจ้างบนฐานของ ‘ความเป็นไปได้’ ไม่ใช่ประสิทธิภาพจริงของ AI
    ท้ายที่สุด AI แค่เผยให้เห็นสิ่งที่เรารู้อยู่แล้ว นั่นคือ โลกนี้มีงานออฟฟิศที่ไร้ความหมายมากเกินไป

    • ตลอด 32 ปีนับจาก 1993 การเลิกจ้างระดับนี้เกิดขึ้น 6 ครั้ง หรือก็คือเฉลี่ยทุก 5 ปี จึงไม่ได้เป็นประวัติศาสตร์อะไรขนาดนั้น
    • มันก็แค่ส่วนต่อเนื่องของ ‘next quarter problem’ เพื่อผลประกอบการระยะสั้นเท่านั้น บริษัทผูกขาดต่อให้ลดพนักงานลงครึ่งหนึ่งก็ไม่เสียลูกค้า
    • สาเหตุที่ตำแหน่งผู้จัดการระดับกลางเพิ่มขึ้นก็เพราะงานอย่างอื่นหายไป คนต้องรับ งานราชการไร้ความหมาย เพื่อไม่ให้ตัวเองอดตาย
    • เคยคิดว่า DevOps จะทำให้ DBA กับ SysAdmin หายไป แต่กลับสร้างอุตสาหกรรมใหม่ขึ้นมาแทน “งานไร้ความหมาย” ก็ยังคงอยู่
    • ที่งานธุรการมีมากกว่ายุค 1960 ถึง 3 เท่า ก็เพราะประชากรเพิ่มขึ้น 3 เท่าเช่นกัน จึงตัดสินง่าย ๆ ไม่ได้ว่ามันไร้ความหมายทั้งหมด
  • มีการแนะนำ สมการเชิงอนุพันธ์ ที่ใช้แทน “การระเบิดของปัญญา” ด้วยโมเดลง่าย ๆ
    `dx/dt = x²` มีคำตอบเป็น `x = 1/(C - t)` ซึ่งพุ่งขึ้นรุนแรงกว่า การเติบโตแบบเอ็กซ์โพเนนเชียล ที่อัตราเติบโตแปรผันตาม x เสียอีก
    แต่ถ้าคำนึงถึงข้อจำกัดในโลกจริง เช่น พลังงานและทรัพยากร ท้ายที่สุดมันจะลู่เข้าไปสู่รูปแบบคล้าย การเติบโตแบบลอจิสติก

    • เพราะ light cone การเติบโตขนาดใหญ่จึงเร็วเกิน x³ ไม่ได้ และในความเป็นจริงน่าจะมีเพดานราว x²
    • มีคนตอบแบบติดตลกว่า “เอาตรรกะกับความจริงมาใส่ในการถกเรื่อง singularity เนี่ยนะ!”
  • มีการย้ำเตือนว่าทั้งหมดนี้เกิดขึ้นได้ก็เพราะ วิดีโอเกม ถ้าไม่มีความก้าวหน้าของฮาร์ดแวร์ GPU ก็คงไม่มี LLM เช่นกัน
    ที่จริง AI คือผลลัพธ์ของการสั่งสมเทคโนโลยีมาหลายสิบปี — ทั้งชิป อินเทอร์เน็ต โอเพนซอร์ส คลาวด์ ดาต้าเซ็นเตอร์ ไปจนถึงคณิตศาสตร์และฟิสิกส์ ล้วนเป็นกระบวนการที่ มุ่งหน้าไปสู่ singularity อย่างหลีกเลี่ยงไม่ได้

    • แต่ก็มีคนตั้งข้อสงสัยว่า “ถึงไม่มี NVIDIA อุตสาหกรรมอื่นก็อาจพัฒนาฮาร์ดแวร์สำหรับ การคำนวณเชิงพีชคณิตเชิงเส้น ขึ้นมาอยู่ดี”
    • อีกคนก็ตัดบทว่า “ไร้สาระสิ้นดี”
  • มีคนพูดติดตลกว่า “โล่งใจจัง อย่างน้อยก็ยังโอเคถึงปี 2034”

  • มีการตั้งคำถามว่าทำไมเดี๋ยวนี้ถึงไม่ค่อยพูดถึง singularity ผ่านแนวคิด knowledge doubling กันแล้ว
    โดยยกทั้ง ‘Knowledge Doubling Curve’ ของ Buckminster Fuller และ ‘Law of Accelerating Returns’ ของ Ray Kurzweil มาพูดถึง
    ในอดีตความรู้ของมนุษยชาติเพิ่มเป็นสองเท่าทุก 100 ปี แล้วต่อมาก็ทุก 25 ปี ดังนั้นตอนนี้ก็ควรมองจุดที่ความเร็วนั้นลู่เข้าอนันต์ว่าเป็น singularity ไม่ใช่หรือ

  • มีคนโล่งใจว่าอย่างน้อยก็คงไม่ต้องเจอกับ ปัญหา Unix timestamp ปี 2038

    • จินตนาการถึง เรื่องสั้นวันสิ้นโลก ที่วันที่ 20 มกราคม 2038 ฝูงโดรนตกลงมาจากฟ้าและมนุษยชาติเอาตัวรอด
    • ที่จริงความโหยหาวันสิ้นโลกแบบนี้อาจเป็น แรงขับทางจิตวิทยาที่มุ่งสู่ apocalypse ก็ได้
    • พูดเล่นว่าดีเหมือนกัน จะได้ไม่ต้องดูแล ซอฟต์แวร์ vibecoded ของยุค 2020s
    • นึกถึงตอนปี 1998 ที่เคยซื้อเสื้อยืด ‘Y2038’ ตอนนั้นมันดูไกลมาก แต่ตอนนี้เหลืออีกแค่ 12 ปีแล้ว
    • “เฮ้อ เครื่องจักรคงจัดการกันเองแหละ” พร้อมแสดงความโล่งใจ
 
pencil6962 2026-02-11

แม้จะคาดการณ์ในแง่ดีก็ยังเหลืออีก 8 ปี เวลามีมากและก็มีงานให้ทำอีกมากนะครับ จะใช้ชีวิตโดยไม่ทำอะไรเลยตลอดช่วงเวลาที่ทารกแรกเกิดเติบโตจนเป็นนักเรียนประถมก็คงไม่ได้