- วิเคราะห์ด้วย ตัวชี้วัดจริง 5 อย่าง สำหรับวัดความก้าวหน้าของ AI และคำนวณ เวลาที่จะไปถึง Singularity ได้ละเอียดถึงระดับมิลลิวินาที ผลที่ออกมาคือ วันอังคารที่ 18 กรกฎาคม 2034
- เมื่อนำ คะแนน MMLU, จำนวนโทเคนต่อดอลลาร์, ช่วงห่างการเปิดตัวโมเดล frontier, จำนวนบทความ arXiv ที่มีคำว่า "emergent", ส่วนแบ่งโค้ดของ Copilot ทั้ง 5 ตัวชี้วัดมา fit แยกกันอย่างอิสระ พบว่าตัวชี้วัดที่แสดงความโค้งแบบไฮเพอร์โบลาจริง ๆ มีเพียง จำนวนบทความ arXiv ที่มีคำว่า "emergent" เท่านั้น
- ตัวชี้วัดด้านความสามารถของเครื่องทั้งหมดเป็นไปตาม แนวโน้มเชิงเส้น และไม่มีสัญญาณของซิงกูลาริตี สิ่งเดียวที่เร่งขึ้นมีเพียง ความสนใจ ความตื่นเต้น/ความกังวลของมนุษย์ ต่อปรากฏการณ์การเกิดพฤติกรรมใหม่ของ AI
- ณ ปี 2026 ได้เกิด ซิงกูลาริตีทางสังคมที่มาก่อนซิงกูลาริตีทางเทคโนโลยี แล้ว ทั้งการปลดพนักงานครั้งใหญ่ ความล่าช้าของสถาบัน การกระจุกตัวของทุน ความเชื่อมั่นที่ลดลง และการปรับแนวทางทางการเมือง
- แก่นแท้ของซิงกูลาริตีไม่ใช่จังหวะที่เครื่องไปถึงระดับอภิปัญญา แต่คือจังหวะที่มนุษย์ สูญเสียความสามารถในการตัดสินใจร่วมกันอย่างสม่ำเสมอ ต่อเครื่องจักร
ข้อมูล: 5 ตัวชี้วัดความก้าวหน้าของ AI
- ใช้ตัวชี้วัด 5 อย่างที่คัดเลือกโดยอิงจากความหมายแบบกรีกของ "ความสำคัญเชิงมนุษย์ (anthropic significance)" (ไม่ได้หมายถึงบริษัท Anthropic)
- คะแนน MMLU: benchmark ที่เปรียบได้กับ SAT ของโมเดลภาษา โดยมีข้อมูลตั้งแต่ GPT-3 (มิถุนายน 2020, 43.9%) ถึง Claude Opus 4.5 (พฤศจิกายน 2025, 90.8%)
- จำนวนโทเคนเอาต์พุตต่อดอลลาร์: ใช้วัดการพังทลายของต้นทุนด้านปัญญา และใช้การแปลงลอการิทึม ครอบคลุมตั้งแต่ GPT-3 davinci (16,667 โทเคน/$) ถึง Gemini 2.0 Flash (2,500,000 โทเคน/$) กินช่วงถึง 5 หลัก
- ช่วงห่างการเปิดตัวโมเดล frontier: ช่องว่างเวลาที่หดสั้นลงระหว่างช่วงเวลาที่ "ช็อก" ตั้งแต่ GPT-3→ChatGPT (902 วัน) ไปจนถึง Gemini 2.5 Pro→GPT-4.1 (20 วัน)
- จำนวนบทความ arXiv ที่มีคำว่า "emergent": คิดแบบ rolling 12 เดือน เป็นตัววัดเชิงมีมของระดับความตื่นเต้นในวงวิชาการ
- ส่วนแบ่งโค้ดของ Copilot: สัดส่วนของโค้ดที่ AI เป็นผู้เขียน
- ตัวชี้วัดแต่ละตัวถูก normalize เป็น [0,1], ช่วงห่างการเปิดตัวถูกแปลงกลับด้าน (ยิ่งสั้นยิ่งค่าสูง), โทเคน/$ ถูกแปลงลอการิทึมก่อน normalize และแต่ละซีรีส์คงสเกลของตัวเองไว้อย่างอิสระ
ทำไมต้องใช้โมเดลไฮเพอร์โบลา
- ฟังก์ชันเอ็กซ์โพเนนเชียล f(t) = ae^(bt) ที่มักใช้ในการคาดการณ์ AI ส่วนใหญ่ จะไปถึงอนันต์ก็ต่อเมื่อ t→∞ เท่านั้น จึงไม่สามารถแทนซิงกูลาริตีที่เกิดในเวลาจำกัดได้
- การเติบโตแบบพหุนาม (t^n) ก็ไม่สามารถไปถึงอนันต์ได้ภายในเวลาจำกัดเช่นกัน
- ฟังก์ชันไฮเพอร์โบลา x(t) = k/(t_s − t) + c มีคุณสมบัติที่เมื่อ t→t_s ตัวส่วนจะเป็น 0 และค่าจะพุ่งแตกในเวลาจำกัด
- การเติบโตแบบไฮเพอร์โบลาเกิดขึ้นเมื่อสิ่งที่เติบโต เร่งการเติบโตของตัวเอง: AI ที่ดีขึ้น → เครื่องมือวิจัย AI ที่ดีขึ้น → AI ที่ดีขึ้น → วงจรป้อนกลับบวกแบบเหนือเชิงเส้น
ระเบียบวิธีการ fit
- สำหรับตัวชี้วัดแต่ละตัว j จะ fit ไฮเพอร์โบลาอิสระรูป y_i^(j) = k_j/(t_s − t_i) + c_j โดย แชร์เวลาซิงกูลาริตี t_s ร่วมกัน
- แต่ละซีรีส์มีสเกล k_j และออฟเซ็ต c_j ของตัวเอง ดังนั้นแม้ตัวชี้วัดที่มีแกน y ต่างกัน เช่น คะแนน MMLU กับโทเคนต่อดอลลาร์ ก็ยัง เห็นพ้องกันได้ในค่า t_s
- เมื่อทำให้ RSS รวมต่ำที่สุด จะเกิดปัญหาว่า t_s ที่เหมาะสมที่สุดมักไหลไปที่อนันต์เสมอ เพราะไฮเพอร์โบลาที่อยู่ไกลจะเสื่อมรูปเป็นเส้นตรง ซึ่งเข้ากับข้อมูลที่มี noise ได้ดี
- ทางเลือกที่ใช้คือทำ grid search หา R² ที่พีก แบบอิสระในแต่ละซีรีส์
- ถ้า R² พีกที่ t_s แบบมีขอบเขตจำกัด แปลว่ามีสัญญาณไฮเพอร์โบลาจริง
- ถ้า R² เพิ่มขึ้นต่อเนื่องเมื่อ t_s→∞ แปลว่าจริง ๆ แล้วเป็นเส้นตรงและไม่มีสัญญาณซิงกูลาริตี
- ผลลัพธ์: มีเพียง arXiv "emergent" ที่มี R² พีกชัดเจน ส่วนอีก 4 ตัวชี้วัด เส้นตรงเหมาะกว่า ทั้งหมด
วันที่ที่ได้ออกมา
- เวลาที่คาดการณ์ซิงกูลาริตี: วันอังคารที่ 18 กรกฎาคม 2034 เวลา 02:52:52.170 UTC
- n = 52 (5 ซีรีส์), ช่วงความเชื่อมั่น 95%: มกราคม 2030 ~ มกราคม 2041 (กว้าง 132.4 เดือน)
- ค่า R² รายซีรีส์ (ภายใต้ t_s ร่วม): MMLU 0.747, โทเคน/$ 0.020, ช่วงห่างการเปิดตัว 0.291, arXiv "emergent" 0.926, ส่วนแบ่งโค้ดของ Copilot 1.000
- ช่วงความเชื่อมั่น 95% ได้จาก profile likelihood ของ t_s โดยใช้เกณฑ์ F-critical
การวิเคราะห์ความไว
- การวิเคราะห์ Drop-One-Out: วัดว่าเมื่อถอดตัวชี้วัดแต่ละตัวออก t_s จะขยับไปเท่าไร
- เมื่อตัด MMLU, โทเคน/$, ช่วงห่างการเปิดตัว, ส่วนแบ่งโค้ดของ Copilot ออกทีละตัว t_s ไม่เปลี่ยนเลย (+0.0 เดือน)
- แต่เมื่อตัด arXiv "emergent" ออก t_s จะขยับไปเป็น กุมภาพันธ์ 2036 เลื่อนไป 18.6 เดือน (ถูกผลักไปชนขอบเขตการค้นหา)
- ข้อสรุป: arXiv เป็นตัวที่ทำงานทั้งหมด ส่วนซีรีส์อื่นเพียงให้เส้นประกอบบริบทร่วมภายใต้ t_s เดียวกัน
- Copilot มีข้อมูลเพียง 2 จุดกับพารามิเตอร์ 2 ตัว จึงมี องศาอิสระเป็น 0 และ fit ได้สมบูรณ์กับไฮเพอร์โบลาใดก็ได้ จึงไม่ส่งผลต่อ t_s
t_s มีความหมายจริง ๆ ว่าอะไร
- การที่จำนวนบทความ arXiv วิ่งไปหาอนันต์ ไม่ได้หมายความว่าในวันอังคารปี 2034 จะมีบทความถูกตีพิมพ์ออกมาอนันต์ชิ้น
- t_s คือ จุดที่ความโค้งของวิถีปัจจุบันไม่อาจคงอยู่ต่อไปได้ กล่าวคือเป็น ตัวบ่งชี้การเปลี่ยนเฟส ที่จะต้องเกิดการทะลุไปสู่สิ่งใหม่เชิงคุณภาพ หรือไม่ก็อิ่มตัวจนพิสูจน์ได้ว่าไฮเพอร์โบลานั้นผิด
- ข้อเท็จจริงที่ชวนอึดอัดคือ ตัวชี้วัดที่ตามไฮเพอร์โบลาจริง ๆ ไม่ใช่ ความสามารถของเครื่อง แต่เป็นความสนใจของมนุษย์
- MMLU, โทเคน/$, ช่วงห่างการเปิดตัว และตัวชี้วัดด้านความสามารถ/โครงสร้างพื้นฐานจริงอื่น ๆ ล้วน เป็นเส้นตรงและไม่มีจุดวิกฤต
- เส้นโค้งเดียวที่ชี้ไปยังวันที่จำกัด คือความถี่ที่นักวิจัยค้นพบและตั้งชื่อพฤติกรรมใหม่ นั่นคือ "ความตื่นเต้นในวงวิชาการที่วัดแบบมีม"
- ข้อสรุปจากข้อมูลคือ เครื่องกำลังดีขึ้นอย่างสม่ำเสมอ ขณะที่มนุษย์กำลัง เร่งและตื่นเต้นกับมันในอัตราเร่งที่เพิ่มขึ้น
ซิงกูลาริตีทางสังคม: ปรากฏการณ์ที่เกิดขึ้นแล้ว
- หาก t_s คือช่วงเวลาที่อัตราความน่าประหลาดใจของ AI สูงเกินขีดความสามารถในการประมวลผลของมนุษย์ คำถามที่น่าสนใจก็คือ เกิดอะไรขึ้นกับมนุษย์ ไม่ใช่กับเครื่อง
- ตลาดแรงงานผันผวนหนัก: ในปี 2025 มีการประกาศ ปลดพนักงาน 1.1 ล้านตำแหน่ง (เป็นครั้งที่ 6 ตั้งแต่ปี 1993 ที่ทะลุเกณฑ์นี้) และมากกว่า 55,000 ตำแหน่งระบุชัดว่า AI เป็นสาเหตุ
- HBR พบว่า บริษัทต่าง ๆ ลดคนโดยอิงจาก ศักยภาพของ AI ไม่ใช่จากผลงานจริงของ AI
- เส้นโค้งไม่จำเป็นต้องไปถึงจุดวิกฤต แค่ ดูเหมือนว่าจะไปถึง ก็เพียงพอให้เกิดการปรับโครงสร้างล่วงหน้า
- สถาบันตอบสนองล้มเหลว: กฎ high-risk ของ EU AI Act ถูก เลื่อนไปเป็นปี 2027, สหรัฐยกเลิกคำสั่งบริหารด้าน AI ปี 2023 ในเดือนมกราคม 2025 แล้วออกคำสั่งใหม่ในเดือนธันวาคมเพื่อกันกฎหมายระดับรัฐ, ส่วน California และ Colorado เดิน คนละแนวทาง
- กฎหมายที่กำลังร่างอยู่ตอนนี้กำลังควบคุมปัญหาของปี 2023 และพอถึงเวลาที่กฎหมายตาม GPT-4 ทัน โลกก็อาจไปถึง GPT-7 แล้ว
- ความไร้ความสามารถที่ประชาชนมองเห็นของรัฐบาลไม่ได้กัดกร่อนความเชื่อมั่น แต่เป็นการ ทำให้พังทลาย โดยความเชื่อมั่นต่อ AI ทั่วโลกลดลงเหลือ 56%
- การกระจุกตัวของทุนระดับดอทคอม: หุ้น 10 อันดับแรกใน S&P 500 (ส่วนใหญ่เกี่ยวข้องกับ AI) มีสัดส่วนในดัชนีปี 2025 ถึง 40.7%, สูงกว่าจุดพีกยุคดอทคอม
- หลัง ChatGPT เปิดตัว หุ้นที่เกี่ยวข้องกับ AI สร้าง 75% ของผลตอบแทน S&P 500, 80% ของการเติบโตของกำไร และ 90% ของการเติบโตของการลงทุนทุน
- Shiller CAPE อยู่ที่ 39.4 ซึ่งระดับนี้เคยเห็นครั้งล่าสุดใน ปี 1999
- ผลกระทบทางจิตวิทยา: นักบำบัดรายงานการพุ่งขึ้นของ FOBO(Fear of Becoming Obsolete) โดยผู้ป่วยอธิบายว่า "จักรวาลกำลังบอกว่า 'คุณไม่จำเป็นอีกต่อไปแล้ว'"
- คนทำงานในสหรัฐ 60% คาดว่า AI จะทำให้ตำแหน่งงานหายไปมากกว่าสร้างขึ้น
- การใช้ AI เพิ่มขึ้น 13% เมื่อเทียบปีก่อน แต่ความเชื่อมั่นต่อ AI ลดลง 18%: ยิ่งใช้มากก็ยิ่งเชื่อน้อยลง
- รอยแยกทางญาณวิทยา: งานวิจัย AI ที่ ทำซ้ำได้มีไม่ถึง 1/3, นักวิจัยที่แชร์โค้ดมี ไม่ถึง 5%, และการตีพิมพ์ของแล็บเอกชนลดลง
- ช่องว่างระหว่างความรู้ของแล็บ frontier กับความรู้ของสาธารณะกว้างขึ้น ผู้กำหนดนโยบายทำงานบนข้อมูลที่ ล้าสมัยไปแล้ว
- ผู้เชี่ยวชาญที่ไปให้การต่อสภากลับขัดแย้งกันเอง เพราะสาขานี้เคลื่อนไหวเร็วกว่าความเร็วที่ความเชี่ยวชาญจะก่อตัว
- การจัดระเบียบใหม่ทางการเมือง: TIME รายงานถึงกระแสต้าน AI แบบประชานิยม, Foreign Affairs ระบุว่า "เศรษฐกิจแห่งความโกรธจะเสริมพลังประชานิยม", และ HuffPost มองว่า AI จะเป็นตัว กำหนดการเลือกตั้งกลางเทอมปี 2026
- MAGA แตกออกว่ามอง AI เป็นฝ่ายหนุนธุรกิจหรือฝ่ายต้านแรงงาน ขณะที่ Sanders เสนอ moratorium ต่อ data center
- แกนซ้าย-ขวาเดิมไม่อาจรับน้ำหนักของคำถามนี้ได้อีกและกำลัง พังทลาย
- ทั้งหมดนี้เกิดขึ้น ก่อน t_s ถึง 8 ปี: ซิงกูลาริตีทางสังคมมาก่อนซิงกูลาริตีทางเทคโนโลยี และความสับสนระดับสถาบันกับจิตวิทยาไม่ได้รอให้ความสามารถพุ่งขึ้นแนวดิ่ง แต่เริ่มตั้งแต่วินาทีที่ วิถีนั้นถูกรับรู้
ข้อควรระวัง (Caveats)
- วันที่นี้มาจากซีรีส์เดียว: มีเพียง arXiv "emergent" ที่มีความโค้งไฮเพอร์โบลาจริง อีก 4 ตัวชี้วัดเหมาะกับเส้นตรงมากกว่า
- ความหมายที่แท้จริงของวันที่ซิงกูลาริตีจึงคือ "จุดที่งานวิจัยด้าน AI แบบ emergent พุ่งขึ้นในแนวดิ่ง" และประเด็นสำคัญคือความตื่นเต้นในวงวิชาการเป็น ตัวชี้นำหรือเป็นตัวตาม กันแน่
- โมเดลตั้งสมมติฐานเรื่อง stationarity: ในที่สุดเส้นโค้งย่อมเปลี่ยนทิศเป็นลอจิสติก (ความอิ่มตัวของกระแส hype) หรือเปลี่ยนเป็นรูปแบบที่โมเดลนี้แทนไม่ได้ (การเปลี่ยนเฟสจริง) ดังนั้น t_s คือ จุดที่ระบบปัจจุบันทนต่อไปไม่ไหว ไม่ใช่การทำนายสิ่งที่จะเกิดหลังจากนั้น
- ผลเพดานของ MMLU: เป็น artifact จากการอิ่มตัวของ benchmark ที่บีบความแหลมของข้อมูล ค่า R² ที่ต่ำสะท้อนเรื่องนี้
- โทเคน/$ ถูกแปลงลอการิทึมและไม่เป็นโมโนโทนิก: GPT-4 แพงกว่า 3.5 และ Opus 4.5 ก็มีต้นทุนสูงกว่า DeepSeek-R1 เส้นต้นทุนจึงไม่เรียบ และมีทั้ง ความก้าวหน้าแบบ Pareto กับโมเดลต้นทุนสูงปะปนกัน
- 5 ตัวชี้วัดยังไม่พอ: หากเพิ่ม SWE-bench, ARC, GPQA, ปริมาณการซื้อ compute, เงินเดือนบุคลากร ฯลฯ ก็อาจลดการพึ่งพา arXiv ได้ เหตุผลที่ใช้ 5 ตัวเพียงเพราะว่า มันพอดีกับตาราง
- Copilot มีข้อมูล 2 จุด: มีองศาอิสระเป็น 0 จึงไม่ช่วยกำหนด t_s
บทสรุป
- จากข้อมูลจริงและแบบจำลองทางคณิตศาสตร์ ทำให้ได้ ช่วงเวลาซิงกูลาริตีที่ชัดเจนหนึ่งจุด
- แต่ซิงกูลาริตีนี้ไม่ได้หมายถึง เครื่องจักรกลายเป็นอภิปัญญา หากหมายถึงความพังทลายของความใส่ใจในสังคมมนุษย์
- สิ่งที่คณิตศาสตร์ค้นพบคือ ตัวชี้วัดหนึ่งเดียวที่ลากเส้นโค้งไปหาจุดวิกฤต ณ มิลลิวินาทีใดมิลลิวินาทีหนึ่ง นั่นคือความเร็วที่มนุษย์ ค้นพบพฤติกรรม emergent ของ AI
- อีก 4 ตัวชี้วัดเป็นเส้นตรง: เครื่องกำลังพัฒนาอย่างต่อเนื่อง ส่วนที่กำลังเร่งคือมนุษย์
- ทั้งแรงงาน สถาบัน ทุน การรับรู้ และการเมือง ล้วนกำลังอยู่ใน ภาวะซิงกูลาริตีทางสังคม แล้ว
- ก่อนซิงกูลาริตีทางเทคโนโลยีจะมาถึง มนุษย์น่าจะเผชิญ ขีดจำกัดร่วมกัน ในการรับมือความเร็วของการเปลี่ยนแปลงจาก AI ก่อน
- ซิงกูลาริตีในข้อมูลนี้คือ ซิงกูลาริตีของความสนใจของมนุษย์ และกำลังออกแรงโน้มถ่วงต่อทุกสิ่งที่มันสัมผัสอยู่แล้ว
- มนุษยชาติได้ก้าวเข้าสู่การนับถอยหลังนั้นแล้ว
3 ความคิดเห็น
จุดที่น่าสนใจคือ วันประกาศใหญ่ ๆ อย่างโมเดลใหม่ของ OpenAI, Google และ Anthropic มักจะเป็นวันอังคารกับวันพฤหัสบดี
ถ้าอิงตามเวลาเกาหลี ก็จะประกาศกันราว ๆ ตี 2-3 ของเช้าวันพุธและวันศุกร์ (10 โมงเช้าตามเวลาแคลิฟอร์เนีย) ดังนั้นถ้าคืนนั้นนอนไม่หลับ ลองเช็กข่าวช่วงนี้ดู
ความคิดเห็นจาก Hacker News
บทความนี้น่าสนใจมาก ผู้เขียนอธิบาย โมเดลและวิธีวิทยา ของตัวเองอย่างยืดยาวก่อนจะเข้าประเด็นหลักในที่สุด — สิ่งที่สำคัญกว่าการที่ singularity จะมาจริงหรือไม่ คือ จะมีคนจำนวนมากแค่ไหนที่เชื่อมันและลงมือทำตามนั้น
เพราะแบบนั้น ฉันเลยย้ายจุดสนใจจากข้อถกเถียงทางเทคนิคไปสู่การถกเถียงทางสังคมแทน ฝั่งที่บอกว่า “การพยายามแทนที่แรงงานมนุษย์โดยที่สังคมยังไม่เปลี่ยนโครงสร้างที่ทำให้การอยู่รอดต้องพึ่งแรงงานรับจ้างนั้นเป็นเรื่องแย่มาก” ฟังดูน่าเห็นด้วยกว่ามาก
รูปแบบง่าย ๆ คือ “ทำให้ทุกคนเชื่อว่าชนะไปแล้ว” ส่วนรูปแบบที่ซับซ้อนกว่าคือ “ทำให้ทุกคนเชื่อว่าคนอื่นก็เชื่อแบบนั้นเหมือนกัน” สุดท้ายผู้คนก็จะลงมือทำตามความเชื่อนั้น
LLM เป็นเพียง เครื่องทำนายเชิงสถิติ แต่ในกระบวนการนั้นอาจเกิด emergent behavior หรือก็คือ พฤติกรรมแบบชาญฉลาด ขึ้นมาก็ได้ ตอนนี้เรายังบอกไม่ได้แน่ชัด
ถ้า singularity ไม่มา ความเชื่อของผู้คนก็สำคัญมาก แต่ถ้ามันมาจริง ความเชื่อก็แทบไม่มีความหมายเลย
มีการยกข้อความจาก 『Dune』 ของ Frank Herbert มาอ้าง โดยบอกว่าผลจากการที่มนุษย์มอบการคิดให้เครื่องจักรคือ มนุษย์คนอื่นได้ปกครองมนุษย์ผ่านเครื่องจักร
เขาเตือนว่าเราจะไม่อ่าน ไม่เขียน และไม่คิดอีกต่อไป ถ้า LLM มาทำทุกอย่างแทนก็จะนำไปสู่ จุดจบของมนุษยชาติ
และยังพูดถึง โครงการ Poison Fountain ในฐานะ อาวุธต่อต้าน AI ที่ฉีด ‘ข้อมูลพิษ’ ให้เว็บครอว์เลอร์ทุกวัน พร้อมชวนให้เข้าร่วม
มีการแนะนำเรื่องสั้นปี 1965 ของ R.A. Lafferty ชื่อ 「Slow Tuesday Night」
เป็น SF ความยาว 2600 คำที่描绘สังคมความเร็วสูงลิบลิ่ว โลกที่หนึ่งวันผ่านไปในเวลาเพียงไม่กี่นาที
มีคนยกประโยคที่ว่า “singularity ไม่ใช่ช่วงเวลาที่เครื่องจักรกลายเป็นอภิปัญญา แต่คือช่วงเวลาที่มนุษย์ ไม่อาจตัดสินใจร่วมกันเกี่ยวกับเครื่องจักรได้อย่าง coherently อีกต่อไป” แล้วบอกว่าประทับใจมาก
เนื้อหาบทความน่าสนใจ ปี 2025 มีการประกาศเลิกจ้าง 1.1 ล้านคน และในนั้น 55,000 คนถูกอ้างเหตุผลว่าเป็นเพราะ AI แต่สิ่งนี้คือ การเลิกจ้างบนฐานของ ‘ความเป็นไปได้’ ไม่ใช่ประสิทธิภาพจริงของ AI
ท้ายที่สุด AI แค่เผยให้เห็นสิ่งที่เรารู้อยู่แล้ว นั่นคือ โลกนี้มีงานออฟฟิศที่ไร้ความหมายมากเกินไป
มีการแนะนำ สมการเชิงอนุพันธ์ ที่ใช้แทน “การระเบิดของปัญญา” ด้วยโมเดลง่าย ๆ
`dx/dt = x²` มีคำตอบเป็น `x = 1/(C - t)` ซึ่งพุ่งขึ้นรุนแรงกว่า การเติบโตแบบเอ็กซ์โพเนนเชียล ที่อัตราเติบโตแปรผันตาม x เสียอีก
แต่ถ้าคำนึงถึงข้อจำกัดในโลกจริง เช่น พลังงานและทรัพยากร ท้ายที่สุดมันจะลู่เข้าไปสู่รูปแบบคล้าย การเติบโตแบบลอจิสติก
มีการย้ำเตือนว่าทั้งหมดนี้เกิดขึ้นได้ก็เพราะ วิดีโอเกม ถ้าไม่มีความก้าวหน้าของฮาร์ดแวร์ GPU ก็คงไม่มี LLM เช่นกัน
ที่จริง AI คือผลลัพธ์ของการสั่งสมเทคโนโลยีมาหลายสิบปี — ทั้งชิป อินเทอร์เน็ต โอเพนซอร์ส คลาวด์ ดาต้าเซ็นเตอร์ ไปจนถึงคณิตศาสตร์และฟิสิกส์ ล้วนเป็นกระบวนการที่ มุ่งหน้าไปสู่ singularity อย่างหลีกเลี่ยงไม่ได้
มีคนพูดติดตลกว่า “โล่งใจจัง อย่างน้อยก็ยังโอเคถึงปี 2034”
มีการตั้งคำถามว่าทำไมเดี๋ยวนี้ถึงไม่ค่อยพูดถึง singularity ผ่านแนวคิด knowledge doubling กันแล้ว
โดยยกทั้ง ‘Knowledge Doubling Curve’ ของ Buckminster Fuller และ ‘Law of Accelerating Returns’ ของ Ray Kurzweil มาพูดถึง
ในอดีตความรู้ของมนุษยชาติเพิ่มเป็นสองเท่าทุก 100 ปี แล้วต่อมาก็ทุก 25 ปี ดังนั้นตอนนี้ก็ควรมองจุดที่ความเร็วนั้นลู่เข้าอนันต์ว่าเป็น singularity ไม่ใช่หรือ
มีคนโล่งใจว่าอย่างน้อยก็คงไม่ต้องเจอกับ ปัญหา Unix timestamp ปี 2038
แม้จะคาดการณ์ในแง่ดีก็ยังเหลืออีก 8 ปี เวลามีมากและก็มีงานให้ทำอีกมากนะครับ จะใช้ชีวิตโดยไม่ทำอะไรเลยตลอดช่วงเวลาที่ทารกแรกเกิดเติบโตจนเป็นนักเรียนประถมก็คงไม่ได้