3 คะแนน โดย GN⁺ 10 일 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • AI Index 2026 คือรายงานที่รวบรวม แนวโน้มภาพรวมของ AI ผ่านตัวชี้วัดอย่างประสิทธิภาพบนเบนช์มาร์ก การลงทุน การรับรู้ของสาธารณะ คอมพิวต์ และการปล่อยคาร์บอน
  • การเปิดตัว โมเดล AI ที่น่าจับตา ยังคงนำโดยสหรัฐฯ และภาคอุตสาหกรรม ขณะที่จีนแสดงความได้เปรียบชัดเจนในด้าน การติดตั้งหุ่นยนต์อุตสาหกรรม
  • ความจุคอมพิวต์ AI ทั่วโลกเพิ่มขึ้นมากกว่า 3 เท่าทุกปีนับตั้งแต่ปี 2022 และปัจจุบัน Nvidia GPU ครองสัดส่วนมากกว่า 60 เปอร์เซ็นต์ของความจุรวมทั้งหมด
  • ประสิทธิภาพบนเบนช์มาร์กของ multimodal LLM และ agentic AI เพิ่มขึ้นอย่างรวดเร็ว แต่ยังคงมีความแม่นยำต่ำในงานทั่วไปอย่างการอ่านนาฬิกาอะนาล็อก
  • การลงทุนด้าน AI ในปี 2025 ทำสถิติสูงสุดเกิน 5.81 แสนล้านดอลลาร์ และผลกระทบต่อการจ้างงาน ความเชื่อมั่นต่อกฎระเบียบ และการยอมรับของสาธารณะก็แตกต่างกันมากตามแต่ละประเทศและตัวชี้วัด

ตัวชี้วัดสำคัญจาก รายงาน 2026 AI Index

  • รายงาน AI Index 2026 ของ Stanford ที่มีความยาวกว่า 400 หน้า รวบรวมสถานะของ AI จากหลายมุม เช่น คะแนนเบนช์มาร์ก การลงทุน และการรับรู้ของสาธารณะ
  • ประสิทธิภาพของโมเดล AI ชั้นนำยังคงเร่งตัวต่อเนื่อง และบริษัท AI รายใหญ่อย่าง OpenAI และ Anthropic ก็กำลังมุ่งหน้าไปสู่ IPO ในช่วงปลายปีนี้
  • กระแสต่อต้าน AI ก็ยังคงมีอยู่ โดยเฉพาะในสหรัฐฯ ที่รัฐบาลท้องถิ่นเริ่มยอมรับข้อจำกัดหรือการห้ามโดยสิ้นเชิงต่อการพัฒนาดาต้าเซ็นเตอร์แห่งใหม่
  • ต่อเนื่องจากการรายงานในปีก่อนหน้าตั้งแต่ปี 2021 ถึง 2025 นี่คือการคัดเลือกแนวโน้มที่สรุปภาพรวมสถานะของ AI ในปี 2026 แบบย่อ

ความได้เปรียบของสหรัฐฯ ในโมเดล AI

  • สหรัฐฯ เป็นผู้นำในการเปิดตัว โมเดล AI ที่น่าจับตา ตลอด 10 ปีที่ผ่านมา และแนวโน้มนี้ยังคงต่อเนื่องในปี 2025
    • ตามข้อมูลของ Epoch AI องค์กรที่ตั้งอยู่ในสหรัฐฯ เปิดตัวโมเดลที่น่าจับตาในปี 2025 จำนวน 50 โมเดล
    • ปริมาณผลงานจากจีนเริ่มไล่ตามช่องว่างได้ใกล้ขึ้น
  • โมเดลที่น่าจับตาเกือบทั้งหมดมาจาก ภาคอุตสาหกรรม
    • ในปี 2025 ภาคอุตสาหกรรมเปิดตัวโมเดลที่น่าจับตาจำนวน 87 รายการ
    • ขณะที่แหล่งอื่นรวมทั้งสถาบันการศึกษาและหน่วยงานภาครัฐรวมกันมีเพียง 7 รายการ
  • สัดส่วนของภาคอุตสาหกรรมขยายตัวอย่างมากในระยะยาว
    • ปัจจุบันโมเดลจากภาคอุตสาหกรรมคิดเป็น มากกว่า 90 เปอร์เซ็นต์ ของโมเดลที่น่าจับตาทั้งหมด
    • ในปี 2015 ยังต่ำกว่า 50 เปอร์เซ็นต์ และในปี 2003 เท่ากับ 0

ความได้เปรียบของจีนในการนำหุ่นยนต์ไปใช้งาน

  • แม้บริษัทสหรัฐฯ จะนำหน้าในจำนวนโมเดล AI ที่น่าจับตา แต่จีนมีความได้เปรียบอย่างชัดเจนในด้าน การนำหุ่นยนต์ไปใช้งาน
    • ตามข้อมูลของ International Federation of Robotics จีนมีจำนวน การติดตั้งหุ่นยนต์อุตสาหกรรม ในปี 2024 อยู่ที่ 295,000 เครื่อง
    • ญี่ปุ่นติดตั้งประมาณ 44,500 เครื่อง และสหรัฐฯ 34,200 เครื่อง

คอมพิวต์ AI ทั่วโลกพุ่งสูง

  • ตัวชี้วัด ความจุคอมพิวต์ AI รวมของ Epoch AI ถูกนำเสนอเป็นตัวเลขแทนการขยายตัวของโครงสร้างพื้นฐาน AI
  • ในกราฟที่ใช้ ประสิทธิภาพ H100e ของ Nvidia เป็นมาตรวัด ความจุคอมพิวต์ AI ทั่วโลกเพิ่มขึ้นมากกว่า 3 เท่าทุกปีนับตั้งแต่ปี 2022
    • หากนับปี 2021 เป็นปีแรกที่เริ่มติดตาม คอมพิวต์ AI รวมเพิ่มขึ้น 30 เท่า
  • Nvidia เป็นผู้ได้รับประโยชน์มากที่สุดจากการขยายตัวนี้
    • GPU ของ Nvidia ปัจจุบันครองสัดส่วน มากกว่า 60 เปอร์เซ็นต์ ของความจุคอมพิวต์ AI รวมทั่วโลก
    • Amazon และ Google ซึ่งออกแบบฮาร์ดแวร์ AI ของตัวเองตามมาเป็นลำดับถัดไป

การปล่อยคาร์บอนจากการฝึกและการอนุมานของ AI

  • ปริมาณการปล่อยคาร์บอน จากกระบวนการฝึก AI เป็นประเด็นที่ถูกชี้ให้เห็นมาแล้วในปีก่อน และยังคงน่ากังวลในปี 2026
  • การฝึก large language model ระดับ frontier รุ่นล่าสุด ถูกประเมินว่ามีการปล่อยสูงมาก
    • ค่าประเมินการปล่อยจากการฝึก Grok 4 ของ xAI อยู่ที่มากกว่า 72,000 ตัน เทียบเท่าคาร์บอน
    • ส่วน OpenAI GPT-4 อยู่ที่ 5,184 ตัน และ Meta Llama 3.1 405B อยู่ที่ 8,930 ตัน
  • Ray Perrault ระบุว่าตัวเลขเหล่านี้เป็น ค่าประเมิน และขอให้ใช้ความระมัดระวังในการตีความ
    • “These estimates should be interpreted with caution”
    • ในกรณีของ Grok ยังมี ความไม่แน่นอน เพราะอาศัยค่าป้อนเข้าที่อนุมานจากบทความ Forbes คำกล่าวของ xAI และแหล่งอื่นที่ตรวจสอบไม่ได้เป็นหลัก
    • Epoch AI ยังประเมินการปล่อยของ Grok 4 แบบอิสระไว้สูงกว่าที่ประมาณ 140,000 ตัน CO₂
  • การปล่อยจากการอนุมาน ของ AI ก็เพิ่มขึ้นเช่นกัน และมีความแตกต่างมากระหว่างแต่ละโมเดล
    • โมเดลอนุมานที่ไม่มีประสิทธิภาพที่สุดปล่อยมากกว่าโมเดลที่มีประสิทธิภาพที่สุด มากกว่า 10 เท่า
    • คาดว่า DeepSeek V3 ใช้พลังงานประมาณ 23 วัตต์ เมื่อตอบพรอมป์ตความยาวปานกลาง
    • ส่วน Claude 4 Opus คาดว่าใช้ประมาณ 5 วัตต์

ประสิทธิภาพ LLM บนเบนช์มาร์กเร่งตัว

  • ตลอด 10 ปีที่ผ่านมา ประสิทธิภาพของโมเดล AI ดีขึ้นอย่างรวดเร็วมาก และจากกราฟ ความเร็วของความก้าวหน้ายังดูเร่งขึ้นอีก
  • โดยเฉพาะ multimodal LLM มีพัฒนาการจนแทบพิชิตเบนช์มาร์กใหม่ ๆ ได้แทบจะทันทีที่ถูกสร้างขึ้น
  • ด้าน agentic AI เป็นพื้นที่ที่ปรับตัวขึ้นชันที่สุด
    • เส้นที่ชันมากสองเส้นทางขวาของกราฟคือเบนช์มาร์ก OSWorld ที่ใช้ประเมินการใช้งานคอมพิวเตอร์แบบอัตโนมัติ
    • และเบนช์มาร์กวิศวกรรมซอฟต์แวร์ SWE-Bench Verified ที่ใช้ประเมินการเขียนโค้ดอัตโนมัติ
  • ประสิทธิภาพบน Humanity’s Last Exam ก็เพิ่มขึ้นอย่างรวดเร็วเช่นกัน
    • ใน Stanford AI Index ปี 2025 โมเดลอันดับ 1 คือ OpenAI o1 มีอัตราตอบถูก 8.8 เปอร์เซ็นต์
    • หลังจากนั้นความแม่นยำเพิ่มขึ้นถึง 38.3 เปอร์เซ็นต์
    • ณ เดือนเมษายน 2026 โมเดลคะแนนสูงสุด เช่น Anthropic Claude Opus 4.6 และ Google Gemini 3.1 Pro ทำได้ มากกว่า 50 เปอร์เซ็นต์
  • Ray Perrault ตั้งข้อสังเกตเรื่อง ความสอดคล้องกันระหว่างเบนช์มาร์กกับประสิทธิภาพในโลกจริง
    • “We generally lack measures of how well a system (or agent) needs to function in a particular setting”
    • เขายกตัวอย่างว่าความแม่นยำ 75 เปอร์เซ็นต์ บนเบนช์มาร์กการให้เหตุผลทางกฎหมาย ยังบอกได้ยากว่าระบบนั้นเหมาะกับงานจริงในสำนักงานกฎหมายหรือไม่

งานวิจัย AI ในวงการแพทย์ขยายตัว

  • การนำ AI มาใช้ใน งานวิจัยทางการแพทย์ เพิ่มขึ้นอย่างรวดเร็ว
  • จำนวนงานวิจัยเกี่ยวกับ การพัฒนายาด้วย AI เพิ่มขึ้น มากกว่า 2 เท่า ในช่วง 2 ปีที่ผ่านมา
  • จำนวนงานวิจัย multimodal biomedical AI ที่จัดการทั้งภาพทางการแพทย์และข้อความ เพิ่มขึ้น 2.7 เท่า เมื่อเทียบกับ 2 ปีก่อน

ข้อจำกัดในการอ่านนาฬิกาอะนาล็อก

  • ตรงกันข้ามกับการพัฒนาอย่างรวดเร็วในบางด้าน ระบบยังคงมีจุดอ่อนในงานทั่วไปอย่าง การอ่านนาฬิกาอะนาล็อก และการเข้าใจปฏิทิน
  • ใน ClockBench ซึ่งใช้วัดความสามารถของ multimodal LLM ในการอ่านหน้าปัดนาฬิกาอะนาล็อก แม้แต่โมเดลที่ทำผลงานดีที่สุดก็ยังมีโอกาสสำเร็จเพียงครึ่งหนึ่ง
    • OpenAI GPT-5.4 มีความน่าจะเป็นในการตอบถูกอยู่ที่ 50 ต่อ 50
  • โมเดลส่วนใหญ่ทำคะแนนได้ต่ำกว่านี้มาก
    • Anthropic Claude Opus 4.6 มีความแม่นยำเพียง 8.9 เปอร์เซ็นต์
    • ทั้งที่โมเดลเดียวกันนี้ทำคะแนนระดับสูงสุดใน Humanity’s Last Exam
  • Ray Perrault เชื่อมโยงประเด็นนี้กับปัญหาที่กว้างกว่า
    • เมื่อถามงานที่ต้องผสมหลาย modality เช่น ภาษา ภาพ และโทนเสียง องค์ประกอบด้านภาษา กลับมีน้ำหนักมากกว่าที่คาด
    • และมีการกล่าวถึงแนวงานวิจัยที่ชี้ว่าอาจไปถึงขั้นละเลยข้อมูลที่ไม่ใช่ภาษาเกือบทั้งหมด

การลงทุนด้าน AI ทำสถิติสูงสุดในปี 2025

  • พร้อมกับการพัฒนาของประสิทธิภาพโมเดล การลงทุนด้าน AI ก็เพิ่มขึ้นตามไปด้วย
  • ตามข้อมูลของบริษัทวิเคราะห์ AI อย่าง Quid การลงทุนด้าน AI ในปี 2025 ทำสถิติใหม่ที่ มากกว่า 5.81 แสนล้านดอลลาร์
    • มากกว่ายอด 2.53 แสนล้านดอลลาร์ ในปี 2024 มากกว่า 2 เท่า
    • และสูงกว่าสถิติเดิมในปี 2021 ที่ 3.6 แสนล้านดอลลาร์ อย่างชัดเจน
  • ต่างจากปี 2021 สถิติในปี 2025 นี้ถูกขับเคลื่อนโดย การลงทุนภาคเอกชน ในบริษัท AI ไม่ใช่ การควบรวมและซื้อกิจการ
  • เงินลงทุนส่วนใหญ่ไหลเข้าสหรัฐฯ
    • ปีที่แล้วมูลค่าการลงทุนด้าน AI ในสหรัฐฯ สูงกว่า 3.44 แสนล้านดอลลาร์

วิศวกรซอฟต์แวร์หันไปโฟกัส AI

  • จำนวน โปรเจกต์ที่เกี่ยวข้องกับ AI บน GitHub พุ่งขึ้นเป็น 5.58 ล้านโปรเจกต์ ภายในปี 2025
    • เพิ่มขึ้นราว 5 เท่า จากปี 2020
    • และเพิ่มขึ้น 23.7 เปอร์เซ็นต์ จากปี 2024
  • การเพิ่มขึ้นนี้ดูไม่ได้มาจากแค่การหลั่งไหลของโปรเจกต์ที่สร้างด้วย AI อย่างเดียว
    • จำนวนโปรเจกต์ที่มี ดาวอย่างน้อย 10 ดวง ก็เพิ่มขึ้นในอัตราใกล้เคียงกัน
    • จำนวน ดาวรวม ที่โปรเจกต์ AI ทั้งหมดได้รับก็เพิ่มขึ้นในอัตราใกล้เคียงกัน
    • บ่งชี้ว่ายังมีการมีส่วนร่วมจากมนุษย์อยู่
  • ตัวอย่างยอดนิยมที่ถูกยกมาคือซอฟต์แวร์ agentic AI แบบโอเพนซอร์ส OpenClaw
    • ได้รับ 352,000 stars บน GitHub
  • Ray Perrault ยอมรับว่าโปรเจกต์ AI bot หรือ agent อาจมีส่วนทำให้เกิดกระแสความคึกคักนี้บางส่วน
    • “probably the intensity of GitHub use is highly correlated with the intensity of AI use”
    • เขายังกล่าวถึงเว็บไซต์ติดตามกิจกรรม Agents in the Wild ซึ่งไม่ได้ถูกอ้างถึงในรายงานของ Stanford ว่าดูเหมือนกิจกรรมบน GitHub จำนวนมากยังคงทำโดยมนุษย์
  • ในด้าน งานวิจัยวิทยาการคอมพิวเตอร์ กระแส AI ก็ยังแรงเช่นกัน
    • จำนวนบทความวิทยาการคอมพิวเตอร์ที่เกี่ยวข้องกับ AI เพิ่มจาก 102,000 ฉบับเป็น 258,000 ฉบับ ในช่วง 10 ปีที่ผ่านมา หรือมากกว่า 2 เท่า
    • ณ ปี 2024 ในจำนวนนี้ มากกว่า 68 เปอร์เซ็นต์ มาจากภาควิชาการ
    • สัดส่วนจากภาครัฐและภาคอุตสาหกรรมอยู่ที่ประมาณ 11.5 เปอร์เซ็นต์ และ 12.5 เปอร์เซ็นต์ ตามลำดับ
    • การเติบโตถูกขับเคลื่อนโดยสาขา machine learning, computer vision และ generative AI

ความไม่แน่นอนของผลกระทบ AI ต่อการจ้างงาน

  • เมื่อ generative AI แพร่หลายมากขึ้น ความกังวลเรื่องงาน ก็เพิ่มขึ้น แต่ข้อมูลที่มีอยู่ในตอนนี้ยังให้ผลลัพธ์ที่ปะปนกัน
  • มีการนำเสนอกราฟจำนวนบุคลากรแบบปรับตามอายุในสายงานที่ถูกมองว่ามีความเสี่ยงสูงต่อการถูก AI แทนที่ ได้แก่ software developers และ customer support agents
    • งานระดับเริ่มต้นลดลง
    • แต่งานระดับกลางและระดับอาวุโสยังคงทรงตัวหรือเพิ่มขึ้น
  • อย่างไรก็ตาม ความเปลี่ยนแปลงเหล่านี้ยากจะตีความแยกจากแนวโน้มเศรษฐกิจในภาพรวม
    • รายงานระบุถึง อัตราการว่างงานที่เพิ่มขึ้น ในหลายอาชีพโดยรวม
    • และสวนทางกับที่คาดไว้ แรงงานที่มีการสัมผัสกับ AI ต่ำที่สุดกลับมีอัตราว่างงานเพิ่มขึ้นมากกว่าแรงงานที่มีการสัมผัสกับ AI สูงที่สุด

การเปลี่ยนแปลงการรับรู้ของสาธารณะต่อ AI

  • ผลสำรวจของ Ipsos ชี้ว่า มุมมองเชิงบวก ต่อ AI เพิ่มขึ้นเล็กน้อยแต่เห็นได้ชัดในช่วงไม่กี่ปีที่ผ่านมา
    • ผู้ที่ตอบว่า “benefits outweigh the drawbacks” เพิ่มจาก 55 เปอร์เซ็นต์ ในปี 2024 เป็น 59 เปอร์เซ็นต์
    • ผู้ที่ตอบว่าตนเอง “good understanding” เรื่อง AI เพิ่มเล็กน้อยจาก 67 เปอร์เซ็นต์ เป็น 68 เปอร์เซ็นต์
  • ในคำถามลักษณะใกล้เคียงกัน การยอมรับโดยรวมยังเอนเอียงไปทางบวกมากกว่าลบ แต่ความรู้สึกด้านลบบางส่วนก็เพิ่มขึ้นเช่นกัน
    • ผู้ตอบแบบสอบถาม 52 เปอร์เซ็นต์ ระบุว่าสินค้าและบริการที่ใช้ AI ทำให้พวกเขารู้สึก “nervous”
  • ความแตกต่างระหว่างประเทศมีสูงมาก
    • ประเทศใน เอเชียตะวันออกเฉียงใต้ รวมถึงจีน Malaysia Thailand Indonesia และ Singapore มีแนวโน้มเป็นบวกมากกว่า
    • การเปลี่ยนไปในทางบวกมากที่สุดเมื่อเทียบรายปีคือ Germany 12 เปอร์เซ็นต์, France 10 เปอร์เซ็นต์ และ the Netherlands 10 เปอร์เซ็นต์
    • ส่วน Colombia เปลี่ยนไปในทางลบมากที่สุดที่ -6 เปอร์เซ็นต์

ความต่างระหว่างประเทศในความเชื่อมั่นต่อการกำกับดูแล AI

  • พร้อมกับการรับรู้ที่เพิ่มขึ้นว่า AI จะส่งผลเชิงบวก ก็มีความไม่ไว้วางใจอย่างลึกซึ้งต่อ ความเชื่อมั่นในการกำกับดูแลของรัฐบาล ในบางประเทศด้วย
  • โดยเฉพาะสหรัฐฯ แม้จะเป็นผู้นำด้านการลงทุน AI แต่กลับอยู่ในกลุ่มที่มีความเชื่อมั่นต่อกฎระเบียบต่ำที่สุด
    • ในแบบสำรวจของ Ipsos ผู้ตอบจากสหรัฐฯ ที่เชื่อมั่นในการกำกับดูแล AI ของรัฐบาลมีเพียง 31 เปอร์เซ็นต์
  • หลายประเทศในยุโรปและญี่ปุ่นก็มีระดับความเชื่อมั่นต่ำเช่นกัน
  • ขณะที่ประเทศในเอเชียและอเมริกาใต้มีความเชื่อมั่นต่อความสามารถของรัฐบาลในการกำกับดูแล AI สูงที่สุด
  • ความต่างระหว่างสหรัฐฯ กับ Colombia โดดเด่นเป็นพิเศษ
    • สหรัฐฯ มีความไม่ไว้วางใจอย่างลึกซึ้งต่อการกำกับดูแล AI แต่ผู้ตอบส่วนใหญ่ยังมองว่าประโยชน์ของ AI จะมากกว่าข้อเสีย
    • ส่วน Colombia มีความเชื่อมั่นต่อการกำกับดูแล AI สูง แต่ความรู้สึกต่อ AI โดยรวมกลับแย่ลง
  • เช่นเดียวกับที่สะท้อนภาพย่อของเรื่องเล่า AI ในปี 2025 คุณภาพของประสิทธิภาพโมเดล และ การรับรู้ต่อผลกระทบทางสังคม สามารถแตกต่างกันได้มากตามแต่ละงานและแต่ละคำถาม

1 ความคิดเห็น

 
GN⁺ 10 일 전
ความเห็นจาก Hacker News
  • อยากชี้ให้เห็นว่า มุมมองของคนรุ่นใหม่ที่มีต่อ AI ไม่ได้สดใสอย่างที่คิดนัก ดูจากผลสำรวจของ Gallupแล้วจะเห็นว่า ความกังขา ค่อนข้างชัดเจน

    • ผมมองว่านี่คือกระบวนการที่ผู้คนค่อยๆ เรียนรู้ถึง ข้อจำกัดโดยเนื้อแท้ ของ AI
    • ผมคิดว่าบรรยากาศแบบนี้เป็นเพียงชั่วคราว เหมือนกับทุกครั้งที่มีการเปลี่ยนผ่านทางเทคโนโลยีครั้งใหม่ในประวัติศาสตร์ สุดท้ายทุกคนก็จะปรับตัวและค้นหา วิธีใช้งาน ของมันได้
  • ต่อให้การฝึก frontier LLM รุ่นล่าสุดหนึ่งตัวจะปล่อยคาร์บอนมากกว่า 72,000 ตัน แต่เมื่อเทียบกับระดับทั้งโลกที่ปล่อยปีละ 38 พันล้านตันแล้ว ก็ยังถือว่า เล็กเมื่อเทียบกัน

    • ผมไม่คิดเลยว่าการปล่อยจากการฝึก LLM หนึ่งตัวที่เทียบเท่ากับการปล่อยต่อปีของคน 17,000 คนจะเป็นเรื่องเล็กน้อย ตามบทความ ตัวเลขนี้ เพิ่มขึ้น 8 เท่า จากปีก่อน และอาจถูกประเมินต่ำไปประมาณ 2 เท่าด้วย แถมยังไม่รวมฮาร์ดแวร์ บอตที่ใช้เก็บข้อมูลฝึก หรือการประมวลผลพรอมป์ตในการใช้งานจริงโดยรวม โมเดลใหญ่แบบนี้ก็มีหลายตัว ส่วนโมเดลเล็กมีเป็นหมื่นเป็นแสน การประเมินว่าการปล่อยรวมของ AI ทั้งหมดในปีนี้จะเกิน 80 ล้านตัน CO2e ซึ่งมากกว่าทั้งประเทศอย่าง Austria หรือ Israel ทั้งประเทศ จึงไม่ใช่เรื่องที่มองข้ามได้เลย
    • ผมคิดว่ามองอีกแบบก็ได้ ถ้าการฝึกโมเดลหนึ่งตัวใช้ 72,000 ตัน แล้วมีคนใช้โมเดลนั้น 100 ล้านคน ก็จะตกคนละแค่ 0.00072 ตัน เท่านั้น ตามบทความ มนุษย์โดยเฉลี่ยปล่อยเกิน 5 ตันต่อปีอยู่แล้ว และชาวอเมริกันอยู่ราว 18 ตัน ดังนั้นเพิ่มอีก 0.00072 ก็แทบไม่รู้สึก แน่นอนว่าค่าใช้จ่ายของการอนุมานเป็นอีกเรื่องหนึ่ง
    • ถึงจะคำนึงว่า xAI ดูเหมือนจงใจเพิ่ม ความเข้มคาร์บอน ขึ้นก็ตาม ผมก็ยังมองว่าตัวเลขนี้เล็กน้อยมากอยู่ดี อีกอย่าง การเลือกโมเดลหลักของปี 2025 มาแค่สองตัวแล้วดันเป็น Grok ทั้งคู่ ก็ให้ความรู้สึกขำๆ เพราะเหมือนเลือกโมเดลที่ทั้งมีประโยชน์น้อยกว่า คนใช้น้อยกว่า และน่าสนใจน้อยกว่าในปีนั้นขึ้นมา
  • สุดท้ายผมมองว่าไม่มีใครจะมี moat ได้จริงๆ ดังนั้นกราฟนี้เลยยิ่งเหมือนสะท้อนความเข้าใจผิดของนักลงทุนมากกว่า

    • ผมคิดว่า moat เกิดขึ้นได้ชัดเจน คุณอาจทุ่มงบไปที่ คุณภาพของโทเค็น หรือใช้โทเค็นที่มีจำนวนน้อยกว่าแต่ดีกว่าได้ และเมื่อมีฐานผู้ใช้กับ engagement ตามมา ก็จะเกิด flywheel ที่ทำให้ผู้เล่นหน้าใหม่ตามได้ยาก ตลาดมันซับซ้อน ถ้าทำให้เรียบง่ายเกินไปก็จะพลาดหลายอย่าง
    • ผมคิดว่าทุนกับ โมเมนตัม เองก็เป็น moat เหมือนกัน โมเดลจากจีนใช้การ distillation จริง แต่ตอนนี้เรายังไม่ค่อยเห็นการฝึกโมเดลขนาดใหญ่ตั้งแต่ต้นมากนัก อย่างไรก็ตาม ถ้าชิปถูกลงและชิปจากจีนเริ่มมาเต็มตัว สถานการณ์ก็อาจเปลี่ยนได้
  • ความเป็นผู้นำด้านโรบอติกส์ของ China ก็สะดุดตาเหมือนกัน แต่สิ่งแรกที่เด้งเข้ามาในสายตาผมคือกราฟ การปล่อยของ Grok

    • พอเห็นประโยคในบทความที่ว่า "การประเมินนี้ควรตีความอย่างระมัดระวัง และในกรณีของ Grok พึ่งพาค่าอินพุตที่อนุมานจากรายงานสาธารณะอย่างมาก" ผมก็รู้สึกว่ากราฟนั้นน่าสงสัยอยู่พอสมควรในแง่ ความน่าเชื่อถือ
  • แค่จำนวนการสร้างโปรเจกต์บน GitHub เพิ่มขึ้น ก็จะบอกว่า "วิศวกรซอฟต์แวร์ทุ่มสุดตัวให้ AI แล้ว" มันฟังดูขำพอสมควร การสร้างรีโปหนึ่งอันไม่ได้ทำให้ทุกคนกลายเป็น วิศวกรซอฟต์แวร์ เสียหน่อย ถ้าใช่จริงก็คงไม่ต้องเรียนอย่างอื่นกันแล้ว

    • ผมเห็นด้วยว่าตัวชี้วัดนั้นไม่ดีนัก และคิดว่าน่าจะเปลี่ยนไปใช้ตัวชี้วัดแบบ Claude Code GitHub Commits Over Time จะดีกว่า แน่นอนว่ามันก็ไม่สมบูรณ์แบบเหมือนกัน แต่อย่างน้อยก็เป็น ตัวชี้วัดที่บกพร่องน้อยกว่าเล็กน้อย และให้ภาพของแนวโน้มที่มีความหมายได้ดีกว่า
  • ส่วนที่บอกว่า "China นำหน้าในโรบอติกส์" ดูแทบไม่เกี่ยวกับ AI เลย กราฟของ China มีแนวโน้มแทบเหมือนเดิมมาตั้งแต่ปี 2012 ดังนั้นผมเลยรู้สึกว่ากราฟนั้นไม่ค่อยเข้ากับ บริบทของบทความ

    • ถึงตอนนั้น ChatGPT จะยังไม่มี แต่ผมคิดว่า เทคโนโลยี ML ที่ขับเคลื่อนโรบอติกส์ก็ทำงานได้ดีพออยู่แล้วตั้งแต่ช่วงนั้น
  • ข้อความที่ว่า "การฝึก AI model อาจปล่อยคาร์บอนจำนวนมหาศาลได้" นั้นถูกต้อง แต่สิ่งที่ผมอยากเห็นจริงๆ คือกราฟที่แสดงว่าการ ให้บริการและรันใช้งาน โมเดลเหล่านี้ทั่วโลกปล่อยคาร์บอนออกมาเท่าไร

  • ผมเห็นด้วยได้ยากกับประโยคที่ว่า "ตลอด 10 ปีที่ผ่านมา สมรรถนะของ AI model ดีขึ้นด้วยความเร็วที่น่าทึ่ง และความก้าวหน้านั้นกำลังเร่งตัว" จากที่ผมเห็น แทบทุกสาขากำลังเข้าสู่ช่วง plateau กันแล้ว สาขาที่เพิ่งเริ่มไม่นานอย่างคณิตศาสตร์การแข่งขันอาจยังเห็นชัดน้อยกว่า แต่ถ้าดูจากรูปแบบกราฟในอดีต สุดท้ายก็น่าจะมีโอกาสสูงที่จะชะงักแบบเดียวกัน

  • ผมยังไม่เข้าใจสำนวน State of AI in 2026 อยู่ดี

  • โพสต์นี้ดูเป็น โพสต์ซ้ำ ต้นฉบับอยู่ในเธรดนี้ และแหล่งที่มาคือ 2026 AI Index Report ของ Stanford HAI