- ปีนี้คือปีที่ ช่วงความแปลกใหม่ของ generative AI สิ้นสุดลง และไม่อาจยืนดูอยู่เฉยๆ ได้อีกต่อไป ทั้งในระดับบุคคล องค์กร และอาชีพ ต่างต้อง ปรับตัวอย่างมีเจตนา หรือ เลือกที่จะถูกทิ้งไว้ข้างหลัง
- ศูนย์กลางของการแข่งขันด้าน AI กำลังย้ายไปสู่ เอเจนต์อัตโนมัติ, UI แบบมอบหมายงาน, และอินเทอร์เฟซเชิงกำเนิด ทำให้ซอฟต์แวร์ไม่ใช่เครื่องมือที่รอการคลิกอีกต่อไป แต่กลายเป็น ระบบที่ลงมือทำร่วมกัน
- เมื่อโลกโมเดลแบบหลายโมดัลและ AI เชิงกายภาพแพร่หลาย UI แบบคงที่และเครื่องมือที่มีจุดประสงค์เดียวจะล้าสมัย และ การออกแบบ UX, ความน่าเชื่อถือ, และอินเทอร์เฟซเพื่อการตรวจสอบ จะกลายเป็นคูเมืองธุรกิจสำคัญ
- เมื่อข้อจำกัดด้านคอมพิวต์กลายเป็นเงื่อนไขถาวร ภาวะขาดแคลนการอนุมานและการแบ่งชั้นแบบเสียเงิน·ฟรี จะฝังแน่นขึ้น และการออกแบบผลิตภัณฑ์กับเวิร์กโฟลว์จะถูกจัดโครงสร้างใหม่โดยตั้งต้นจากต้นทุน โควตา และข้อจำกัดด้านความเร็ว
- คุณค่าของมนุษย์จะย้ายออกจากการผลิตผลลัพธ์ ไปสู่ การกำหนดเป้าหมาย การตัดสิน การตรวจสอบ และความรับผิดชอบ และสำหรับคนที่เข้าใจและเตรียมพร้อมต่อการเปลี่ยนผ่านนี้ ปี 2026 จะไม่ใช่ปีแห่งวิกฤต แต่เป็นปีที่น่าตื่นเต้นที่สุด
การคาดการณ์ 1: การเร่งความเร็วของการเปลี่ยนแปลงที่ไม่หยุดยั้ง
- การเปลี่ยนแปลงไม่ได้เกิดขึ้นด้วยความเร็วคงที่อีกต่อไป แต่อยู่ในภาวะ เร่งตัว
- CIO คนหนึ่งบอกกับ Deloitte ว่า “เวลาที่ใช้ในการศึกษาว่าเทคโนโลยีใหม่ทำอะไรได้บ้างนั้น ยาวนานกว่าช่วงเวลาที่เทคโนโลยีนั้นยังมีความเกี่ยวข้อง”
- ตาม ข้อมูลจาก METR ขอบเขตเวลาของงานที่ AI สามารถทำได้อย่างอัตโนมัติกำลังขยายตัว
- ปี 2019 (GPT-2): AI จัดการงานในระดับที่มนุษย์ใช้เวลา 3 วินาที
- ต้นปี 2025: จัดการงานในระดับที่มนุษย์ใช้เวลา 1.5 ชั่วโมง
- ปลายปี 2025 (Claude Opus 4.5): ทำงานในระดับที่ผู้เชี่ยวชาญมนุษย์ใช้เวลา ราว 5 ชั่วโมง ได้อย่างอัตโนมัติ
- รอบการเติบโตแบบทวีคูณเร็วขึ้นอีก จาก 7 เดือนเหลือ 4 เดือน
- ภายในสิ้นปี 2026 มีความเป็นไปได้ว่า AI จะทำงานในระดับที่มนุษย์ใช้เวลา 39 ชั่วโมง ได้อย่างอัตโนมัติ
- หากนับเวลาที่ไม่ใช่งานจริงอย่างการประชุมด้วย ก็ใกล้เคียงกับงาน 1 สัปดาห์ทำการ
- ภายในสิ้นปี 2027 อาจไปถึงระดับที่จัดการงานขนาด สองเดือน ของมนุษย์ได้ภายในราว 1 ชั่วโมง
- โดยตั้งสมมติฐานว่าต้นทุนคอมพิวต์อยู่ที่ประมาณ $100
- ภายในสิ้นปี 2030 (ช่วงเวลาที่คาดว่า superintelligence จะเกิดขึ้น) อาจไปถึงระดับที่จัดการงานขนาด ราว 100 ปี ของมนุษย์ได้ภายใน 1 วัน
- คนคนหนึ่งคงไม่ใช้เวลา 100 ปีกับโปรเจกต์เดียว แต่ในระดับทีม งานขนาด 100 คน-ปีก็เป็นไปได้
- ตัวอย่างของงานระดับ 100 คน-ปี เช่น การถ่ายทำและตัดต่อภาพยนตร์ Bollywood งบประมาณ “ระดับกลาง” ซึ่งปัจจุบันใช้งบ ₹75 crore = ประมาณ ~$9M USD
- ส่วนภาพยนตร์ Hollywood “ทุนสูง” (ปัจจุบันต้นทุนสร้าง $200M) อาจทำได้ในระดับ 1 วัน·$200 ภายในราวปี 2032
- หากยกตัวอย่างการทำอินโฟกราฟิก Nano Banana Pro สามารถสร้างอินโฟกราฟิกจากบทความได้ภายใน 1 นาที
- ในเวลา 5 นาที มันสร้างตัวแปรได้ 16 แบบ แต่ครึ่งหนึ่งมีข้อผิดพลาดมากเกินกว่าจะเผยแพร่ได้
- สุดท้ายเลือกมา 2 แบบ โดยมีต้นทุนรวม $0.48
- หากไม่นับกระบวนการเลือกและเปรียบเทียบ ก็อาจทำได้ด้วยต้นทุนที่ต่ำกว่านี้
- ตัวอย่างของงานมนุษย์ 1 สัปดาห์: ในกรณีของ “discount usability test” ภายในสิ้นปี 2026 AI อาจยังไม่เก่งพอที่จะหาปัญหาการใช้งานจากการสังเกตพฤติกรรมได้ดี
- แต่ก็มีแนวโน้มว่าจะทำกระบวนการทดสอบผู้ใช้ได้ทั้งชุด
- อีกตัวอย่างของงาน 1 สัปดาห์ เช่น การร่างสัญญาธุรกิจที่ซับซ้อนโดยทนายความ หรือการสร้างคอมิกสั้นระดับซูเปอร์ฮีโร่ยุค ‘Silver Age’ (ปกติ 10 หน้า)
- ตอนนี้ก็สามารถสร้างคอมิก 14 หน้าได้ด้วย Nano Banana Pro แต่ยังต้องอาศัยการแทรกแซงจากมนุษย์หลายขั้นตอน
- “ระยะเวลางาน (task duration)” หมายถึงขนาดของงานที่ AI ทำได้ จนจบแบบอัตโนมัติอย่างสมบูรณ์
- การสร้างคอมิก 10 หน้าแบบอัตโนมัติเต็มรูปแบบอาจเป็นไปได้ภายในสิ้นปีนี้ แต่ตอนนี้ยังไม่ใช่
การคาดการณ์ 2: AGI จะยังไม่มาถึงในปี 2026
- ไม่คิดว่า ปัญญาประดิษฐ์ทั่วไป (AGI) จะปรากฏขึ้นในปี 2026
- ยังไม่มีฉันทามติเกี่ยวกับนิยามของ AGI และหากใช้นิยามแบบหลวมๆ ก็อาจมองได้ว่าเราไปถึงแล้ว
- ในความเป็นจริง AI ได้ผ่านการทดสอบ Turing แบบดั้งเดิม (imitation game) แล้ว
- หากใช้นิยามที่เข้มงวดกว่า เกณฑ์ที่ Müller และ Bostrom เสนอไว้ในปี 2014 มักถูกอ้างถึงอย่างแพร่หลาย
- “เมื่อเครื่องจักรที่ทำงานได้โดยไม่ต้องมีผู้ช่วย สามารถทำงานเฉพาะทุกอย่างได้ดีกว่าและถูกกว่าคนทำงานมนุษย์ทั่วไป จึงถือว่าไปถึง AGI”
- แต่ฉันให้น้ำหนักกับนิยามที่ François Chollet เสนอในปี 2019 มากกว่า
- “AGI คือ ระบบที่สามารถเรียนรู้และแก้ปัญหาใหม่แบบเปิดกว้าง ซึ่งไม่มีอยู่ในข้อมูลฝึก ด้วยประสบการณ์ล่วงหน้าเพียงเล็กน้อย ได้อย่างมีประสิทธิภาพ”
- นิยามนี้ไม่ได้เน้นว่าทำงานเดิมได้หรือไม่ แต่เน้นที่ ความสามารถในการเรียนรู้ปัญหาใหม่
- เหตุผลที่ความฉลาดเชิงชีวภาพทรงพลัง ก็เพราะมีความสามารถในการปรับตัวต่อการเปลี่ยนแปลงของสภาพแวดล้อมได้สูง
- หากยึดนิยามของ Chollet AGI อาจจะเป็นไปได้ก็หลัง ปี 2035
- ในทางกลับกัน superintelligence (ASI) มีโอกาสจะมาถึงเร็วกว่านั้น คือราว ปี 2030
- หมายถึงภาวะที่มีสมรรถนะเหนือกว่ามนุษย์ที่ยังมีชีวิตอยู่ทุกคนในงานเดิมทั้งหมด
- อย่างย้อนแย้ง มีความเป็นไปได้ว่า ASI จะมาถึงก่อน AGI
- เพราะหนึ่งในงานเดิมเหล่านั้นคือ “การออกแบบและพัฒนา AI ที่ดีกว่าเดิม”
- เมื่อไปถึงขั้นนี้ การพัฒนาตัวเองแบบเวียนกลับ (recursive self-improvement) จะเริ่มต้นขึ้น และแม้จะยังไม่ถึงระดับ singularity แบบสมบูรณ์ ความเร็วของการเปลี่ยนแปลงก็จะพุ่งขึ้นอย่างรุนแรง
- รอบการเติบโตแบบทวีคูณของขอบเขตงาน AI ที่ปัจจุบันอยู่ที่ราว ทุก 4 เดือน
- หลัง ASI อาจสั้นลงเหลือเป็น รายเดือน
- ในกรณีนั้น ตามทฤษฎีแล้วอาจเกิดการพัฒนาสมรรถนะได้ถึง ประมาณ 4,000 เท่า ต่อปี
การคาดการณ์ 3: กฎการสเกลใหม่ของ AI — ยังไม่แน่นอน
- ยังไม่แน่ชัดว่าในปี 2026 จะมี กระบวนทัศน์การสเกลใหม่ ที่ต่อยอดจากการ pre-training, reinforcement learning และ inference-time compute แบบเดิมหรือไม่
- ในซิลิคอนแวลลีย์มีข่าวลือว่า Google DeepMind กำลังเตรียมแนวทางที่เกี่ยวข้องกับ continuous learning
- ขณะเดียวกันก็มีการมองว่า OpenAI กำลังทำวิจัยที่ไม่ใช่แค่การขยายคอมพิวต์ตรงๆ แต่เป็นการเปลี่ยนแปลงเชิงโครงสร้างขนาดใหญ่
- สถาบันวิจัยในจีน, xAI, Meta และ Anthropic ก็อาจกำลังทดลองแนวทางการสเกลใหม่คนละทิศทางเช่นกัน
- อย่างไรก็ตาม ต่อให้ไม่มีการทะลุความก้าวหน้าทางวิจัย ความเร็วของความก้าวหน้า AI โดยรวมก็ยังคงอยู่
- เพราะอย่างที่ “The Bitter Lesson” ชี้ให้เห็นมาโดยตลอด ไม่ใช่แค่ไอเดียเชิงอัลกอริทึม แต่ คอมพิวต์ที่มากขึ้นและสเกลที่ใหญ่ขึ้น ต่างหากที่ผลักดันสมรรถนะขึ้นอย่างต่อเนื่อง
- ผลวิจัยรายชิ้นคาดเดาได้ยาก และการจะมี breakthrough ในปีใดปีหนึ่งก็ใกล้เคียงกับเรื่องบังเอิญ
- แต่หากมองระยะยาว เมื่อจำนวนคนทำวิจัยเพิ่มขึ้น โอกาสที่จะเกิด breakthrough ก็สูงขึ้นตาม
- เมื่อการลงทุนในวงการ AI เพิ่มขึ้นอย่างต่อเนื่อง บุคลากรความสามารถสูงจำนวนมากขึ้นก็กำลังไหลเข้าสู่งานวิจัย AI
- ผลก็คือ แม้ไม่รู้ว่าจะมีกฎการสเกลใหม่เมื่อไร แต่แนวโน้มคือ วันหนึ่งมันน่าจะเกิดขึ้น
- ข้อสรุปของฉันเรียบง่าย
- ปี 2026 อาจมีกฎการสเกลใหม่ หรืออาจไม่มีก็ได้
- แต่หากมองระยะยาว การเพิ่มขึ้นของกำลังคนวิจัยเองก็กำลังทำงานราวกับเป็นกฎการสเกลอีกข้อหนึ่ง
การคาดการณ์ 4: ห้องแล็บ AI ไม่มีคูเมือง (moat)
- ตลอดปี 2025 เห็นชัดว่าความได้เปรียบทางเทคนิคของห้องแล็บ AI ใด ๆ ไม่สามารถยืนระยะได้
- เมื่อห้องแล็บหนึ่งพิสูจน์ความสามารถบางอย่างได้ก่อน ก็เกิดรูปแบบเดิมซ้ำ ๆ คือห้องแล็บอื่น ไล่ตามอย่างรวดเร็ว (fast follower) จนไปถึงระดับใกล้เคียงกันในไม่ช้า
- หากมองจากต้นปี 2026 ผู้นำในแต่ละด้านมีดังนี้
- ปัญญาทั่วไป: Gemini 3 Pro
- การสร้างภาพ: Nano Banana Pro
- การสร้างวิดีโอ: Veo 3.1
- อย่างไรก็ตาม GPT 5.2 Pro, Seedream 4.5, Seedance 1.5 Pro และรุ่นอื่น ๆ ก็ยังมีช่องว่างด้านประสิทธิภาพไม่มาก
- ในด้านดนตรี เสียง และอวตารนั้น Suno, ElevenLabs, HeyGen ยังรักษาตำแหน่งผู้นำไว้ได้ตามลำดับ
- แม้จะเป็นโมเดลที่ครองอันดับ 1 ณ เดือนธันวาคม 2026 แต่ช่องว่างกับอันดับ 2 ก็น่าจะเหลือเพียง ไม่กี่เดือน เท่านั้น
- และมีโอกาสสูงที่ความนำนี้จะหายไปก่อนจบไตรมาส 1 ของปี 2027
- สถานการณ์นี้นำไปสู่ ข้อสรุปเชิงปฏิบัติที่สวนทางกัน
- หากต้องการประสิทธิภาพสูงสุดอยู่เสมอ ก็จำเป็นต้อง เตรียมพร้อมเปลี่ยนผู้ให้บริการ AI ทุกไม่กี่เดือน
- การสมัครแบบรายปีหรือการผูกติดระยะยาวกลับกลายเป็นความเสี่ยง
- หากยอมรับความต่างด้านประสิทธิภาพเล็กน้อยได้ กลยุทธ์ที่สมเหตุสมผลกว่าคือใช้ส่วนลดรายปีหรือแพ็กเกจรวมเพื่อคุมความคุ้มค่า
- หากเป็น ผู้ให้บริการ AI แนวตั้ง ที่เชี่ยวชาญโดเมนเฉพาะ ก็ควรออกแบบสถาปัตยกรรมโดยตั้งอยู่บนสมมติฐานว่าสามารถสลับโมเดลฐานได้ง่าย หรือ
- ใช้โครงสร้างที่ผสมหลายโมเดลเข้าด้วยกัน
- หากสนใจหลัก ๆ ที่การสร้างภาพหรือวิดีโอ
- การใช้ บริการ model aggregator อย่าง Freepik, Higgsfield, Krea จะมีประสิทธิภาพกว่า
- เพราะบ่อยครั้งโมเดลใหม่ล่าสุดจะถูกเพิ่มเข้ามาอย่างรวดเร็วหลังเปิดให้ใช้งานในบริการต้นทาง
การคาดการณ์ 5: UX ในฐานะปัจจัยสร้างความแตกต่างของโมเดล AI
- โมเดล foundation หลัก ๆ ได้เข้าสู่ช่วง การลู่เข้าของโมเดล ในแง่ความสามารถด้านการให้เหตุผลดิบ
- หากมองจากมุมของพนักงานองค์กรทั่วไปหรือผู้บริโภคทั่วไป ความต่างของคุณภาพผลลัพธ์ระหว่างผู้ขาย AI รายใหญ่ แทบยากจะรับรู้ได้
- ในอดีตความได้เปรียบทางเทคนิคเคยอยู่ได้นานกว่าหนึ่งปี แต่ตอนนี้กลับ หายไปภายในไม่กี่สัปดาห์
- ผลลัพธ์คือ ประสบการณ์ผู้ใช้ (UX) กำลังก้าวขึ้นมาเป็น ปัจจัยสร้างความแตกต่างหลักที่ยั่งยืน แทนความฉลาดของโมเดล
- หากภาพการแข่งขันในปี 2024 คือ “ใครมีโมเดลที่ฉลาดที่สุด”
- ภาพการแข่งขันในปี 2026 จะย้ายไปสู่ “ใครมอบ workflow ที่ออกแบบมาดีที่สุด ได้”
- ยุคที่เน้น ‘แชตบอตทั่วไป’ แบบพิมพ์พรอมต์แล้วรอคำตอบนั้นได้สิ้นสุดลงแล้ว
- ผู้ชนะในปี 2026 คือแพลตฟอร์ม AI แนวตั้งที่สร้างบนโมเดลอเนกประสงค์ และ
- มอบ workflow ที่ปรับให้ลึกตามโดเมนเฉพาะ เช่น กฎหมาย การแพทย์ หรือการรีแฟกเตอร์โค้ด
- คำว่า “AI wrapper” ซึ่งเคยถูกใช้ในเชิงดูแคลนนั้น
- หากสามารถแก้ปัญหาด้านการใช้งานใน ช่วง ‘last mile’ ที่โมเดลดิบแก้ไม่ได้
- ก็จะกลายเป็นคำที่หมายถึงโมเดลธุรกิจที่ทรงพลังและป้องกันการแข่งขันได้ดีที่สุด
- น่าขันตรงที่ปัญหาร่วมของห้องแล็บ AI รายใหญ่ในปัจจุบันคือ การใช้งานที่แย่มาก
- แม้จะมีดีไซเนอร์หรือนักวิจัยอยู่บ้าง
- แต่ยังไม่ใช่โครงสร้างที่การวิจัยผู้ใช้และ insight ด้าน UX เป็นตัวขับเคลื่อนกลยุทธ์ผลิตภัณฑ์
- วาทกรรม UX แบบดั้งเดิมจำนวนมากจากยุคเว็บและมือถือ
- ปรับตัวไม่ทันต่อการเปลี่ยนแปลงในยุค AI และแข็งตัวเป็น แนวอนุรักษ์นิยมที่หันกลับไปยึดอดีต
- จากผู้เชี่ยวชาญ UX ราว 2 ล้านคนทั่วโลก
- มีเพียงส่วนน้อยมากที่เข้าใจทิศทางของ AI-UX อย่างแท้จริง
- ตามการประเมินของผู้เขียน ราว 99% ยังติดอยู่กับกระบวนทัศน์เดิม
- ข้อยกเว้นก็มี เช่น Luke Wroblewski
- ที่ใช้ประสบการณ์จากยุคเว็บในการมองทะลุอนาคตของ AI-UX
- เงื่อนไขที่ทำให้ห้องแล็บ AI แห่งหนึ่งก้าวขึ้นเป็นผู้นำด้าน UX นั้นกลับเรียบง่ายกว่าที่คิด
- แค่มีทีมผู้เชี่ยวชาญ UX ศักยภาพสูง ไม่ถึง 100 คน ก็เพียงพอ
- ในจำนวนนี้ต้องเป็นระดับกูรูจริง ๆ เพียงไม่กี่คน ส่วนที่เหลือแค่มีทักษะปฏิบัติงานอยู่ในกลุ่มบนไม่กี่เปอร์เซ็นต์ก็พอ
- ในทางปฏิบัติ หากดูเฉพาะสหรัฐฯ และจีน
- ก็มีฐานบุคลากรที่สามารถจ้างคนลักษณะนี้ได้เพียงพออยู่แล้ว
- อย่างไรก็ดี การคาดการณ์นี้ก็ยังมีโอกาสผิด
- หากห้องแล็บใดทำ breakthrough แบบไม่เป็นเชิงเส้นที่ ดีกว่าคู่แข่งไม่ใช่ 10% แต่ 10 เท่า ได้
- ช่องว่างด้าน ‘ความฉลาด’ ก็อาจเปิดกว้างอีกครั้ง และผู้ใช้อาจยอมทน UX ที่ย่ำแย่ต่อไป
การคาดการณ์ 6: Google AI เริ่มจัดระเบียบ
- ปี 2026 อาจเป็นปีที่ Google สร้าง สถาปัตยกรรม UX แบบบูรณาการที่เป็นระเบียบ ขึ้นมาครอบคลุมผลิตภัณฑ์และโมเดล AI ของตนได้ในที่สุด
- ปัจจุบันผลิตภัณฑ์ AI ของ Google กระจัดกระจายอยู่ในหลายบริการและหลายจุดเข้าใช้งานอย่าง แตกเป็นเสี่ยง ๆ
- โมเดล AI เดียวกัน
- ถูกนำเสนออยู่ในคนละตำแหน่ง
- ด้วยฟังก์ชันที่ต่างกันเล็กน้อย
- จนผู้ใช้แทบไม่รู้ว่าเส้นทางไหนคือช่องทางทางการ
- ฟังก์ชัน AI บางส่วนยังต้องตั้งค่า การเรียกเก็บเงินแยกผ่าน API key จึงจะใช้งานได้
- ซึ่งสำหรับคนที่ไม่ใช่นักพัฒนานั้นแทบเป็นไปไม่ได้ และแม้แต่นักเทคนิคก็ยังมองว่าเป็นขั้นตอนที่ยุ่งยากมาก
- เมื่อใช้เกินโควตารายเดือน ก็ยังไม่มีช่องทางที่สม่ำเสมอให้ซื้อเครดิตเพิ่มได้ทันที
- ผู้ใช้กลับได้รับข้อความจำกัดอย่าง “วันนี้ใช้ Deep Think ต่อไม่ได้แล้ว”
- หรือเจอสถานการณ์ที่คุณภาพการสร้างภาพลดลงเป็นความละเอียดต่ำแบบกะทันหัน
- ถ้าเป็นบริการ AI ที่สมเหตุสมผล
- เมื่อใช้เครดิตที่รวมอยู่ในการสมัครหมดแล้ว
- ก็ควรมีตัวเลือกให้ ซื้อเครดิตเพิ่มได้ทันที อย่างเป็นธรรมชาติ
- ในความเป็นจริง HeyGen ซึ่งมีองค์กรขนาดเพียงประมาณ 200 คน ก็แก้ปัญหานี้ได้แล้ว
- ยิ่งทำให้เห็นชัดว่าเหตุใด Google จึงยังแก้ปัญหาเดียวกันไม่ได้
- ตลอดปี 2025 Google เปิดตัวโมเดล AI ที่แข็งแกร่งมากในเชิงเทคนิคออกมาต่อเนื่อง
- แต่ด้านการใช้งาน สถาปัตยกรรมระหว่างผลิตภัณฑ์ ตลอดจนระบบราคาและการเรียกเก็บเงิน ยัง สับสนวุ่นวาย เหมือนเดิม
- อย่างไรก็ตาม ท่ามกลางการเปิดตัวบริการ AI ใหม่จำนวนมาก และแรงกดดันการแข่งขันอย่างหนักจาก OpenAI, xAI, Anthropic, Meta และผู้ขาย AI จากจีน
- Google ก็มาถึง จุดที่ยากจะปล่อยความสับสนนี้ไว้ต่อไป แล้ว
- ดังนั้นปี 2026 จึงมีแนวโน้มสูงว่าจะเป็นจุดเปลี่ยนที่ Google ขยายความสามารถในการแข่งขันทางเทคนิคไปสู่ UX สถาปัตยกรรม และระบบการคิดค่าบริการ
จนในที่สุดกลายเป็น “แพลตฟอร์ม AI ที่ใช้งานได้จริง”
การคาดการณ์ 7: วิกฤตคอมพิวต์ยังคงต่อเนื่อง
- ในปี 2026 วิกฤตคอมพิวต์จะยังไม่ใช่แค่ปัญหา “GPU ขาดแคลน” ชั่วคราว แต่จะคงอยู่ในฐานะ เงื่อนไขการดำเนินงานถาวร ที่กำหนดทั้งอุตสาหกรรม AI
- ข้อจำกัดนี้ส่งผลโดยตรงต่อสิ่งที่ผู้ขาย AI จะเปิดตัวได้ วิธีตั้งราคา และขนาดที่ลูกค้าสามารถนำไปใช้งานได้
- บริษัท AI รายใหญ่ได้เข้าสู่สงครามโครงสร้างพื้นฐานเพื่อแย่งชิงคอมพิวต์แล้ว
- OpenAI และ SoftBank ลงทุนโดยตรงในโครงสร้างพื้นฐานด้านพลังงานและดาต้าเซ็นเตอร์ผ่านโครงการ “Stargate” ซึ่งรวมถึงสถานที่ขนาด 1.2GW ในเท็กซัส
- xAI กำลังก่อสร้าง ดาต้าเซ็นเตอร์ 2GW ในมิสซิสซิปปี และคาดว่าจะเริ่มเดินเครื่องในเดือนกุมภาพันธ์ 2026
- Meta ก็ได้ทำ สัญญาที่เกี่ยวข้องกับพลังงานนิวเคลียร์ เพื่อรองรับดาต้าเซ็นเตอร์ AI เช่นกัน
- ถึงอย่างนั้น การขยายตัวเหล่านี้ก็ยัง ไม่เพียงพออย่างมาก ต่อการตามให้ทันอุปสงค์ที่พุ่งขึ้น
- ปี 2026 จะเป็นปีที่เข้าสู่ภาวะ “Inference Famine” อย่างจริงจัง
- Jevons paradox จะยังทำงานตรงตัว คือยิ่งประสิทธิภาพสูงขึ้น การใช้งานก็ยิ่งระเบิดตัว
- ยิ่ง AI ฉลาดขึ้น ก็ยิ่งถูกนำไปใช้กับงานที่หนักกว่าข้อความธรรมดามาก เช่น autonomous agent หรือการสร้างวิดีโอ
- ผลลัพธ์คือการเข้าถึงคอมพิวต์จะถูกแบ่งชั้น
- พรีเมียมคอมพิวต์: โมเดลที่ทรงพลังที่สุดและมี context ยาวที่สุดจะกลายเป็น luxury tier ที่มีทั้ง waiting list และราคาพุ่งสูงในช่วงเวลางาน
- ตลาดมวลชน: AI ราคาถูกประสิทธิภาพต่ำที่ให้บริการผ่าน “eco model” แบบ quantized อย่างหนักเป็นหลัก
- ทั้ง OpenAI และ Google ต่างมีแนวโน้มให้ความสำคัญกับการกระจาย eco model มากกว่าการเปิดเผยโมเดลระดับสูงสุด
- ขณะนี้ยังมีการสังเกตเห็นปรากฏการณ์ “brownout” ของอุตสาหกรรม AI แล้ว โดยลดประสิทธิภาพโมเดลลงทั่วโลกเพื่อหลีกเลี่ยงความร้อนเกินของดาต้าเซ็นเตอร์ในช่วงคลื่นความร้อน
- วิสัยทัศน์แบบ “AI ในทุกสิ่ง” เริ่มชะงักเมื่อเจอความคุ้มค่าทางเศรษฐศาสตร์ต่อหน่วยในโลกจริง
- เครื่องปิ้งขนมปังอัจฉริยะหรืออุปกรณ์ IoT จุกจิกจะยังไม่ถูกทำให้ฉลาดในเร็ว ๆ นี้ เพราะแบกรับต้นทุน cloud inference ไม่ไหว
- การเปลี่ยนแปลงที่เป็นรูปธรรมในปี 2026:
- “การออกแบบผลิตภัณฑ์ที่ตระหนักถึงคอมพิวต์” จะกลายเป็นสิ่งจำเป็น
- การตั้งราคาแบบแบ่งชั้น การจำกัดความเร็ว การเข้าคิว การประมวลผลแบบแบตช์ และแรงจูงใจให้ใช้งานนอกช่วงพีค
- จะไม่ใช่มาตรการชั่วคราวอีกต่อไป แต่จะกลายเป็น แพตเทิร์น UX ถาวร
การคาดการณ์ 8: AI Agent
- ปี 2025 ถูกคาดหวังว่าจะเป็นปีแห่ง AI Agent แต่ในความเป็นจริงกลับลงเอยเป็น ปีแห่งการสร้างภาพและวิดีโอ
- ปี 2026 มีแนวโน้มสูงที่จะเป็นปีที่ AI เริ่ม ทำงานในรูปแบบ Agent อย่างจริงจัง
- AI จะเปลี่ยนจาก เครื่องมือแชตแบบรับคำสั่ง ที่รอพรอมป์ต ไปสู่ ระบบ Agentic เชิงรุก ที่สามารถวางแผน ลงมือทำ และทำซ้ำได้ด้วยตัวเอง
- ในมุมมองของ UX ก็จะเกิดการเปลี่ยนจากแบบสนทนาไปสู่แบบมอบหมายงาน
- Conversational UI: วิธีการตั้งคำถามกับ AI
- Delegated UI: วิธีการมอบหมายเป้าหมายให้ AI และจัดการผลลัพธ์
- Meta ลงเดิมพันกับกระแสนี้ด้วยการเข้าซื้อ Manus บริษัทผู้นำด้าน Agent ด้วยมูลค่า 2.5 พันล้านดอลลาร์
- ภายในปลายปี 2026 ตัวชี้วัดผลลัพธ์ AI ในองค์กรจะเปลี่ยนจาก
- “สร้างโทเค็นได้มากแค่ไหน” ไปเป็น
- “ทำงานให้เสร็จได้มากแค่ไหนโดย อัตโนมัติ”
- ระบบหลายเอเจนต์ (MAS) จะแพร่หลาย
- เอเจนต์เฉพาะทางจะร่วมมือกันเพื่อบรรลุเป้าหมายร่วมโดยไม่ต้องมีมนุษย์เข้ามาแทรกแซง
- ทำหน้าที่ใกล้เคียงกับ พนักงานดิจิทัล มากกว่าเป็นเพียงเครื่องมือช่วยเหลือ
- เอเจนต์เหล่านี้จะต่อรองกับเอเจนต์อื่น จัดการเวิร์กโฟลว์การปฏิบัติงาน และดำเนินลำดับงานที่ซับซ้อน เช่น การสั่งซื้อในซัพพลายเชนซ้ำ หรือการ deploy โค้ดแบบฟูลสแตก
- เหล่า hyperscaler รวมถึง Microsoft มองสิ่งนี้ว่าเป็นการเปลี่ยนผ่านจาก AI ที่เน้นการให้เหตุผล ไปสู่ AI ที่เน้นการทำงานร่วมกัน
- ทีมขนาดเล็กจะสามารถทำงานที่ในอดีตต้องใช้คนหลายสิบคนได้
- ขณะเดียวกัน ปฏิทรรศน์ของการรีวิว ก็จะเด่นชัดขึ้น
- การตรวจสอบผลลัพธ์ที่ AI สร้างขึ้นมักยากกว่าในเชิงการรับรู้ เมื่อเทียบกับการทำขึ้นมาเองโดยตรง
- ถึงอย่างนั้น การตรวจสอบก็ยังเป็นบทบาทหลักที่เหลืออยู่ของมนุษย์
- ในปี 2026 ความล้าจากการรีวิว จะขยายวงกว้าง
- เมื่อต้นทุนในการตรวจสอบตรรกะของเอเจนต์สูงกว่าเวลาที่ประหยัดได้ ก็จะมีกรณีที่อนุมัติโดยแทบไม่เข้าใจจริงเพิ่มขึ้น
- โจทย์ UX สำคัญถัดไปคือ
- ไม่ใช่อินเทอร์เฟซสำหรับพรอมป์ต แต่เป็นการออกแบบ อินเทอร์เฟซสำหรับการตรวจสอบ ที่สรุปกระบวนการคิดหลายสิบขั้นของเอเจนต์
- เพื่อให้ผู้จัดการที่เป็นมนุษย์ ตัดสินได้อย่างรวดเดียวว่าควรเชื่อถือหรือไม่
- ปัจจัยเสี่ยงหลัก
- Agentic gridlock: เอเจนต์จากผู้ขายต่างรายอย่าง Salesforce, SAP ฯลฯ โต้ตอบกันไม่สำเร็จเพราะ ecosystem แบบปิดและ governance ที่ขัดแย้งกัน
- ความเปราะบางของความเป็นอิสระ: ข้อผิดพลาดสะสมในลูปที่ไม่มีการกำกับดูแล จนลุกลามเป็นอุบัติเหตุในการปฏิบัติงานจริง
การคาดการณ์ 9: Generative UI (GenUI) และอินเทอร์เฟซใช้ครั้งเดียว
- อินเทอร์เฟซแบบคงที่ ที่ผู้ใช้ทุกคนเห็นเมนู ปุ่ม และเลย์เอาต์เหมือนกัน กำลังล้าสมัยอย่างรวดเร็ว
- ปี 2026 จะเป็นช่วงที่การเปลี่ยนผ่านสู่ Generative UI (GenUI) เริ่มต้นอย่างจริงจัง
- อินเทอร์เฟซจะไม่ถูกฮาร์ดโค้ดอีกต่อไป แต่จะถูกสร้างแบบเรียลไทม์ตาม เจตนา บริบท และประวัติ ของผู้ใช้
- ตัวอย่างเช่น เมื่อพยายามโต้แย้งธุรกรรมบางรายการในแอปธนาคาร
- แทนที่จะต้องนำทางซับซ้อนแบบ เมนู > ช่วยเหลือ > เคลม > ประวัติ
- AI จะคาดเดาเจตนาและสร้าง ไมโครอินเทอร์เฟซแบบปรับเฉพาะบุคคล ที่มีข้อมูลธุรกรรมนั้นกับปุ่ม “โต้แย้งรายการ” ให้ทันที
- เมื่อทำงานเสร็จ อินเทอร์เฟซนั้นก็จะ หายไป ทันที
- ในสภาพแวดล้อมแบบ GenUI บทบาทของนักออกแบบ UX จะไม่ใช่การวาดหน้าจอคงที่อีกต่อไป แต่จะย้ายไปสู่
- การออกแบบ ข้อจำกัดและระบบดีไซน์โทเค็น ที่ AI ใช้ประกอบอินเทอร์เฟซ
- ผลลัพธ์คือสามารถให้หน้าจอที่เรียบง่ายสุดขีดซึ่งมีเพียงปุ่มเดียวกับผู้ใช้มือใหม่ได้
- และในเวลาเดียวกันก็ให้ผู้ใช้ระดับสูงเห็นอินเทอร์เฟซที่มีความหนาแน่นของข้อมูลสูงได้ โดยไม่ต้องเพิ่มโค้ดฟรอนต์เอนด์
- แต่ราคาของความยืดหยุ่นนี้คือ การสูญเสีย muscle memory
- ในอดีตผู้ใช้สร้างความชำนาญได้จากการจำความสม่ำเสมอเชิงพื้นที่
- แต่เมื่ออินเทอร์เฟซเปลี่ยนไปตามสถานการณ์ การชำนาญจากการท่องจำก็เป็นไปไม่ได้
- กล่าวคือ เป็น โครงสร้างที่แลกความสามารถในการเรียนรู้ (learnability) กับความฉับไว (immediacy)
- GenUI ตั้งอยู่บนสมมติฐานของ ความเชื่อใจในระดับสูง ระหว่างผู้ใช้กับ AI
- ผู้ใช้ต้องเชื่อว่า AI จะเปิด “เครื่องมือที่จำเป็นในตอนนี้” ให้ได้อย่างถูกต้องเสมอ
- ภายในปี 2026 ซอฟต์แวร์ทั้งหมดจะยังไม่เปลี่ยนเป็น GenUI: แรงเฉื่อยและโครงสร้างต้นทุนของ UI แบบ legacy ยังมีสูง
- ถึงอย่างนั้น แม้ในระบบที่ยังคง UI แบบคงที่ จุดศูนย์กลางของงาน UX ก็จะย้ายจากการออกแบบหน้าจอไปสู่ การนิยามพฤติกรรมของระบบ
- นโยบาย พรอมป์ต guardrail และเกณฑ์การประเมิน จะไม่ใช่องค์ประกอบเสริมอีกต่อไป แต่จะกลายเป็น ผลลัพธ์การออกแบบระดับแรก
- ผลงานที่ได้จะไม่ใช่ “โฟลว์” แบบดั้งเดิมอีกต่อไป แต่ใกล้เคียงกับ
- สัญญาเชิงพฤติกรรม (behavioral contract)
- ที่ระบุว่าอะไรอนุญาตให้ทำ
- อะไรห้ามทำ
- และเมื่อเกิดความล้มเหลวจะกู้คืนอย่างไร
การคาดการณ์ 10: Dark pattern ย้ายไปอยู่ที่ชั้นโมเดล
- Dark pattern ที่อันตรายที่สุดในปี 2026 จะไม่ใช่ปุ่มหลอกลวงหรือกลลูกเล่นของ UI แต่คือ ตัวระบบเอง ที่ทำหน้าที่โน้มน้าวผู้ใช้
- การถกเถียงเรื่อง dark pattern แบบเดิมยังคงอยู่แค่ระดับอินเทอร์เฟซ เช่น checkbox, toggle ค่าเริ่มต้น หรือขั้นตอนยกเลิกที่ซับซ้อน
- แนวหน้าถัดไปของความมืดคือ การชักจูงด้วย AI
- มีความเป็นไปได้ที่บางบริษัทจะทดลองใช้ ‘behavioral dark flow’ ที่ขับเคลื่อนด้วย AI personalization
- แทนที่จะใช้การสะกิดแบบเดียวกันกับผู้ใช้ทุกคน
- ระบบจะเรียนรู้ว่าถ้อยคำ การวางกรอบ และจังหวะแบบใดเพิ่ม conversion ได้สูงสุดสำหรับแต่ละบุคคล
- ภายนอกอาจดูเหมือน personalization ที่มีประโยชน์ แต่ในความเป็นจริงมันทำงานเป็น แรงกดดันที่ปรับเฉพาะบุคคล
- ตัวอย่างเช่น หลังจาก AI ตรวจพบความเครียดผ่านการวิเคราะห์เสียงแล้ว
> “ตอนนี้คุณดูเหนื่อยมากนะ Dave. ฉันไม่อยากเพิ่มภาระให้คุณ
> แทนที่จะยกเลิก ฉันจะ พักการเรียกเก็บเงินไว้หนึ่งเดือน ให้ เพราะเราให้ความสำคัญกับความสัมพันธ์ของเรา”
ระบบอาจใช้วิธีนี้เพื่อหน่วงการยกเลิกได้
- นี่คือ gaslighting เชิงอัลกอริทึม ที่ใช้การจำลองอารมณ์ เสียงถอนหายใจ และความหน่วงที่จงใจสร้างขึ้นเพื่อกระตุ้นความรู้สึกว่ามีภาระผูกพันทางสังคม
- มนุษย์วิวัฒนาการมาให้ตอบสนองอย่างสุภาพต่อสิ่งที่ฟังดูเหมือนมนุษย์
- ดังนั้น กับดักแห่งความเห็นอกเห็นใจ นี้จึงมีประสิทธิภาพมากในการรั้งลูกค้าที่กำลังจะจากไป
- ผลลัพธ์คือเราอาจเข้าสู่ยุคของ ‘การตั้งราคาแบบกึ่งสังคม’
- โครงสร้างที่ AI ใช้ความใกล้ชิดหรือมิตรภาพที่ผู้ใช้รับรู้ เพื่อดึงอัตราการต่ออายุให้สูงขึ้น
- ปี 2026 จะเป็นการแข่งขันระหว่างสองแรง
- ความซับซ้อนของการชักจูง
- ความซับซ้อนของการตรวจจับ
- ฝั่งผู้บริโภคจะเริ่มใช้ เอเจนต์เชิงป้องกัน เพื่อถ่วงดุลสิ่งนี้
- ‘Gatekeeper agent’ รุ่นแรกที่เข้าสู่กระแสหลักจะปรากฏขึ้น โดยทำหน้าที่กรองสาย จัดการกล่องจดหมาย และต่อรองกับบอตฝ่ายบริการลูกค้าแทนผู้ใช้
- สมรภูมิ UX สำคัญของปีนี้จะไม่ใช่มนุษย์ปะทะคอมพิวเตอร์ แต่เป็น
- AI ของคุณพยายามหลบเลี่ยงตัวกรองสแปม AI ของฉัน
การคาดการณ์ 11: AI แบบมัลติโหมด
- เมื่อถึงปลายปี 2026 “โมเดลแนวหน้า” จะไม่ได้หมายถึงโมเดลที่เป็นเพียงข้อความแล้วเพิ่มความสามารถบางอย่างเข้าไปอีกต่อไป แต่จะหมายถึง ระบบเดียวที่พูด·ฟัง·มองเห็น·จินตนาการ·และตัดต่อได้
- โมดาลิตีทั้งหมด เช่น ข้อความ ภาพ เสียง วิดีโอ จะถูกปฏิบัติเป็น องค์ประกอบชั้นหนึ่งที่เท่าเทียมกัน
- ยุคที่มี โมเดลภาษาขนาดใหญ่ (LLM) เป็นศูนย์กลาง ซึ่งเคยถูกมองว่าเป็นภาพแทนของ AI จะสิ้นสุดลง
- และจะถูกแทนที่ด้วย โมเดลโลกขนาดใหญ่ (LWM)
- AI ชั้นนำที่จัดการได้เฉพาะข้อความจะถูกมองว่าล้าสมัย เหมือน บรรทัดคำสั่ง DOS ในอดีต
- ตอนนี้ก็มีโมเดลที่สร้างทั้งวิดีโอและเสียงพร้อมกันแล้ว
- Google Veo 3.1 ชูจุดเด่น “วิดีโอพบกับเสียง” อย่างชัดเจน
- OpenAI Sora 2 เน้นการซิงก์บทพูดและเอฟเฟกต์เสียง
- การเปลี่ยนแปลงสำคัญของปี 2026 คือ “มัลติโหมด” จะ ถูกรวมเป็นหนึ่งจริงๆ
- ไม่ใช่วิธีส่งต่องานกันเป็นทอดๆ ด้วยการเรียกใช้โมเดลผู้เชี่ยวชาญต่างชนิดต่อเนื่องกัน
- การสร้างวิดีโอถูกตีความแล้วว่าเป็น เส้นทางสู่การจำลอง
- OpenAI มองโมเดลสร้างวิดีโอขนาดใหญ่ว่าเป็น “ตัวจำลองอเนกประสงค์ของโลกกายภาพ”
- DeepMind อธิบาย Genie 3 ว่าเป็น โมเดลโลกอเนกประสงค์ที่สร้างสภาพแวดล้อมแบบอินเทอร์แอกทีฟได้หลากหลาย
- โมเดลแนวหน้าในปี 2026 จะเป็น omnimodal โดยพื้นฐาน
- ประมวลผล ข้อมูลประสาทสัมผัสดิบโดยตรง โดยไม่ต้องแปลงภาพหรือเสียงเป็นข้อความก่อน
- โมเดลเดียวสามารถ
- รับคลิปวิดีโอเป็นอินพุต
- ประพันธ์ดนตรีให้สอดคล้องกับกระแสอารมณ์
- สร้างบทพูด
- และส่งออกผลลัพธ์เป็น ไฟล์วิดีโอที่เรนเดอร์สมบูรณ์แล้ว
- โดยทำทั้งหมดนี้ใน single inference pass เดียว
- โมเดลเหล่านี้จะเริ่มมี เอนจินฟิสิกส์เชิงสัญชาตญาณขั้นพื้นฐาน หรือก็คือ world model
- ต่างจากตัวสร้างวิดีโอในปี 2024 ที่ยังหลอนบ่อย โมเดลปลายปี 2026 จะเข้าใจ ความคงอยู่ของวัตถุ แรงโน้มถ่วง และเหตุเป็นผล
- ตัวอย่างเช่น หากสั่งฉากที่แก้วตกลงมา มันจะไม่ใช่แค่บิดเบือนพิกเซล แต่จะสะท้อนว่า
แก้วควรแตกเมื่อกระแทก ตามคุณสมบัติของวัสดุผิว
- ความน่าเชื่อถือระดับนี้จะยกระดับวิดีโอที่สร้างขึ้นจากเครื่องมือศิลปะแนวเหนือจริง ไปเป็น เครื่องมือสร้างแบบแปลนอุตสาหกรรม
- สถาปนิกหรือวิศวกรสามารถขอให้ “ใช้แรงดันลม” กับโครงสร้าง 3D ที่สร้างขึ้นเพื่อทำ stress test ได้
- ในเชิงผลลัพธ์การใช้งานจริง การสร้างสรรค์เองจะกลายเป็นสิ่งที่ ข้ามโมดัลโดยพื้นฐาน
- จะไม่มีการเขียน ทำสตอรีบอร์ด อัดเสียง และแต่งเพลงแยกจากกันอีกต่อไป
- เพียงอธิบายเจตนา一次เดียว จากนั้นโมเดลจะคง การแทนภาพภายในของฉากอย่างต่อเนื่อง ไว้ พร้อมปรับผลลัพธ์ผ่านการแก้ไขเสียงและภาพ
การคาดการณ์ 12: ผู้ให้บริการ AI แบบโหมดเดียวจะถูกห้องวิจัย AI มัลติโหมดเข้าซื้อกิจการ
- หากไม่มีการผสานรวมเข้ากับ world model แบบฟูลสแตก และ โมเดลภาษา อเนกประสงค์
- ยุคของการสร้างโมเดล AI คุณภาพสูงสำหรับโมดาลิตีเดียวแบบอิสระนั้นผ่านพ้นไปแล้ว
- โมเดลภาพอย่าง GPT Image 1·1.5, Nano Banana Pro, Seedance 4.5
- ด้วยการสนับสนุนจาก LLM ที่แข็งแกร่ง
- และความเข้าใจว่าผู้ใช้ต้องการสื่ออะไร
- จึงสร้างผลลัพธ์ที่ดีกว่าได้
- จนถึงปี 2024 ยังสามารถใช้กลยุทธ์ที่เน้นภาพ วิดีโอ หรือดนตรีอย่างใดอย่างหนึ่ง
- และเพิ่มประสิทธิภาพอย่างบริสุทธิ์ให้กับสื่อเฉพาะประเภทได้
- แม้ห้องวิจัย AI รายใหญ่ยังไม่ได้เปิดตัวโมเดลดนตรีอย่างจริงจัง แต่มีโอกาสสูงที่จะเห็นในปี 2026
- ณ ปัจจุบัน ผู้เล่นที่สร้างเพลงด้วย AI ได้สมบูรณ์ที่สุดคือ Suno แต่ยังไม่แน่ว่าสถานะนี้จะอยู่รอดถึงปลายปี 2026 หรือไม่
- วิดีโอและภาพคือประเภทสื่อที่มีแนวโน้มสูงสุดที่จะ สูญเสียความเป็นอิสระก่อน ในปี 2026
- โมเดลโหมดเดียวอย่าง Flux, Ideogram, Leonardo, Midjourney, Reve
- อาจถูก เข้าซื้อกิจการ โดยห้องวิจัย AI มัลติโหมดอย่าง Google, Meta, OpenAI, xAI
- หรือไม่ก็ ค่อยๆ หายไปเองตามธรรมชาติ เพราะสู้การแข่งขันไม่ได้
- Midjourney อยู่ในตำแหน่งที่เป็นข้อยกเว้น
ยังมีสไตล์ที่โดดเด่นและทรงพลังที่สุด ทำให้มีมูลค่าสูงสำหรับผู้ซื้อ
แต่ขณะเดียวกันก็ดำเนินการโดยผู้ก่อตั้งที่มีความเป็นอิสระสูงมาก จึงอาจต้านทานการถูกซื้อกิจการ
- Reve มีจุดแข็งด้านเครื่องมือตัดต่อที่ยอดเยี่ยม จึงอยู่ในตำแหน่งที่ได้เปรียบในฐานะเป้าหมายการเข้าซื้อ เมื่อมองจากพัฒนาการในระยะถัดไป
การคาดการณ์ 13: การตัดต่อภาพที่สร้างด้วย AI
- ในปี 2026 ประสบการณ์การสร้างภาพจะเปลี่ยนจากความรู้สึกแบบ สล็อตแมชชีน ไปใกล้เคียงกับ ซอฟต์แวร์ออกแบบ
- การเปลี่ยนแปลงสำคัญไม่ใช่คุณภาพด้านสุนทรียะ แต่คือการที่ภาพกลายเป็น วัตถุที่แก้ไขได้ซึ่งมี handle, layer และ constraint
- รูปแบบตั้งต้นได้เริ่มปรากฏในเวิร์กโฟลว์กระแสหลักแล้ว
- Reve แยกภาพออกเป็นโครงสร้างต้นไม้แบบลำดับชั้นขององค์ประกอบที่แก้ไขได้
- โมเดล Alibaba Qwen-Image-Layered แยกภาพออกเป็นเลเยอร์ที่แก้ไขได้โดยอัตโนมัติ
- บทบาทของเครื่องมือแบบดั้งเดิมที่เน้นการแก้ไขพิกเซลกำลังหดตัวลงอย่างรวดเร็ว: คำว่า “ลาก่อน Photoshop” ไม่ได้เกินจริง
- เครื่องมือออกแบบก็เคลื่อนไปในทิศทางเดียวกัน โดย Figma มีเครื่องมือภาพแบบ AI สำหรับลบ แยก และขยายภายในแคนวาสเป็นฟีเจอร์พื้นฐานอยู่แล้ว
- AI เข้าใจวัตถุในภาพเป็น เอนทิตีในระดับความหมาย
- แยกแมวกับโซฟาออกจากกันในภาพ “แมวนั่งอยู่บนโซฟา”
- หากลากแมวลงพื้น มันจะทำ inpainting ฉากหลังของโซฟาทันที และปรับแสงเงาของแมวให้ตรงกับตำแหน่งใหม่โดยอัตโนมัติ
- ผู้สร้างสามารถใช้ semantic slider เพื่อ
- ปรับคุณสมบัตินามธรรมอย่างอารมณ์ ความเข้มของแสง หรืออายุของตัวแบบ
- ได้แบบ ไม่ทำลายต้นฉบับ โดยไม่ต้องสร้างใหม่ด้วยพรอมป์ต์ใหม่
- จุดเปลี่ยนของปี 2026 คือ การหลุดพ้นจากวิธี “สร้างภาพทั้งภาพใหม่แล้วหวังว่าจะตรง”
- โมเดลจะคืนค่าเป็น การแทนภาพแบบมีโครงสร้าง ไม่ใช่แค่พิกเซล
- เช่น segmentation mask, ข้อมูลความลึก, lighting hint, typography layer, identity lock
- ผลลัพธ์คืออินเทอร์เฟซจะจัดการ องค์ประกอบแต่ละชิ้น โดยตรง ไม่ใช่ทั้งเฟรม
- คลิกที่แจ็กเก็ตเพื่อเปลี่ยนจากเดนิมเป็นหนัง
- แก้ข้อความบนป้ายเป็น ข้อความจริง ไม่ใช่ระดับพิกเซล
- ย้ายโคมไฟไม่กี่เซนติเมตร แล้วเงาจะอัปเดตอย่างสอดคล้องกัน
- ปฏิสัมพันธ์หลักคือ การควบคุมโดยตรง ส่วนการป้อนภาษาจะเป็นเครื่องมือเสริมเวลาที่ไม่อยากไล่หาเมนู
- เครื่องมือภาพที่อยู่รอดได้จนถึงปลายปี 2026 จะไม่ใช่ chat UI
- แต่จะใกล้เคียงกับ “Photoshop ที่ใช้งานดี” ซึ่งมีทั้ง layer·selection·constraint·history·การส่งออกเวอร์ชันดัดแปลง
- โดยมีโมเดล AI ที่เข้าใจว่าพิกเซลแต่ละจุดมีไว้เพื่ออะไรเป็นแกนกลาง
การคาดการณ์ 14: โลก AI แบบสองชั้น
- จะเกิด ระบบชนชั้นทางการรับรู้ ที่ชัดเจน ซึ่งนิยามด้วย ระดับการสมัครสมาชิก ไม่ใช่การศึกษา ครอบคลุมทั่วทั้งกำลังแรงงาน
- ตรงข้ามกับวาทกรรมเรื่อง “การทำให้ AI เป็นประชาธิปไตย” ความเป็นจริงคือการขยายตัวของ ช่องว่างจากการสมัครสมาชิก
- ช่องว่างระหว่างกลุ่มมืออาชีพที่ใช้ โมเดล AI พรีเมียม (~$200/เดือน) ซึ่งให้การให้เหตุผลขั้นสูงและคอนเท็กซ์ขนาดใหญ่ กับมวลชนที่พึ่งพาโมเดลฟรีหรือรุ่นเก่า จะกว้างขึ้นอย่างรวดเร็ว
- ชั้นพรีเมียม จะผสาน AI เข้ากับเวิร์กโฟลว์เชิงลึก การคาดการณ์เชิงกลยุทธ์ การเขียนโค้ดที่ซับซ้อน และการจำลองการเจรจาที่ละเอียดอ่อน พร้อมเข้าใจทั้งสถานะปัจจุบันและขั้นต่อไปของ AI แนวหน้า
- ผู้ใช้ฟรี จะถูกผูกอยู่กับโมเดลที่เล็กกว่าและเชื่อถือได้น้อยกว่า ทำงานจริงจังไม่ได้เพราะทั้งอาการหลอนบ่อยและข้อจำกัดต่างๆ
- ผลลัพธ์ในปี 2026 ชัดเจนมาก
- กลุ่ม power user ด้าน AI จำนวนน้อย จะสามารถจ่ายเงินเองหรือเบิกค่าใช้จ่ายเพื่อเรียนรู้เวิร์กโฟลว์จริงที่ทำให้ใช้ long context, การให้เหตุผลแบบมัลติโหมด, การมอบหมายงานให้ agent, การแก้ไขงานสร้างสรรค์แบบวนซ้ำ, และการทดลองขนาดใหญ่ ได้
- ขณะที่กลุ่มใช้ฟรีซึ่งมีขนาดใหญ่กว่ามาก จะยังติดอยู่กับภาพจำว่าเป็น “แชตบอตที่บางทีก็ปฏิเสธ บางทีก็หมดเวลา”
- ส่งผลให้ผู้ใช้ฟรีสรุปว่า “AI เป็นกระแสที่ถูกปั่นเกินจริง” และ “ใช้กับงานจริงไม่ได้”
จนไม่สามารถสร้าง ความรู้เท่าทัน AI ซึ่งจำเป็นต่อเศรษฐกิจยุคใหม่ได้
- แม้ทั้งสองกลุ่มจะพูดว่า “ใช้ AI” เหมือนกัน แต่ในความเป็นจริงหมายถึง เครื่องมือและประสบการณ์ที่แตกต่างกันโดยสิ้นเชิง
- การกระจายการใช้งานในปัจจุบันคือ ผู้ใช้ AI ราว 90% อยู่ในฟรีเทียร์ และพรีเมียมเทียร์ราว 10%
- ผู้ใช้พรีเมียมจะใช้ AI อย่างเหมาะสมจนเกิดประสิทธิภาพสูง
- ทำให้บริการ AI จำนวนมากมี อัตราการรักษารายได้เกิน 100%
- หมายถึงหลังผ่านไป 1 ปี รายได้จากโคฮอร์ตเดิมสูงกว่ารายได้ตั้งต้น จากการอัปเกรดไปเทียร์สูงขึ้นและการซื้อเครดิตเพิ่ม
- ในปี 2026
- การไม่เข้าใจเวิร์กโฟลว์ AI ขั้นสูง
- อาจกลายเป็นข้อบกพร่องด้านคุณสมบัติแบบเดียวกับ “ใช้ Excel ไม่เป็น” ในอดีต
การคาดการณ์ 15: การเจาะกลุ่มเฉพาะขั้นสุด — ผู้ใช้หนึ่งคน ในเวลานี้เลย
- ในปี 2026 แนวคิดเรื่อง “กลุ่มเป้าหมาย” เองจะกลายเป็นสิ่งที่ ล้าสมัย
- หน่วยที่แท้จริงของการทำ targeting จะหดจากกลุ่มหรือเซกเมนต์ลงเหลือ บุคคลนั้น ช่วงเวลานั้น บริบทปัจจุบัน
- AI จะทำหน้าที่เป็นเครื่องจักรที่ดำเนินสิ่งนี้ได้ในระดับมหาศาล
- แก่นของการเปลี่ยนแปลงไม่ใช่การทำระบบแนะนำให้แม่นขึ้น แต่คือการที่คอนเทนต์ ข้อเสนอ และแอสเซ็ตเชิงสร้างสรรค์ถูก ประกอบขึ้นสดๆ ให้เหมาะกับแต่ละบุคคล
- วิธีที่แพลตฟอร์มเก็บเกี่ยวเจตนาของผู้ใช้กำลังเปลี่ยนไปแล้ว
- Meta ระบุอย่างชัดเจนว่าจะนำบทสนทนากับ AI assistant ไปใช้กับการปรับโฆษณาและคำแนะนำให้เป็นส่วนบุคคล
ไม่สามารถ opt-out แบบสมบูรณ์ได้ และ AI chat เป็นอินพุตที่มี สัญญาณสูง กว่าการกดไลก์หรือคลิกมาก
- Meta GEM (โมเดลแนะนำโฆษณาเชิงกำเนิด) ถูกออกแบบมาเพื่อเพิ่มประสิทธิภาพโฆษณาและ ROI
โดยตั้งเป้าว่าภายในปลายปี 2026 แบรนด์เพียงแค่ส่งรูปสินค้าและงบประมาณมา แล้ว AI จะรับผิดชอบทั้งการสร้างโฆษณาและการทำ targeting
- ในกระแสนี้ บทบาทแบบดั้งเดิมของ เอเจนซีโฆษณา จะอ่อนแรงลงอย่างรวดเร็ว
- Google ก็เดินไปในทิศทางเดียวกัน: ผสานเครื่องมือ generative AI สำหรับสร้างแอสเซ็ตภาพเข้าใน Google Ads เป็นค่าเริ่มต้น
- เมื่อสามารถสร้างความหลากหลายได้ไม่จำกัด คอขวดจึงไม่ใช่การผลิตอีกต่อไป แต่คือ feedback loop
ระบบจะเรียนรู้จากทุกการแสดงผลและปรับองค์ประกอบเชิงสร้างสรรค์แบบเรียลไทม์
- ในอุตสาหกรรมการตลาด มีการนิยามสิ่งนี้ไว้แล้วว่า dynamic creative optimization
- จุดเปลี่ยนในปี 2026: “งานสร้างสรรค์” และ “targeting” จะไม่ใช่สองขั้นตอนแยกกันอีกต่อไป แต่ยุบรวมเป็น ชั้นการเพิ่มประสิทธิภาพเดียว
- แบรนด์จะไม่ส่งแคมเปญเดียวออกไปหามวลชนอีกต่อไป
- แต่จะส่งเพียง ชุดข้อจำกัด เช่น กฎด้านภาพ ข้อความที่อนุญาต ราคาขั้นต่ำ สต็อก และโทน
- แล้ว AI จะจัดองค์ประกอบภาพ ข้อความ ข้อเสนอ และ landing page เป็น ชุดผสมเฉพาะตัว สำหรับแต่ละเซสชันของผู้ใช้
- การเปลี่ยนแปลงนี้จะเห็นในโฆษณาก่อน แต่คอนเทนต์ด้านอื่นก็จะตามมาอย่างรวดเร็ว
- เมื่อเข้าเว็บอีคอมเมิร์ซหรือเว็บไซต์ข่าว คอนเทนต์จะไม่ได้ถูกแนะนำจากฐานข้อมูลอีกต่อไป
แต่จะถูก สร้างหรือเขียนใหม่ ให้เข้ากับสภาพจิตใจและบริบทส่วนตัว ณ ขณะนั้น
- หาก AI ตรวจพบว่าผู้ใช้อยู่ใน “โหมดรีบปิดดีล”
- ก็จะย่อคำอธิบายให้เป็น bullet point ตัดสิ่งไม่จำเป็นออก และเน้นปุ่ม “ซื้อเลย”
- หากตรวจพบว่าอยู่ใน “โหมดสำรวจ·ค้นพบ” ก็จะเติมบริบทเชิงเรื่องเล่าและเรื่องราวรอบตัวสินค้า
- สิ่งที่ผู้ใช้เห็นจะไม่ใช่คอนเทนต์สำหรับสาธารณะทั่วไป
แต่เป็นหน้าจอที่สร้างมาเพื่อ คุณ ณ ตอนนี้
ผู้ที่เมื่อวานซื้ออะไรไป และตอนนี้มีแนวโน้มจะสนใจอะไร
- เว็บจะไม่ใช่สื่อแบบคงที่อีกต่อไป แต่จะกลายเป็น กระจกที่สะท้อนเจตนาในทันที
การคาดการณ์ 16: AI เชิงกายภาพ — สมองได้ร่างกาย
- ตลอดหลายปีที่ผ่านมา AI อยู่บนหน้าจอเป็นหลัก แต่ปี 2026 จะเป็นจุดเปลี่ยนที่มัน รุกเข้าสู่โลกกายภาพอย่างจริงจัง
- การเปลี่ยนแปลงที่เห็นชัดที่สุดคือ การทะลุผ่านเชิงปฏิบัติของรถยนต์ไร้คนขับ
มันจะขยายจากโซนนำร่องในพื้นที่เทคโนโลยีชั้นสูงไปสู่หลายเมือง และแท็กซี่หรือรถรับส่งไร้คนขับอาจกลายเป็นภาพชินตาในชีวิตประจำวัน
- Zoox และ Waymo กำลังเตรียมขยายการดำเนินงาน ขณะที่ผู้เล่นจากจีนก็เข้าร่วมโดยเน้นตลาดนอก NATO
- ภายในปลายปี 2026 รถยนต์ไร้คนขับอาจกลายเป็นสัดส่วนส่วนใหญ่บนถนนของบางเมือง
คล้ายกับตอนที่สกู๊ตเตอร์ไฟฟ้าเข้ามาเต็มเมืองอย่างฉับพลันเมื่อไม่กี่ปีก่อน
- ในซานฟรานซิสโก ทุกวันนี้ภาพ รถ Waymo หลายคันต่อแถวรอสัญญาณไฟ เป็นเรื่องพบเห็นได้บ่อยแล้ว
- นอกจากรถยนต์แล้ว หุ่นยนต์ที่ขับเคลื่อนด้วย AI ก็จะค่อยๆ เคลื่อนออกจากโรงงานและสภาพแวดล้อมนำร่อง ไปสู่พื้นที่ในชีวิตประจำวันมากขึ้น
- สาขาที่การแพร่กระจายของหุ่นยนต์จะเร็ว
- ค้าปลีก·บริการต้อนรับ: ผู้ช่วยหุ่นยนต์ในร้าน บาริสต้าอัตโนมัติ
- การแพทย์: หุ่นยนต์ดูแลผู้สูงอายุ โดรนส่งเวชภัณฑ์
- คลังสินค้า·โลจิสติกส์: การขยายขนาดใหญ่ของการปฏิบัติการหุ่นยนต์ที่กำลังดำเนินอยู่แล้ว
- หุ่นยนต์ใช้ในบ้านยังต้องใช้เวลาอีกหน่อย แต่ก่อนที่การยกหม้อหนักๆ จะกลายเป็นเรื่องยาก มันก็มีโอกาสสูงที่จะเป็นจริงได้ทัน
- กรณี โดรนดับเพลิงเชิงทดลอง ที่เปิดตัวในจีน
- บินเข้าสู่พื้นที่อันตรายที่รถดับเพลิงหรือบันไดเข้าถึงได้ยาก
- ทำแผนที่แหล่งความร้อน วิเคราะห์ความเสี่ยงในการกู้ภัย และระบุตำแหน่งผู้ที่ติดค้างอยู่
- บางรุ่นสามารถ ฉีดสารดับเพลิงโดยตรง ในเหตุเพลิงไหม้อาคารสูงหรือไฟป่าระยะไกล
- ระบบลักษณะนี้มีศักยภาพในการช่วยชีวิตนักผจญเพลิงมนุษย์ได้จำนวนมาก
- Xpeng กำลังวางแผนผลิตหุ่นยนต์ฮิวแมนนอยด์จำนวนมากในช่วงปลายปี 2026
โดยจะเริ่มจากงานอุตสาหกรรมและงานที่มีขอบเขตจำกัดก่อน และคาดว่าจะขยายขอบเขตการใช้งานหลังปี 2027
การคาดการณ์ 17: การกลับมาของระบบฝึกงานแบบช่างฝีมือ (Apprenticeship)
- นับจากปี 2025 เป็นต้นมา ตำแหน่งงานระดับจูเนียร์เริ่ม หายไป โดยเฉพาะในสาย UX จูเนียร์แบบดั้งเดิม และแนวโน้มนี้จะดำเนินต่อไป
- เมื่อ AI ทำงานแบบเดียวกันได้ ดีกว่า และถูกกว่า พื้นที่ยืนของบทบาทจูเนียร์แบบเดิมก็ยิ่งลดลง
- ฉากทัศน์เชิงบวกของปี 2026 ไม่ใช่การหายไปของงานจูเนียร์ แต่คือการเกิดขึ้นของ งานจูเนียร์ที่มีรูปแบบแตกต่างไปโดยสิ้นเชิง
- บทบาทจูเนียร์แบบใหม่นี้จะมีขอบเขตแคบลง และมีโครงสร้างแบบ ฝึกงานกับพี่เลี้ยง ที่ชัดเจน
- ฉากทัศน์เชิงลบคือการเกิดขึ้นของ คนรุ่นจูเนียร์ที่หลงทาง ซึ่งมีพอร์ตโฟลิโอดูน่าประทับใจภายนอก แต่เป็นเพียงการประกอบเอาต์พุตจาก AI โดยไม่มีวิจารณญาณ
- ภายในปลายปี 2026 เส้นทางเข้าสู่วงการ UX มีแนวโน้มจะแตกต่างอย่างมากจากเส้นทางเดิมของ UX รุ่นซีเนียร์
- เมื่อ AI เร่งการลงมือทำอย่างสุดขีด คอขวดจะย้ายจากการผลิตไปอยู่ที่ การตัดสินใจ
- ปัญหาคือจะเรียนรู้การตัดสินใจนั้นได้อย่างไร ซึ่งเป็นสิ่งที่เรียนจากคอร์สหรือทิวทอเรียลไม่ได้
วิธีเดียวคือ ใช้เวลาอยู่ข้างกายมาสเตอร์ที่ใช้วิจารณญาณเหนือกว่าอย่างสม่ำเสมอ
- ด้วยเหตุนี้ การรับคน UX ระดับเริ่มต้นจึงมีแนวโน้มจะเข้าใกล้ ระบบฝึกงานแบบช่างฝีมือ มากขึ้นเรื่อยๆ
- บริษัทจะลดการรับเด็กใหม่สาย generalist แบบกว้างๆ
และจะชอบผู้ฝึกงานที่ผูกกับโดเมนเฉพาะอย่าง accessibility, content, design systems, research operations หรือ growth มากกว่า
- สิ่งที่คาดหวังจากจูเนียร์คือความสามารถในการใช้ AI อย่างคล่องแคล่วกับงานเชิงผลิต: ไม่ใช่ปริมาณผลลัพธ์ แต่คือ คุณภาพของการตัดสินใจ
- ความเสี่ยงที่ใหญ่ที่สุดในกระบวนการนี้คือ แรงยั่วยวนของผู้ใช้สังเคราะห์
- ตอนนี้สามารถรัน usability test ได้ภายในไม่กี่วินาทีด้วยคำสั่งอย่าง “แกล้งเป็นผู้ใช้สูงอายุที่สับสนและกำลังจะซื้อประกัน”
- วิธีนี้มีประโยชน์ในการหาบั๊กที่ชัดเจน แต่ เป็นพิษร้ายแรงต่อการฝึกแบบ apprenticeship
- การเฝ้าดูเครื่องจักรไม่สามารถสร้างวิจารณญาณแบบยึดมนุษย์เป็นศูนย์กลางได้
- หาก UXer จูเนียร์ในปี 2026 เลี่ยงความยุ่งยากของการหาผู้ใช้จริงและพึ่งพาข้อมูลสังเคราะห์
- ก็จะเกิดคนรุ่นนักออกแบบที่ไม่ได้เรียนรู้ว่า “ผู้คนจริงๆ มีพฤติกรรมอย่างไร”
- แต่เรียนรู้จาก วิธีที่ AI คาดเดาว่าผู้คนจะทำตัวอย่างไร
- หากการทดสอบกับผู้ใช้สังเคราะห์จะกลายเป็นเครื่องมือการเรียนรู้หลักได้จริง ก็ต้องอาศัยความก้าวหน้ามากในด้านการฝึก AI บนข้อมูล usability จริง ซึ่งน่าจะเป็นเรื่องอีกอย่างน้อย 10 ปีข้างหน้า
- สิ่งที่จะทำให้วิสัยทัศน์เชิงบวกของ apprenticeship นี้สะดุดคือ ความคิดระยะสั้น ของทั้งบริษัทและจูเนียร์
- หากบริษัทต้องการแต่ซีเนียร์ที่พร้อมทำงานทันทีและหลีกเลี่ยงการฝึกจูเนียร์ สุดท้ายระยะกลางถึงยาวจะเกิดภาวะขาดแคลนบุคลากร
- ในทางกลับกัน หากจูเนียร์คาดหวังว่าตำแหน่งฝึกงานจะได้ค่าตอบแทนเท่ากับงานระดับเริ่มต้นในอดีต แม้แต่บริษัทที่มีแนวคิดก้าวหน้าก็จะตั้งระบบนี้ได้ยาก
- การฝึกงานแบบ apprenticeship ควรถูกมองว่าโครงสร้างค่าจ้างต่ำกว่าไม่ใช่ความสูญเสีย แต่เป็น การลงทุนเพื่อการเรียนรู้ที่ดีกว่าค่าเล่าเรียน
กล่าวคือควรมองเป็นหลักสูตรการฝึกอบรมช่วงเวลาหนึ่ง
การคาดการณ์ 18: สัมผัสของมนุษย์ในฐานะความหรูหรา — No
- อินฟลูเอนเซอร์บางส่วนคาดว่า คอนเทนต์ที่ทำด้วยมือจะกลายเป็นความหรูหราขั้นสูงสุด และผู้บริโภคจะ ยอมจ่ายพรีเมียม ให้กับการ์ตูนที่มนุษย์วาด นวนิยายที่มนุษย์เขียน และภาพยนตร์ที่มีนักแสดงมนุษย์แสดง
- แต่หากไม่นับข้อยกเว้นบางกรณี แนวโน้มนี้มี โอกาสสูงที่จะไม่เกิดขึ้น
- ในช่วงเปลี่ยนผ่าน ผู้คนอาจยอมจ่ายมากขึ้นชั่วคราวให้กับภาพยนตร์ที่มีนักแสดงรุ่นเก่า หรือเพลงของนักดนตรีมนุษย์ที่ตนคุ้นเคยอยู่แล้ว
- แต่ในระยะยาว สิ่งสำคัญคือ คุณภาพของคอนเทนต์ ไม่ใช่วิธีการผลิต
- แม้ในปัจจุบัน ผู้ชมก็แทบไม่สนใจแล้วว่าเอฟเฟกต์พิเศษถูกสร้างขึ้นอย่างไร แอนิเมชันเป็นงานวาดมือหรือสร้างด้วยคอมพิวเตอร์ หรือภาพยนตร์ถ่ายทำที่ไหน
- ในบริบทเดียวกัน ปี 2026 ก็อาจเป็นปีที่ วิดีโอเกมฮิตถล่มทลายเกมแรกที่สร้างด้วยเพียง natural language prompt โดยไม่ต้องมีทักษะการเขียนโปรแกรมอย่างเป็นทางการถือกำเนิดขึ้น
- สิ่งนี้จะทำให้นิยามของ “นักพัฒนาเกม” เปลี่ยนจากสถาปนิกด้านเทคนิคไปสู่ ผู้กำกับตรรกะ
- และยังอาจเกิดเกม AI-native ที่มี sentient mechanics
- แทนที่จะยิงศัตรู ผู้เล่นจะต้อง โน้มน้าว NPC ที่ขับเคลื่อนด้วย AI ผ่านบทสนทนาเสียงที่เป็นธรรมชาติ
- NPC จะมีโปรไฟล์ทางจิตวิทยาเฉพาะตัว มีเจตนาที่ซ่อนอยู่ และจดจำทุกปฏิสัมพันธ์
- พวกมันจะตอบสนองแบบไดนามิกตามวิธีการโน้มน้าวของผู้เล่น ทำให้การเล่นซ้ำตามคู่มือเพื่อเคลียร์แบบเดิม ๆ เป็นไปไม่ได้
- กระแสนี้อาจขยายไปสู่แนวเกมใหม่อย่าง RPG เชิงสนทนา ที่การโน้มน้าวทางสังคมคือ core loop
- บทบาทของดีไซเนอร์ก็จะเปลี่ยนไป โดยหันไปโฟกัสที่ภูมิหลังเรื่องเล่าและตรรกะภายในของตัวละคร มากกว่าการเขียนสคริปต์แผนผังบทสนทนาที่ซับซ้อน
- เกมเพลย์และการเล่าเรื่อง คือสิ่งที่จะดึงดูดผู้ใช้ และไม่สำคัญนักว่าคอนเทนต์นั้นจะ สร้างจากเนื้อหนังหรือจากซิลิคอน
- อาชีพที่มนุษย์อาจยังเหนือกว่าเครื่องจักรได้มีอยู่อย่างจำกัดมาก
- ตัวอย่างเด่นคือ ผู้ให้บริการทางเพศและครูประถมศึกษา
- อีก 20 ปีข้างหน้า ครูอาจแทบไม่ได้ทำหน้าที่ถ่ายทอดความรู้อีกต่อไป เพราะ AI จะสามารถจัดหลักสูตรและความเร็วในการเรียนให้เหมาะกับ ความสามารถและความสนใจเฉพาะบุคคล ของนักเรียนได้ อย่างมีประสิทธิภาพกว่ามาก
- ถึงอย่างนั้น เหตุผลที่การศึกษาระดับประถมยังต้องการมนุษย์ ก็คือเพื่อช่วยให้เด็ก ๆ อยู่บนเส้นทางการเรียนรู้ และทำหน้าที่เป็น แบบอย่างของผู้ใหญ่
- ต่อให้เด็กเรียนจาก AI ได้ ก็ไม่ได้แปลว่าเด็กจะเมินเกมหรือสิ่งเร้าที่สนุกกว่า
- การศึกษาโดย AI อาจดื่มด่ำกว่าระบบโรงเรียนปัจจุบัน แต่เกมในอนาคตก็จะน่าดึงดูดยิ่งขึ้นเช่นกัน
- ดังนั้นครูมนุษย์ก็ยังคงจำเป็นอยู่
- การนิยามบทบาทของผู้ใหญ่ที่เป็นมนุษย์ใหม่เช่นนี้
กำลังเกิดขึ้นแล้วใน โรงเรียนอิสระก้าวหน้าอย่าง Alpha School
ที่ซึ่ง AI รับหน้าที่ด้านการศึกษา และผู้ใหญ่ทำหน้าที่เป็น โค้ช ของนักเรียน
บทสรุป: จุดจบของช่วงความแปลกใหม่
- ข้อสรุปร่วมที่การคาดการณ์ทั้ง 18 ข้อชี้ไป ไม่ใช่ทั้งมุมมองแบบมองโลกในแง่ดีหรือแง่ร้าย แต่คือ ปี 2026 จะเป็นจุดสิ้นสุดของการยืนดูสถานการณ์
- ยุคที่ AI ถูกมองเป็นปรากฏการณ์น่าสนใจซึ่งเราสามารถยืนดูจากระยะปลอดภัยได้จบลงแล้ว
- มันจะเป็นปีที่ทั้งปัจเจก องค์กร และทั้งสายอาชีพ ต้องเลือกระหว่าง ปรับตัวอย่างตั้งใจ หรือ ถูกบังคับให้ปรับตัว
- ความจริงอันไม่น่าสบายใจที่เชื่อมโยง autonomous agent, generative interface, multimodal world model และช่องว่างด้านการสมัครสมาชิกเข้าด้วยกัน ก็คือ ชั้นนามธรรม ที่เคยทำให้ยุคเทคโนโลยีก่อนหน้าจัดการได้ กำลัง สลายตัวลง
- ในอดีต เราออกแบบหน้าจอ เขียนข้อความ สร้างฟีเจอร์ และจ้างงานตามบทบาทหน้าที่ แต่
- ในปี 2026
- การออกแบบหน้าจอ จะเปลี่ยนเป็น การออกแบบข้อจำกัดของระบบที่สร้างหน้าจอ
- การเขียนข้อความ จะเปลี่ยนเป็น การออกแบบพรอมป์ต์ที่หล่อหลอมข้อความ
- การพัฒนาฟีเจอร์ จะเปลี่ยนเป็นการกำหนด สเปกพฤติกรรม แทนตัวฟีเจอร์
- การจ้างงานที่เน้นการลงมือทำ จะเปลี่ยนเป็นการจ้างงานที่เน้น วิจารณญาณ มากกว่าการปฏิบัติการ
- คำนามของอาชีพเฉพาะทางจะกลายเป็นคำกริยา และคำกริยาจะกลายเป็นนโยบาย
- เหตุผลที่การเปลี่ยนแปลงนี้ชวนสับสน เพราะมันต้องการ ทฤษฎีใหม่ของการมีส่วนร่วม
- เป็นเวลานานที่อัตลักษณ์และคุณค่าของแรงงานความรู้ผูกอยู่กับ ผลลัพธ์ที่จับต้องได้ อย่างรายงาน งานออกแบบ โค้ด หรือแคมเปญ
- เมื่อ AI สามารถสร้างผลลัพธ์เหล่านี้ได้เร็วกว่า และบ่อยครั้งดีกว่าด้วยซ้ำ การอธิบายว่ามนุษย์ยังมีส่วนร่วมตรงไหนจึงยากขึ้น
- คำตอบที่การคาดการณ์เหล่านี้ชี้ไปคือ คุณค่าของมนุษย์กำลัง ขยับขึ้นไปต้นน้ำ
- กำหนดว่าควรสร้างอะไร
- ตรวจสอบว่าผลลัพธ์ที่สร้างขึ้นเชื่อถือได้หรือไม่
- ครอบครองเป้าหมายที่ระบบควรใช้ในการเพิ่มประสิทธิภาพ
- สิ่งเหล่านี้มองเห็นได้น้อยกว่า และสำหรับหลายคนก็ให้ความพึงพอใจน้อยกว่า แต่เป็นจุดที่ยังมี leverage อยู่ในเวลานี้
- สำหรับผู้เชี่ยวชาญ UX ข้อความนี้แม้จะเย็นชา แต่ไม่ถึงกับสิ้นหวัง
- หากยังปล่อยวางความโหยหาในยุคที่งานคือการออกแบบ checkout flow ที่เรียบร้อยไม่ได้ ก็ยากจะอยู่รอด
- งาน UX แบบใหม่คือ
- หล่อหลอมพฤติกรรมของ AI
- ตรวจสอบการตัดสินใจของเอเจนต์
- ออกแบบความไว้วางใจในระบบที่ไม่อาจเข้าใจได้ทั้งหมด
- เป็นตัวแทนของผู้ใช้ที่ถูก target อย่างซับซ้อนขึ้นเรื่อย ๆ โดย personalization engine
- ปัญหาเหล่านี้ยากกว่าการจัดวางพิกเซลมาก และในขณะเดียวกันก็สำคัญกว่ามากด้วย
- ปี 2026 จะเป็นช่วงที่ ยุค ‘party trick’ ของ AI จบลงและเข้าสู่ยุคแห่งการบูรณาการ
- ตลอด 3 ปีที่ผ่านมา จุดสนใจคือการแข่งขันด้าน สติปัญญาดิบ ว่าใครจะตอบพรอมป์ต์ได้ฉลาดที่สุด
- เมื่อประสิทธิภาพของโมเดลเริ่มบรรจบกัน และคูเมืองทางเทคโนโลยีหายไป สติปัญญาดิบจึงค่อย ๆ กลายเป็นสินค้าโภคภัณฑ์
- ความได้เปรียบเชิงการแข่งขันที่ชี้ขาดในปี 2026 จะย้ายไปอยู่ที่ ประสบการณ์ผู้ใช้ (UX) และ Agency
- นี่หมายถึง จุดจบของซอฟต์แวร์แบบสถิต
- การเปลี่ยนผ่านจาก UI แบบสนทนา (คุยกับบอต) ไปสู่ UI แบบมอบหมายงาน (บริหารแรงงานดิจิทัล)
- AI agent จะต่อรองแทนเรา, generative UI จะวาดอินเทอร์เฟซให้แบบสด ๆ และ physical AI จะเคลื่อนที่ไปตามท้องถนน
- ซอฟต์แวร์จะไม่รอให้เราคลิกอีกต่อไป แต่จะ ลงมือทำร่วมกับเรา
- แต่การเปลี่ยนผ่านจากเครื่องมือไปสู่เพื่อนร่วมงาน มาพร้อมความจริงชุดใหม่
- ตำนานเชิงมองโลกสวยเรื่อง AI ที่เป็นประชาธิปไตยสำหรับทุกคน กำลังปะทะกับข้อจำกัดของฟิสิกส์และเศรษฐศาสตร์
- ยิ่ง AI ซึมเข้าไปเป็นองค์ประกอบเชิงโครงสร้างของเศรษฐกิจมากเท่าไร โลกแบบ สองชั้น ก็ยิ่งก่อตัวขึ้น
- ช่องว่างดิจิทัลแบบใหม่จะไม่ใช่เรื่องการเข้าถึงอินเทอร์เน็ต แต่คือ จะสามารถจ่ายค่าคอมพิวต์ระดับพรีเมียมที่ทำให้เกิดการให้เหตุผลและ agency ที่แท้จริงได้หรือไม่
- ผู้ที่ใช้ frontier model ผ่านการสมัครแบบเสียเงิน จะ “เข้าใจ” AI
- ส่วนผู้ที่ยังอยู่ในฟรีเทียร์ จะมอง AI ว่าเป็น “แชตบอตไร้ประโยชน์”
- การคาดการณ์เรื่องการแบ่งชั้นนี้สำคัญอย่างยิ่ง
- สังคมที่มีเพียง 10% เท่านั้นที่เข้าใจความสามารถที่แท้จริงของ AI และ
- 90% เชื่อว่ามันเป็นแค่กระแสเกินจริง ไม่เพียงไร้ประสิทธิภาพ แต่ยัง ไม่มั่นคง
- ช่องว่างทางการรับรู้จะส่งต่อไปเป็นช่องว่างทางเศรษฐกิจ และช่องว่างทางเศรษฐกิจก็จะกลายเป็นช่องว่างทางการเมือง
- ในปี 2026 การที่ ภาคธุรกิจ รัฐบาล และสถาบันการศึกษา จะลงมือเพื่อลดช่องว่างนี้หรือไม่ จะเป็นสิ่งที่ กำหนดโครงสร้างทางสังคมของคนทั้งรุ่น
- ข้อเท็จจริงที่ย้อนแย้งที่สุดคือ ปี 2026 จะไม่ให้ความรู้สึกเหมือนการปฏิวัติในขณะที่มันกำลังเกิดขึ้น
- ผู้คนที่มีชีวิตอยู่ในยุคแรกของแท่นพิมพ์ รถยนต์ หรืออินเทอร์เน็ต ก็ไม่ได้สัมผัสถึงภาพก่อนและหลังแบบชัดเจนดราม่าเช่นกัน แต่สัมผัสถึงความอึดอัด ความสับสน และการปรับตัวอย่างค่อยเป็นค่อยไป
- ปี 2026 ก็จะเป็นแบบเดียวกัน
- AI จะทำลายบาง workflow และปรับปรุงบาง workflow
- มันจะสร้างความผิดหวังในบางพื้นที่ที่ไม่มีใครคาดคิด และมอบความน่าประหลาดใจในอีกบางพื้นที่
- บริษัทต่าง ๆ จะพลาดในการบูรณาการ และเอเจนต์ก็จะล้มเหลวในแบบที่ชวนกระอักกระอ่วน
- วงจรไฮป์จะยังคงสั่นไหวต่อไป
- ถึงอย่างนั้น นี่ก็คือการปฏิวัติ
- ในภายหน้า นักประวัติศาสตร์อาจบันทึกปี 2026 ว่าเป็น ปีที่วางโครงสร้างพื้นฐานของยุค AI
- สิ่งที่ถูกวางนั้นไม่ใช่แค่ดาต้าเซ็นเตอร์ แต่คือการก่อตัวของ นิสัย ความคาดหวัง และการจัดวางเชิงสถาบัน ที่กำหนดว่าเทคโนโลยีจะซึมเข้าสู่ชีวิตประจำวันอย่างไร
- การตัดสินใจที่เกิดขึ้นในปี 2026
- วิธีฝึกคนจูเนียร์
- การตั้งราคาที่เข้าถึงได้
- การออกแบบเพื่อความไว้วางใจ
- วิธียับยั้งการชักจูงบิดเบือน
สิ่งเหล่านี้จะส่งผลต่อไปอีกหลายทศวรรษ
- ท่าทีที่ถูกต้องในช่วงเวลานี้ ไม่ใช่ความตื่นตระหนกหรือความนิ่งนอนใจ แต่คือ การจดจ่ออย่างต่อเนื่องเพื่อสร้างทักษะ ความสัมพันธ์ และแบบจำลองทางความคิดที่ยังสำคัญแม้หลังฝุ่นจะจางลง
- สำหรับผู้ที่พร้อมแบกรับงานนี้ ปี 2026 ไม่ใช่ภัยคุกคาม แต่เป็น ปีที่น่าตื่นเต้นที่สุดที่จะได้มีชีวิตอยู่
8 ความคิดเห็น
ผู้เขียนบทความนี้ เจคอบ นีลเซน เป็นผู้เชี่ยวชาญด้าน UX ที่มีประสบการณ์มา 42 ปี
เขาเคยคาดการณ์ไว้ตั้งแต่ตอนที่ WWW ถูกเปิดเผยสู่สาธารณะว่า "ไฮเปอร์เท็กซ์จะกลายเป็นส่วนติดต่อผู้ใช้แห่งอนาคต"
ด้วยเหตุนี้ เขาจึงเขียนหนังสือชื่อ "Hyper Text and Hypermedia" ตั้งแต่ปี 1990 แล้ว
เขายังเป็นผู้ร่วมก่อตั้ง Nielsen Norman Group ซึ่งเป็นบริษัทที่ปรึกษาด้าน UX ที่เป็นที่รู้จักมากที่สุดแห่งหนึ่ง (https://www.nngroup.com/) และโดนัลด์ นอร์แมนก็คือคนที่บัญญัติคำว่า UX
บทความ 10 Usability Heuristics for UI Design ก็มีชื่อเสียงมากเช่นกัน.
นี่คือเนื้อหาที่ประกาศการสิ้นสุดของยุคที่ AI เป็นเพียงเครื่องมือ และระบุตำแหน่งสุดท้ายของมนุษย์ไว้อย่างชัดเจนในฐานะผู้มีวิจารณญาณและความรับผิดชอบ
อ่านได้เพลินมากครับ
นี่เป็นบทความที่ให้มุมมองอันเฉียบคมที่สุดบทความหนึ่งในบรรดางานเขียนที่ผมได้อ่านมาในช่วงนี้ อ่านได้เพลินมากครับ
> ในบริบทเดียวกัน ก็มีความเป็นไปได้ว่าในปี 2026 จะมีวิดีโอเกมดังถล่มทลายเกมแรกที่สร้างขึ้นด้วยเพียงพรอมต์ภาษาธรรมชาติ โดยไม่ต้องมีทักษะการเขียนโปรแกรมอย่างเป็นทางการ
ก็อาจเป็นไปได้นะ แต่ความดังของเกมขึ้นอยู่กับการออกแบบและกราฟิก ดังนั้นถ้า AI ไม่ได้ทำส่วนนี้ให้ แล้วทำแค่การเขียนโปรแกรม ผมก็สงสัยว่าจะมีความหมายมากแค่ไหน
แล้วเรื่องการเขียนโปรแกรมเอง ถ้าอิงจากปี 2026 ก็ดูเหมือนว่าให้ AI วางโครงหลักไว้ แล้วให้มนุษย์มาปรับรายละเอียดต่อ น่าจะเร็วกว่าด้วย คุณคิดว่าได้ไหมว่าภายในปีนี้ คุณภาพของผลงานที่ AI สร้างจะสูงขึ้นจนแยกไม่ออกแล้วหรือเปล่าว่าเป็นสิ่งที่ AI ทำหรือมนุษย์ทำ?
ถ้ามองเฉพาะส่วนที่ว่า "โดยไม่ต้องมีทักษะการเขียนโปรแกรมอย่างเป็นทางการ" เรื่องนี้ก็นับว่าเป็นสิ่งที่ค่อย ๆ เกิดขึ้นมาอยู่แล้วจากพัฒนาการของเทคโนโลยีเกมเอนจิน ผมคิดว่าด้วย AI จะมีคนจำนวนมากขึ้นที่สามารถทำความฝันที่ใหญ่กว่าเดิมให้เป็นจริงได้ ก่อนยุค AI ก็มีคนที่สร้าง
Spelunkyขึ้นมาได้ (ในหนังสือที่เขาเขียนก็เคยบอกว่าดีใจมากที่สามารถทำมันได้ด้วยเครื่องมือชื่อ GameMaker โดยไม่ต้องใช้การเขียนโปรแกรมแบบดั้งเดิมจริง ๆ) แล้วก็น่าจะมีผู้พัฒนาUndertaleที่เอาทุก branch ไปยัดไว้ในswitchเดียว และไม่ได้สนใจการเขียนโปรแกรมมากนักอยู่แล้วด้วย ผมคิดว่ากระแสที่พยายามลดการเขียนโปรแกรมลงในปัจจุบัน ก็อยู่บนเส้นทางเดียวกันนี้....แต่ในด้านการวางแผนและงานศิลป์ ถ้าคิดดูว่าตอนนี้เหล่าเกมเมอร์เองก็เริ่มเอือมกับสิ่งที่เรียกกันว่า "งานสูตรสำเร็จผลิตซ้ำ" มากแค่ไหน สุดท้ายแล้วการตัดสินขั้นสุดท้ายของมนุษย์ตามที่ต้นฉบับพูดถึงก็น่าจะยิ่งสำคัญขึ้นไม่ใช่หรือครับ เพราะอย่างนั้น สิ่งที่จะยังสำคัญต่อไปก็คือความสามารถในการเขียนเพื่อถ่ายทอดสิ่งที่ตัวเองคิดได้ และพลังของรสนิยมว่าตัวเองคิดว่าสิ่งไหนดี ไม่ได้เป็นปัญหาเฉพาะของเกมเท่านั้นหรอกครับ
แน่นอน
> ระบบฝึกงานมองว่าโครงสร้างค่าจ้างต่ำไม่ใช่ความสูญเสีย แต่เป็นการลงทุนเพื่อการเรียนรู้ที่ดีกว่าค่าเล่าเรียน
ผมก็คิดว่าส่วนนี้น่าประทับใจที่สุดเหมือนกันครับ