- ในบรรดาบริษัท S&P 500 มี 374 แห่งที่กล่าวถึง AI ในการประกาศผลประกอบการ แต่จาก ผลสำรวจผู้บริหาร 6,000 คน พบว่าราว 90% ตอบว่า AI ไม่ได้ส่งผลต่อการจ้างงานหรือผลิตภาพในช่วง 3 ปีที่ผ่านมา
- ปริศนาผลิตภาพ (productivity paradox) ที่ Robert Solow ผู้ได้รับรางวัลโนเบลสาขาเศรษฐศาสตร์ปี 1987 เคยเสนอ กำลังกลับมาอีกครั้งในยุค AI โดยเป็นสถานการณ์ที่ยังไม่สามารถสังเกตเห็นผลของ AI ได้จากข้อมูลเศรษฐกิจมหภาค
- เวลาที่ผู้บริหารใช้ AI มีเพียง ประมาณ 1.5 ชั่วโมงต่อสัปดาห์ และ 25% ของผู้ตอบแบบสอบถามไม่ได้ใช้ AI ในที่ทำงานเลย
- จากการสำรวจของ ManpowerGroup การใช้งาน AI เป็นประจำในปี 2025 เพิ่มขึ้น 13% แต่ ความเชื่อมั่น ต่อเทคโนโลยีกลับลดลง 18%
- มีแบบอย่างมาก่อนที่กระแส IT ในช่วงทศวรรษ 1970~80 จะนำไปสู่การพุ่งขึ้นของผลิตภาพในช่วงทศวรรษ 1990 ดังนั้น AI ก็อาจเติบโตหลังช่วงหน่วงในลักษณะของ เส้นโค้ง J ได้
ปริศนาผลิตภาพของ Solow และ AI
- ในปี 1987 นักเศรษฐศาสตร์ Robert Solow สังเกตว่าแม้จะมีการมาถึงของทรานซิสเตอร์ ไมโครโปรเซสเซอร์ วงจรรวม และชิปหน่วยความจำ แต่ อัตราการเติบโตของผลิตภาพกลับลดลงจาก 2.9% ในช่วง 1948~1973 เหลือ 1.1% หลังปี 1973
- เขาทิ้งวลีที่โด่งดังไว้ว่า "ยุคคอมพิวเตอร์มองเห็นได้ทุกที่ แต่ ไม่ปรากฏในสถิติผลิตภาพ"
- ในเวลานั้นคอมพิวเตอร์กลับ สร้างข้อมูลมากเกินไป และยังบั่นทอนผลิตภาพด้วยการพิมพ์รายงานที่ละเอียดเกินจำเป็นออกมาเป็นจำนวนมาก
ผลสำรวจ CEO: ผลกระทบที่แท้จริงของ AI ยังมีน้อย
- ระหว่างเดือนกันยายน 2024 ถึงปี 2025 บริษัทใน S&P 500 จำนวน 374 แห่งได้ กล่าวถึง AI ในการประกาศผลประกอบการ และประเมินการนำมาใช้ในเชิงบวก
- แต่ในตัวชี้วัดผลิตภาพระดับมหภาคกลับยังไม่มีการสะท้อนอย่างชัดเจน
- งานวิจัยที่ NBER (National Bureau of Economic Research) เผยแพร่ในเดือนนี้ ได้ทำการสำรวจผู้บริหาร 6,000 คนในสหรัฐฯ สหราชอาณาจักร เยอรมนี และออสเตรเลีย
- ราวสองในสามตอบว่าใช้ AI แต่เวลาใช้งานมีเพียง ประมาณ 1.5 ชั่วโมงต่อสัปดาห์
- 25% ของผู้ตอบแบบสอบถาม ไม่ได้ใช้ AI ในที่ทำงานเลย
- ราว 90% ของบริษัท ตอบว่า AI ไม่ได้ส่งผลต่อการจ้างงานหรือผลิตภาพในช่วง 3 ปีที่ผ่านมา
- ถึงกระนั้น ผู้บริหารก็คาดว่าในอีก 3 ปีข้างหน้า AI จะ เพิ่มผลิตภาพ 1.4% และเพิ่มผลผลิต 0.8%
- บริษัทคาดว่าการจ้างงานจะลดลง 0.7% แต่แรงงานรายบุคคลกลับคาดว่า การจ้างงานจะเพิ่มขึ้น 0.5%
ผลลัพธ์ที่ไม่ตรงกันของงานวิจัยทางวิชาการ
- งานวิจัยของ MIT ในปี 2023 ระบุว่าเมื่อใช้ AI ประสิทธิภาพการทำงานของพนักงานอาจเพิ่มขึ้นได้สูงสุด 40%
- แต่แม้ว่าการลงทุนด้าน AI ของภาคธุรกิจจะพุ่งเกิน 250 พันล้านดอลลาร์ ภายในปี 2024 สถานการณ์กลับยังไม่เกิดการยกระดับผลิตภาพตามที่คาดไว้
- Torsten Slok หัวหน้านักเศรษฐศาสตร์ของ Apollo กล่าวว่า "AI ไม่ปรากฏอยู่ในข้อมูลการจ้างงาน ข้อมูลผลิตภาพ หรือข้อมูลเงินเฟ้อ เลย"
- หากไม่นับ Magnificent Seven ก็ยังไม่เห็นสัญญาณของผลจาก AI แม้แต่ใน อัตรากำไรหรือแนวโน้มรายได้
- ธนาคารกลางสหรัฐสาขาเซนต์หลุยส์ประกาศว่า หลังการเปิดตัว ChatGPT อัตราการเติบโตของผลิตภาพสะสมเพิ่มขึ้นเกิน 1.9%
- ตรงกันข้าม งานวิจัยของ MIT ในปี 2024 (โดย Daron Acemoglu ผู้ได้รับรางวัลโนเบล) เสนอค่าที่ระมัดระวังกว่า คือ ผลิตภาพจะเพิ่มขึ้น 0.5% ในอีก 10 ปีข้างหน้า
- Acemoglu ประเมินว่า "แม้ไม่ควรประเมิน 0.5% ต่ำเกินไป แต่เมื่อเทียบกับสิ่งที่อุตสาหกรรมและสื่อสัญญาไว้ ก็ถือว่า น่าผิดหวัง"
ความเชื่อมั่นของแรงงานที่ลดลงและการรับมือขององค์กร
- จากการสำรวจ ManpowerGroup 2026 Global Talent Barometer (แรงงานราว 14,000 คนใน 19 ประเทศ) การใช้ AI เป็นประจำในปี 2025 เพิ่มขึ้น 13% แต่ ความเชื่อมั่น ในความมีประโยชน์ของเทคโนโลยีกลับลดลง 18%
- Nickle LaMoreaux, CHRO ของ IBM, ประกาศเมื่อสัปดาห์ก่อนว่าจะ เพิ่มการรับพนักงานระดับเริ่มต้น 3 เท่า
- แม้ AI จะทำให้งานบางส่วนเป็นอัตโนมัติได้ แต่หากแทนที่พนักงานระดับเริ่มต้น ก็อาจนำไปสู่ การขาดแคลนผู้จัดการระดับกลาง และวิกฤตในสายธารผู้นำในอนาคต
แนวโน้มอนาคตของผลิตภาพจาก AI
- กระแส IT ในช่วงทศวรรษ 1970~80 มีแบบอย่างที่นำไปสู่ อัตราการเติบโตของผลิตภาพเพิ่มขึ้น 1.5% ในช่วง 1995~2005 หลังจากซบเซามาหลายทศวรรษ
- Erik Brynjolfsson ผู้อำนวยการ Stanford Digital Economy Lab มองว่าท่ามกลาง GDP ไตรมาส 4 ที่มี อัตราการเติบโต 3.7% ขณะที่การเพิ่มขึ้นของตำแหน่งงานถูกปรับลดลงมาเหลือ 181,000 ตำแหน่ง นี่คือสัญญาณของการพุ่งขึ้นของผลิตภาพ
- จากการวิเคราะห์ของเขาเอง ผลิตภาพของสหรัฐฯ ในปีที่แล้ว เพิ่มขึ้น 2.7% และตีความว่านี่คือการเปลี่ยนผ่านจากช่วงลงทุนใน AI ไปสู่ช่วงเก็บเกี่ยวประโยชน์จริง
- Mohamed El-Erian อดีต CEO ของ Pimco ก็กล่าวเช่นกันว่า การนำ AI มาใช้กำลังทำให้เกิด การแยกตัวระหว่างการเติบโตของงานกับการเติบโตของ GDP ซึ่งเป็นปรากฏการณ์คล้ายกับยุคระบบอัตโนมัติในสำนักงานช่วงทศวรรษ 1990
- Slok วิเคราะห์ว่า ผลกระทบของ AI ในอนาคตอาจเป็นไปตาม เส้นโค้ง J ที่ช่วงแรกชะลอ ก่อนจะพุ่งขึ้นอย่างรวดเร็ว
- อย่างไรก็ตาม ต่างจาก IT ในทศวรรษ 1980 ปัจจุบันเครื่องมือ AI มี การแข่งขันรุนแรง ระหว่าง LLM จนราคาลดลงและเข้าถึงได้ง่าย
- ดังนั้น อนาคตของผลิตภาพจาก AI จึงไม่ได้ขึ้นอยู่กับคุณค่าของตัวผลิตภัณฑ์เพียงอย่างเดียว แต่ขึ้นอยู่กับว่า แต่ละภาคเศรษฐกิจจะนำ generative AI ไปใช้และทำให้เกิดผลได้อย่างไร
1 ความคิดเห็น
ความเห็นจาก Hacker News
บทความนี้ไม่ได้วิจารณ์ข้อถกเถียงเรื่องผลิตภาพของ AI แต่กำลังอธิบายว่าเป็น “ปรากฏการณ์ที่คาดไว้แล้ว” ตามแนวคิด ปริศนาผลิตภาพของ Solow (Productivity paradox)
แม้ในช่วงทศวรรษ 1970–80 จะมีการลงทุนด้าน IT มหาศาล แต่ผลตอบแทนสุทธิในระดับเศรษฐกิจโดยรวมก็เพิ่งเริ่มปรากฏชัดในช่วงกลางถึงปลายทศวรรษ 1990
สาเหตุคือในระยะแรก ต้นทุนสูงเกินไปและมีการลองผิดลองถูกมาก เช่นเดียวกับ AI ที่ตอนนี้ยังต้องใช้ทั้งเงินและเวลา แต่เมื่อค่อย ๆ ถูกบูรณาการและทำให้มีประสิทธิภาพมากขึ้น ผลิตภาพก็น่าจะเพิ่มขึ้น
แม้แต่ใน Hacker News ที่มีคนคุ้นเคยกับเทคโนโลยี ก็ยังมีหลายคนเชื่อว่า “AI เขียนโค้ดไม่ได้”
แม้แต่เพื่อนที่เคยทำงาน Amazon ก็ยังไม่รู้ว่าต้องเปิดฟีเจอร์ “thinking” ของ ChatGPT ถึงจะได้ผลลัพธ์คุณภาพสูง ผลกระทบระดับพลิกวงการจึงยากจะคาดหวังได้ก่อนที่ผู้คนจะคุ้นกับวิธีใช้งาน
ลิงก์ PDF ต้นฉบับ
ตัวอย่างเช่น ค่า Claude subscription อยู่ที่ราว 20 ดอลลาร์ต่อพนักงานต่อเดือน ซึ่งใกล้เคียงกับเครื่องมืออย่าง Slack
ต่างจากยุคที่พนักงานออฟฟิศในทศวรรษ 1970 ต้องเรียนรู้การใช้คอมพิวเตอร์ เพราะตอนนี้ การ onboard ง่ายมาก และผลในระยะสั้นบางส่วนก็เริ่มเห็นแล้ว
เมื่อคอมพิวเตอร์หลายล้านเครื่องเชื่อมต่อกันเป็นเครือข่าย ผลกระทบทางเศรษฐกิจที่แท้จริงจึงเกิดขึ้น
การวิเคราะห์ที่เกี่ยวข้องดูได้จาก บทความ FT และ บทความ Apollo Academy
ฉันมองบริษัทใหญ่เป็น distributed system ที่ทำงานอยู่บน ฮาร์ดแวร์ที่มีข้อบกพร่อง (มนุษย์)
แต่ละคน (CPU) อาจเร็ว แต่มีความหน่วงสูงจากการประชุม การรออนุมัติ และงานที่ทำขนานกันไม่ได้
ก่อนจะอัปเกรด ต้องรู้ก่อนว่าคอขวดอยู่ที่ I/O หรือ CPU
โปรเจ็กต์มีมากเกินไปจนโฟกัสไม่ได้ เกิดปัญหาเรื่อง cache ตามมา และสุดท้ายคอขวดก็ยิ่งแย่ลง
องค์กรต้องดึงความทรงจำขององค์กรออกมาใช้ได้อย่างรวดเร็ว ถ้าไม่มี cache การแก้ปัญหาจะใช้เวลานาน และถ้าข้อมูลผิดเข้าไปอยู่ใน cache ทุกคนก็จะเชื่อและเดินผิดทางตามกันไป
อาจยังไม่สมบูรณ์นัก แต่คล่องตัวกว่าและคุ้มค่ากว่ามาก
งาน white-collar ส่วนใหญ่คือ การคิดและการพูดคุย
สำหรับการเขียนโค้ดนั้น สัดส่วนของการลงมือทำจริงมากกว่าที่หลายคนคิด แต่สายงานอื่นประกอบด้วยการประชุม การจัด alignment การทำสไลด์ การวางตำแหน่งทางการตลาด ฯลฯ
เครื่องมืออย่าง Cowork อาจช่วยค้นหาไฟล์ จัดระเบียบ ticket หรือเขียนสูตร Excel ได้
แต่โค้ดเป็นผลลัพธ์ของการตัดสินใจทางธุรกิจ จึงเป็นรูปแบบงานที่ เหมาะกับการทำอัตโนมัติด้วย LLM มากที่สุด
ส่วนอาชีพอื่น ๆ นั้นน่าจะเร็วขึ้นเฉย ๆ แต่ยังห่างไกลจากการทำอัตโนมัติเต็มรูปแบบ
ท้ายที่สุดงานวิศวกรรมส่วนใหญ่ก็ต้องอาศัยการตกลงและ alignment
เพื่อจะเขียนโค้ดคุณภาพดีได้ ต้องใช้เวลาคิดมากกว่าการเขียนจริงราวสองเท่า
ต่อให้ประหยัดเวลาได้หนึ่งชั่วโมง ก็ไม่ได้แปลว่าจะได้เอาเวลานั้นไปทำสิ่งที่มีมูลค่ามากกว่าเสมอไป ตรงกันข้าม อาจได้สไลด์ที่ไม่แม่นยำจนคนอื่นต้องมาแก้ ซึ่งกลับกลายเป็นต้นทุน
สิ่งที่ LLM ช่วยคือทำให้สามารถผลิตโค้ดได้มากขึ้นจากปริมาณการคิดเท่าเดิม
เช่น Hazel.ai ที่ให้แผนภาษีและการลงทุนได้ดีกว่า RIA ในสหรัฐฯ 90%
จึงมองว่าค่าธรรมเนียม RIA จะลดจาก 1% ลงมาเหลือราว 0.1~0.2%
ในฐานะวิศวกรอาวุโส สิ่งที่รู้สึกว่าช้าที่สุดไม่ใช่ การเขียนโค้ด แต่เป็นกระบวนการรีวิวและอนุมัติ
ทั้ง code review, การรับความเห็นจากผู้มีส่วนได้ส่วนเสีย, ความล่าช้าในการทดสอบ, การทำเอกสาร, การพรีเซนต์ ฯลฯ
กระบวนการตรวจทานเหล่านี้ยังถูกวนซ้ำภายในองค์กรเองอีก ทำให้เกิดคอขวด
ยิ่งเข้าใกล้ singularity โลกก็ยิ่ง สับสนและคาดเดาไม่ได้
ท่ามกลางการเปลี่ยนแปลงอย่างรวดเร็ว ทุกอย่างดูเหมือน noise ไปหมด
ตอนนี้น่าจะถึงเวลาถามตัวเองแค่ว่า “โลกคาดเดาได้มากขึ้นหรือน้อยลง”
หากดู บทความวิจัยต้นฉบับของ NBER
จะมีอัตราการนำ AI มาใช้ตามอุตสาหกรรม (A6), ผลกระทบต่อการจ้างงาน (A11), และผลกระทบต่อผลิตภาพ (A12)
อุตสาหกรรมที่มีการพบลูกค้าบ่อยหรือเน้นผลิตภัณฑ์กายภาพ เช่น ก่อสร้างและค้าปลีก ได้รับผลจาก AI ต่ำ
ที่น่าสนใจคือธุรกิจที่พักและอาหารกลับอยู่ อันดับ 4 ด้านผลกระทบต่อผลิตภาพ
บริษัทของเรายังนำ AI มาใช้ช้ามาก
วันนี้ฉันเพิ่งถูกกดดันว่า “ถ้าใช้ AI น้อยเกินไปอาจดูไม่ดี”
คิดว่าอีกสัก 6 เดือนถึง 1 ปี น่าจะได้ข้อสรุปว่า “นี่มันเปลืองเงินเปล่า”
ไม่ต่างอะไรกับการให้พนักงานเขียนประเมินผลงานตัวเอง
ถ้าดูการทดลองใช้ AI ในบริษัท Fortune 500 รวมถึง Microsoft Copilot
จะเห็นว่าบริษัทยักษ์ใหญ่จำนวนมากยัง ไม่เข้าใจความสามารถของ AI อย่างแท้จริง
ผู้บริหารระดับสูงก็ไม่ยอมลองใช้เองเพราะความขี้เกียจ
การเขียนอีเมล ทำสไลด์ หรือค้นหาข้อมูลนั้นง่ายพออยู่แล้ว
จุดแข็งที่แท้จริงคือ งานระดับล่างอย่างการถอดเสียง การแปล การรู้จำภาพ และการแก้ปัญหาผ่าน API
มันเป็นนวัตกรรมจริง แต่ไม่ใช่ ‘ตัวเร่งสารพัดนึก’
การขาดการฝึกอบรมคือสาเหตุของผลิตภาพที่ต่ำ
โดยเฉพาะ Microsoft Copilot นั้นน่าผิดหวังเพราะเป็น การนำ AI ไปใช้ที่แย่ที่สุด
จึงแทบไม่มีใครรู้สึกถึงการเพิ่มขึ้นของผลิตภาพจริง ๆ
จากมุมมองของพนักงาน LLM อาจเหมือนตัวช่วยโกงการบ้าน
แต่จากมุมมอง CEO มันกลับดูเป็น การระเบิดปริมาณคอนเทนต์ที่ต้องตรวจ (DDoS)
เมื่อได้รับเอกสาร 155 หน้าทาง WhatsApp หรือมี PR ถาโถมเข้ามา
ปัญหาก็คือ “แล้วใครจะเป็นคนตรวจทั้งหมดนี้”
สุดท้ายแล้ว AI คือ ตัวขยายความเสี่ยง
ตอนนี้เรากำลังเดินเข้าสู่เหตุการณ์ระดับ โลกร้อนของโลกคอมพิวติ้ง แบบหลับหูหลับตา