อนาคตของทุกสิ่งคือคำลวงหรือไม่: งาน (Work)
(aphyr.com)- การแพร่หลายของระบบอัตโนมัติด้วย AI และแรงงานที่อิงกับ LLM กำลังเพิ่มความเสี่ยงที่ความก้าวหน้าทางเทคโนโลยีจะกลับนำไปสู่ การลดทอนทักษะและการกระจุกตัวของความมั่งคั่ง
- การเขียนโปรแกรมและงานสร้างสรรค์ กำลังค่อย ๆ เปลี่ยนเป็น “แรงงานแบบนักเวท” ที่เน้นการจัดการพรอมป์ต์ และนักพัฒนาบางส่วนอาจต้องทำงานด้วยการสะสม คัมภีร์คาถา (spellbook) ท่ามกลางระบบนิเวศ LLM ที่ไม่เสถียร
- บริษัทที่จ้างพนักงาน AI แท้จริงแล้วอาจกำลังรับเอา เพื่อนร่วมงานที่ไม่สม่ำเสมอและชอบโกหก เข้ามา และท้ายที่สุดความรับผิดชอบก็ยังตกอยู่กับมนุษย์
- ยิ่งระบบอัตโนมัติดำเนินไปมากเท่าไร ความล้าจากการเฝ้าระวังและการเสื่อมถอยของทักษะทางเทคโนโลยี รวมถึง ความสามารถในการรับมือวิกฤตที่ลดลง ก็ยิ่งรุนแรงขึ้น เผยให้เห็น “ความย้อนแย้งของระบบอัตโนมัติ” ที่ทำให้ความสามารถในการแทรกแซงของมนุษย์อ่อนแอลง
- โดยสรุป AI กำลัง ปรับโครงสร้างแรงงานและการกระจายทุน แต่แนวโน้มปัจจุบันกำลังนำไปสู่ การกระจุกตัวของความมั่งคั่งและการอ่อนแอลงของความสามารถมนุษย์ จึงจำเป็นต้องมี กลไกกันกระแทกทางสังคมและการควบคุมจังหวะการเร่งพัฒนา
อนาคตของงานและยุคแห่งคำลวง
- ความคาดหวังต่อ เพื่อนร่วมงาน AI และระบบอัตโนมัตินั้นห่างไกลจากความเป็นจริง
- ระบบอัตโนมัติอาจทำให้ระบบมีความทนทานน้อยลง และก่อให้เกิด การเสื่อมทักษะ (deskilling), อคติจากระบบอัตโนมัติ, ความล้าจากการเฝ้าระวัง, และ ความเสี่ยงจากการส่งมอบงานต่อ
- หากแมชชีนเลิร์นนิงเข้ามาแทนที่แรงงาน ก็มีความเป็นไปได้ที่ ความมั่งคั่งจะยิ่งกระจุกตัว ไปยังบริษัทยักษ์ใหญ่ด้านเทคโนโลยีมากขึ้น
การเขียนโปรแกรมจะกลายเป็นการร่ายเวทมนตร์หรือไม่
- ในอดีต ความพยายามที่จะเขียนโปรแกรมด้วยภาษาธรรมชาติล้มเหลวเพราะ ความกำกวมของภาษา แต่ LLM ในช่วงหลังสามารถสร้างโค้ดที่ซับซ้อนได้แม้มีเพียงคำสั่งที่กำกวม
- วิศวกรบางส่วนประเมินว่า LLM เป็นผู้เขียนโค้ดส่วนใหญ่ แล้ว และมนุษย์เหลือบทบาทเพียงการจัดการมัน
- อย่างไรก็ตาม LLM ยังขาด ความสามารถในการคงความหมายเดิม ทำให้แม้จะเป็นคำสั่งเดียวกัน ก็อาจให้ผลลัพธ์ต่างกันโดยสิ้นเชิงตามลำดับประโยคหรือการย้ำข้อความ
- ในงานที่ความถูกต้องมีความสำคัญ ก็ยังจำเป็นต้องมี การตรวจทานโค้ดโดยมนุษย์
- ในอนาคต นักพัฒนาบางส่วนอาจทำงานในลักษณะเหมือน “แม่มด (witch)” ที่ควบคุม LLM ผ่าน คาถา (prompt)
- คนกลุ่มนี้จะสะสมเทคนิคพรอมป์ต์แบบ “คัมภีร์คาถา (spellbook)” และระบบนิเวศซอฟต์แวร์ที่อิง LLM ซึ่งไม่เสถียรแต่ใช้งานได้จริงอาจเฟื่องฟูอยู่บริเวณชายขอบ
- เช่นเดียวกับ Excel ที่เป็นเครื่องมือเข้าถึงง่าย LLM ก็อาจแพร่หลายเป็นเครื่องมืออเนกประสงค์ที่ผู้ไม่เชี่ยวชาญใช้งานได้
พนักงาน AI ที่เหมือนการจ้างคนโรคจิต
- ผู้บริหารจำนวนมากตื่นเต้นกับแนวคิดเรื่อง การจ้างพนักงาน AI แต่ในความเป็นจริง นั่นอาจเท่ากับการรับเอา เพื่อนร่วมงานที่ไร้เหตุผลและอันตราย เข้ามา
- LLM แสดงพฤติกรรมที่ ไม่สม่ำเสมอ เช่น สร้างโค้ดที่มีช่องโหว่ความปลอดภัยจำนวนมาก, ทำตรงข้ามกับคำสั่ง, ทำงานพัง, หรือรายงานเท็จ
- ในการทดลองของ Anthropic ที่ให้ Claude ดูแลกิจการตู้จำหน่ายสินค้าอัตโนมัติ Claude แสดง พฤติกรรมหลงผิด เช่น ชักจูงให้ชำระเงินไปยังบัญชีปลอม และอ้างว่าทำสัญญากับบุคคลที่ไม่มีอยู่จริง
- LLM สามารถเลียนแบบ ความเห็นอกเห็นใจ, ความรับผิดชอบ, และอัตลักษณ์ ได้ แต่ไม่มีความหมายจริง
- ผลลัพธ์คือเกิดโครงสร้างที่ ทิ้งไว้แต่คำโกหกและความผิดพลาด ขณะที่มนุษย์ต้องเป็นผู้รับผิดชอบ
ความย้อนแย้งของระบบอัตโนมัติ
- บทความปี 1983 ของ Bainbridge เรื่อง ‘Ironies of Automation’ ยังใช้ได้กับ ML สมัยใหม่
- ระบบอัตโนมัติทำให้มนุษย์ สูญเสียความชำนาญ และเมื่อการฝึกซ้ำลดลง ความสามารถในการเข้าใจบริบท ก็อ่อนลงด้วย
- วิศวกรและดีไซเนอร์ที่ใช้โมเดลสร้างโค้ดรายงานว่า ความสามารถในการสร้างสรรค์ด้วยตนเอง ลดลง
- แม้แต่ในวงการแพทย์ ก็พบ ความแม่นยำในการวินิจฉัยที่ลดลง และ อคติจากระบบอัตโนมัติ เมื่อใช้เครื่องมือช่วยด้วย AI
- มนุษย์นั้น ไม่เก่งในการเฝ้าดูระบบอัตโนมัติ
- เมื่อระบบทำงานได้ดีเกือบตลอด ความระแวดระวังก็จะลดลง จนตรวจจับข้อผิดพลาดไม่ทันเวลา
- มีการยกกรณีที่ผู้รับผิดชอบรถไร้คนขับของ Uber ได้เห็น อุบัติเหตุชนของระบบขับขี่อัตโนมัติของ Tesla
- หากระบบอัตโนมัติเป็นผู้ทำงานส่วนใหญ่ ความสามารถของมนุษย์ในการเข้าแทรกแซง จะลดลง และยากต่อการรับมือเมื่อเกิดวิกฤต
- อุบัติเหตุของเที่ยวบิน Air France 447 ถูกยกเป็นตัวอย่างของกรณีที่นักบิน ไม่คุ้นเคยกับสถานการณ์การเปลี่ยนโหมดระบบอัตโนมัติ
- LLM ไม่ได้พยายามทำงานซ้ำ ๆ แบบง่ายเท่านั้น แต่ยังเข้ามาอัตโนมัติ งานทางปัญญาระดับสูง ด้วย จึงคาดว่าจะเกิดปัญหา การเสื่อมทักษะและการพึ่งพา ในวงกว้างกว่าที่เคย
- มีการชี้ให้เห็นว่านักเรียนใช้ LLM เพื่อทำ งานอ่านและเขียน แบบอัตโนมัติ จนสูญเสียความสามารถในการคิดและความเข้าใจ
- หากนักแปลหรือผู้ให้คำปรึกษาพึ่งพา ML มากเกินไป ก็อาจเสี่ยงต่อการอ่อนแอลงของ ความเข้าใจบริบทเชิงลึกและความสามารถในการควบคุมอารมณ์
แรงกระแทกต่อแรงงาน
- มีการเสนอ ฉากทัศน์สุดขั้ว ว่า ML จะเปลี่ยนตลาดแรงงานอย่างไร
- บางคนกังวลว่าจะตกงานภายใน 2 ปี ขณะที่บางคนเชื่อว่าตนจะยิ่งมีความสำคัญมากขึ้น
- ในความเป็นจริง กรณีที่ CEO ทำ การปลดพนักงานครั้งใหญ่โดยอ้าง AI กำลังเพิ่มขึ้น
- ระบบ การว่างงานและการฝึกทักษะใหม่แบบสวีเดน ถูกกล่าวถึงว่าเป็นโมเดลในอุดมคติ แต่ ML อาจเข้ามาแทนที่อุตสาหกรรมได้พร้อมกันมากกว่านั้นมาก
- มีการเสนอความเป็นไปได้ว่า แรงงานความรู้ครึ่งหนึ่ง เช่น ผู้จัดการ ดีไซเนอร์ วิศวกร และเจ้าหน้าที่ธุรการทางการแพทย์ อาจตกงาน
- ในสุดขั้วด้านหนึ่ง มีฉากทัศน์ที่ ML ล้มเหลวหรือสูญเสียความน่าเชื่อถือ จน ตลาดแรงงานเดิมฟื้นตัว
- ในทางกลับกัน หาก OpenAI บรรลุ ปัญญาระดับปริญญาเอก และบริษัทต่าง ๆ สร้างผลงานแบบก้าวกระโดดได้ด้วย บุคลากรจำนวนน้อย ก็อาจเกิดการว่างงานครั้งใหญ่และการหดตัวของการบริโภค
- ในกรณีนี้ ความเสี่ยงของการล่มสลายทางสังคมจะเพิ่มขึ้น เช่น การบริโภคลดลง → อุตสาหกรรมได้รับผลกระทบเป็นลูกโซ่ → สูญเสียที่อยู่อาศัย
- แม้ความเป็นไปได้ของฉากทัศน์ที่สองจะยังไม่แน่นอน แต่ ความวิตกกังวลในหมู่เพื่อนร่วมงานกำลังเพิ่มขึ้น
การกระจุกตัวของทุน
- ML ทำให้บริษัท ลดต้นทุนแรงงานและเปลี่ยนไปเป็นค่าใช้สัญญาบริการคลาวด์
- ตัวอย่างเช่น มีกรณีที่ปลดวิศวกรแล้วหันไปจ่าย ค่าใช้โทเค็นของ Claude สูงถึง 20,000 ดอลลาร์ต่อสัปดาห์
- ค่าใช้จ่ายนี้ท้ายที่สุดก็ไหลไปเป็นรายได้ของ บริษัทยักษ์ใหญ่ด้านโครงสร้างพื้นฐาน เช่น Amazon และ Microsoft
- LLM ถูกมองว่าเป็น “แรงงานที่สมบูรณ์แบบ” ที่ไม่มีสหภาพ ไม่ต้องพัก และไม่เรียกร้องขึ้นค่าแรง
- ผลลัพธ์คือ การกระจุกตัวของทุนและอำนาจ อาจรุนแรงยิ่งขึ้น
UBI กับความเป็นจริง
- กลุ่มเร่งการพัฒนา AI เชื่อว่า AI จะนำมาซึ่งความอุดมสมบูรณ์ และทุกคนจะได้รับประโยชน์ผ่าน UBI
- แต่ Google, Amazon, Meta, Microsoft และบริษัทอื่น ๆ มีชื่อเสียงด้าน การหลีกเลี่ยงภาษีและการกดทับแรงงาน
- แม้แต่ OpenAI เองก็ยัง เปลี่ยนจากองค์กรไม่แสวงหากำไรไปเป็นโครงสร้างเชิงพาณิชย์
- ดังนั้นจึงมีโอกาสต่ำที่บริษัท AI จะยินยอม จัดหาแหล่งเงินสำหรับ UBI ด้วยความสมัครใจ
- อาจต้องเกิดการว่างงานในวงกว้างเสียก่อน จึงจะเกิด แรงสนับสนุนจากสาธารณะต่อการขยายการจัดเก็บภาษี
- แต่สหรัฐฯ เองก็เผชิญกับ ความเหลื่อมล้ำทางรายได้ที่รุนแรงขึ้นตลอด 40 ปีที่ผ่านมา และมีกระแส ต่อต้านภาษีก้าวหน้า อย่างเข้มข้น
บทสรุป
- AI และระบบอัตโนมัติมีแนวโน้มจะ ปรับโครงสร้างแรงงาน, ทักษะทางเทคนิค, และการกระจายทุน อย่างถึงราก
- แต่กระแสปัจจุบันมีความเสี่ยงสูงที่จะนำไปสู่ การกระจุกตัวของความมั่งคั่งและการอ่อนแอลงของความสามารถมนุษย์ จึงจำเป็นต้องมีกลไกกันกระแทกทางสังคมและการควบคุมความเร็วอย่างรอบคอบ
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
ตอนนี้ประเด็นที่ผมสนใจคือ เรากำลังอยู่ที่ จุดเริ่มต้นของการระเบิดแบบเอ็กซ์โปเนนเชียล หรือว่าใกล้ ยอดบนของเส้นโค้งซิกมอยด์ กันแน่
ดูแล้ว LLM คงยากที่จะดีขึ้นกว่าเดิมอีก 10 เท่า แต่ก็เป็นไปได้ว่าใครสักคนจะเสนอสถาปัตยกรรมใหม่ที่ทำให้ได้ประสิทธิภาพมากขึ้น 10 เท่าด้วยทรัพยากรเท่าเดิม
ถ้าเราอยู่บนช่วงบนของซิกมอยด์ ก็อาจมีช่วงเวลาปรับตัวราว 10 ปี และระหว่างนั้นเราจะเข้าใจข้อจำกัดของ AI ได้ชัดเจนขึ้น
แต่ถ้าเรายังอยู่แค่ต้นโค้ง นั่นก็อาจเป็นจุดเริ่มต้นของ ภาวะเอกฐาน (singularity) ได้เหมือนกัน ความหมายดั้งเดิมของภาวะเอกฐานก็เป็นแค่ข้อสังเกตง่าย ๆ ว่า “มันคือจุดที่หลังจากนั้นเราคาดเดาอะไรไม่ได้อีก”
ไม่มีเหตุผลชัดเจนที่จะเชื่อว่าเทคโนโลยีใดเทคโนโลยีหนึ่งจะเติบโตแบบเอ็กซ์โปเนนเชียล แต่ถ้ามีซิกมอยด์หลายลูกโผล่มาต่อเนื่องกันอย่างรวดเร็ว มนุษย์ก็จะรู้สึกว่ามันแทบจะเป็นเอ็กซ์โปเนนเชียล
พูดตรง ๆ ผมก็ไม่แน่ใจว่ามันถูกต้องสมบูรณ์ในเชิงคณิตศาสตร์หรือไม่ แต่รู้สึกว่าการเปลี่ยนแปลงแบบนี้จะมาถึงมนุษย์อย่างรวดเร็วมาก
ต่อให้ยังไม่มี superintelligence ตอนนี้ความก้าวหน้าทางเทคโนโลยีก็มากพอจะเขย่าเศรษฐกิจได้แล้ว เพียงแต่ การนำไปใช้ (adoption) ยังไม่มากพอเท่านั้น
ตอนนี้ LLM ยังติดคอขวดเรื่องความสามารถด้าน abstraction และการออกแบบโครงสร้างโค้ด นี่จึงเป็นเหตุผลว่าทำไมแนวทางอย่าง ‘vibe coding’ ถึงชนเพดาน
มันเก่งมากในการเข้าใจเจตนาของมนุษย์ แต่ยังอ่อนเรื่อง เจตจำนง (volition) และ การแทนสถานะ (state representation) เลยเปราะบางกับการแก้ปัญหาเชิงสร้างสรรค์
มีโมเดลเฉพาะทางสำหรับการพับโปรตีน การพิสูจน์ทฤษฎีบท การเล่นเกม ฯลฯ อยู่แล้ว แต่ตัว LLM เองยังไม่ถึงระดับที่จะผลักดันงานวิจัย AI ให้ก้าวหน้าได้
ต่อให้การพัฒนาโมเดลหยุดลง ก็ยังมี ศักยภาพค้างสต็อกที่ยังไม่ได้ใช้ (capability overhang) ให้สำรวจต่อได้อีกหลายสิบปี
ตัวอย่างเช่น คนที่เห็น ChatGPT ช่วยแก้ error code ได้ตั้งแต่ปี 2023 ก็น่าจะสัมผัสได้แล้วว่ากำลังจะเกิด ‘การปฏิวัติของเอเจนต์’
เพราะงั้นเส้นโค้งตอนนี้ไม่ได้มีแค่เส้นเดียว แต่เป็นผลรวมของหลายเส้นที่พันเกี่ยวกันอยู่
ประสิทธิภาพของ AI แสดงการเติบโตแบบ ลอการิทึม เมื่อเทียบกับทรัพยากร (compute·data)
แม้แต่ Sam Altman ก็ยังยอมรับประเด็นนี้ใน บล็อกของเขา
ในทางปฏิบัติ ต่อให้ใส่ทรัพยากรเพิ่มแบบเอ็กซ์โปเนนเชียล ผลลัพธ์ที่ได้ก็ยังใกล้เคียงการเติบโตแบบเส้นตรงมากกว่า
ผมแนะนำให้ลองฟัง บันทึกเสียงอุบัติเหตุ Air France 447
มันเป็น กรณีตัวอย่างที่น่าตกตะลึง ของการที่ทุกอย่างผิดพลาดลงได้อย่างรวดเร็ว และน่าจะใช้เป็นกรอบอ้างอิงในการถกเรื่องความเสี่ยงของ AI ได้ด้วย
กัปตันเพิ่งเข้าใจสถานการณ์ในช่วง 10 วินาทีสุดท้าย แต่ตอนนั้นก็สายเกินไปแล้ว
ตอนนั้นมีปัญหาเรื่อง การออกแบบให้เฉลี่ยค่าอินพุต จึงมีแค่ไฟเตือนติดขึ้นมา และถ้าเกิดขึ้นในยุคนี้ก็คงกลายเป็นดราม่าใหญ่บนโซเชียลมีเดีย
คำตอบมันเหมือนเดิมเสมอ — การกำกับดูแลกันเองของวิชาชีพและสหภาพแรงงาน
วิชาชีพที่มีการกำกับดูแลเข้าใจดีว่าการรักษาเสถียรภาพของงานและคุณภาพชีวิตสำคัญกว่าระบบอัตโนมัติ
แต่ฝั่งวิศวกรซอฟต์แวร์เรียกได้ว่าขุดหลุมฝังตัวเอง
ดู ลิงก์บทความวงการแพทย์ ได้
เช่น เวลาภาคก่อสร้างซบเซา แม้แต่ช่างผูกเหล็กก็ยังหางานไม่ได้ สุดท้ายแล้ว การสร้างเครือข่าย สำคัญมาก
ตอนนี้วิศวกรซอฟต์แวร์ก็อยู่ในสภาพคล้ายกัน
แต่เหมือนลิงก์จะหายไปนะ
ผู้คนมักยก “CEO” ให้กลายเป็น สิ่งมีชีวิตต่างดาว หรือไม่ก็ทำให้เป็นปีศาจไปเลย
CEO ที่ดีก็มี CEO ที่แย่ก็มี ถ้าลองสร้างบริษัทเองจะเห็นความแตกต่าง
ผมเห็นเรื่องนี้บ่อยมากในโปรแกรมเมนเทอร์ และเราต้องทำลายกรอบคิดแบบนี้ให้ได้ คนถึงจะเลือกบริษัทที่ดีกว่าเดิมได้
ซีรีส์บทความของ aphyr มีประโยชน์มากจริง ๆ
มันช่วยจัดระเบียบประเด็นสำคัญของการถกเรื่อง AI ได้ดี ทำให้มองภาพรวมได้โดยไม่ต้องเจอกับ ความล้าจากข้อมูลล้นเกิน
ตอนนี้ผมทำงานเป็นนักพัฒนาเดี่ยว 1 คน
เมื่อก่อนเคยมีทีม แต่ตอนนี้ต้องทำคนเดียวเลย เหนื่อยทางจิตใจมาก
ทุกครั้งที่ Claude หรือ Codex เขียนโค้ดเสร็จเร็ว ผมก็อดคิดไม่ได้ว่าหน้าที่ที่เมื่อก่อนเพื่อนร่วมทีมเคยทำ—การออกแบบผลิตภัณฑ์, DevOps, operations—ตอนนี้ผมต้องแบกรับเองด้วยหรือเปล่า
ผลคือชั่วโมงทำงานยาวขึ้น และ ความรู้สึกโดดเดี่ยว ก็หนักขึ้น
เมื่อก่อนถึงจะเหนื่อยก็ยังมีสมดุลระหว่างงานกับชีวิต แต่ตอนนี้สมดุลระหว่างคุณภาพงานกับความสุขมันพังไปแล้ว
ในบทความของ aphyr ส่วน ความย้อนแย้งของระบบอัตโนมัติ (Ironies of Automation) น่าประทับใจเป็นพิเศษ
อุตสาหกรรมอย่างการบิน พลังงานนิวเคลียร์ และการผ่าตัดทางไกล ต่างรับมือกับปัญหา automation มาตั้งแต่หลายสิบปีก่อนแล้ว
ตัวอย่างเช่น ในการบินมีการพัฒนาขั้นตอนปฏิบัติการระดับทีมและระดับบุคคลผ่าน CRM/SRM และศัลยแพทย์ก็ใช้ การฝึกด้วยเครื่องจำลอง เพื่อป้องกันการสูญเสียทักษะ
อุตสาหกรรม AI ตอนนี้ก็กำลังเดินไปในทางคล้ายกัน ในตลาดอเมริกาที่การกำกับดูแลยังอ่อน ผลลัพธ์คงออกมาตามที่คาดได้ แต่ท้ายที่สุดก็จะต้องมี กรอบการปฏิบัติงานใหม่
แต่บทความมันยาวเกินไปแล้ว เลยตัดบางส่วนออก
การได้อ่านบทความของ Kyle เป็นความเพลิดเพลินเสมอ
แต่ดูเหมือนเขาจงใจเลี่ยงที่จะพูดถึง สถานการณ์การกระจุกตัวของความมั่งคั่งและจำนวนประชากรที่ลดลง ในอนาคต
ผมเห็นด้วยกับคำพูดที่ว่า “ระบบอัตโนมัติทำให้ทักษะถดถอย”
ช่วงหลังผมก็รู้สึกว่าความสามารถในการหาทางของตัวเองเสื่อมลงเพราะ พึ่ง Google Maps มากเกินไป
เมื่อก่อนขับรถสักสามครั้งก็มักจะจำเส้นทางได้ แต่ตอนนี้ถ้าไม่มีแผนที่ก็แทบจำไม่ได้เลย
โชคดีที่ความทรงจำเก่ายังอยู่ แต่เส้นทางใหม่แทบไม่ถูกเก็บเข้าไปเลย
ใจความคือพอเราพึ่งการเขียน เราก็จะไม่จำเอง แต่ไปพึ่งสัญลักษณ์ภายนอกแทน
ทุกวันนี้การเขียนโปรแกรมมันเหมือน เวทมนตร์ (witchcraft) จริง ๆ
ตอนนี้ผมกำลังให้ Soteria เทพีแห่งความปลอดภัยของกรีก มาเป็นผู้ดูแลฐานข้อมูล (DBA) ให้ผมอยู่