AI เขียนโค้ดได้ ตัดสินใจก็ได้ แต่รับผิดชอบแทนไม่ได้
(flowkater.io)จุดจบของคำว่า “นั่นไม่ใช่ R&R ของผมนะครับ”
- R&R เป็นเครื่องมือเพื่อทำให้ความรับผิดชอบชัดเจน ไม่ใช่โล่สำหรับหลบเลี่ยงความรับผิดชอบ — ความรับผิดชอบต่อการปรับโครงสร้างองค์กรเป็นเรื่องของการตัดสินใจทางธุรกิจของผู้บริหาร แต่จุดตั้งต้นของบทความนี้คือ การฝากความปลอดภัยในอาชีพไว้กับการตัดสินใจนั้นและความหวังดีของบริษัทก็ไม่ปลอดภัยอีกต่อไปแล้ว
ภาวะหนาวเย็นของการจ้างงานตอนนี้ = ไม่ใช่ AI แต่คือการกลับสู่ภาวะปกติที่เริ่มไปแล้วตั้งแต่ปี 2023
- ปี 2021~2022 มีสภาพคล่องล้นจากโควิด → เงินเดือนเริ่มต้นนักพัฒนา 60 ล้านวอน, คนจบ bootcamp เข้างานได้ทันที → เป็นช่วงจ้างเกินตัว พอเงินแห้ง คนจากบริษัทที่ล้มและคนที่ถูกจ้างเกินจำเป็นก็ทะลักเข้าสู่ตลาด
- ข้อมูลจากคณะกรรมการบริการทางการเงิน ระบุว่าในครึ่งแรกของปี 2023 การลงทุนในเวนเจอร์ภายในประเทศลดลง 42% เมื่อเทียบกับช่วงเดียวกันปีก่อน และข้อมูลจาก Startup Alliance ระบุว่าเงินลงทุนตลอดปี 2023 ลดลง 52%
- “ไม่ใช่ว่า AI เข้ามาทำลายตลาดนักพัฒนาอย่างกะทันหัน AI แค่เปิดเผยใบหน้าที่แท้จริงของสัญญาการจ้างงานที่กำลังพังอยู่แล้วให้เห็นเร็วขึ้นเท่านั้น”
- คนที่ชะล่าใจที่สุดในตอนนั้นคือผู้บริหารบริษัทเอง พอตลาดเย็นลง ความล้มเหลวทางธุรกิจของพวกเขาก็ถูกผลักภาระต้นทุนไปที่พนักงานแต่ละคนโดยตรง
สิ่งที่ AI ดูดซับไปไม่ใช่โค้ด แต่คือความเป็นผู้เชี่ยวชาญเฉพาะทางนั่นเอง
- Google: ใน earnings call ไตรมาส 3 ปี 2024 ระบุว่าโค้ดใหม่ 25% ถูกสร้างโดย AI → ใน Cloud Next 2026-04 เพิ่มขึ้นเป็น 75% ภายในเวลาเพียงปีครึ่งก็เพิ่มเป็น 3 เท่า วลีสำคัญคือ “AI-generated and approved by engineers” — AI เป็นคนเขียน แต่วิศวกรเป็นคนอนุมัติและรับผิดชอบ
- Meta, Mark Zuckerberg, earnings call ไตรมาส 4 ปี 2025: “เราเริ่มเห็นแล้วว่าโปรเจกต์ที่เคยต้องใช้ทีมใหญ่ ตอนนี้สามารถจบได้ด้วยคนที่เก่งจริง ๆ เพียงคนเดียว”
- การที่งานของ 10 คนถูกทำโดยคนเดียว ไม่ใช่แค่เรื่องประสิทธิภาพ แต่หมายถึงการตัดสินใจ การประสานงาน การตรวจสอบ และความรับผิดชอบหลังการปล่อยใช้งาน ที่เคยถูกกระจายอยู่ในทีมใหญ่ ถูกอัดรวมไปอยู่กับคนคนนั้นเพียงคนเดียว เกณฑ์การจ้างงานจึงย้ายจาก quantity → quality
- AI ไม่ได้ทำลายความเชี่ยวชาญ แต่กำลังทำลายเขตปลอดภัยของคนที่มีแค่ความเชี่ยวชาญ เมื่อใดก็ตามที่ตลาดเย็นลง คนที่อยู่แค่ในขอบเขตหน้าที่ตัวเองจะหายไปก่อน
Taste และความสามารถในการตัดสินใจก็ไม่ใช่เขตปลอดภัยเช่นกัน
- กรอบคิดที่ว่า “พอ AI ทำเรื่องพวกนี้ได้ มนุษย์ก็ควรไปโฟกัสที่ taste และความสามารถในการตัดสินใจ” เป็นกับดักของการเอา AI กับมนุษย์ไปเทียบกันบนเส้นเดียวกัน เพราะคำพูดนั้นก็หมายความว่า ในบางระดับหรือบางเซกเตอร์ taste และการตัดสินใจก็สามารถถูกแทนที่ได้มากพอเช่นกัน
- ThePrimeagen (ประสบการณ์ 20 ปี, บรรยาย I suck 2026-05-02): ระหว่างช่วงตกต่ำ 6 เดือน เขาค่อย ๆ ตัดสองสมมติฐานทิ้งไป ทีละข้อ รสนิยม (taste)? ไม่ใช่ ปริมาณโค้ด? ก็ไม่ใช่ ข้อสรุปคือ “ถ้าต้นทุนของโค้ดหนึ่งบรรทัดลดลงอย่างรุนแรง ต้นทุนของโค้ดหนึ่งบรรทัดที่ถูกต้องจะเพิ่มขึ้นอย่างรุนแรง”
- ข้อมูลสองด้าน: ใน การทดลอง GitHub Copilot (arXiv 2302.06590) พบว่าเสร็จงานเร็วขึ้น 55.8% แต่ในทางกลับกัน งานวิจัย METR ปี 2025 พบว่านักพัฒนาโอเพนซอร์สที่มีประสบการณ์ เมื่อใช้ AI กับโค้ดเบสที่ตัวเองคุ้นเคยดี กลับ ช้าลง 19% AI ทำให้ต้นทุนการผลิตผลลัพธ์ต่ำลง แต่ไม่ได้ทำให้ต้นทุนของความเข้าใจบริบทและการเลือกสิ่งที่ถูกต้องต่ำลงโดยอัตโนมัติ
- แบบร่างดีไซน์, การรีวิวโค้ดรอบแรก, การสรุป trade-off ทางสถาปัตยกรรม — แม้แต่ใน workflow ของผู้เขียนเอง พื้นที่ที่ “ไม่ว่าฉันจะตัดสินใจเองหรือให้ AI ตัดสินใจ ผลลัพธ์ต่างกันน้อยมาก” ก็กำลังเพิ่มขึ้น นี่คือสัญญาณว่า taste กำลังถูกดูดซับในมิตินั้น
- สิ่งที่ AI ทำไม่ได้ ไม่ใช่การเลือกที่สวยกว่าหรือดีกว่า แต่คือการรับผิดชอบต่อผลของการเลือกนั้น
AI รับผิดชอบไม่ได้ — นี่คือความต่างเชิงแก่นแท้
- กรณีแชตบอตของ Air Canada (2024): แชตบอตให้ข้อมูลคืนเงินที่ผิดแก่ลูกค้า → บริษัทพยายามมองว่าแชตบอตเป็นตัวตนแยกต่างหาก แต่หน่วยงานไกล่เกลี่ยข้อพิพาทของแคนาดาตัดสินว่า “ไม่ว่าข้อมูลจะมาจากหน้าเว็บแบบคงที่หรือมาจากแชตบอต ความรับผิดชอบก็อยู่ที่บริษัท” AI สามารถสร้างคำตอบได้ แต่ความรับผิดชอบในการตัดสินใจเผยแพร่คำตอบนั้นยังเป็นของคนและองค์กร
- ผู้เขียนเปิดเผยประสบการณ์ตัวเอง: ตอนเป็น CTO ปีที่ 2 เมื่อบริษัทเริ่มระดมทุนได้ยาก เขาถึงเพิ่งขอให้ทีมการเงินส่งข้อมูลรายเดือนมาให้ สีหน้าของหัวหน้าทีมการเงินที่เหมือนจะพูดว่า “ทำไม CTO เพิ่งมาดูเรื่องนี้ตอนนี้” ยังติดอยู่ในความทรงจำ ตอนนั้นเองที่เขาเข้าใจว่า ความไม่รู้ก็คืออีกชื่อหนึ่งของความไม่รับผิดชอบ
- เกณฑ์การรับคนที่ติดอยู่บนหน้า Careers ของ Anthropic: “When it comes to our mission, none of us are bystanders. We each take personal ownership over making our mission successful.” เกณฑ์ที่บริษัทซึ่งสร้าง AI ได้เก่งที่สุดเขียนไว้ตรง ๆ คือ ownership
- รูปแบบพฤติกรรมของคนที่รับผิดชอบ กับคนที่คอยหลบเลี่ยง กลับตรงกันข้ามโดยสิ้นเชิง ฝ่ายหนึ่งจะถามว่า “ผลลัพธ์นี้ส่งมอบคุณค่าอะไรถึงลูกค้า และเชื่อมกับตัวชี้วัดอะไรของบริษัท” และเมื่อมันไม่เวิร์ก ก็จะอธิบายว่า “ผมพลาดอะไรไป” อีกฝ่ายหนึ่งจะอยู่แค่ใน R&R ของตัวเอง และแม้ outcome จะแย่ก็ยังปล่อย output ของตัวเองไม่ลง
- Taste, การตัดสินใจ, ความเข้าใจหลักการ, การสื่อสาร คือ ความสามารถเพื่อใช้ปฏิบัติความรับผิดชอบ ไม่ใช่สิ่งทดแทนความรับผิดชอบ
5 คำถามที่แต่ละคนต้องโยนให้ตัวเอง
- ① งานที่ฉันทำอยู่ตอนนี้แก้ปัญหาอะไรให้ลูกค้า — ถ้าตอบไม่ได้ แปลว่างานนั้นขาดการเชื่อมต่อกับมูลค่าในตลาดภายนอก
- ② งานนี้เชื่อมกับ KPI ทางธุรกิจอะไร (รายได้/ต้นทุน/retention) และเชื่อมอย่างไร — ถ้าอธิบายเป็นประโยคเดียวไม่ได้ ก็แปลว่าคุณไม่รู้ว่าบริษัทจะประเมินตำแหน่งของคุณอย่างไร
- ③ ผลลัพธ์ที่ฉันสร้างถูกใช้งานจริงไหม และถ้ามันล้มเหลว ฉันอธิบายสาเหตุได้ไหมใน 3 ประโยค — deploy ≠ ใช้งานจริง, สร้างเสร็จ ≠ ส่งถึงปลายทาง
- ④ ฉันใช้ AI เพื่อไม่ใช่แค่สร้างให้มากขึ้น แต่เพื่อพิสูจน์ให้เร็วขึ้นอยู่หรือไม่ — นี่คือกับดักใหญ่ที่สุดในยุค AI คนที่รับผิดชอบจะใช้ทรัพยากรไปกับความเร็วในการตรวจสอบ ไม่ใช่ปริมาณ
- ⑤ รูปแบบแปลงร่างของคำว่า “ไม่ใช่ R&R ของฉัน” — ถ้ามันสำคัญต่อผลลัพธ์ แต่คุณปล่อยมือเพียงเพราะอยู่นอกขอบเขตหน้าที่ ความรับผิดชอบก็จะหลุดหายไปพร้อมกัน
บริษัทเองก็ต้องเปลี่ยนระบบตอบแทน — นี่ไม่ใช่บทความที่พูดข้างเดียว
- ผู้เขียนระบุไว้ชัดในช่วงท้าย เพื่อไม่ให้บทความนี้กลายเป็นการโยนความรับผิดชอบให้ปัจเจกฝ่ายเดียวว่า “ถ้าบริษัทจะให้พนักงานรับผิดชอบมากขนาดนั้น ก็ต้องจ่ายผลตอบแทนในระดับที่สมน้ำสมเนื้อด้วย”
- คนที่ทำงานแบบ generalist รับผิดชอบ และคอยดูแลคุณค่าให้ลูกค้ามาตลอด เป็นกลุ่มที่ที่ผ่านมาไม่ได้รับการประเมินอย่างเหมาะสม ในยุคที่ความเชี่ยวชาญเฉพาะทางกำลังถูก AI ดูดซับ คุณค่าของพวกเขายิ่งสูงกว่าที่เคย
- Jasmine Sun, NYT Opinion 2026-04-30: “คนส่วนใหญ่ในวงการ AI ที่ฉันรู้จัก คิดว่าคนธรรมดาจบเห่แล้ว และก็ไม่รู้เลยด้วยซ้ำว่าควรทำอย่างไร” ฝันร้ายที่แท้จริงที่ซิลิคอนแวลลีย์กำลังเผชิญ ไม่ใช่ rogue AI แต่คือฉากทัศน์ที่คนธรรมดาสูญเสีย leverage ทางเศรษฐกิจเพราะระบบอัตโนมัติ
- บรรทัดสรุปปิดท้าย: “AI สามารถทำงานของเราแทนได้ แต่ไม่สามารถรับผิดชอบแทนเราได้ ดังนั้นในยุค AI คนที่มีค่าที่สุดจึงไม่ใช่คนที่สร้างได้มากกว่า แต่คือคนที่รับผิดชอบจนถึงที่สุด”
ยังไม่มีความคิดเห็น