1 คะแนน โดย flowkater 1 시간 전 | ยังไม่มีความคิดเห็น | แชร์ทาง WhatsApp

จุดจบของคำว่า “นั่นไม่ใช่ R&R ของผมนะครับ”

  • R&R เป็นเครื่องมือเพื่อทำให้ความรับผิดชอบชัดเจน ไม่ใช่โล่สำหรับหลบเลี่ยงความรับผิดชอบ — ความรับผิดชอบต่อการปรับโครงสร้างองค์กรเป็นเรื่องของการตัดสินใจทางธุรกิจของผู้บริหาร แต่จุดตั้งต้นของบทความนี้คือ การฝากความปลอดภัยในอาชีพไว้กับการตัดสินใจนั้นและความหวังดีของบริษัทก็ไม่ปลอดภัยอีกต่อไปแล้ว

ภาวะหนาวเย็นของการจ้างงานตอนนี้ = ไม่ใช่ AI แต่คือการกลับสู่ภาวะปกติที่เริ่มไปแล้วตั้งแต่ปี 2023

  • ปี 2021~2022 มีสภาพคล่องล้นจากโควิด → เงินเดือนเริ่มต้นนักพัฒนา 60 ล้านวอน, คนจบ bootcamp เข้างานได้ทันที → เป็นช่วงจ้างเกินตัว พอเงินแห้ง คนจากบริษัทที่ล้มและคนที่ถูกจ้างเกินจำเป็นก็ทะลักเข้าสู่ตลาด
  • ข้อมูลจากคณะกรรมการบริการทางการเงิน ระบุว่าในครึ่งแรกของปี 2023 การลงทุนในเวนเจอร์ภายในประเทศลดลง 42% เมื่อเทียบกับช่วงเดียวกันปีก่อน และข้อมูลจาก Startup Alliance ระบุว่าเงินลงทุนตลอดปี 2023 ลดลง 52%
  • “ไม่ใช่ว่า AI เข้ามาทำลายตลาดนักพัฒนาอย่างกะทันหัน AI แค่เปิดเผยใบหน้าที่แท้จริงของสัญญาการจ้างงานที่กำลังพังอยู่แล้วให้เห็นเร็วขึ้นเท่านั้น”
  • คนที่ชะล่าใจที่สุดในตอนนั้นคือผู้บริหารบริษัทเอง พอตลาดเย็นลง ความล้มเหลวทางธุรกิจของพวกเขาก็ถูกผลักภาระต้นทุนไปที่พนักงานแต่ละคนโดยตรง

สิ่งที่ AI ดูดซับไปไม่ใช่โค้ด แต่คือความเป็นผู้เชี่ยวชาญเฉพาะทางนั่นเอง

  • Google: ใน earnings call ไตรมาส 3 ปี 2024 ระบุว่าโค้ดใหม่ 25% ถูกสร้างโดย AI → ใน Cloud Next 2026-04 เพิ่มขึ้นเป็น 75% ภายในเวลาเพียงปีครึ่งก็เพิ่มเป็น 3 เท่า วลีสำคัญคือ “AI-generated and approved by engineers” — AI เป็นคนเขียน แต่วิศวกรเป็นคนอนุมัติและรับผิดชอบ
  • Meta, Mark Zuckerberg, earnings call ไตรมาส 4 ปี 2025: “เราเริ่มเห็นแล้วว่าโปรเจกต์ที่เคยต้องใช้ทีมใหญ่ ตอนนี้สามารถจบได้ด้วยคนที่เก่งจริง ๆ เพียงคนเดียว”
  • การที่งานของ 10 คนถูกทำโดยคนเดียว ไม่ใช่แค่เรื่องประสิทธิภาพ แต่หมายถึงการตัดสินใจ การประสานงาน การตรวจสอบ และความรับผิดชอบหลังการปล่อยใช้งาน ที่เคยถูกกระจายอยู่ในทีมใหญ่ ถูกอัดรวมไปอยู่กับคนคนนั้นเพียงคนเดียว เกณฑ์การจ้างงานจึงย้ายจาก quantity → quality
  • AI ไม่ได้ทำลายความเชี่ยวชาญ แต่กำลังทำลายเขตปลอดภัยของคนที่มีแค่ความเชี่ยวชาญ เมื่อใดก็ตามที่ตลาดเย็นลง คนที่อยู่แค่ในขอบเขตหน้าที่ตัวเองจะหายไปก่อน

Taste และความสามารถในการตัดสินใจก็ไม่ใช่เขตปลอดภัยเช่นกัน

  • กรอบคิดที่ว่า “พอ AI ทำเรื่องพวกนี้ได้ มนุษย์ก็ควรไปโฟกัสที่ taste และความสามารถในการตัดสินใจ” เป็นกับดักของการเอา AI กับมนุษย์ไปเทียบกันบนเส้นเดียวกัน เพราะคำพูดนั้นก็หมายความว่า ในบางระดับหรือบางเซกเตอร์ taste และการตัดสินใจก็สามารถถูกแทนที่ได้มากพอเช่นกัน
  • ThePrimeagen (ประสบการณ์ 20 ปี, บรรยาย I suck 2026-05-02): ระหว่างช่วงตกต่ำ 6 เดือน เขาค่อย ๆ ตัดสองสมมติฐานทิ้งไป ทีละข้อ รสนิยม (taste)? ไม่ใช่ ปริมาณโค้ด? ก็ไม่ใช่ ข้อสรุปคือ “ถ้าต้นทุนของโค้ดหนึ่งบรรทัดลดลงอย่างรุนแรง ต้นทุนของโค้ดหนึ่งบรรทัดที่ถูกต้องจะเพิ่มขึ้นอย่างรุนแรง”
  • ข้อมูลสองด้าน: ใน การทดลอง GitHub Copilot (arXiv 2302.06590) พบว่าเสร็จงานเร็วขึ้น 55.8% แต่ในทางกลับกัน งานวิจัย METR ปี 2025 พบว่านักพัฒนาโอเพนซอร์สที่มีประสบการณ์ เมื่อใช้ AI กับโค้ดเบสที่ตัวเองคุ้นเคยดี กลับ ช้าลง 19% AI ทำให้ต้นทุนการผลิตผลลัพธ์ต่ำลง แต่ไม่ได้ทำให้ต้นทุนของความเข้าใจบริบทและการเลือกสิ่งที่ถูกต้องต่ำลงโดยอัตโนมัติ
  • แบบร่างดีไซน์, การรีวิวโค้ดรอบแรก, การสรุป trade-off ทางสถาปัตยกรรม — แม้แต่ใน workflow ของผู้เขียนเอง พื้นที่ที่ “ไม่ว่าฉันจะตัดสินใจเองหรือให้ AI ตัดสินใจ ผลลัพธ์ต่างกันน้อยมาก” ก็กำลังเพิ่มขึ้น นี่คือสัญญาณว่า taste กำลังถูกดูดซับในมิตินั้น
  • สิ่งที่ AI ทำไม่ได้ ไม่ใช่การเลือกที่สวยกว่าหรือดีกว่า แต่คือการรับผิดชอบต่อผลของการเลือกนั้น

AI รับผิดชอบไม่ได้ — นี่คือความต่างเชิงแก่นแท้

  • กรณีแชตบอตของ Air Canada (2024): แชตบอตให้ข้อมูลคืนเงินที่ผิดแก่ลูกค้า → บริษัทพยายามมองว่าแชตบอตเป็นตัวตนแยกต่างหาก แต่หน่วยงานไกล่เกลี่ยข้อพิพาทของแคนาดาตัดสินว่า “ไม่ว่าข้อมูลจะมาจากหน้าเว็บแบบคงที่หรือมาจากแชตบอต ความรับผิดชอบก็อยู่ที่บริษัท” AI สามารถสร้างคำตอบได้ แต่ความรับผิดชอบในการตัดสินใจเผยแพร่คำตอบนั้นยังเป็นของคนและองค์กร
  • ผู้เขียนเปิดเผยประสบการณ์ตัวเอง: ตอนเป็น CTO ปีที่ 2 เมื่อบริษัทเริ่มระดมทุนได้ยาก เขาถึงเพิ่งขอให้ทีมการเงินส่งข้อมูลรายเดือนมาให้ สีหน้าของหัวหน้าทีมการเงินที่เหมือนจะพูดว่า “ทำไม CTO เพิ่งมาดูเรื่องนี้ตอนนี้” ยังติดอยู่ในความทรงจำ ตอนนั้นเองที่เขาเข้าใจว่า ความไม่รู้ก็คืออีกชื่อหนึ่งของความไม่รับผิดชอบ
  • เกณฑ์การรับคนที่ติดอยู่บนหน้า Careers ของ Anthropic: “When it comes to our mission, none of us are bystanders. We each take personal ownership over making our mission successful.” เกณฑ์ที่บริษัทซึ่งสร้าง AI ได้เก่งที่สุดเขียนไว้ตรง ๆ คือ ownership
  • รูปแบบพฤติกรรมของคนที่รับผิดชอบ กับคนที่คอยหลบเลี่ยง กลับตรงกันข้ามโดยสิ้นเชิง ฝ่ายหนึ่งจะถามว่า “ผลลัพธ์นี้ส่งมอบคุณค่าอะไรถึงลูกค้า และเชื่อมกับตัวชี้วัดอะไรของบริษัท” และเมื่อมันไม่เวิร์ก ก็จะอธิบายว่า “ผมพลาดอะไรไป” อีกฝ่ายหนึ่งจะอยู่แค่ใน R&R ของตัวเอง และแม้ outcome จะแย่ก็ยังปล่อย output ของตัวเองไม่ลง
  • Taste, การตัดสินใจ, ความเข้าใจหลักการ, การสื่อสาร คือ ความสามารถเพื่อใช้ปฏิบัติความรับผิดชอบ ไม่ใช่สิ่งทดแทนความรับผิดชอบ

5 คำถามที่แต่ละคนต้องโยนให้ตัวเอง

  • ① งานที่ฉันทำอยู่ตอนนี้แก้ปัญหาอะไรให้ลูกค้า — ถ้าตอบไม่ได้ แปลว่างานนั้นขาดการเชื่อมต่อกับมูลค่าในตลาดภายนอก
  • ② งานนี้เชื่อมกับ KPI ทางธุรกิจอะไร (รายได้/ต้นทุน/retention) และเชื่อมอย่างไร — ถ้าอธิบายเป็นประโยคเดียวไม่ได้ ก็แปลว่าคุณไม่รู้ว่าบริษัทจะประเมินตำแหน่งของคุณอย่างไร
  • ③ ผลลัพธ์ที่ฉันสร้างถูกใช้งานจริงไหม และถ้ามันล้มเหลว ฉันอธิบายสาเหตุได้ไหมใน 3 ประโยค — deploy ≠ ใช้งานจริง, สร้างเสร็จ ≠ ส่งถึงปลายทาง
  • ④ ฉันใช้ AI เพื่อไม่ใช่แค่สร้างให้มากขึ้น แต่เพื่อพิสูจน์ให้เร็วขึ้นอยู่หรือไม่ — นี่คือกับดักใหญ่ที่สุดในยุค AI คนที่รับผิดชอบจะใช้ทรัพยากรไปกับความเร็วในการตรวจสอบ ไม่ใช่ปริมาณ
  • ⑤ รูปแบบแปลงร่างของคำว่า “ไม่ใช่ R&R ของฉัน” — ถ้ามันสำคัญต่อผลลัพธ์ แต่คุณปล่อยมือเพียงเพราะอยู่นอกขอบเขตหน้าที่ ความรับผิดชอบก็จะหลุดหายไปพร้อมกัน

บริษัทเองก็ต้องเปลี่ยนระบบตอบแทน — นี่ไม่ใช่บทความที่พูดข้างเดียว

  • ผู้เขียนระบุไว้ชัดในช่วงท้าย เพื่อไม่ให้บทความนี้กลายเป็นการโยนความรับผิดชอบให้ปัจเจกฝ่ายเดียวว่า “ถ้าบริษัทจะให้พนักงานรับผิดชอบมากขนาดนั้น ก็ต้องจ่ายผลตอบแทนในระดับที่สมน้ำสมเนื้อด้วย”
  • คนที่ทำงานแบบ generalist รับผิดชอบ และคอยดูแลคุณค่าให้ลูกค้ามาตลอด เป็นกลุ่มที่ที่ผ่านมาไม่ได้รับการประเมินอย่างเหมาะสม ในยุคที่ความเชี่ยวชาญเฉพาะทางกำลังถูก AI ดูดซับ คุณค่าของพวกเขายิ่งสูงกว่าที่เคย
  • Jasmine Sun, NYT Opinion 2026-04-30: “คนส่วนใหญ่ในวงการ AI ที่ฉันรู้จัก คิดว่าคนธรรมดาจบเห่แล้ว และก็ไม่รู้เลยด้วยซ้ำว่าควรทำอย่างไร” ฝันร้ายที่แท้จริงที่ซิลิคอนแวลลีย์กำลังเผชิญ ไม่ใช่ rogue AI แต่คือฉากทัศน์ที่คนธรรมดาสูญเสีย leverage ทางเศรษฐกิจเพราะระบบอัตโนมัติ
  • บรรทัดสรุปปิดท้าย: “AI สามารถทำงานของเราแทนได้ แต่ไม่สามารถรับผิดชอบแทนเราได้ ดังนั้นในยุค AI คนที่มีค่าที่สุดจึงไม่ใช่คนที่สร้างได้มากกว่า แต่คือคนที่รับผิดชอบจนถึงที่สุด”

ยังไม่มีความคิดเห็น

ยังไม่มีความคิดเห็น