AI Native Engineer คือคนแบบไหนกันแน่ (Who).

สิ่งที่ปรากฏชัด — จุดที่ต่างจากวิศวกรยุคก่อน

  • Drew Hoskins: "เครื่องมือและภาษายากเกินไป การเรียนรู้และใช้งานมันเองก็เป็นงานเต็มเวลาอยู่แล้ว" เมื่อ AI เริ่มเข้ามารับช่วงงานเต็มเวลานี้ สิ่งที่เดิมทีควรทำแต่ถูกกลบไว้ก็เริ่มปรากฏ
  • ขอบเขตความรับผิดชอบที่กว้างขึ้น: discovery มากกว่า delivery ถ้าไม่รู้ว่า "ทำไมเราต้องสร้างสิ่งนี้?" ก็จะไม่เหลือบทบาทอะไรให้ทำ
  • การเรียนรู้ที่เร็วขึ้น 10 เท่า: หากจะอ่านและตัดสินโค้ด 200 บรรทัดที่ AI สร้างใน 30 วินาทีได้ ก็ต้องมีพื้นฐานที่แน่น โค้ดที่ AI สร้างจึงกลายเป็นเหมือนตำราเรียน แต่ต้องมีสายตาที่อ่านมันออก
  • ความเร็วในการตัดสินใจ: Forsgren — "เมื่อทำงานร่วมกับ AI คุณต้องประกอบ mental model ใหม่หลายสิบครั้งภายใน 30 นาที" การตัดสินใจที่เร็วเกิดจากความเข้าใจที่ลึก

แรงตีกลับของ Maker

  • DORA 2025: หลังนำ AI มาใช้ การสร้าง PR เพิ่มขึ้น 98% แล้วผลลัพธ์ด้าน software delivery ล่ะ? Flat. การเขียนโค้ดไม่เคยเป็นคอขวดมาตั้งแต่แรก
  • คุณคลิกได้ คนอื่นก็คลิกได้เหมือนกัน การสร้างของเองกำลังกลายเป็น commodity การคลิกจึงไม่ใช่ความสามารถในการแข่งขันอีกต่อไป
  • แต่ก่อนคำว่า "ถ้า Maker มี mindset แบบ Closer" เป็นคำชม ตอนนี้มันเป็นเงื่อนไขพื้นฐาน

ความผิดพลาดแบบพ่อมด — ความย้อนแย้งที่เทคโนโลยียิ่งสำคัญขึ้น

  • ประสบการณ์ลองผิดลองถูกกับ iOS ของผู้เขียน: Golang ทำให้โฟกัสที่ core logic ได้ทันที ส่วน iOS เพราะทักษะทางเทคนิคไม่พอ จึงติดลูปไม่รู้จบกับ AI อยู่ 2–3 วัน "ถ้าเป็นวิศวกร iOS ก็คงแก้ได้ใน 5 นาที"
  • "กับดักศิษย์พ่อมด" ของ Carson Gross: ถ้าจูเนียร์เขียนโค้ดไม่เป็น ก็จะอ่านโค้ดไม่เป็นด้วย และถ้าอ่านไม่ออก ก็จะถูก LLM พาไปตามกระแส
  • Steve Krouse: "vibe coding ทำให้เกิดภาพลวงตาว่า vibe ของตัวเองคือ abstraction ที่แม่นยำ" ไม่มีใครพูดถึง "vibe writing"
  • LLM ไม่ได้ลดความซับซ้อนที่เป็นแก่นแท้ของปัญหา มันเพียงทำให้สร้างความซับซ้อนเชิงอุบัติเหตุได้ง่ายขึ้น (Fred Brooks, No Silver Bullet)
  • ความรู้เครื่องมือ (ไวยากรณ์ Swift, แพตเทิร์น React) vs ความรู้เชิงหลักการ (เครือข่าย, OS, โครงสร้างข้อมูล) เมื่อ AI เข้ามาแทนความรู้เครื่องมือ ความรู้เชิงหลักการจึงยิ่งโดดเด่น

สัญชาตญาณบนหลักการ — Eval

  • หลักการที่ไร้สัญชาตญาณคือความเป็นนักวิชาการ หลักการอย่างเดียวไม่เพียงพอ
  • สิ่งที่ Anthropic เรียกว่า "taste" คนที่สร้าง AI ได้เก่งที่สุดคือคนที่ปล่อยให้ AI ตัดสินแทนเป็นลำดับสุดท้าย
  • Thomas, CTO ของ Linear: "Taste is not mystical. It's a craft." ผ่าน Quality Wednesday โดยแก้ defect 2,500 รายการตลอด 2 ปี — taste จึงก่อตัวเหมือนกล้ามเนื้อ
  • Eval = วิจารณญาณในการประเมินผลลัพธ์ที่ AI สร้างขึ้น "All Pass ของ AI คือ All Pass สำหรับฉันด้วยหรือไม่?" คนที่ตั้งคำถามนี้ได้คือ AI Native Engineer

บทสรุป — เข็มทิศบนเครื่องเร่งความเร็ว

  • Terry Winograd (นักวิจัย AI ยุคบุกเบิกของ Stanford): "AI ไม่ใช่ต้นเหตุของปัญหา AI คือเครื่องเร่งความเร็ว (Accelerant)" สิ่งที่เปลี่ยนไปคือความเร็ว ไม่ใช่ทิศทาง
  • สัญชาตญาณที่ไร้หลักการคือการเดาสุ่ม และหลักการที่ไร้สัญชาตญาณคือความเป็นนักวิชาการ
  • ต่อให้มี How (ทักษะแบบ agentic) และทำงานอยู่ใน Where (องค์กรแบบ AX) แต่ถ้า Who (ตัวเราเอง) ไม่ใช่คนที่ใช้สัญชาตญาณบนหลักการได้ ก็ไม่มีความหมายอะไร

ยังไม่มีความคิดเห็น

ยังไม่มีความคิดเห็น