AI Native Engineer — สัญชาตญาณบนหลักการ
(flowkater.io)AI Native Engineer คือคนแบบไหนกันแน่ (Who).
สิ่งที่ปรากฏชัด — จุดที่ต่างจากวิศวกรยุคก่อน
- Drew Hoskins: "เครื่องมือและภาษายากเกินไป การเรียนรู้และใช้งานมันเองก็เป็นงานเต็มเวลาอยู่แล้ว" เมื่อ AI เริ่มเข้ามารับช่วงงานเต็มเวลานี้ สิ่งที่เดิมทีควรทำแต่ถูกกลบไว้ก็เริ่มปรากฏ
- ขอบเขตความรับผิดชอบที่กว้างขึ้น: discovery มากกว่า delivery ถ้าไม่รู้ว่า "ทำไมเราต้องสร้างสิ่งนี้?" ก็จะไม่เหลือบทบาทอะไรให้ทำ
- การเรียนรู้ที่เร็วขึ้น 10 เท่า: หากจะอ่านและตัดสินโค้ด 200 บรรทัดที่ AI สร้างใน 30 วินาทีได้ ก็ต้องมีพื้นฐานที่แน่น โค้ดที่ AI สร้างจึงกลายเป็นเหมือนตำราเรียน แต่ต้องมีสายตาที่อ่านมันออก
- ความเร็วในการตัดสินใจ: Forsgren — "เมื่อทำงานร่วมกับ AI คุณต้องประกอบ mental model ใหม่หลายสิบครั้งภายใน 30 นาที" การตัดสินใจที่เร็วเกิดจากความเข้าใจที่ลึก
แรงตีกลับของ Maker
- DORA 2025: หลังนำ AI มาใช้ การสร้าง PR เพิ่มขึ้น 98% แล้วผลลัพธ์ด้าน software delivery ล่ะ? Flat. การเขียนโค้ดไม่เคยเป็นคอขวดมาตั้งแต่แรก
- คุณคลิกได้ คนอื่นก็คลิกได้เหมือนกัน การสร้างของเองกำลังกลายเป็น commodity การคลิกจึงไม่ใช่ความสามารถในการแข่งขันอีกต่อไป
- แต่ก่อนคำว่า "ถ้า Maker มี mindset แบบ Closer" เป็นคำชม ตอนนี้มันเป็นเงื่อนไขพื้นฐาน
ความผิดพลาดแบบพ่อมด — ความย้อนแย้งที่เทคโนโลยียิ่งสำคัญขึ้น
- ประสบการณ์ลองผิดลองถูกกับ iOS ของผู้เขียน: Golang ทำให้โฟกัสที่ core logic ได้ทันที ส่วน iOS เพราะทักษะทางเทคนิคไม่พอ จึงติดลูปไม่รู้จบกับ AI อยู่ 2–3 วัน "ถ้าเป็นวิศวกร iOS ก็คงแก้ได้ใน 5 นาที"
- "กับดักศิษย์พ่อมด" ของ Carson Gross: ถ้าจูเนียร์เขียนโค้ดไม่เป็น ก็จะอ่านโค้ดไม่เป็นด้วย และถ้าอ่านไม่ออก ก็จะถูก LLM พาไปตามกระแส
- Steve Krouse: "vibe coding ทำให้เกิดภาพลวงตาว่า vibe ของตัวเองคือ abstraction ที่แม่นยำ" ไม่มีใครพูดถึง "vibe writing"
- LLM ไม่ได้ลดความซับซ้อนที่เป็นแก่นแท้ของปัญหา มันเพียงทำให้สร้างความซับซ้อนเชิงอุบัติเหตุได้ง่ายขึ้น (Fred Brooks, No Silver Bullet)
- ความรู้เครื่องมือ (ไวยากรณ์ Swift, แพตเทิร์น React) vs ความรู้เชิงหลักการ (เครือข่าย, OS, โครงสร้างข้อมูล) เมื่อ AI เข้ามาแทนความรู้เครื่องมือ ความรู้เชิงหลักการจึงยิ่งโดดเด่น
สัญชาตญาณบนหลักการ — Eval
- หลักการที่ไร้สัญชาตญาณคือความเป็นนักวิชาการ หลักการอย่างเดียวไม่เพียงพอ
- สิ่งที่ Anthropic เรียกว่า "taste" คนที่สร้าง AI ได้เก่งที่สุดคือคนที่ปล่อยให้ AI ตัดสินแทนเป็นลำดับสุดท้าย
- Thomas, CTO ของ Linear: "Taste is not mystical. It's a craft." ผ่าน Quality Wednesday โดยแก้ defect 2,500 รายการตลอด 2 ปี — taste จึงก่อตัวเหมือนกล้ามเนื้อ
- Eval = วิจารณญาณในการประเมินผลลัพธ์ที่ AI สร้างขึ้น "All Pass ของ AI คือ All Pass สำหรับฉันด้วยหรือไม่?" คนที่ตั้งคำถามนี้ได้คือ AI Native Engineer
บทสรุป — เข็มทิศบนเครื่องเร่งความเร็ว
- Terry Winograd (นักวิจัย AI ยุคบุกเบิกของ Stanford): "AI ไม่ใช่ต้นเหตุของปัญหา AI คือเครื่องเร่งความเร็ว (Accelerant)" สิ่งที่เปลี่ยนไปคือความเร็ว ไม่ใช่ทิศทาง
- สัญชาตญาณที่ไร้หลักการคือการเดาสุ่ม และหลักการที่ไร้สัญชาตญาณคือความเป็นนักวิชาการ
- ต่อให้มี How (ทักษะแบบ agentic) และทำงานอยู่ใน Where (องค์กรแบบ AX) แต่ถ้า Who (ตัวเราเอง) ไม่ใช่คนที่ใช้สัญชาตญาณบนหลักการได้ ก็ไม่มีความหมายอะไร
ยังไม่มีความคิดเห็น