- ผู้บรรยาย Gergely Orosz เป็นผู้ดูแลจดหมายข่าวและพอดแคสต์ Pragmatic Engineer และเป็นอดีตวิศวกรของ Microsoft และ Uber โดยมาแบ่งปันความเป็นจริงของการนำ GenAI ไปใช้จากประสบการณ์หน้างาน
- ต่างจากความคาดหวังที่เกินจริงของ CEO และผู้ก่อตั้ง ประสบการณ์จริงของนักพัฒนากลับซับซ้อนกว่า เนื่องจากข้อจำกัดของเครื่องมือและความแตกต่างของประสิทธิภาพการทำงาน
- สตาร์ทอัพเครื่องมือพัฒนา AI และบิ๊กเทค มีอัตราการใช้งานภายในสูงและการลงทุนยังคึกคัก แต่สตาร์ทอัพบางแห่งและบางสายงานเฉพาะทางยังรายงานว่าประโยชน์ใช้สอยอยู่ในระดับต่ำ
- นักพัฒนาอิสระและวิศวกรอาวุโสเริ่มรู้สึกถึง จุดเปลี่ยนของ GenAI ในช่วงหลัง และตอบรับในทางบวกต่อการเพิ่มผลิตภาพการเขียนโค้ดและการขยายความคิดสร้างสรรค์
- Kent Beck ประเมินว่าการนำ LLM มาใช้นั้นเป็นการเปลี่ยนผ่านเชิงกระบวนทัศน์ระดับเดียวกับอินเทอร์เน็ตและสมาร์ตโฟน พร้อมเน้นย้ำการลองสิ่งใหม่และการทดลอง
แนะนำผู้บรรยาย
- Gergely Orosz
- ผู้ดูแลจดหมายข่าวและพอดแคสต์ Pragmatic Engineer
- มีประสบการณ์วิศวกร 10 ปีที่ JP Morgan, Microsoft(Skype), Skyscanner, Uber ฯลฯ
- ปัจจุบันมุ่งสำรวจผลกระทบของ GenAI ต่อวิศวกรรมซอฟต์แวร์อย่างเข้มข้น
ความคาดหวังที่เกินจริงกับความเป็นจริง
- CEO ของ Microsoft: "AI เขียนโค้ดทั้งหมด 30%"
- CEO ของ Anthropic: "ภายใน 1 ปี โค้ด 100% จะถูกสร้างโดย AI"
- Jeff Dean ของ Google: "AI จะไปถึงระดับนักพัฒนาจูเนียร์ในไม่ช้า"
- แต่ความเป็นจริงคือ:
- AI agent สร้างบั๊กจนก่อค่าใช้จ่ายหลายร้อยดอลลาร์
- ในเดโม Microsoft Build, AI ล้มเหลวในการแก้ไขโค้ดที่ซับซ้อน
สตาร์ทอัพเครื่องมือพัฒนา AI
- Anthropic:
- วิศวกรภายในทุกคนใช้ Cloud Code
- โค้ดมากกว่า 90% เขียนโดย AI
- นำ MCP(Model Context Protocol) มาใช้ → เชื่อมต่อกับ IDE, DB, GitHub ฯลฯ ได้ และกำลังขยายวงกว้างอย่างมาก
- Windsurf: 95% ของโค้ดเขียนโดย AI
- Cursor: 40~50% เขียนโดย AI, “ครึ่งหนึ่งใช้ได้ดี อีกครึ่งหนึ่งยังมีข้อจำกัด”
สถานการณ์ของบิ๊กเทค
- Google:
- ฝังฟีเจอร์ AI ไว้ใน IDE ภายในชื่อ Cider (autocomplete, รีวิว, ค้นหาโค้ด)
- การนำมาใช้ภายในขยายตัวอย่างรวดเร็วในช่วง 1 ปีที่ผ่านมา
- องค์กร SRE กำลังเสริมความแข็งแกร่งให้โครงสร้างพื้นฐานเพื่อรองรับ จำนวนบรรทัดโค้ดที่มากขึ้น 10 เท่า
- Amazon:
- Amazon Q Developer Pro → มีความแข็งแกร่งกับงานที่เกี่ยวข้องกับ AWS
- โมเดลของ Anthropic (Claude) ก็ถูกใช้อย่างจริงจังกับการเขียนเอกสารภายในและช่วงประเมินผลงาน
- ผสาน MCP server อย่างกว้างขวาง → การทำงานอัตโนมัติของเครื่องมือภายในแพร่หลายมากขึ้น
สตาร์ทอัพและกรณีเฉพาะราย
- Incident.io:
- ทั้งทีมทดลองใช้ AI อย่างจริงจังและแชร์ทิปกันใน Slack
- หลังนำ Cloud Code มาใช้ อัตราการใช้งานเพิ่มขึ้นอย่างรวดเร็ว
- สตาร์ทอัพไบโอเทค:
- มีความจำเป็นต้องเขียนโค้ดใหม่ที่ไม่เคยมีมาก่อนด้วยตัวเองสูง จึงทำให้ LLM มีประสิทธิภาพต่ำ
- ยังประเมินว่าการเขียนโค้ดเองเร็วกว่ามาก
นักพัฒนาอิสระและวิศวกรอาวุโส
- Armin Ronacher (ผู้สร้าง Flask): ใช้ agent เสมือน เด็กฝึกงานเสมือนจริง และรู้สึกได้ถึงผลิตภาพที่เพิ่มขึ้น
- Peter Steinberger (ผู้ก่อตั้ง PSPDFKit): มองว่าอุปสรรคด้านภาษาลดลง และ “ประกายทางเทคนิคกลับมามีชีวิตอีกครั้ง”
- Simon Willison (ผู้ร่วมสร้าง Django): ระบุว่าจากการปรับปรุงโมเดลล่าสุด “AI coding agent ได้เข้าสู่ระยะที่ใช้งานได้จริง”
- Brigita (Thoughtworks): LLM คือ เครื่องมือ abstraction รูปแบบใหม่ ที่ครอบคลุมทั้งสแตก
- Kent Beck (ผู้ให้กำเนิด TDD): “ในประสบการณ์ 52 ปี ตอนนี้สนุกที่สุด” และประเมินว่า LLM เป็นนวัตกรรมระดับเดียวกับอินเทอร์เน็ตและสมาร์ตโฟน
คำถามที่ยังค้างอยู่
- ทำไม CEO และผู้ก่อตั้ง ถึงตื่นเต้นมากกว่าวิศวกร?
- อัตราการใช้เครื่องมือ AI จริงอยู่ที่ระดับราว 50% ต่อสัปดาห์ ยังไม่ถือว่าแพร่หลายทั่วไป
- ผลของการประหยัดเวลา: จากการสำรวจของ DX พบว่าประหยัดได้ราว 3~5 ชั่วโมงต่อสัปดาห์ ซึ่งต่างจากคำกล่าวอ้างเรื่อง “ผลิตภาพเพิ่ม 10 เท่า” อย่างมาก
- ทำไมในระดับ รายบุคคล ถึงเห็นผลมาก แต่ในระดับ องค์กร กลับเห็นผลน้อยกว่า?
บทสรุป
- LLM อาจก่อให้เกิดการก้าวกระโดดด้านผลิตภาพ เทียบได้กับการเปลี่ยนจาก assembly ไปสู่ภาษาระดับสูง
- แต่ AI ไม่ได้เป็นแบบกำหนดผลลัพธ์แน่นอน (deterministic) และประสิทธิภาพก็แตกต่างกันมากตามทีมและสายงาน
- ข้อความสำคัญ: ตอนนี้คือ ช่วงเวลาของการทดลองและการเรียนรู้ โดยเน้นว่า “ควรลองสิ่งที่ถูกลงและเป็นไปได้แล้วอย่างจริงจัง”
ยังไม่มีความคิดเห็น