Andrej Karpathy ชี้ปัญหาของการเขียนโค้ดด้วย LLM และมี ไฟล์ Markdown เพียง 65 บรรทัด (CLAUDE.md) ที่พยายามแก้ปัญหานั้น จนได้รับความนิยมอย่างถล่มทลายบน GitHub และสร้างกระแสในหมู่ผู้ใช้ Claude Code ว่า “แค่ใส่ไฟล์นี้เข้าไป AI ก็ฉลาดขึ้นมาก”
ความนิยมที่พุ่งแรงของไฟล์
- ไฟล์ CLAUDE.md ใน GitHub repository (forrestchang/andrej-karpathy-skills)
- ภายในวันเดียวมีดาวเพิ่ม +400 → ยอดรวมทะลุเกือบ 4,000
- ยังถูกพอร์ตเป็นส่วนขยายสำหรับ VS Code / Cursor ทำให้นำไปใช้ได้ง่าย
เนื้อหาในไฟล์: หลักการสำคัญ 4 ข้อ (ได้แรงบันดาลใจจากคำวิจารณ์ของ Karpathy ต่อ LLM coding)
- Think Before Coding (คิดก่อนลงมือเขียนโค้ด): ระบุสมมติฐานให้ชัด ถ้าไม่แน่ใจให้ถาม ถ้าสับสนให้หยุด
- Simplicity First (เรียบง่ายไว้ก่อน): ห้ามเพิ่มฟีเจอร์ การทำ abstraction หรือการจัดการ error ที่ผู้ใช้ไม่ได้ขอ
- Surgical Changes (แก้ไขอย่างแม่นยำเหมือนการผ่าตัด): เปลี่ยนเฉพาะส่วนที่ร้องขอ และอย่าแตะส่วนอื่น
- Goal-Driven Execution (ดำเนินการโดยยึดเป้าหมาย): เปลี่ยนจากคำสั่งกว้าง ๆ อย่าง “เพิ่มฟีเจอร์” ให้เป็นเป้าหมายเฉพาะ เช่น “ทำให้เทสต์ผ่าน”
→ ผู้ใช้จำนวนมากเล่าว่า เมื่อใส่หลักการเหล่านี้เข้าไปในพรอมป์ต์ Claude จะลดความสร้างสรรค์เกินจำเป็น การตั้งสมมติฐานผิดทิศทาง และการรีแฟกเตอร์ที่ไม่จำเป็นลง ทำให้เขียนโค้ดได้เสถียรและคาดเดาได้มากขึ้น
สิ่งที่ Michiel Beijen (เจ้าของบล็อกต้นฉบับ) ทำ
- แม้จะไม่ได้ใช้ Claude Code ก็ยังมองว่าไฟล์นี้ดี
- จึงทำเวอร์ชันสำหรับ Cursor + VS Code extension เองและเผยแพร่
- เมื่อลองใช้จริงก็รู้สึกว่า “เหมือนจะได้ผล แต่ก็เหมือนไม่แน่...” (เพราะผลลัพธ์ไม่แน่นอนจึงยากจะฟันธง)
- ถึงอย่างนั้นก็ยอมรับว่ามีคนจำนวนมากสัมผัสได้ถึงความแตกต่าง
จุดที่ทำให้หลายคนตกใจ
- บริษัท LLM ยักษ์ใหญ่ทุ่มเงินลงทุนระดับมหาศาลเพื่อฝึกโมเดลกันมาหลายปี
- แต่กลับมี ข้อความแค่ 65 บรรทัด ที่ช่วยยกระดับคุณภาพได้อย่างเห็นได้ชัด
- จึงถูกมองเป็นกรณีสุดโต่งของแนวคิดที่ว่า “พรอมป์ต์อาจเอาชนะตัวโมเดลเองได้”
- และแนวทางง่าย ๆ นี้ก็จัดการปัญหาเรื้อรังของ LLM ที่ Karpathy เคยชี้ไว้ได้ค่อนข้างดี เช่น การตั้งสมมติฐานมากเกินไป มองข้ามความสับสน และไม่เสนอ trade-off
สรุป
- ยังไม่อาจยืนยันได้ 100% ว่ามีผลจริง แต่มีนักพัฒนาจำนวนมากรู้สึกว่า “มันต่างไปอย่างชัดเจน”
- เป็นกรณีตัวอย่างเชิงสัญลักษณ์ที่แสดงให้เห็นพลังของ prompt hacking / context engineering ในยุค LLM
13 ความคิดเห็น
จะว่าไงดีล่ะ.. ก็เป็นวิธีทำงานแบบที่นักพัฒนาใช้กันมาตั้งแต่เดิมนั่นแหละ
ยังไม่มั่นใจได้ 100% ว่ามันได้ผลจริงไหม แต่มีนักพัฒนาจำนวนมากรู้สึกว่า “มันต่างออกไปอย่างชัดเจน”
ฮ่าๆๆๆ
เชื่อไหมล่ะ...!
พอลองใช้จริงก็รู้สึกประมาณว่า “เหมือนจะได้ผลนะ แต่ก็เหมือนไม่ได้ผล…” (เพราะผลลัพธ์ไม่แน่นอน เลยยืนยันได้ยาก)
5555555555
5555555555555555555555555555555555555555555555555555555555555555
นั่นแหละฟีลลิ่ง..! 555
ความเชื่อชนะ!
วนไปวนมาก็กลับมาที่ prompt engineering อีกครั้ง
วิศวกรรมพรอมป์ต์
พรอมป์ตก็ต้องอาศัยฝีมือการเขียนเหมือนกัน นี่เป็นสิ่งที่ค้นพบซึ่งช่วยเสริมนักพัฒนาที่เขียนไม่เก่งได้ (รวมถึง vibe coder ด้วย) อ้างอิงไว้ก่อนว่าผมได้เกรด 1 วิชาภาษาเกาหลีในสอบซูนึง
'เอาเป็นว่าฉันได้เกรด 1 วิชาภาษาเกาหลีในซูนึงด้วยนะ' คอมเมนต์ที่สมบูรณ์แบบถึงขั้นนี้
สุดท้ายแล้วคำตอบก็คือพรอมป์ต์สินะ ความสารพัดประโยชน์ของ AGENTS มาอีกแล้ว
ดีเลย ดีเลย