• ช่วงหลังมานี้ AI สำหรับการเขียนโค้ดสามารถสร้าง “โค้ดที่รันได้” ได้อย่างรวดเร็ว แต่ยังไม่สามารถสร้าง “ผลิตภัณฑ์ที่ดี” ตามที่ผู้ใช้คาดหวังได้โดยอัตโนมัติ

  • ผู้เขียนมองว่าสาเหตุหลักมี 2 ประการ

    • AI ขาดสามัญสำนึก/ความรู้โดยนัย
    • ในโครงสร้างการฝึกแบบอิง RLVR นั้น “การทำให้โค้ดรันสำเร็จ” มักถูกให้รางวัลง่ายกว่า “โค้ด/ผลิตภัณฑ์ที่ดี”
  • ยกตัวอย่างอาการหลอนเรื่องเซจงมหาราชกับ MacBook Pro, การทดสอบล้างรถ, และความล้มเหลวในการสร้างภาพห้องเรียน/นักเรียนเกาหลี เพื่อชี้ให้เห็นว่าแม้แต่โมเดลรุ่นล่าสุดก็อาจมองข้ามความผิดแปลกที่มนุษย์สังเกตเห็นได้ทันที

  • หากรางวัลของ RLVR ด้านการเขียนโค้ดเอนเอียงไปที่การรันสำเร็จ LLM ก็อาจสร้าง try-except, fallback และตรรกะป้องกันมากเกินจำเป็น จนสะสมเป็นหนี้ทางเทคนิคได้

  • แก่นสำคัญคือ หมากล้อมแค่ชนะก็พอ แต่ซอฟต์แวร์ต้องไม่ใช่แค่ “พอใช้งานได้” หากต้องเป็น “ผลิตภัณฑ์ที่ผู้คนต้องการและยอมจ่ายเงินซื้อ”

  • หากมองผ่านแนวคิด AJI (Artificial Jagged Intelligence) ของ Karpathy จุดอ่อนของ AI ในปัจจุบันอยู่ที่ “taste”, เซนส์ด้านผลิตภัณฑ์ และขอบเขตของสามัญสำนึกโดยนัย

  • Anthropic ก็เห็นว่าพื้นที่ด้านดีไซน์/รสนิยมยังคงเป็นสิ่งที่มนุษย์รับผิดชอบอยู่มาก แต่เมื่อโมเดลดีขึ้น เส้นแบ่งนี้ก็กำลังถูกเจรจาใหม่

  • ผู้เขียนคาดว่าเมื่อโมเดลพัฒนาจาก GPT-5.4 → GPT-5.5 ช่องว่างนี้จะค่อย ๆ แคบลง

  • ท้ายที่สุด หากมันมีเซนส์และการตัดสินใจที่แยกไม่ออกจากมนุษย์ ก็จะผ่านการทดสอบทัวริงได้ และผู้เขียนเสนอว่านั่นอาจเป็นจุดที่เรียกว่า AGI

สรุป:
ปัญหาของ AI coding ไม่ใช่ “เขียนโค้ดไม่ได้” แต่คือ “ไม่รู้ว่าผลิตภัณฑ์ที่มนุษย์ต้องการคืออะไร และจึงถูกปรับให้เหมาะกับผลลัพธ์ที่รันได้เป็นหลัก” บทบาทของมนุษย์ในตอนนี้คือการเติมเต็มส่วนที่ AI ยังขาด ทั้งสามัญสำนึก taste และการตัดสินใจเชิงผลิตภัณฑ์

ยังไม่มีความคิดเห็น

ยังไม่มีความคิดเห็น