7 คะแนน โดย neocode24 2026-03-22 | 3 ความคิดเห็น | แชร์ทาง WhatsApp

พอลองให้ AI 5 ตัวช่วยตรวจต้นฉบับบล็อก ก็จับปัญหาได้จริง

หลังจากเขียนเสร็จ สิ่งที่ยากที่สุดคือการกลับมาเกลาข้อความด้วยตัวเอง ทุกครั้งต้องใช้เวลานานมากในการไล่อ่านและแก้ต้นฉบับที่ AI ร่างออกมาทีละบรรทัด
เลยลองสร้างไปป์ไลน์ที่ให้ AI มาตรวจ AI ด้วยกันเองขึ้นมา

วางโครงสร้างไว้แบบเรียบง่าย

  • Gemini 2 ตัว, Claude 2 ตัว และเซสชันปัจจุบันอีก 1 ตัว — รวม Critic ทั้งหมด 5 ตัวที่รันพร้อมกันด้วย Bash &
  • ให้แต่ละตัวอ่านด้วย persona ที่ต่างกัน ได้แก่ "วิศวกรอาวุโสที่เพิ่งมาเห็นครั้งแรก", "คนที่เคยใช้เทคโนโลยีนี้", "บรรณาธิการ", "ผู้อ่านที่จะลองทำตาม", "ผู้ดูแล SEO"
  • รับคะแนนกลับมาเป็น JSON ถ้าค่าเฉลี่ยเกิน 8 คะแนนก็ผ่าน ถ้ายังไม่ถึงก็นำฟีดแบ็กไปปรับแล้วประเมินใหม่

มันจับอะไรได้จริงบ้าง
ในรอบแรกได้คะแนนเฉลี่ย 7.6 โดย "Critic ผู้อ่านที่จะลองทำตาม" ให้เพียง 3 คะแนนเพราะไม่มีตัวอย่างโค้ด ซึ่งเป็นจุดที่ถ้าผมอ่านเองก็คงปล่อยผ่านไป เพิ่มโค้ดบล็อกอีก 3 ชุด และเปลี่ยนส่วนแก้ปัญหาแบบลิสต์ให้เป็นการเล่าแบบมีลำดับ แล้วในรอบที่ 2 ก็ผ่านด้วยคะแนน 8.4

พอลองรันจริงก็เห็นช่องโหว่เชิงโครงสร้าง
เมื่อฟีดแบ็กของ Critic แต่ละตัวขัดแย้งกัน ระบบจะปล่อยให้ตัวเองตัดสินและผ่านไปโดยไม่มีข้อสรุป อีกทั้งถ้าคะแนนเฉลี่ยสูง คะแนนตกบางตัวก็ยังผ่านได้ และหาก parse ไม่สำเร็จก็หยุดทั้งระบบ
ดังนั้นจึงเพิ่มตัวกลาง Synthesis เข้ามา ใช้การตั้งค่า Veto และเงื่อนไขคะแนนตก รวมถึงมี parser สำรองไว้รับมือ

ช่วงท้ายเปลี่ยนการเผยแพร่จาก push เป็น PR
เพื่อให้เป็น Human-In-The-Loop ต่อให้ AI เห็นพ้องกัน ก็ยังต้องผ่านสายตาคนเสมอ ใน PR body จะมีตารางคะแนนของ Critic และถ้าผมทิ้งคอมเมนต์รายบรรทัดไว้ AI ก็จะเพิ่ม commit แก้ไขให้ วนลูปแบบนี้ไปจนกว่าจะ merge

ใช่ครับ สุดท้ายบทความนี้เองก็เผยแพร่ด้วยไปป์ไลน์เดียวกันนี้

3 ความคิดเห็น

 
ide127 2026-03-23

ทฤษฎีอินเทอร์เน็ตที่ตายแล้ว...

 
goooods 2026-03-23

ค่าใช้จ่ายต่อชิ้นคงไม่ใช่น้อยเลย

 
neocode24 2026-03-23

แม้จะเป็นค่าสมัครสมาชิกเลยไม่ได้รู้สึกว่าเป็นภาระ แต่ก็ดูเหมือนจะมองข้ามไม่ได้ครับ