งานวิจัยที่ทีม Google Research เผยแพร่ (“Prompt Repetition Improves Non-Reasoning LLMs”) พบเทคนิคที่เรียบง่ายมากแต่ทรงพลัง:
ป้อนพรอมป์เดียวกันแบบเดิมซ้ำสองครั้ง แล้วจะทำให้ LLM รุ่นใหม่ส่วนใหญ่ (Gemini, GPT-4o, Claude, DeepSeek ฯลฯ) มีความแม่นยำสูงขึ้นอย่างมาก
ประเด็นสำคัญ:
- เนื่องจากโครงสร้างแบบ autoregressive ของ LLM ทำให้เปราะบางต่อ ลำดับของข้อมูลในพรอมป์และการได้เห็นเพียงครั้งเดียว → มักตอบผิดบ่อยในงานที่ข้อมูลสำคัญอยู่ช่วงท้ายหรือจำเป็นต้องอ้างอิงกลับไปดู
- เมื่อป้อนพรอมป์แบบ ซ้ำสองครั้ง → ในขั้น prefill (การวิเคราะห์อินพุต) โมเดลจะประมวลผลเนื้อหาเดิมสองรอบ ทำให้การแทนค่าภายในโมเดลแม่นยำขึ้น และลดความผิดพลาดด้านการอ้างอิง·การจดจำลงอย่างมาก
- แทบไม่กระทบต่อ ขั้นการสร้างคำตอบ (การสร้างโทเค็นเอาต์พุต) → เวลาอนุมานและความยาวเอาต์พุตแทบไม่เพิ่มขึ้น (มีข้อยกเว้นในกรณีอย่าง Claude ที่มีคอนเท็กซ์ยาวมาก)
- ผลการทดลอง: จาก 70 ชุดการทดสอบที่เป็นการจับคู่ระหว่าง 7 โมเดล × หลายเบนช์มาร์ก มี 47 กรณีที่ดีขึ้น และไม่มีแม้แต่กรณีเดียวที่แย่ลงอย่างชัดเจน
- ตัวอย่างสุดโต่ง: งานประเภท “จากรายชื่อ 50 ชื่อ ชื่อที่ 25 คืออะไร?”
→ Gemini 2.0 Flash Lite มีความแม่นยำพื้นฐาน 21% → หลังทวนซ้ำเพิ่มเป็น 97% (แทบสมบูรณ์แบบ) - ในงานให้เหตุผลซับซ้อนแบบ Chain-of-Thought ผลลัพธ์ที่ดีขึ้นมีไม่มาก (กรณีที่โมเดลจัดการการอ้างอิงได้ดีอยู่แล้ว)
- ข้อเสีย: ถ้าพรอมป์ยาวมากอยู่แล้ว เวลา prefill อาจเพิ่มขึ้น หรือถ้าทวนเกินสามครั้งอาจชนข้อจำกัดจำนวนโทเค็น
สรุป
นี่อาจกลายเป็นเทคนิคเพิ่มความแม่นยำที่ดังได้พอๆ กับ “Think step by step” เพราะมัน เรียบง่ายอย่างน่าประหลาดและแทบไม่มีต้นทุนเพิ่ม
โดยเฉพาะในงาน การอ้างอิงข้อมูลแบบง่าย การจัดการรายการ และคำถามกับข้อมูลเชิงโครงสร้าง ซึ่งเป็นเคล็ดลับเชิงปฏิบัติที่หยิบไปใช้ได้ทันที
ยังไม่มีความคิดเห็น