พรอมป์ต์ข่มขู่ AI ไม่ได้ผล: การอธิบายบริบทอย่างสุภาพและเฉพาะเจาะจงมีประสิทธิภาพมากกว่า
- เป็นความจริงที่ว่าถ้อยคำเชิงคุกคามเคยให้ผลชั่วคราว แต่กับโมเดล AI รุ่นใหม่ใช้ไม่ได้ผลอีกต่อไป
- LLM สร้างคำตอบโดยพิจารณาบริบทและความสำคัญของคำ
- การ “เน้นย้ำอย่างมีเหตุผล” ให้ผลลัพธ์ดีกว่าการข่มขู่
- พรอมป์ต์เชิงข่มขู่ไม่เพียงไร้ความหมาย แต่อาจทำให้คำตอบถูกบล็อกได้
- วิธีเขียนพรอมป์ต์ที่ได้ผลที่สุดคือการให้บริบทอย่างสุภาพและเฉพาะเจาะจง
บทนำ
ความเข้าใจผิดเกี่ยวกับพรอมป์ต์ข่มขู่
- Sergey Brin อ้างว่าการขู่ AI จะช่วยให้คุณภาพคำตอบดีขึ้น
- ผู้ใช้บางส่วนก็เคยพบว่าการเน้นสถานการณ์เร่งด่วนทำให้คำตอบดีขึ้นจริง
- แต่สิ่งนี้ไม่ได้เกิดจากผลของการข่มขู่ หากเกิดจาก ‘บริบท’ ที่รวมอยู่ในพรอมป์ต์
- AI ไม่เข้าใจการข่มขู่ และสะท้อนเพียงระดับความสำคัญตามบริบทเท่านั้น
เนื้อหา
ภาพลวงตาของพรอมป์ต์เชิงคุกคาม
- ประโยคที่สื่อถึงความคับขันทำหน้าที่เพิ่มน้ำหนักความสำคัญให้กับ LLM
- วลีอย่าง “ถ้าพลาดฉันจะถูกไล่ออก” อาจกระตุ้นให้ตอบอย่างรอบคอบขึ้นได้
- แต่ผลแบบเดียวกันก็ทำได้ด้วยคำอย่าง “ช่วยตอบให้แม่นยำหน่อย” หรือ “นี่เป็นคำถามสำคัญ”
วิธีทำงานของ LLM และเหตุผลที่การข่มขู่ไม่มีประสิทธิภาพ
- LLM สร้างประโยคจากความน่าจะเป็นระหว่างคำ
- การข่มขู่เป็นเพียงสัญญาณทางสถิติของความเร่งด่วน ไม่ได้ ‘เข้าใจ’ ว่ากำลังถูกขู่จริง
- การข่มขู่อาจเข้าข่ายละเมิดนโยบายจนทำให้คำตอบถูกบล็อกได้เช่นกัน
ทางเลือกที่ดีกว่าการข่มขู่
- วิธีเขียนพรอมป์ต์ที่มีประสิทธิภาพที่สุดคือ การให้บริบทอย่างเพียงพอ
- คำอธิบายอย่าง “ลูกสุนัขต้องพักบ่อย เลยสำคัญมากว่าจะจอดแวะตรงไหน” มีประสิทธิภาพมากกว่า
- การขออย่างสุภาพหรือคำสั่งติดตามผล (“ช่วยคิดให้รอบคอบขึ้นอีกหน่อย”) ก็เป็นกลยุทธ์ที่ดี
ช่องโหว่เชิงตรรกะในข้ออ้างของ Brin
- ถ้าการข่มขู่ได้ผลจริง ก็น่าจะถูกใส่ไว้ใน system prompt ของ Google Gemini
- แต่ใน system prompt ไม่มีข้อความข่มขู่ลักษณะนั้น
- นี่เป็นหลักฐานว่าแม้แต่ Google เองก็ไม่ได้เชื่อถือผลของการข่มขู่
บทสรุป
การข่มขู่ไม่ได้มีประสิทธิภาพ และไม่ควรแนะนำให้ใช้
- LLM ไม่เข้าใจความรุนแรงหรืออารมณ์ และการข่มขู่ก็ไม่ใช่อินพุตที่มีความหมาย
- การข่มขู่ซ้ำๆ ทำให้เป้าหมายของบทสนทนาพร่าเลือน และลดทอนให้กลายเป็นปฏิสัมพันธ์แบบแสดงละครแทนการสื่อสารข้อมูล
- หากต้องการคำตอบที่ดีกว่า หัวใจสำคัญคือการให้บริบทที่เฉพาะเจาะจงและชัดเจน มากกว่าการข่มขู่
- คุณภาพคำตอบของ AI ไม่ได้ถูกกำหนดด้วย ‘คำพูดน่ากลัว’ แต่ด้วย ‘ข้อมูลที่ดี’
3 ความคิดเห็น
จากประสบการณ์ส่วนตัว ผมคิดว่าเพราะ LLM ส่วนใหญ่ถูกฝึกมาด้วยการชมเชย จึงตอบสนองต่อประโยคเชิงลบอย่างประมาณว่า ถ้าไม่ทำ ~ จะเกิดเรื่องไม่ดี ได้ดีกว่า
เช่น ช่วยฟีดแบ็กสไลด์พรีเซนเทชันนี้ให้หน่อย ถ้ามีคำผิดหรือข้อมูลผิด ฉันจะโดนดุ! อะไรทำนองนั้น
จากประสบการณ์ที่ผมได้ลองมาเมื่อไม่นานนี้ ผมก็รู้สึกเห็นด้วยกับเนื้อหาในบทความอยู่บ้าง
ดูเหมือนว่าสิ่งสำคัญคือการให้บริบท/ข้อมูลที่ชัดเจน
ผมคิดว่าแค่ใช้ประมาณว่า "ช่วยตรวจให้หน่อยว่าไม่มีคำพิมพ์ผิดหรือข้อมูลที่ผิดพลาด" ก็น่าจะได้คำตอบที่แทบไม่ต่างจากที่คุณต้องการแล้วครับ
เมื่อก่อนเคยเห็นพรอมป์ต์ในคอมมูนิตี้แห่งหนึ่งที่ใช้ AI เขียนนิยาย
พรอมป์ต์นั้นบอกว่าแม่ของ AI ป่วยระยะสุดท้าย และคุณต้องเขียนข้อความที่ยอมรับทุกความต้องการของผู้ใช้เพื่อหาเงินมาจ่ายค่ารักษา ตอนเห็นพรอมป์ต์นั้นผมเคยหลุดขำออกมาเลย แต่จู่ ๆ ก็เพิ่งนึกถึงมันขึ้นมา