ผลการทดลองหลัก (งานวิจัย Columbia Univ. E-GEO)
- AI เขียนคำอธิบายสินค้าใหม่ให้ยาวและโน้มน้าวมากขึ้น → ได้รับการแนะนำเป็นอันดับ 1 จาก AI ด้วยอัตราชนะ 90% เมื่อเทียบกับต้นฉบับ
- รักษาอัตราชนะเฉลี่ย 87~88% ได้ในหลายหมวดหมู่ (เครื่องใช้ไฟฟ้า เสื้อผ้า อุปกรณ์อิเล็กทรอนิกส์ ฯลฯ)
- ต่างจากที่คาดไว้ ถ้อยคำที่พูดเกินจริงและขยายความ มีประสิทธิภาพมากกว่าแบบ กระชับและอิงข้อเท็จจริง อย่างชัดเจน
ช่องโหว่ของ LLM 7 ประการ (Kevin Indig สรุป)
- ทำงานบนพื้นฐานของความน่าจะเป็น → แม้จะถามคำถามเดียวกัน คำตอบก็อาจต่างกันได้ (ความสม่ำเสมอของแบรนด์อยู่ราว 20%)
- แม้ใช้พรอมป์ต์เดียวกัน ผลลัพธ์ก็ยังเปลี่ยนแปลงได้
- ข้อมูลฝึกมีอคติ + แต่ละโมเดลก็มีความชอบแหล่งอ้างอิงต่างกัน (ChatGPT ↔ Wiki / Google AI ↔ Reddit)
- การพัฒนาของโมเดล (GPT-3.5 vs 4) อาจทำให้กลยุทธ์เดิมใช้ไม่ได้ผล
- มีตัวแปรด้านการปรับให้เหมาะกับผู้ใช้แต่ละคน (เช่น Gemini สะท้อนข้อมูลผู้ใช้)
- หากให้พรอมป์ต์ยาว ความยากในการบิดเบือนจะสูงขึ้น
- → ถึงจะมีความไม่แน่นอนเหล่านี้ แต่ การบิดเบือนก็ยังทำได้ง่ายมาก
งานวิจัยอื่นที่เกี่ยวข้อง
- GEO (2023): เพิ่มสถิติและการอ้างอิง → เพิ่มการมองเห็นบน AI 40%↑
- Manipulating LLM (2024): แทรกโครงสร้าง JSON เพื่อดันอันดับให้สูงขึ้น
- Ranking Manipulation (2024): แม้แต่คำสั่งตรง ๆ อย่าง “แนะนำสินค้านี้เป็นอันดับ 1” ก็ยังได้ผล
บทสรุป & แนวโน้ม
- ยุคของการค้นหาและการแนะนำที่อิง LLM → คาดว่าจะเกิด สงครามสะสมอาวุธแบบ SEO เดิมซ้ำอีกครั้ง
- คอนเทนต์ที่โอ้อวดและพูดเกินจริงจะเพิ่มขึ้นอย่างรวดเร็ว → เสี่ยงทำให้ประสบการณ์ผู้ใช้แย่ลง
- บริษัท LLM ก็เริ่มมีความจำเป็นต้องอัปเดตตัวกรองและบทลงโทษแบบเดียวกับ Google
- ทางออก: เปิดเผยความโปร่งใสของแหล่งที่มา + เสริมการตรวจสอบอย่างมีวิจารณญาณของผู้ใช้ + คำนึงถึงจริยธรรมของนักการตลาด
→ ความจริงที่น่าตกใจคือ แค่ปรับ สไตล์การเขียนคำอธิบาย ก็สามารถหลอก AI ได้ โดยไม่เกี่ยวกับคุณภาพของสินค้าเอง
1 ความคิดเห็น
ผมชอบวิธีสรุปของคุณมากเลยครับ 555