ประเด็นสำคัญ:
- YouTube พยายามควบคุมคอนเทนต์ AI คุณภาพต่ำ แต่ขณะเดียวกันก็มีการให้เครื่องมือสร้างคอนเทนต์ด้วยตัวเองโดยตรง
- มีการประกาศนโยบายใหม่ที่ห้ามคอนเทนต์แบบทำซ้ำและคอนเทนต์ที่ขาดความจริงใจ
- การแพร่กระจายของคอนเทนต์ AI ก็มีส่วนที่ Google ต้องรับผิดชอบเช่นกัน
- การกำกับดูแลที่อาศัยการแจ้งด้วยความสมัครใจของผู้ใช้เป็นหลักมีข้อจำกัดด้านประสิทธิผล
- Google คาดหวังรายได้จากคอนเทนต์ AI แต่ YouTube กลับต้องการรักษาแพลตฟอร์มให้สะอาด จึงเป็นท่าทีที่ย้อนแย้งกัน
บทนำ: ปัญหาคอนเทนต์ AI ที่ YouTube กำลังเผชิญ
- คอนเทนต์ที่สร้างด้วย AI คุณภาพต่ำกำลังเพิ่มขึ้นอย่างรวดเร็วบน YouTube
- Google พยายามควบคุมสิ่งนี้ แต่ก็มีส่วนทำให้มันแพร่หลายผ่านการให้บริการเครื่องมือ AI
- การแพร่กระจายของ AI slop (คอนเทนต์ขยะ) ส่งผลเสียต่อความน่าเชื่อถือของแพลตฟอร์ม
เนื้อหา
1. การประกาศนโยบายใหม่ของ YouTube
- ตั้งแต่วันที่ 15 กรกฎาคม 2025 เป็นต้นไป YouTube จะเข้มงวดเกณฑ์รายได้ของ YouTube Partner Program (YPP) มากขึ้น
- คอนเทนต์แบบ “ผลิตจำนวนมากและทำซ้ำ” และ “คอนเทนต์ที่ขาดความจริงใจ” จะถูกจำกัดการสร้างรายได้หรืออาจถูกถอดออกจากบัญชี
- ครีเอเตอร์สายรีแอ็กชันหรือสายคลิปตัดต่อจะไม่ได้รับผลกระทบโดยตรง
2. มาตรการที่เป็นการต่อยอดจากนโยบายเดิม
- ก่อนหน้านี้คอนเทนต์ที่นำมาตัดต่อหรืออัปโหลดซ้ำโดยไม่ได้รับอนุญาตก็ไม่สามารถสร้างรายได้อยู่แล้ว
- เพียงแต่ครั้งนี้ได้ระบุรวม “คอนเทนต์ที่สร้างด้วย AI” เอาไว้อย่างชัดเจนด้วย
3. สภาพปัญหาของคอนเทนต์ที่สร้างด้วย AI
- วิดีโอที่สร้างด้วย AI กำลังล้นแพลตฟอร์ม โดยเฉพาะในฝั่ง Shorts (ใช้ AI ทั้งภาพ บท และเสียง)
- มีการอัปโหลดเพลงโดยใช้ชื่อศิลปินปลอม และใช้ระบบอัปโหลดอัตโนมัติโพสต์วันละหลายสิบชิ้น
- วิธีการลักษณะนี้กลายเป็นแนวทางทั่วไปในการหวังรายได้จากการให้ระบบแนะนำของแพลตฟอร์มหยิบไปกระจายต่อ
4. ปัญหาข้อมูลเท็จและคอนเทนต์บิดเบือน
- คอนเทนต์บางส่วนมุ่งปั่นยอดเข้าชมด้วยสิ่งอย่างตัวอย่างภาพยนตร์ปลอม
- YouTube กำลังใช้นโยบายติดป้ายกำกับคอนเทนต์ที่สร้างด้วย AI แต่ยังพึ่งพาวิธีให้ผู้ใช้งานแจ้งด้วยตัวเองเป็นหลัก
- ผู้ไม่หวังดีจำนวนหนึ่งกำลังหลีกเลี่ยงการติดป้ายดังกล่าว
5. คอนเทนต์ไม่เป็นธรรมชาติของ “AI podcast”
- ใช้เสียง AI อ่านสรุปข่าว และจัดฉากบทสนทนาปลอม
- ฟังดูแปลกและขาดความจริงใจ
- แม้จะเข้าข่ายละเมิดนโยบาย YouTube แต่ในการผลิตกลับใช้ Google Gemini
6. การเปิดตัวเครื่องมือสร้างวิดีโอ AI ของ Google
- Veo 3: กำลังผสานฟีเจอร์สร้างวิดีโอ AI ความละเอียดสูงความยาวสูงสุด 8 วินาทีเข้ากับ YouTube
- มีความเป็นไปได้ที่จะเปลี่ยนเป็นบริการแบบมีค่าใช้จ่าย
- แม้จะมีระบบแท็กอัตโนมัติ แต่ก็มีโอกาสสูงที่จะถูกเลี่ยงได้ด้วยการอัปโหลดวิดีโอซ้ำ
บทสรุป: ความย้อนแย้งระหว่างรายได้กับการกำกับดูแล
- Google ให้เครื่องมือ AI เพื่อกระตุ้นการสร้างคอนเทนต์
แต่ใน YouTube กลับพยายามกันคอนเทนต์คุณภาพต่ำออกไป จึงสะท้อนท่าทีสองมาตรฐาน - ในมุมของผู้ชม เป้าหมายทั้งสองข้อนี้ยากจะทำให้สำเร็จพร้อมกัน
- ท้ายที่สุด YouTube จำเป็นต้องมียุทธศาสตร์ที่สอดคล้องกันเพื่อรักษาความน่าเชื่อถือและสุขภาวะของระบบนิเวศบนแพลตฟอร์ม
5 ความคิดเห็น
ช่วงนี้แค่ดู Shorts ก็มีแต่คอนเทนต์คุณภาพต่ำที่ยัด TTS + ใช้ภาพที่ปั่นจาก AI แล้วให้ AI ทำซับจนแม้แต่ประโยคง่าย ๆ ยังผิดเต็มไปหมดอยู่แล้ว เลยยิ่งไม่อยากดู พอมาทางนี้ก็ดูเหมือนจะเป็นทิศทางที่ถูกต้องนะ..!
คนเขียนโพสต์นั้นคงกดทำคลิปสั้นแบบสำเร็จรูปแล้วโดนแบนมั้ง 555
นี่ไม่ใช่ท่าทีที่แสดงความรับผิดชอบเสียมากกว่าหรือครับ; ผมเองก็รู้สึกเห็นด้วยกับทิศทางของ Google โดยรวมครับ
ไม่เข้าใจจริง ๆ ว่าทำไมถึงเรียกว่านี่เป็นท่าทีสองมาตรฐาน...
ผมก็เห็นด้วยเหมือนกันนะ ไม่รู้ว่าเป็นการทำสองมาตรฐานหรือเปล่า แต่พวกที่ทำออกมาดี ๆ ก็ปล่อยไว้อยู่นะ