- ผู้เปิดโปงภายในเปิดเผยว่า แม้ Meta และ TikTok จะรู้อยู่แล้วจากงานวิจัยภายในว่าอัลกอริทึมยิ่งกระตุ้นความโกรธได้มาก อัตราการมีส่วนร่วมก็ยิ่งสูงขึ้น แต่ทั้งสองบริษัทก็ยังทำให้คอนเทนต์ที่เป็นอันตรายปรากฏในฟีดของผู้ใช้มากขึ้น
- วิศวกรของ Meta เปิดเผยว่าได้รับคำสั่งให้เพิ่มการแสดงผลของ ‘คอนเทนต์ก้ำเส้น’ โดยอ้างเหตุผลเรื่องราคาหุ้นที่ตกลง ขณะที่พนักงาน TikTok เปิดเผยแดชบอร์ดภายในที่แสดงว่า กรณีที่เกี่ยวข้องกับนักการเมืองถูกจัดการก่อนกรณีอันตรายต่อเด็ก
- Reels ของ Meta ถูกเปิดตัวเพื่อแข่งขันกับ TikTok โดยไม่มีมาตรการป้องกันที่เพียงพอ และงานวิจัยภายในยืนยันว่า สัดส่วนคอมเมนต์ที่เป็นการคุกคาม คำพูดแสดงความเกลียดชัง และความรุนแรง สูงกว่าฟีดหลักของ Instagram
- พนักงานทีมความปลอดภัยภายในของ TikTok ให้การว่า ความปลอดภัยของเด็กถูกผลักไปเป็นลำดับรองเพื่อรักษาความสัมพันธ์ทางการเมือง พร้อมเตือนว่า “ผู้ปกครองควรลบแอป”
- ทั้งสองบริษัทต่าง ปฏิเสธว่าไม่ได้ขยายการมองเห็นคอนเทนต์อันตรายโดยเจตนา แต่เอกสารภายในและคำให้การสะท้อน ปัญหาเชิงโครงสร้างที่อัลกอริทึมซึ่งเน้นการมีส่วนร่วมให้ความสำคัญกับรายได้มากกว่าความปลอดภัยของผู้ใช้
ภาพรวมการเปิดโปงจากผู้แจ้งเบาะแสภายใน
- ผู้เปิดโปงภายในและผู้เกี่ยวข้องมากกว่า 12 คนให้การว่า บริษัทแข่งขันกันแย่งชิงการมีส่วนร่วมของผู้ใช้โดยเพิกเฉยต่อปัญหาความปลอดภัย เช่น คอนเทนต์เกี่ยวกับความรุนแรง การแสวงหาประโยชน์ทางเพศ และการก่อการร้าย
- วิศวกรของ Meta กล่าวว่าได้รับคำสั่งจากผู้บริหารให้เพิ่มการมองเห็น ‘คอนเทนต์ก้ำเส้น’ เช่น เนื้อหาเกลียดชังผู้หญิงและทฤษฎีสมคบคิด
- พนักงาน TikTok แสดงกรณีต่อ BBC ที่ รายงานเกี่ยวกับนักการเมืองได้รับการจัดการก่อนกรณีอันตรายต่อเด็ก
- ภายใน TikTok มีการกล่าวถึงเหตุผลเรื่อง การรักษาความสัมพันธ์กับนักการเมือง เพื่อหลีกเลี่ยงความเสี่ยงด้านกฎระเบียบหรือการถูกแบน
งานวิจัยภายในของ Meta และปัญหาของ Reels
- Matt Motyl นักวิจัยของ Meta เปิดเผยว่า ในช่วง การเปิดตัว Reels (2020) มาตรการป้องกันยังไม่เพียงพอ
- ตามงานวิจัยภายใน คอมเมนต์บน Reels มีสัดส่วนของ การคุกคาม คำพูดแสดงความเกลียดชัง และการส่งเสริมความรุนแรง สูงกว่าฟีดหลักของ Instagram อยู่ 75%, 19% และ 7% ตามลำดับ
- บริษัททุ่มบุคลากร 700 คนให้กับการเติบโตของ Reels ขณะที่คำขอเพิ่มกำลังคนให้ทีมดูแลการคุ้มครองเด็กและความสุจริตของการเลือกตั้งกลับถูกปฏิเสธ
- เอกสารภายในชี้ว่า อัลกอริทึมให้ความสำคัญกับการเพิ่มรายได้สูงสุดมากกว่าสวัสดิภาพของผู้ใช้
- มีข้อความว่า “Facebook อาจทำให้ผู้ใช้ถูกบริโภคเหมือน ‘ฟาสต์ฟู้ด’ ได้ แต่ยากจะยั่งยืนในระยะยาว”
คำให้การจากทีมความปลอดภัยภายในของ TikTok
- BBC ติดต่อกับ ‘Nick’ พนักงานทีม Trust & Safety ของ TikTok เป็นเวลาหลายเดือนในปี 2025
- เขาระบุว่า การนำ AI มาใช้และการลดจำนวนพนักงานทำให้การรับมือคอนเทนต์อันตรายอ่อนแอลง
- พร้อมให้การว่าได้เห็น ข้อมูลเกี่ยวกับการก่อการร้าย ความรุนแรงทางเพศ การทารุณกรรม และการค้ามนุษย์เพิ่มขึ้น
- มีการยกตัวอย่างจากแดชบอร์ดภายในที่ โพสต์ล้อเลียนนักการเมือง ถูก ตรวจสอบก่อนกรณีวัยรุ่นถูกแบล็กเมลทางเพศ
- รวมถึงยืนยันว่ากรณีเหยื่อวัย 16 ปีในอิรักและกรณีอื่น ๆ ถูกจัดเป็นความเร่งด่วนต่ำ
- Nick กล่าวว่า “บริษัทให้ความสำคัญกับความสัมพันธ์ทางการเมืองมากกว่าความปลอดภัยของเด็ก” และ แนะนำผู้ปกครองว่า ‘ให้ลบ TikTok’
- TikTok โต้แย้งว่า คอนเทนต์การเมืองไม่ได้ถูกให้ความสำคัญเหนือกว่าความปลอดภัยของเด็ก และระบุว่าข้อกล่าวหาเป็น การบิดเบือน
- บริษัทอธิบายว่าบัญชีของวัยรุ่นมี การตั้งค่าความปลอดภัยเริ่มต้นมากกว่า 50 รายการ
การแข่งขันด้านอัลกอริทึมและการตอบสนองของ Meta
- ในช่วงโควิด-19 ปี 2020 เพื่อตอบโต้การเติบโตอย่างรวดเร็วของ TikTok ทาง Meta จึง รีบเปิดตัว Reels
- Motyl กล่าวถึงเรื่องนี้ว่า “ความเร็วมาก่อนการปกป้องผู้ใช้”
- เขาระบุว่าทีม Reels ไม่เต็มใจจะใส่ฟีเจอร์ความปลอดภัย เพราะ คอนเทนต์อันตรายกระตุ้นการมีส่วนร่วมได้มากกว่า
- Brandon Silverman (ผู้ก่อตั้ง Crowdtangle) ให้การว่า ในเวลานั้น Mark Zuckerberg อ่อนไหวต่อการแข่งขันอย่างมาก
- การขยาย Reels ใช้คน 700 คน ขณะที่ทีมความปลอดภัยกลับมีปัญหาในการหาบุคลากรเพิ่ม
- อดีตวิศวกร Meta ชื่อ ‘Tim’ เปิดเผยว่า การแข่งขันกับ TikTok ทำให้ข้อจำกัดต่อ ‘คอนเทนต์ก้ำเส้น’ ถูกผ่อนคลายลง
- เขากล่าวว่า “ท่ามกลางราคาหุ้นที่ตกและแรงกดดันด้านรายได้ จึงมีการตัดสินใจผ่อนปรนมาตรการเพื่อรักษารายได้ระยะสั้น”
วิธีทำงานของอัลกอริทึมและผลกระทบต่อสังคม
- เอกสารภายในระบุชัดว่า คอนเทนต์ที่กระตุ้นความโกรธและศีลธรรมสร้างการมีส่วนร่วมสูง และอัลกอริทึมก็ชอบคอนเทนต์ลักษณะนี้
- เป็นโครงสร้างแบบที่ว่า “ยิ่งผู้ใช้รู้สึกโกรธ ก็ยิ่งบริโภคคอนเทนต์มากขึ้น”
- ผู้เชี่ยวชาญตำรวจอังกฤษด้านการก่อการร้ายรายงานว่า เมื่อไม่นานมานี้พบ ปรากฏการณ์ที่โพสต์ต่อต้านยิว เหยียดเชื้อชาติ และความรุนแรงฝ่ายขวาจัดถูกทำให้ดูเป็นเรื่องปกติ
- ผู้ใช้วัยรุ่นคนหนึ่งให้การว่า ตน ถูกอัลกอริทึมทำให้หัวรุนแรงขึ้นตั้งแต่อายุ 14 ปี และอธิบายว่าความโกรธกับความเกลียดชังถูกเสริมแรงขึ้น
จุดยืนอย่างเป็นทางการของบริษัท
- Meta: “ข้อกล่าวหาว่าบริษัทขยายการมองเห็นคอนเทนต์อันตรายเพื่อผลประโยชน์ทางการเงินนั้นไม่เป็นความจริง”
- บริษัทเน้นว่าในช่วง 10 ปีที่ผ่านมาได้ ลงทุนครั้งใหญ่ด้านความปลอดภัยและความมั่นคง และได้เพิ่ม ฟีเจอร์คุ้มครองเยาวชน
- TikTok: ระบุว่า “ข้อกล่าวหาเหล่านี้ถูกบิดแต่ง” และอธิบายว่ากำลัง ลงทุนด้านเทคโนโลยีอย่างต่อเนื่องเพื่อป้องกันไม่ให้คอนเทนต์อันตรายถูกแสดงผล
- พร้อมเสริมว่า “เราช่วยให้ผู้คนนับล้านค้นพบความสนใจใหม่ ๆ และสร้างชุมชนได้”
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
ตลอด 5 ปีที่ผ่านมา ปัญหาแบบนี้ดูเหมือนจะกลายเป็น เรื่องสามัญสำนึก ไปแล้ว
แต่คำถามจริงคือ “แล้วเราควรทำอย่างไร?”
ผมพยายามไม่เสียเวลาไปกับความโกรธบนโลกออนไลน์ แต่นี่เป็น โรคทางสังคม ที่ใหญ่เกินกว่าปัจเจกจะรับมือไหว
ถ้า Meta หรือ TikTok ให้ผลสุทธิต่อสังคมติดลบ ก็ไม่มีสิทธิตามธรรมชาติที่จะคงอยู่
รากของปัญหาคือ ‘การกระตุ้นการมีส่วนร่วม’ ทำเงินมากเกินไป ตราบใดที่แรงจูงใจทางการเงินยังไม่หายไป ปัญหาก็จะไม่หายไป
รู้สึกเหมือนได้ข้อมูลมากกว่าตอนที่ฟังแค่ NPR แต่ผมหลีกเลี่ยงคอนเทนต์ที่ถูกผลิตขึ้นมา เช่น การตัดต่อ ดนตรี คำบรรยาย ฯลฯ
ผมอยากรับเพียงปฏิกิริยาทางอารมณ์ที่มาจากสิ่งที่เกิดขึ้นจริงหรือจากคำพูดของใครบางคน
‘คอนเทนต์ในฐานะข่าว’ ต้องมี ความจริงแท้
ถ้าดูว่า ทำไม Gen Z ถึงดื่มแอลกอฮอล์น้อยกว่าคนรุ่นมิลเลนเนียล อาจมีทางออกอยู่ในนั้น
ผมมองว่าคำว่า “คอนเทนต์อันตราย” สุดท้ายก็หมายถึง สิ่งที่รัฐบาลหรือบางประเทศไม่ชอบ
ฟังดูเหมือนเป็นการเรียกร้องให้มีการเซ็นเซอร์อีกรูปแบบหนึ่ง
ถ้ามีกลุ่มไหนคัดค้านความรุนแรงแบบนี้ นั่นกลับเป็นเรื่องดีไม่ใช่หรือ?
ต่อให้รายงานไป ก็ได้แค่คำตอบว่า “ไม่ละเมิดกฎ”
น่าหงุดหงิดที่แพลตฟอร์มพวกนี้ยังดำเนินการกันแบบนี้อยู่
ทั้งที่สังคมรู้ถึงผลเสียมานานเกิน 10 ปีแล้ว แต่ก็ยังไม่มีอะไรเกิดขึ้น
Facebook กับ TikTok แทบจะเป็น ยาเสพติดดิจิทัล อยู่แล้ว แถมยังถูกออกแบบโดยคนที่ขาดความสามารถในการเห็นอกเห็นใจสังคม
ผลลัพธ์แบบนี้ไม่น่าแปลกใจเลย ผมว่าคนส่วนใหญ่ก็คงคิดเหมือนกัน
ถึงอย่างนั้น การที่มี หลักฐานชัดเจน ออกมาก็เป็นเรื่องดี
ปรากฏการณ์แบบนี้หลีกเลี่ยงไม่ได้หรือ?
เพราะมันสร้างคลิก ยอดดู และ การมีส่วนร่วมของผู้ใช้ ถ้าแพลตฟอร์มหนึ่งทำ ที่อื่นก็แทบเลี่ยงไม่ได้ที่จะทำตาม
เช่น ถ้าพนักงาน McDonald's ไปดูถูกลูกค้า ‘การมีส่วนร่วม’ อาจเพิ่มขึ้นก็จริง แต่ ส่วนแบ่งตลาดจะลดลง
เป็นเรื่องแน่นอนอยู่แล้วที่พวกเขาทำแบบนั้น
ตราบใดที่กฎหมายยังอนุญาตและ ยังทำกำไรได้ พวกเขาก็จะทำต่อไป
นี่เป็นเรื่องเดิมที่พูดกันซ้ำมาตั้งแต่อย่างน้อยปี 2012
หนังสือ The Chaos Machine ของ Max Fisher สรุปเรื่องนี้ไว้ดีมาก
ทั้ง Facebook และ YouTube เวลาโดนวิจารณ์ก็มักบอกว่า “ได้ดำเนินการแล้ว” แต่ในความเป็นจริงเป็นเพียงการ หลบเลี่ยง ถ่วงเวลา ลดทอน และปฏิเสธ วนซ้ำไปมา
สงสัยว่ามีองค์กรที่คอยจับตา อัลกอริทึมอันตราย และถึงขั้นฟ้องร้องบ้างไหม
Reset.tech ทำงานด้านนี้ได้ดี แต่ก็อยากรู้ว่ายังมีที่อื่นอีกไหม และ ใครเป็นผู้ให้ทุน
ถ้าทำเงินได้ 2 หมื่นล้านดอลลาร์ แต่โดนปรับแค่ 2 ร้อยล้านดอลลาร์ พวกเขาก็คงไม่สน สุขภาพจิตของผู้ใช้ เลย
ตราบใดที่คนหมู่มากยังตอบสนองต่อ คอนเทนต์หวือหวา แพลตฟอร์มก็ไม่มีเหตุผลอะไรที่จะไม่ใช้ประโยชน์จากมัน
โพสต์ส่วนใหญ่สุดท้ายก็เป็นแค่ เหยื่อล่อคลิก เท่านั้น