- อัยการสูงสุดของ 14 รัฐในสหรัฐฯ ยื่นฟ้องโดยอ้างว่า TikTok ก่ออันตรายร้ายแรงต่อเด็กและวัยรุ่น
- เอกสารภายในและคำให้การของพนักงานเผยให้เห็น อัลกอริทึมที่ทำให้เสพติด ปัญหาสุขภาพจิต การแสวงหาประโยชน์ทางเพศ และการเปิดรับสื่อลามกเด็ก
- TikTok รับรู้ปัญหาเหล่านี้อยู่แล้ว แต่ปล่อยปละละเลยโดยให้ความสำคัญกับรายได้และการมีส่วนร่วมของผู้ใช้มากกว่า
- ระบบกรองเนื้อหาและฟีเจอร์ควบคุมโดยผู้ปกครองไม่มีประสิทธิภาพอย่างมาก และการตรวจสอบอายุเพื่อป้องกันเด็กก็ล้มเหลว
- ผู้ใช้ Gen Z จำนวนมากก็มี การรับรู้ว่า “ตัวเองเสพติดแต่เลิกไม่ได้” และโดยรวมแล้วผลสุทธิต่อสังคม เป็นลบอย่างมาก
อันตรายต่อเด็กจาก TikTok ในระดับอุตสาหกรรม
คำวินิจฉัยที่กำลังจะมาของศาลสูงสหรัฐฯ ต่อกฎหมายแบน TikTok
- ศาลสูงสหรัฐฯ เตรียมตัดสินใจว่าจะเข้ามาแทรกแซงกฎหมายแบน TikTok หรือไม่
- หากกฎหมายดังกล่าวมีผลใช้บังคับ บริการในสหรัฐฯ จะถูกระงับ เว้นแต่ Bytedance จะขาย TikTok
- อย่างไรก็ตาม หลักฐานเกี่ยวกับอันตรายที่เกิดขึ้นจริง เช่น สุขภาพจิต การแสวงหาประโยชน์จากเด็ก และการเสพติด ถูกกันออกจากการพิจารณาทางกฎหมาย
- ด้วยเหตุนี้ ความสำคัญของการตัดสินโดยสาธารณะ (กระแสความเห็น) จึงถูกเน้นย้ำ
คำให้การของคนวงใน TikTok และเอกสารที่รั่วไหล
คดีของอัยการสูงสุดและเอกสารสำคัญ
- อัยการสูงสุดจาก 14 รัฐ เช่น Kentucky, Utah, Nebraska และ New York ได้ยื่นฟ้อง
- มีการเปิดเผยบทสนทนา Slack ภายใน เอกสารวางแผน และข้อมูลการทดลองจำนวนมาก
- พบการออกแบบและกลยุทธ์อัลกอริทึมที่มุ่งเป้าไปยังวัยรุ่นโดยเจตนา
- ในกรณีของเอกสารที่ถูกปกปิด บางส่วนถูกทำเป็นกล่องดำธรรมดาจนสามารถกู้คืนได้ง่าย
กลุ่มอันตราย 1: การเสพติดและการชักนำให้ใช้งานแบบย้ำคิดย้ำทำ
- TikTok ระบุชัดว่าวัยรุ่นคือกลุ่มเป้าหมายที่สามารถทุ่มเวลาและการมีส่วนร่วมได้มากที่สุด
- ใช้อัลกอริทึมที่ทำให้เสพติด การเลื่อนแบบไม่สิ้นสุด การเล่นอัตโนมัติ และการออกแบบการแจ้งเตือน เพื่อชักนำให้ใช้งานแบบย้ำคิดย้ำทำ
- วัยรุ่นนั้น ไวต่อรางวัลทางสังคมเป็นพิเศษ (เช่น ไลก์และคอมเมนต์) และมีความสามารถในการควบคุมตนเองต่ำ
- พนักงานภายในเองก็แสดงความกังวลว่า “ผลิตภัณฑ์ของเราส่งผลเสียต่อพัฒนาการของเด็ก”
- รายงาน ‘TikTank’ ระบุเป็นพิเศษว่าผู้ใช้วัยรุ่นประสบผลข้างเคียง เช่น ควบคุมตนเองไม่ได้ รบกวนการนอน และความสามารถในการเรียนรู้ลดลง
กลุ่มอันตราย 2: ปัญหาสุขภาพจิตและฟิลเตอร์บับเบิล
- การใช้งานแบบย้ำคิดย้ำทำก่อให้เกิดความวิตกกังวล ภาวะซึมเศร้า การดูหมิ่นตนเอง การทำร้ายตัวเอง และความคิดฆ่าตัวตาย
- บัญชีทดลอง ตกเข้าสู่ฟิลเตอร์บับเบิลที่เต็มไปด้วยเนื้อหาเกี่ยวกับภาวะซึมเศร้า การฆ่าตัวตาย และความผิดปกติด้านการกิน ภายในเวลาเพียง 20 นาที
- TikTok รู้ว่าฟิลเตอร์แต่งหน้าทำให้ภาพลักษณ์ตนเองบิดเบือนและความนับถือตนเองลดลง แต่ก็ยังปล่อยไว้
- ผู้ดูแลเนื้อหาไม่สามารถบล็อกเนื้อหาการทำร้ายตัวเอง/การฆ่าตัวตายได้อย่างเหมาะสม เนื่องจาก ตีความภาษาไม่ได้ ขาดบริบท และมีมาตรฐานที่คลุมเครือ
กลุ่มอันตราย 3: การเผยแพร่สื่อลามก ความรุนแรง และเนื้อหาเกี่ยวกับยาเสพติด
- บัญชีผู้เยาว์ถูกแนะนำสื่อลามก โฆษณายาเสพติด และวิดีโอรุนแรงโดยอัตโนมัติ
- ระบบกรองเนื้อหาของ TikTok ไม่สามารถจัดการภาษารหัสเชิงนัยได้อย่างเหมาะสม
- เอกสารภายในระบุว่า TikTok รับรู้ว่ามีการค้ายา การค้าประเวณี และการฟอกเงินเกิดขึ้นบน TikTok LIVE
- อัยการสูงสุดของ Utah ยกตัวอย่างระหว่างการสอบสวนว่า มีกรณีที่บุตรหลานถูกเข้าหาโดยตรงจากพ่อค้ายา
- เนื้อหาอันตรายร้ายแรงราว 30~100% ไม่ถูกกรองและยังคงถูกเปิดให้เห็น
กลุ่มอันตราย 4: การแสวงหาประโยชน์ทางเพศ, CSAM และการค้าประเวณีเด็กผ่านไลฟ์สด
- TikTok จงใจไม่ติดตั้งเทคโนโลยีตรวจจับสื่อแสวงหาประโยชน์ทางเพศจากเด็ก (CSAM)
- เด็กอายุ 13~15 ปีให้เนื้อหาทางเพศแก่ผู้ใหญ่ใน LIVE แลกกับของขวัญ (สกุลเงินเสมือน)
- TikTok รับรู้เรื่องนี้แต่ปล่อยปละละเลยโดยอ้างเหตุผลเรื่องการทำกำไรและการรักษาการมีส่วนร่วม
- ยังมี ไลฟ์ที่เด็กถือข้อความอย่าง “ไอศกรีม = เลีย, อวกาศ = ถอดเสื้อผ้า” แล้วปรากฏตัวในรายการ
- ฟีเจอร์ LIVE เป็นอันตรายต่อเด็กอย่างมาก แต่ ภายใน TikTok มีการกล่าวว่า “มันทำกำไรดีเกินกว่าจะจำกัดได้”
กลุ่มอันตราย 5: การเพิกเฉยต่อข้อจำกัดอายุและการตอบสนองที่ไม่เพียงพอ
- TikTok มีข้อจำกัดด้านอายุ แต่ แม้จะรู้ว่ามีผู้สมัครอายุต่ำกว่า 13 ปีและเด็กใช้งานอยู่ ก็ไม่ดำเนินการลงโทษ
- การยืนยันอายุแทบไร้ประสิทธิภาพ และผู้เยาว์สามารถโกงอายุได้ง่าย
- ฟีเจอร์ควบคุมโดยผู้ปกครอง (Family Pairing) ก็แทบไม่มีการใช้งานและไม่มีผลคุ้มครองจริง
- มีเอกสารภายในระบุว่า TikTok ใช้ฟีเจอร์ความปลอดภัยเพียงเป็น “เครื่องมือสร้างภาพ” สำหรับรัฐบาลและสื่อ
- การรักษา DAU (จำนวนผู้ใช้ต่อวัน) และอัตราการมีส่วนร่วมคือเป้าหมายหลักของทุกการตัดสินใจ ส่วนความปลอดภัยถูกกันออกจากลำดับความสำคัญ
ความเสียใจและภาวะพึ่งพาจากผู้ใช้วัยหนุ่มสาว
- ผู้ใช้ TikTok จำนวนมากตอบว่า “รู้ว่าตัวเองเสพติดแต่เลิกไม่ได้”
- จากการทดลอง หลายคนตอบว่า “ถ้าทุกคนเลิกพร้อมกัน ฉันก็อยากเลิกอย่างยินดี”
- ในแบบสำรวจของ Harris Poll สัดส่วนผู้ที่ตอบเกี่ยวกับ TikTok ว่า “อยากให้มันไม่เคยมีมาตั้งแต่แรก” อยู่ที่ 47% ซึ่งสูงที่สุดในบรรดาโซเชียลมีเดีย
- TikTok เป็นแพลตฟอร์มที่มีทั้ง คุณสมบัติการเสพติดเชิงพฤติกรรมและการเสพติดทางสังคม และผู้ใช้เองก็รับรู้ว่ามันเป็นอันตรายต่อตน
บทสรุป: ความจำเป็นของการกำกับดูแล TikTok เพื่อคุ้มครองเด็ก
- อันตรายที่เกิดขึ้นบน TikTok ไม่ใช่อุบัติเหตุธรรมดา แต่เป็นผลลัพธ์ที่ถูกออกแบบไว้
- เด็กอเมริกันหลายล้านคนกำลังได้รับ ความเสียหายทางจิตใจและร่างกายอย่างรุนแรงจากการใช้งานตามปกติเท่านั้น
- ภายใต้นโยบายอัลกอริทึมและเนื้อหาในปัจจุบัน TikTok เป็นแพลตฟอร์มที่ล่วงละเมิดความเป็นวัยเด็กโดยตัวมันเอง
- เพื่อประโยชน์ของสังคมอเมริกันโดยรวมด้วย การหยุดให้บริการ TikTok ในวันที่ 19 มกราคมอาจเป็นการเปลี่ยนแปลงในทางบวก
1 ความคิดเห็น
ความเห็นจาก Hacker News
Haidt อาจไม่ใช่คนที่รอบคอบที่สุดในการวิเคราะห์ข้อมูล แต่ในช่วง 10 ปีที่ผ่านมา ข้ออ้างหลักของเขาโดยรวมแล้วกำลังไปในทิศทางที่ถูกต้อง
ตอนที่สำนักงานอัยการสูงสุดรัฐเคนทักกีเผยแพร่รายงานเกี่ยวกับ TikTok ได้ใช้สี่เหลี่ยมสีดำปิดข้อความไว้ แต่กลับสามารถใช้เคอร์เซอร์คัดลอกเพื่ออ่านข้อความที่ซ่อนไว้ได้ เป็นสถานการณ์ที่ชวนขำมาก
แม้จะไม่มีลูก แต่ได้แชร์ประสบการณ์ส่วนตัวว่าเป็นไปได้ที่จะมีวิธีอื่นในการรับมือเรื่องเทคโนโลยีกับเด็ก
รู้สึกตกใจที่เป็นเรื่องปกติซึ่งผู้หญิงอายุน้อยและวัยรุ่นจะได้รับคำขอของขวัญและคอมเมนต์เชิงทำให้เป็นวัตถุทางเพศ ซึ่งอาจส่งผลอย่างมากต่อคนที่อายุต่ำกว่า 18 ปี
สงสัยว่าทำไมรายงานภายในจึงเขียนสิ่งที่ผู้บริหารไม่อยากได้ยิน
คิดว่าวิธีจัดการการปกปิดข้อความของสำนักงานอัยการสูงสุดรัฐเคนทักกีนั้นชวนขำเพราะทำได้ไม่เหมาะสม
คิดว่าคงดีถ้าผู้ปกครองบล็อกบางเว็บไซต์บนอุปกรณ์ของลูก ๆ โดยไม่จำเป็นต้องขยายการเซ็นเซอร์และการสอดส่องให้กว้างขึ้น
แชร์ประสบการณ์ว่าโซเชียลมีเดียเสพติดมากจนต้องบล็อกเอง แม้การดูวิดีโอเพื่อการศึกษาจะมีประโยชน์ แต่การใช้สรุปจาก LLM เพื่อจับใจความที่มีประโยชน์น่าจะดีกว่า