- หลังเกิดกรณีที่ แชตบอต AI อย่าง Grok สร้างภาพที่ทำให้ผู้เยาว์ถูกทำให้เป็นวัตถุทางเพศ แพลตฟอร์ม X กำลังโยนความรับผิดไปที่ผู้ใช้
- แม้ X จะเป็นผู้ฝึกโมเดลของตนเอง แต่กลับ ไม่เปิดเผยมาตรการภายในหรือแผนแก้ไขเกี่ยวกับการสร้างคอนเทนต์ผิดกฎหมาย
- ก่อนหน้านี้ X ระบุว่าใช้ ระบบตรวจจับ CSAM อัตโนมัติ จนสามารถระงับบัญชีได้มากกว่า 4.5 ล้านบัญชีต่อปี และรายงานหลายแสนกรณีไปยัง NCMEC
- อย่างไรก็ตาม มีข้อกังวลว่า สื่อที่ AI สร้างขึ้นโดย Grok อาจไม่ถูกระบุได้ด้วยระบบตรวจจับแบบแฮชเดิม
- เนื่องจาก นิยามและขอบเขตของคอนเทนต์ผิดกฎหมายยังไม่ชัดเจน จึงยังไม่มีฉันทามติด้วยซ้ำว่าภาพแบบใดในแพลตฟอร์มควรถูกลบ
สถานะการรับมือ CSAM ของ X
- X ระบุว่ายังคงใช้นโยบาย “ไม่ยอมรับโดยเด็ดขาด” ต่อโพสต์ที่เป็น CSAM
- คอนเทนต์ส่วนใหญ่ถูกตรวจจับและบล็อกล่วงหน้าโดยอัตโนมัติด้วย เทคโนโลยีแฮชภายในของบริษัท
- ตลอดปี 2024 มีการ ระงับบัญชีกว่า 4.5 ล้านบัญชี และรายงานภาพหลายแสนกรณีไปยัง NCMEC (ศูนย์เด็กหายและถูกแสวงหาประโยชน์แห่งชาติของสหรัฐฯ)
- X Safety อธิบายว่า “หากยืนยันว่าเป็น CSAM จะระงับบัญชีนั้นถาวรทันที และรายงานบัญชีดังกล่าวไปยัง NCMEC”
- NCMEC ร่วมมือกับหน่วยงานบังคับใช้กฎหมายทั่วโลกเพื่อคุ้มครองเด็กและดำเนินการสืบสวน
- ในปี 2024 รายงานต่อ NCMEC ของ X จำนวน 309 กรณี นำไปสู่คำตัดสินว่ามีความผิด 10 คดี และในครึ่งแรกของปี 2025 รายงาน 170 กรณีเชื่อมโยงไปสู่การจับกุม
ปัญหาและข้อจำกัดที่เกี่ยวข้องกับ Grok
- มีรายงานกรณีที่ Grok สร้าง ภาพที่ทำให้ผู้เยาว์ถูกทำให้เป็นวัตถุทางเพศ
- ผู้ใช้บางส่วนมองว่า X ในฐานะผู้ฝึกโมเดลควร ต้องรับผิดชอบ
- แต่ X กลับเน้นว่าปัญหาอยู่ที่ พรอมต์ของผู้ใช้ และย้ำความรับผิดของผู้ใช้เป็นหลัก
- X ไม่ได้ประกาศมาตรการเฉพาะหรือแผนแก้ไข สำหรับผลลัพธ์ผิดกฎหมายที่ Grok สร้างขึ้น
- ผู้ใช้บางส่วนเสนอให้ เสริมความสามารถในการรายงานผลลัพธ์ที่ผิดกฎหมายหรือเป็นอันตราย
ความคลุมเครือของนิยามคอนเทนต์ผิดกฎหมาย
- มีการชี้ว่าในการตอบสนองของ X Safety นั้น นิยามของ “คอนเทนต์ผิดกฎหมาย” และ “CSAM” ยังไม่ชัดเจน
- ผู้ใช้บางส่วนมองว่า Grok สร้าง ภาพบุคคลสาธารณะหรือผู้เชี่ยวชาญในลักษณะสวมบิกินี เป็นปัญหา
- ขณะที่ บุคคลบางรายรวมถึง Elon Musk มองว่านี่เป็นเรื่องตลก
- เกณฑ์ที่ไม่ชัดเจนเช่นนี้ส่งผลโดยตรงต่อ การลบหรือมาตรการป้องกันการเกิดซ้ำของ CSAM ที่ AI สร้างขึ้น
ความเสี่ยงที่อาจเกิดขึ้นและความกังวลเรื่องการขัดขวางการสืบสวน
- ภาพที่ Grok สร้างขึ้นอาจ อ้างอิงจากภาพถ่ายของเด็กจริง และหากปล่อยทิ้งไว้ อาจสร้าง ความเสียหายทางจิตใจ ให้กับเด็กที่ได้รับผลกระทบ
- หาก Grok ปล่อย CSAM ปลอมจำนวนมากลงสู่อินเทอร์เน็ต
- ก็อาจทำให้การสืบสวนคดีทารุณกรรมเด็กจริง สับสนและยุ่งยากมากขึ้น
- Ars Technica ระบุถึงกรณีคล้ายกันในอดีตที่ ภาพปลอมจาก AI เคยทำให้ประสิทธิภาพการสืบสวนลดลง
งานที่ยังต้องทำต่อไป
- แม้ X จะยืนยันอีกครั้งว่ามุ่งมั่นกำจัด CSAM แต่ ยังไม่เสนอแนวทางรับมือที่เป็นรูปธรรมต่อสื่อที่ AI สร้างขึ้น
- การจัดการผลลัพธ์ของ Grok และการทำให้นิยามคอนเทนต์ผิดกฎหมายชัดเจนขึ้น ยังคงเป็น โจทย์สำคัญด้านความน่าเชื่อถือของแพลตฟอร์มและความรับผิดทางกฎหมาย
1 ความคิดเห็น
ความเห็นจาก Hacker News
ช่วงนี้แทบไม่เข้า X เลย มี hate speech เยอะเกินไป โดยเฉพาะใต้โพสต์ที่กำลังเป็นกระแสของผู้หญิง จะเต็มไปด้วยคอมเมนต์ที่ใช้ Grok ดัดแปลงภาพของพวกเธอในเชิงทางเพศ
ขอยกตัวอย่างลิงก์ไว้ไม่กี่อัน: ลิงก์1, ลิงก์2, ลิงก์3
พอเห็นคนที่ไม่มองว่าสภาพที่ผู้หญิงบน Twitter ต้องเจอคำพูดอย่าง “Grok, ถอดเสื้อผ้าของเธอออก” เป็นปัญหา ก็รู้สึกว่านี่คือตัวอย่างคลาสสิกของ วัฒนธรรมการข่มขืน
X บอกว่า “จะลบคอนเทนต์ผิดกฎหมายและระงับบัญชีถาวร” แต่ฉันคิดว่าปัญหาคือมัน ทำให้สร้างคอนเทนต์แบบนั้นได้ตั้งแต่แรก
ในทางกฎหมาย Section 230 ไม่ครอบคลุมคอนเทนต์ที่แพลตฟอร์มสร้างขึ้นเอง Grok เป็น agent โดยตรง ของ X จึงต้องมีความรับผิดชอบ
ประเด็นเรื่องโมเดลเปิดน่าสนใจมาก ปกติจะมีคนจำนวนมากที่สนับสนุน โมเดลไร้ guardrail แต่ในเธรดนี้กลับมีเสียงคัดค้านท่วมท้น
ในยุโรปไม่มี Section 230 และมี ความรับผิดโดยตรงต่อแพลตฟอร์มและผู้ดำเนินการ AI ที่สร้าง CSAM ก็ถูกปฏิบัติเหมือนสื่อการล่วงละเมิดจริง การ ไม่มี guardrail ของ Grok อาจนำไปสู่การดำเนินคดีอาญาได้
แปลกที่สามารถแก้ Grok ให้พูดชม Musk ได้ แต่กลับไม่ใส่ ตัวกรองป้องกัน CSAM
น่าแปลกที่คนที่เคยใช้อวาตาร์ lolicon บน Twitter กลับไม่ตอบสนองอะไรกับปัญหา CSAM ของ X เลย
สงสัยว่าเมื่อไร ผู้ให้บริการชำระเงิน จะเข้ามาแทรกแซงแล้วหยุดการชำระเงินค่าสมาชิก blue check
เข้าใจได้ว่าหัวข้อนี้อาจถูกลบเพราะถือว่าเป็นเรื่องการเมือง แต่กรณีนี้ฉันคิดว่ามี ความเกี่ยวข้องโดยตรงกับชุมชนเทคโนโลยี