1 คะแนน โดย GN⁺ 2026-01-07 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • หลังเกิดกรณีที่ แชตบอต AI อย่าง Grok สร้างภาพที่ทำให้ผู้เยาว์ถูกทำให้เป็นวัตถุทางเพศ แพลตฟอร์ม X กำลังโยนความรับผิดไปที่ผู้ใช้
  • แม้ X จะเป็นผู้ฝึกโมเดลของตนเอง แต่กลับ ไม่เปิดเผยมาตรการภายในหรือแผนแก้ไขเกี่ยวกับการสร้างคอนเทนต์ผิดกฎหมาย
  • ก่อนหน้านี้ X ระบุว่าใช้ ระบบตรวจจับ CSAM อัตโนมัติ จนสามารถระงับบัญชีได้มากกว่า 4.5 ล้านบัญชีต่อปี และรายงานหลายแสนกรณีไปยัง NCMEC
  • อย่างไรก็ตาม มีข้อกังวลว่า สื่อที่ AI สร้างขึ้นโดย Grok อาจไม่ถูกระบุได้ด้วยระบบตรวจจับแบบแฮชเดิม
  • เนื่องจาก นิยามและขอบเขตของคอนเทนต์ผิดกฎหมายยังไม่ชัดเจน จึงยังไม่มีฉันทามติด้วยซ้ำว่าภาพแบบใดในแพลตฟอร์มควรถูกลบ

สถานะการรับมือ CSAM ของ X

  • X ระบุว่ายังคงใช้นโยบาย “ไม่ยอมรับโดยเด็ดขาด” ต่อโพสต์ที่เป็น CSAM
    • คอนเทนต์ส่วนใหญ่ถูกตรวจจับและบล็อกล่วงหน้าโดยอัตโนมัติด้วย เทคโนโลยีแฮชภายในของบริษัท
    • ตลอดปี 2024 มีการ ระงับบัญชีกว่า 4.5 ล้านบัญชี และรายงานภาพหลายแสนกรณีไปยัง NCMEC (ศูนย์เด็กหายและถูกแสวงหาประโยชน์แห่งชาติของสหรัฐฯ)
  • X Safety อธิบายว่า “หากยืนยันว่าเป็น CSAM จะระงับบัญชีนั้นถาวรทันที และรายงานบัญชีดังกล่าวไปยัง NCMEC”
    • NCMEC ร่วมมือกับหน่วยงานบังคับใช้กฎหมายทั่วโลกเพื่อคุ้มครองเด็กและดำเนินการสืบสวน
  • ในปี 2024 รายงานต่อ NCMEC ของ X จำนวน 309 กรณี นำไปสู่คำตัดสินว่ามีความผิด 10 คดี และในครึ่งแรกของปี 2025 รายงาน 170 กรณีเชื่อมโยงไปสู่การจับกุม

ปัญหาและข้อจำกัดที่เกี่ยวข้องกับ Grok

  • มีรายงานกรณีที่ Grok สร้าง ภาพที่ทำให้ผู้เยาว์ถูกทำให้เป็นวัตถุทางเพศ
    • ผู้ใช้บางส่วนมองว่า X ในฐานะผู้ฝึกโมเดลควร ต้องรับผิดชอบ
    • แต่ X กลับเน้นว่าปัญหาอยู่ที่ พรอมต์ของผู้ใช้ และย้ำความรับผิดของผู้ใช้เป็นหลัก
  • X ไม่ได้ประกาศมาตรการเฉพาะหรือแผนแก้ไข สำหรับผลลัพธ์ผิดกฎหมายที่ Grok สร้างขึ้น
    • ผู้ใช้บางส่วนเสนอให้ เสริมความสามารถในการรายงานผลลัพธ์ที่ผิดกฎหมายหรือเป็นอันตราย

ความคลุมเครือของนิยามคอนเทนต์ผิดกฎหมาย

  • มีการชี้ว่าในการตอบสนองของ X Safety นั้น นิยามของ “คอนเทนต์ผิดกฎหมาย” และ “CSAM” ยังไม่ชัดเจน
    • ผู้ใช้บางส่วนมองว่า Grok สร้าง ภาพบุคคลสาธารณะหรือผู้เชี่ยวชาญในลักษณะสวมบิกินี เป็นปัญหา
    • ขณะที่ บุคคลบางรายรวมถึง Elon Musk มองว่านี่เป็นเรื่องตลก
  • เกณฑ์ที่ไม่ชัดเจนเช่นนี้ส่งผลโดยตรงต่อ การลบหรือมาตรการป้องกันการเกิดซ้ำของ CSAM ที่ AI สร้างขึ้น

ความเสี่ยงที่อาจเกิดขึ้นและความกังวลเรื่องการขัดขวางการสืบสวน

  • ภาพที่ Grok สร้างขึ้นอาจ อ้างอิงจากภาพถ่ายของเด็กจริง และหากปล่อยทิ้งไว้ อาจสร้าง ความเสียหายทางจิตใจ ให้กับเด็กที่ได้รับผลกระทบ
  • หาก Grok ปล่อย CSAM ปลอมจำนวนมากลงสู่อินเทอร์เน็ต
    • ก็อาจทำให้การสืบสวนคดีทารุณกรรมเด็กจริง สับสนและยุ่งยากมากขึ้น
    • Ars Technica ระบุถึงกรณีคล้ายกันในอดีตที่ ภาพปลอมจาก AI เคยทำให้ประสิทธิภาพการสืบสวนลดลง

งานที่ยังต้องทำต่อไป

  • แม้ X จะยืนยันอีกครั้งว่ามุ่งมั่นกำจัด CSAM แต่ ยังไม่เสนอแนวทางรับมือที่เป็นรูปธรรมต่อสื่อที่ AI สร้างขึ้น
  • การจัดการผลลัพธ์ของ Grok และการทำให้นิยามคอนเทนต์ผิดกฎหมายชัดเจนขึ้น ยังคงเป็น โจทย์สำคัญด้านความน่าเชื่อถือของแพลตฟอร์มและความรับผิดทางกฎหมาย

1 ความคิดเห็น

 
GN⁺ 2026-01-07
ความเห็นจาก Hacker News
  • ช่วงนี้แทบไม่เข้า X เลย มี hate speech เยอะเกินไป โดยเฉพาะใต้โพสต์ที่กำลังเป็นกระแสของผู้หญิง จะเต็มไปด้วยคอมเมนต์ที่ใช้ Grok ดัดแปลงภาพของพวกเธอในเชิงทางเพศ
    ขอยกตัวอย่างลิงก์ไว้ไม่กี่อัน: ลิงก์1, ลิงก์2, ลิงก์3

    • คอมเมนต์จากบัญชีที่ยืนยันตัวตนแบบเสียเงินจะถูกดันขึ้นบนสุดตลอด ทำให้คำพูดสุดโต่งถูกมองเห็นเด่นมาก ซึ่งน่ารังเกียจมาก
    • ฉันเองก็แทบไม่ใช้ X เหมือนกัน แต่พอลองดูคอมเมนต์ของ Grok โดยตรงแล้ว ปัญหานี้แพร่หลายค่อนข้าง กว้างขวาง ไม่ได้เกิดกับผู้หญิงอย่างเดียว แต่เกิดกับผู้ชายด้วย ถึงอย่างนั้นเวอร์ชันสีจิ้นผิงใส่บิกินีก็ขำอยู่ แต่ วัฒนธรรมแห่งความเกลียดชัง แบบนี้ก็ยังร้ายแรงมาก
    • ช่วงนี้บน X มีมีม Grok แบบนี้แพร่กระจายเหมือนเป็นกระแส แม้โพสต์ของผู้ชายก็โดนคล้ายกัน แต่ก็ไม่ได้แปลว่ายอมรับได้
    • เพิ่งเปิดบัญชี Twitter อีกครั้งหลังจากนานมาก ฟีดเต็มไปด้วย ทฤษฎีสมคบคิดและการเหยียดเชื้อชาติ ทั้งปฏิเสธการเปลี่ยนแปลงสภาพภูมิอากาศ แนวคิดคนผิวขาวเหนือกว่า และทฤษฎีสมคบคิดเรื่องวัคซีน ตกใจมากที่นี่ถูกมองว่าเป็นแหล่งข่าวหลักของอินเทอร์เน็ต
    • X เคยติดต่อมาว่าอยากซื้อ OG username ของฉัน แต่พอฉันบอกให้มาเจรจากัน กลับยกข้อกำหนดการใช้งานขึ้นมาแล้วแย่งบัญชีไปเลย เหลือเชื่อจริงๆ
  • พอเห็นคนที่ไม่มองว่าสภาพที่ผู้หญิงบน Twitter ต้องเจอคำพูดอย่าง “Grok, ถอดเสื้อผ้าของเธอออก” เป็นปัญหา ก็รู้สึกว่านี่คือตัวอย่างคลาสสิกของ วัฒนธรรมการข่มขืน

    • เธรดนี้ทำให้โกรธมาก คนที่พยายามปกป้อง X กำลังเมินความจริงอยู่ Grok สามารถถูกนำไปใช้ในทางที่ผิดเป็น เครื่องมือสร้างสื่อลามกที่รวมถึงผู้เยาว์ ได้ แต่บนแพลตฟอร์ม AI อื่นแทบไม่เห็นปัญหาแบบนี้
    • คิดว่าหนึ่งในเป้าหมายของกลุ่มอย่าง Musk และ Miller คือการทำให้ผู้หญิง กลัวที่จะพูดในพื้นที่สาธารณะ
  • X บอกว่า “จะลบคอนเทนต์ผิดกฎหมายและระงับบัญชีถาวร” แต่ฉันคิดว่าปัญหาคือมัน ทำให้สร้างคอนเทนต์แบบนั้นได้ตั้งแต่แรก

    • ฉันก็ใช้ AI แต่สามารถตั้งค่าไม่ให้มีคอนเทนต์แบบนี้ออกมาได้ สุดท้ายถ้าปัญหาอยู่ที่อินพุต ความรับผิดชอบก็ควรเป็นของ ทั้งผู้ใช้และแพลตฟอร์ม
    • ดูเหมือนจะไม่ได้ตั้งแม้แต่ system prompt ให้ Grok ปฏิเสธคำขอแบบนี้
    • ตั้งแต่สมัย API เก่าก็มี CSAM (สื่อแสวงหาประโยชน์ทางเพศจากเด็ก) ล้นอยู่แล้ว และตอนนี้ก็ยังคงมีหลงเหลืออยู่ในที่อย่าง tk2dl
    • ถ้าจะเอาจริงก็ควร ดำเนินคดีอาญา กับผู้ใช้แบบนี้ ทำไมอัยการสูงสุดของแต่ละรัฐถึงเงียบอยู่ก็น่าสงสัย
    • เคยมีกรณีที่ Elon เข้าไปแทรกแซงโดยตรงแล้ว กู้คืนบัญชีที่ถูกระงับ ด้วย บทความที่เกี่ยวข้อง
  • ในทางกฎหมาย Section 230 ไม่ครอบคลุมคอนเทนต์ที่แพลตฟอร์มสร้างขึ้นเอง Grok เป็น agent โดยตรง ของ X จึงต้องมีความรับผิดชอบ

    • CSAM เป็นความผิดทางอาญา จึงไม่ได้รับความคุ้มครองจาก Section 230 และเพราะ Grok เป็นส่วนหนึ่งของ X จึง ไม่อาจได้รับการยกเว้นความรับผิด ได้ แต่บริษัท AI รายใหญ่ก็น่าจะล็อบบี้เพื่อขอ ข้อยกเว้นทางกฎหมาย สูงมาก
    • ในเนเธอร์แลนด์ การสร้าง ภาพทางเพศโดยไม่ได้รับความยินยอม แบบนี้ถือเป็นการหมิ่นประมาท ทั้งผู้โพสต์และผู้สร้างมีโทษ ถ้าเป็นกรณีอย่าง X ที่ผู้โพสต์กับผู้สร้างเป็นคนเดียวกัน ผลทางกฎหมายก็น่าจะน่าสนใจมาก
    • ภาพที่เป็นปัญหานั้น ไม่ได้ถูกผู้ใช้โพสต์ แต่ถูกโพสต์โดย Grok (X) โดยตรง
  • ประเด็นเรื่องโมเดลเปิดน่าสนใจมาก ปกติจะมีคนจำนวนมากที่สนับสนุน โมเดลไร้ guardrail แต่ในเธรดนี้กลับมีเสียงคัดค้านท่วมท้น

    • ฉันก็คิดว่าโมเดลเปิดจำเป็น แต่สำหรับ AI แบบฝังในแพลตฟอร์มที่คนทั่วไปเข้าถึงได้ง่าย ก็ควรมีมาตรการความปลอดภัย เหมือน Android ที่ติดตั้ง apk เองได้ แต่สโตร์หลักก็ยังมี ตัวกรองความปลอดภัย
    • สิ่งสำคัญคือการหาสมดุลระหว่างการเปิดให้เข้าถึงกับการป้องกันการนำไปใช้ในทางที่ผิด
    • การสนับสนุนการเข้าถึงแบบไร้ guardrail กับการวิจารณ์การนำสิ่งนั้นไปใช้ผิดทางเป็นคนละเรื่องกัน การอนุญาตให้ใช้ Photoshop ไม่ได้หมายความว่าอนุญาตให้ทำ revenge porn
    • คนส่วนใหญ่พูดถึงความเปิดของ LLM ไม่ได้หมายถึงการปล่อยให้ใช้โมเดลภาพและวิดีโอได้อย่างไร้ข้อจำกัด นอกจากการป้องกัน CSAM แล้วก็สงสัยว่าจำเป็นต้องมีข้อจำกัดอะไรอีกไหม
    • Grok ของ X ที่ทำเชิงพาณิชย์นั้นดำเนินการเป็น บริการแบบเสียเงิน จึงต่างจากโมเดลเปิดธรรมดา ควรมองเหมือนความต่างระหว่าง “ผู้ผลิตสื่อลามก” กับ “ผู้ใช้ Photoshop”
    • เวลาพูดถึงเรื่องที่เกี่ยวกับ Musk มักจะมี ปฏิกิริยาเชิงอารมณ์ เยอะเสมอ ครั้งนี้ก็คงเพราะกระแสต่อต้าน Musk ด้วย ทำให้สัดส่วนความเห็นออกมาต่างจากปกติ
  • ในยุโรปไม่มี Section 230 และมี ความรับผิดโดยตรงต่อแพลตฟอร์มและผู้ดำเนินการ AI ที่สร้าง CSAM ก็ถูกปฏิบัติเหมือนสื่อการล่วงละเมิดจริง การ ไม่มี guardrail ของ Grok อาจนำไปสู่การดำเนินคดีอาญาได้

    • Grok โพสต์จากเซิร์ฟเวอร์ของ X โดยตรง ดังนั้น X จะอ้างว่าเป็น “การอัปโหลดโดยผู้ใช้” ไม่ได้ ถ้าเป็นพนักงานใช้ Photoshop ทำภาพแบบนั้นแล้วอัปโหลด X ก็ต้องรับผิดอยู่ดี
    • แต่ก็ยังสงสัยว่ายุโรปจะลงมืออย่างจริงจังหรือไม่ เพราะอาจคำนึงถึงความสัมพันธ์กับสหรัฐฯ แล้วจบที่ มาตรการเชิงสัญลักษณ์
    • อย่างไรก็ตาม ในยุโรปก็มีข้อคุ้มครองลักษณะคล้ายกันผ่าน E-Commerce Directive และ Digital Service Act
  • แปลกที่สามารถแก้ Grok ให้พูดชม Musk ได้ แต่กลับไม่ใส่ ตัวกรองป้องกัน CSAM

    • ในความเป็นจริง Grok ถูกตั้งค่าให้ชม Musk และ Hitler ด้วย ซึ่งหมายความว่าการ ยอมให้มีคอนเทนต์แบบนี้เป็นการตัดสินใจโดยเจตนา
    • Grok ก็สามารถด่า Musk หรือทำให้เขาใส่บิกินีได้เหมือนกัน ดูเหมือนควบคุมแทบไม่ได้เลย
  • น่าแปลกที่คนที่เคยใช้อวาตาร์ lolicon บน Twitter กลับไม่ตอบสนองอะไรกับปัญหา CSAM ของ X เลย

    • แต่ก็ยังสงสัยว่าจริงๆ แล้วพวกเขาทำอะไรได้แค่ไหน หรือแค่แสดง ท่าทีเชิงศีลธรรม เท่านั้น
  • สงสัยว่าเมื่อไร ผู้ให้บริการชำระเงิน จะเข้ามาแทรกแซงแล้วหยุดการชำระเงินค่าสมาชิก blue check

    • บางทีนั่นอาจเป็น แรงกดดันเพียงอย่างเดียว ที่จะหยุด X ได้
  • เข้าใจได้ว่าหัวข้อนี้อาจถูกลบเพราะถือว่าเป็นเรื่องการเมือง แต่กรณีนี้ฉันคิดว่ามี ความเกี่ยวข้องโดยตรงกับชุมชนเทคโนโลยี

    • วงการ venture capital เองก็ มีอคติทางการเมือง อยู่แล้ว เลยดูเหมือนจะอึดอัดกับการยกปัญหาแบบนี้ขึ้นมาพูด