1 คะแนน โดย GN⁺ 2026-02-04 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • หน่วยสืบสวนอาชญากรรมไซเบอร์ ของฝรั่งเศสบุกค้นสำนักงาน X ในปารีส และกำลังสอบสวนข้อกล่าวหาเรื่อง การดึงข้อมูลอย่างผิดกฎหมายและการสมคบกันครอบครองสื่อลามกอนาจารเด็ก
  • Elon Musk และอดีตซีอีโอ Linda Yaccarino ได้รับแจ้งให้เข้าร่วมการไต่สวนในเดือนเมษายน โดย X โต้แย้งว่าการสอบสวนครั้งนี้เป็น “การโจมตีทางการเมือง”
  • Information Commissioner's Office (ICO) ของสหราชอาณาจักร เริ่มการสอบสวนแยกต่างหากเกี่ยวกับเครื่องมือ AI Grok เนื่องจาก ความเป็นไปได้ในการสร้างภาพและวิดีโอเชิงเพศ
  • Ofcom ระบุว่ากำลังจัดการปัญหา การเผยแพร่เซ็กชวลดีปเฟกบนแพลตฟอร์ม X เป็นเรื่องเร่งด่วน แต่ยอมรับว่ามีอำนาจไม่เพียงพอในส่วนที่เกี่ยวข้องกับแชตบอต
  • จากการสอบสวนพร้อมกันในยุโรปและสหราชอาณาจักร ทำให้ ความรับผิดชอบของ X และ Grok ต่อการประมวลผลข้อมูลและการจัดการเนื้อหา กำลังขยายตัวในระดับนานาชาติ

ฝรั่งเศสบุกค้นสำนักงาน X

  • แผนกอาชญากรรมไซเบอร์ของอัยการปารีส เข้าตรวจค้นสำนักงานของ X
    • ข้อกล่าวหารวมถึง การดึงข้อมูลอย่างผิดกฎหมาย, การสมคบกันครอบครองสื่อลามกอนาจารเด็ก, และ การละเมิดสิทธิในภาพลักษณ์ผ่านเซ็กชวลดีปเฟก
    • การสอบสวนเริ่มต้นจากการตรวจสอบ คอนเทนต์ในอัลกอริทึมแนะนำ ของ X เมื่อเดือนมกราคม 2025 และขยายไปยัง AI แชตบอต Grok ในเดือนกรกฎาคมปีเดียวกัน
  • อัยการกำลังสอบสวนว่า X ละเมิดกฎหมายหลายฉบับหรือไม่ และ Musk กับ Yaccarino ได้รับคำสั่งให้เข้าร่วมการไต่สวนในเดือนเมษายน
  • X ระบุในแถลงการณ์ว่าข้อกล่าวหานี้เป็น “การใช้อำนาจในทางที่ผิดซึ่งคุกคามเสรีภาพในการแสดงออก” และปฏิเสธข้อกล่าวหา
    • Musk โพสต์บน X ว่าเป็น “การโจมตีทางการเมือง” ส่วน Yaccarino ระบุว่าเป็น “การตอบโต้ทางการเมืองต่อชาวอเมริกัน

การสอบสวน Grok ในสหราชอาณาจักร

  • Ofcom ของสหราชอาณาจักรยังคงสอบสวนกรณีที่ ภาพเซ็กชวลดีปเฟก ที่สร้างโดย Grok ถูกเผยแพร่บน X
    • ผู้เสียหาย นักการเมือง และกลุ่มรณรงค์ด้านความปลอดภัยออนไลน์เคยวิจารณ์อย่างรุนแรงในเดือนมกราคม
    • หลังจากนั้น X ได้ปิดกั้นพฤติกรรมดังกล่าว และ Ofcom จัดให้เป็น “เรื่องเร่งด่วน”
  • อย่างไรก็ตาม Ofcom ระบุว่าไม่มีอำนาจเพียงพอที่จะสอบสวนโดยตรงเรื่อง การสร้างภาพผิดกฎหมายที่เกี่ยวข้องกับแชตบอต
  • ด้วยเหตุนี้ ICO จึงจะร่วมมือกับ Ofcom เพื่อตรวจสอบ วิธีการประมวลผลข้อมูลส่วนบุคคลของ Grok
    • William Malcolm จาก ICO กล่าวว่า “การที่มีการใช้ข้อมูลส่วนบุคคลโดยไม่ได้รับความยินยอมเพื่อสร้างภาพเชิงเพศ เป็นปัญหาร้ายแรง”
  • ปลายเดือนมกราคม คณะกรรมาธิการยุโรป ก็ประกาศการสอบสวนแยกต่างหากต่อ xAI บริษัทแม่ของ Grok
    • โฆษกของคณะกรรมาธิการระบุว่ากำลังหารือกับทางการฝรั่งเศสเกี่ยวกับการตรวจค้นสำนักงาน X

คำวิจารณ์ของ Pavel Durov

  • Pavel Durov ผู้ก่อตั้ง Telegram วิจารณ์ทางการฝรั่งเศส โดยอ้างว่า “ไม่ใช่ประเทศเสรี
    • เขาโพสต์ว่า “ฝรั่งเศสเป็นประเทศเดียวที่ดำเนินคดีอาญาต่อทุกโซเชียลเน็ตเวิร์กที่ยอมให้มีเสรีภาพ”
  • Durov ถูกจับกุมในฝรั่งเศสเมื่อเดือนสิงหาคม 2024 จากข้อหา ปล่อยปละละเลยกิจกรรมอาชญากรรมบนแพลตฟอร์ม และหลังจากปรับวิธีดำเนินงานบางส่วนแล้ว ก็ได้รับอนุญาตให้ออกจากประเทศในเดือนมีนาคม 2025
    • การเปลี่ยนแปลงดังกล่าวรวมถึง การส่งมอบข้อมูลผู้ใช้เมื่อมีคำขอทางกฎหมาย

1 ความคิดเห็น

 
GN⁺ 2026-02-04
ความคิดเห็นจาก Hacker News
  • ถึงคนที่บอกว่าการ ตรวจค้นยึดของ ทางกายภาพไม่มีความหมาย ผมอยากจะบอกว่า
    ถ้าตั้งอยู่บนสมมติฐานว่าเป็นบริษัทปกติที่ทำตามกฎหมายดี ก็อาจใช่ แต่พอเริ่มทำเรื่องน่าสงสัย แนวปฏิบัติที่ดี ทั้งหมดก็หายไป
    คนจะเขียนอีเมลเหมือนเป็นรหัสหรือไม่ก็ลบมันทิ้ง ซ่อนบันทึกต่าง ๆ แต่สุดท้ายก็ยังมี ร่องรอย เหลืออยู่
    เพราะแบบนี้ การจะตามรอยกิจกรรมที่ซับซ้อนจึงต้องมีการตรวจค้นยึดของจริง

    • นี่ก็เป็นแค่ ขั้นตอนการสืบสวน พื้นฐาน
      ถ้ามีข้อสงสัยว่าเป็นอาชญากรรม ก็ต้องยึดหลักฐาน การฟ้องคดีโดยไม่มีการตรวจค้นยึดของมันไม่สมเหตุสมผล
    • ถ้าเป็นเพียงเพราะ “AI nude” อย่างเดียว ผมว่ามันเกินไป
      ภาพที่ AI สร้างก็เป็นแค่ภาพดิจิทัลปลอม ๆ แต่กลับทำเหมือนกำลังกระตุ้นความโกรธระดับชาติ
      มันก็แค่ของเล่นระดับเด็กผู้ชายวัยรุ่น การทำ โชว์ความโกรธระดับชาติ กับเรื่องนี้มันน่าขัน
    • จริง ๆ แล้วการตรวจค้นยึดของครั้งนี้ดูเหมือนเป็นแค่ เครื่องมือสำหรับลงโทษบริษัท มากกว่า ไม่ได้ตั้งใจจะเอาข้อมูลเกี่ยวกับ Grok จริง ๆ
  • ไม่มีแพลตฟอร์มไหนควรยอมให้มี CSAM (สื่อล่วงละเมิดทางเพศเด็ก)
    แต่ X ไม่ยอมลงทุนกับระบบป้องกันหรือ การกรองเนื้อหา นี่ไม่ใช่เรื่องการเซ็นเซอร์ แต่เป็นเรื่องการหลีกเลี่ยงความรับผิดชอบ

    • ไม่เห็นด้วย ควรลงโทษ ผู้ใช้ มากกว่าคนที่สร้างเครื่องมือ
      ถ้าเริ่มเอาผิดผู้ให้เครื่องมือ สุดท้ายมันจะนำไปสู่ การหดตัวของเสรีภาพ
    • เมื่อก่อน Twitter, BlueSky และ Mastodon ก็มีเนื้อหาแบบนั้นเยอะ ไม่เห็นมีอะไรใหม่
    • ยุค 90 ก็มี CSAM แพร่ในอินเทอร์เน็ต และตอนนั้นสังคมก็ช็อกเหมือนกัน
      แต่ทำไมตอนนี้ถึงออกมาจัดการอย่างแข็งกร้าวแบบกะทันหันก็น่าสงสัย
      เลยอดคิดไม่ได้ว่านี่อาจเป็น “การปราบปรามหลอก ๆ” เพื่อกลบข้อสงสัยเรื่องชนชั้นสูงหลัง คดี Epstein หรือเปล่า
    • เมื่อก่อน CSAM หมายถึงเด็กจริง ๆ แต่ตอนนี้รวม ภาพที่ AI สร้าง ด้วย
      ถ้าอย่างนั้นภาพ AI ที่รุนแรงก็ควรถูกห้ามด้วยไหม? ความโหดระดับภาพยนตร์ถือว่าโอเคหรือเปล่า?
      มันคลุมเครือว่าจะนับว่า “ยอมรับไม่ได้” ถึงตรงไหน
    • ผมไม่เคยเห็น หลักฐาน ว่า Grok สร้าง CSAM จริง
      เคยเห็นแค่ประมาณภาพตัดต่อชุดว่ายน้ำ แต่ตามนิยามทางกฎหมายมันไม่ใช่ CSAM
  • มีข้อกล่าวหาเรื่อง “การฉ้อโกงข้อมูลอย่างเป็นระบบ” ซึ่งถ้าถูกตีความกว้าง ๆ น่าจะกระทบ อุตสาหกรรมโซเชียลมีเดียทั้งวงการ

    • มันดูเป็นการสืบสวนแบบ “ตั้งตัวคนไว้ก่อนแล้วค่อยหา罪”
      ดูเหมือน EU กำลังเดินหน้าเพิ่มการ ควบคุมโซเชียลมีเดียต่างชาติ แบบจีนหรือรัสเซีย
      ถ้าสหรัฐไม่ยอมรับการควบคุมการแสดงออกมากขึ้น EU ก็คงจะดันทางเลือกของตัวเองต่อไป
  • สมกับ HN ทุกคนกำลังถกเถียงกันอย่างดุเดือดเรื่องหลักนิติธรรมกับ CSAM

  • มีรายงานว่า พี่น้องเจ้าของ X/Grok มีความเกี่ยวพันกับผู้ต้องโทษคดีค้าประเวณีเด็ก
    Grok ถึงขั้นถูกเรียกว่าเป็นเครื่องสร้างภาพลามกเด็ก แต่ก็ยังมีคนเมินเฉยโดยบอกว่าเป็นแค่ “ทฤษฎีสมคบคิด”

  • มีข่าวว่าอัยการฝรั่งเศสกำลังสอบสวน X ในหลายข้อหาละเมิดกฎหมาย แต่เรื่องนี้ดูเป็นแค่ แรงกดดันทางการเมือง
    แทบไม่มีประโยชน์อะไรนอกจากรังแกพนักงานท้องถิ่น

    • แต่การยึดบันทึกก็เป็น ขั้นตอนการสืบสวนตามปกติ เช่นกัน
      ระบบยุติธรรมของฝรั่งเศสก็มีเหตุผลดี ดังนั้นถ้าไม่มีหลักฐานพิเศษที่บ่งชี้อย่างอื่น ก็ควรมองว่าเป็นการสืบสวนที่ชอบธรรม
    • มีหลักฐานว่าบริษัท เผยแพร่ CSAM และดีปเฟกลามก จนทำกำไรได้
      ถ้าจะพิสูจน์ว่ามีเจตนาหรือไม่ ก็ต้องมีการตรวจค้นยึดของ
      ประเด็นกฎหมายที่เกี่ยวข้องก็มีพูดถึงใน บทความนี้
    • ถึงอย่างนั้นนี่ก็ยังเป็นแรงกดดันทางการเมืองอยู่ดี EU ไม่ยอมรับความเห็นต่าง
    • OpenAI กับ Google ก็เจอปัญหาคล้ายกัน
      ต่อให้ทุ่มเงินแค่ไหนก็ยากจะหยุด การใช้ AI ในทางที่ผิด ได้อย่างสมบูรณ์
  • ผมสงสัยว่าบุกค้นสำนักงานในฝรั่งเศสแล้วจะหาอะไร เจอ “แผน CSAM ของ Grok” หรือไง?

    • คุณอาจจะแปลกใจ แต่คนจำนวนมากเขียน แผนอาชญากรรมลงในอีเมล จริง ๆ
      ตัวอย่างก็มี เอกสารภายในของ Facebook
    • ดูเหมือนพวกเขาจะพยายามหาบันทึก การตัดสินใจภายใน ว่ารู้หรือไม่ว่า Grok สร้างภาพมีปัญหาได้แต่ก็ปล่อยไว้
    • อาจมีอีเมลจากสาขาฝรั่งเศสที่เตือนสำนักงานใหญ่เรื่องความเป็นไปได้ในการละเมิดกฎหมาย
    • ตาม บทความของ WaPo xAI จงใจ ผ่อนคลายข้อจำกัดด้านเนื้อหาทางเพศ
      ยังมีคำให้การว่าพนักงานฝึกโมเดลด้วยเนื้อหาที่มีความเสี่ยงด้วย
      ทีมสืบสวนจึงน่าจะกำลังหาพวก การสื่อสารภายใน และ คำเตือนที่ถูกเมินเฉย เหล่านี้
    • หลังการเปิดเผย ไฟล์ Epstein ผมคิดว่าความเป็นไปได้ที่จะมี “อีเมลวางแผนอาชญากรรม” อยู่จริงก็สูงขึ้น
  • เหตุการณ์นี้เท่ากับมอบความชอบธรรมให้ฝ่ายที่สนับสนุน การเซ็นเซอร์ AI
    ต่อจากนี้บริษัท AI จะต้องรับผิดชอบที่ ตัวโมเดลเอง มากกว่าที่ผู้ใช้
    สุดท้ายก็น่าจะยิ่งผลักให้ โมเดลปิด และ การยืนยันตัวตน เข้มข้นขึ้น

    • ก็ไม่ต่างจากแพลตฟอร์มอื่น แค่ครั้งนี้ไม่ใช่เรื่อง “การแจกจ่าย” แต่เป็น “การสร้าง”
    • ประเด็นไม่ใช่ว่ามันสร้างได้หรือไม่ แต่คือ รู้ทั้งรู้แล้วยังโปรโมตมัน
      การรับรู้จริงหรือไม่คือแกนสำคัญของความรับผิดทางกฎหมาย
    • ยังน่าสงสัยว่า X ได้ดำเนินการเพียงพอเพื่อหยุดการเผยแพร่เนื้อหาผิดกฎหมายหรือไม่
      พอเพิ่มฟังก์ชันสร้างด้วย AI เข้าไป ก็ยิ่งเหมือน ส่งเสริมการผลิตเนื้อหาผิดกฎหมาย
    • มองว่าไม่ใช่การเซ็นเซอร์ แต่เป็น การลงโทษแพลตฟอร์มที่ไม่สอดคล้องกับแนวทาง
      EU มองแพลตฟอร์มนี้เป็นเสี้ยนหนามตามาตั้งแต่การเข้าซื้อ X แล้ว
    • นี่ไม่ใช่ “การเซ็นเซอร์” แต่เป็นเรื่อง ความรับผิดชอบในการดำเนินงาน ล้วน ๆ
      ถ้าปล่อยทิ้งไว้โดยไม่มีการกรอง นั่นก็เป็นความประมาทชัดเจน
  • ประเด็นนี้น่าจะส่งผลเสียต่อ SpaceX IPO ด้วย

    • ถ้าการสอบสวน xAI กระทบถึง สัญญากับ SpaceX ก็มีโอกาสสูงที่จะตามมาด้วย คดีฟ้องร้อง เรื่องผลประโยชน์ทับซ้อน
  • การที่ “ชาวรัสเซียมาพูดเรื่องเสรีภาพจากในคุกฝรั่งเศส” มันช่างย้อนแย้ง
    ฟังเหมือนเป็นการส่งสัญญาณว่าฝรั่งเศสไม่ต้อนรับอาชญากรแบบนั้น