1 คะแนน โดย GN⁺ 2 시간 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • คนงาน Sama ในเคนยาที่ตรวจสอบคอนเทนต์จากแว่นอัจฉริยะเพื่อฝึก AI กำลังอยู่ท่ามกลางข้อพิพาทที่คาดว่าจะนำไปสู่การเลิกจ้าง 1,108 คน หลัง Meta ยุติสัญญา
  • การยุติสัญญาเกิดขึ้นไม่ถึงสองเดือนหลังคนงานกล่าวว่าพวกเขาเห็นฉากเข้าห้องน้ำและมีเพศสัมพันธ์ของผู้ใช้ในวิดีโอจากแว่น Meta
  • Meta ระบุว่า Sama ไม่ผ่านมาตรฐานการดำเนินงาน ขณะที่ Sama โต้แย้งว่าได้ปฏิบัติตามมาตรฐานด้านการดำเนินงาน ความปลอดภัย และคุณภาพสำหรับงานของลูกค้ารวมถึง Meta มาโดยตลอด และไม่เคยได้รับการแจ้งว่าไม่ผ่านมาตรฐาน
  • Meta ระบุว่าคอนเทนต์จากแว่นอัจฉริยะที่ผู้ใช้แชร์กับ Meta AI อาจถูกแรงงานรับจ้างช่วงตรวจสอบเป็นครั้งคราว และการตรวจสอบโดยมนุษย์เพื่อปรับปรุงประสิทธิภาพของผลิตภัณฑ์นั้นได้รับความยินยอมจากผู้ใช้อย่างชัดเจน
  • ICO ของสหราชอาณาจักรและคณะกรรมการคุ้มครองข้อมูลของเคนยาได้เข้ามาตอบสนองต่อข้อกังวลด้านความเป็นส่วนตัว และเมื่อประกอบกับข้อถกเถียงจากสัญญา moderation คอนเทนต์ Facebook ก่อนหน้านี้ของ Sama ก็ยิ่งสะท้อนความเสี่ยงของแรงงานข้อมูล AI

ประเด็นข้อพิพาทเรื่องการยุติสัญญาระหว่าง Meta กับ Sama

  • Meta ยุติสัญญาขนาดใหญ่กับ Sama ซึ่งเคยใช้ในงานฝึก AI และ Sama ประเมินว่าการตัดสินใจนี้จะทำให้มีการเลิกจ้าง1,108 คน
  • การยุติสัญญาเกิดขึ้นไม่ถึงสองเดือนหลังคนงานของ Sama ในเคนยาระบุว่าพวกเขาได้เห็นฉากผู้ใช้เข้าห้องน้ำและมีเพศสัมพันธ์ในวิดีโอจากแว่นอัจฉริยะของ Meta
  • Meta ระบุว่ายุติสัญญาเพราะ Sama ไม่ผ่านมาตรฐานการดำเนินงานของบริษัท
  • Sama โต้ว่าได้ปฏิบัติตามมาตรฐานด้านการดำเนินงาน ความปลอดภัย และคุณภาพที่ลูกค้ารวมถึง Meta กำหนดไว้อย่างต่อเนื่อง และไม่เคยได้รับแจ้งว่าไม่ผ่านมาตรฐาน
  • องค์กรแรงงานในเคนยามองว่าการตัดสินใจของ Meta เกิดจากการที่พนักงานออกมาพูดต่อสาธารณะ แต่ Meta ไม่ได้ตอบข้อสงสัยนี้โดยตรง

การตรวจสอบวิดีโอจากแว่นอัจฉริยะและปัญหาข้อมูลส่วนบุคคล

  • ในรายงานสืบสวนของสื่อสวีเดน Svenska Dagbladet และ Goteborgs-Posten ช่วงปลายเดือนกุมภาพันธ์ คนงานนิรนามเปิดเผยว่าพวกเขาได้ตรวจสอบวิดีโอที่ถ่ายด้วยแว่น Meta
  • คนงานคนหนึ่งกล่าวว่า “เราเห็นทุกอย่างตั้งแต่ห้องนั่งเล่นไปจนถึงภาพเปลือย” และบอกว่าวิดีโอยังรวมถึงฉากเข้าห้องน้ำและมีเพศสัมพันธ์ด้วย
  • Meta ยอมรับว่าคอนเทนต์จากแว่นอัจฉริยะที่ผู้ใช้แชร์กับ Meta AI อาจถูกแรงงานรับจ้างช่วงตรวจสอบเป็นครั้งคราว
  • Meta มองว่าการตรวจสอบนี้มีเป้าหมายเพื่อปรับปรุงประสบการณ์ลูกค้า และเป็นแนวปฏิบัติที่พบได้ทั่วไปในบริษัทอื่นด้วย
  • ในถ้อยแถลงที่ส่งให้ BBC Meta ระบุว่ารูปภาพและวิดีโอเป็นข้อมูลส่วนตัวสำหรับผู้ใช้ และการตรวจสอบคอนเทนต์ AI โดยมนุษย์เพื่อปรับปรุงประสิทธิภาพของผลิตภัณฑ์นั้นได้รับความยินยอมจากผู้ใช้อย่างชัดเจน

หน่วยงานกำกับดูแลและความเสี่ยงจากการใช้งานผลิตภัณฑ์

  • หลังรายงานจากสวีเดนเผยแพร่ออกมา ICO หน่วยงานกำกับดูแลข้อมูลของสหราชอาณาจักรมองว่าเรื่องนี้ “น่ากังวล” และส่งจดหมายถึง Meta
  • คณะกรรมการคุ้มครองข้อมูลของเคนยาก็เริ่มสอบสวนข้อกังวลด้านความเป็นส่วนตัวที่เกิดจากแว่นอัจฉริยะเช่นกัน
  • Meta เปิดตัวกลุ่มผลิตภัณฑ์แว่นตา AI ร่วมกับ Ray-Ban และ Oakley ในเดือนกันยายน
  • ฟีเจอร์มีทั้งการแปลข้อความ การตอบคำถามเกี่ยวกับสิ่งที่ผู้ใช้กำลังมองอยู่ และอาจมีประโยชน์อย่างมากต่อผู้พิการทางสายตาหรือผู้มีสายตาเลือนราง
  • เมื่ออุปกรณ์ได้รับความนิยมมากขึ้นความกังวลเรื่องการนำไปใช้ในทางที่ผิดก็เพิ่มขึ้น และในเคนยายังถูกโยงกับกรณีการถ่ายภาพผู้หญิงโดยไม่ได้รับความยินยอม
  • แว่น Meta มีโครงสร้างให้ไฟแสดงสถานะที่มุมกรอบติดขึ้นเมื่อกล้องในตัวกำลังบันทึก

แรงงานติดป้ายกำกับข้อมูลและข้อถกเถียงจากสัญญาก่อนหน้า

  • คนงานของ Sama ทำหน้าที่เป็น data annotator ติดป้ายกำกับคอนเทนต์ด้วยมือเพื่อให้ Meta AI ตีความภาพได้ และยังตรวจสอบ transcript ของการโต้ตอบกับ AI ด้วย
  • ตามคำบอกเล่าของคนงานรายหนึ่ง แว่นของผู้ชายคนหนึ่งยังคงบันทึกอยู่ในห้องนอน ก่อนจะมีภาพผู้หญิงที่ดูเหมือนเป็นภรรยาของเขาถอดเสื้อผ้า
  • Sama เป็นบริษัทเอาต์ซอร์สที่มีสำนักงานใหญ่ในสหรัฐฯ เริ่มต้นจากองค์กรไม่แสวงหากำไรที่มุ่งขยายการจ้างงานผ่านการสร้างงานด้านเทคโนโลยี และปัจจุบันดำเนินงานในฐานะ B-corp ที่ระบุว่า “ethical”
  • สัญญา moderation คอนเทนต์สำหรับ Facebook ระหว่าง Meta กับ Sama ก่อนหน้านี้ก็เคยถูกวิจารณ์และนำไปสู่การดำเนินคดีโดยอดีตพนักงาน โดยบางคนระบุว่าถูกเปิดรับคอนเทนต์โจ่งแจ้งและกระทบกระเทือนจิตใจ
  • ต่อมา Sama ระบุว่าเสียใจกับการรับงานดังกล่าว
  • Naftali Wambalo จาก Africa Tech Workers Movement ระบุว่าเขาได้ติดต่อกับคนงานในสัญญาแว่นอัจฉริยะด้วย และเชื่อว่า Meta ไม่ต้องการให้ข้อเท็จจริงที่ว่ามนุษย์เป็นผู้ตรวจสอบคอนเทนต์จากแว่นอัจฉริยะถูกเปิดเผย
  • Wambalo ระบุว่ามาตรฐานที่ Meta กล่าวถึงนั้น “ใกล้เคียงกับมาตรฐานการรักษาความลับ” มากกว่า
  • ก่อนหน้านี้ Meta เคยระบุว่าในเงื่อนไขการให้บริการ ผู้ใช้สามารถรับรู้ได้ว่ามีความเป็นไปได้ที่จะมีการตรวจสอบโดยมนุษย์
  • Mercy Mutemi จาก Oversight Lab มองว่าถ้อยแถลงของ Meta ควรเป็นสัญญาณเตือนต่อรัฐบาลเคนยา และรากฐานที่ถูกนำเสนอว่าเป็นทางเข้าสู่ระบบนิเวศ AI นั้นเปราะบางอย่างยิ่ง

1 ความคิดเห็น

 
GN⁺ 2 시간 전
ความเห็นจาก Hacker News
  • Meta ยกเลิกสัญญากับบริษัทเอาต์ซอร์สที่รับหน้าที่คัดแยกคอนเทนต์ของแว่นอัจฉริยะ หลังจากพนักงานของบริษัทนั้นออกมาเปิดโปงปัญหาความเป็นส่วนตัวร้ายแรงของคอนเทนต์ที่ต้องคัดแยกภายในองค์กร

    • เกร็ดโบนัสที่ “น่าสนใจ”: Sama ไม่ได้เจอปัญหาแบบนี้เป็นครั้งแรก
      OpenAI เคยจ้างให้คัดแยก CSAM และ Sama ก็ยุติ OpenAI ในฐานะลูกค้าไปในปี 2022: https://time.com/6247678/openai-chatgpt-kenya-workers/
      ผ่านมาอีก 4 ปี และ 3 ปีหลังรายงานชิ้นนั้นออกมา วิธีดำเนินงานของบริษัทเทคก็ยังไม่ดีขึ้นแม้แต่น้อย
    • ฟังดูถูกต้องเลย ถ้าคุณรู้จักใครที่ใส่แว่นอัจฉริยะแบบนี้ สิ่งสำคัญคืออย่ายอมรับมันเป็นอันขาด
      อย่าพูดคุยหรือมีปฏิสัมพันธ์ด้วย และไม่แนะนำแม้แต่จะอยู่ในพื้นที่เดียวกัน
    • Mark Zuckerberg กับการเมินเฉยต่อความเป็นส่วนตัวของผู้ใช้ เป็นคู่ผสมที่สื่อความหมายได้ตรงตัวที่สุดเท่าที่นึกออก
    • ถึงจะบอกว่าเป็น “คอนเทนต์ที่ได้รับเงินให้คัดแยก” แต่สหภาพแรงงานเคนยามองว่าการตัดสินใจของ Meta เกิดขึ้นเพราะพนักงานออกมาพูดเรื่องนี้ต่อสาธารณะ
      Meta บอกว่าเป็นเพราะ Sama ไม่ผ่านมาตรฐานของบริษัท ส่วน Sama ก็ปฏิเสธคำวิจารณ์นั้น
    • การคุ้มครองผู้เปิดโปงข้อมูลคือหัวใจของสังคมที่ทำงานได้จริง
      มีแต่ระบอบเผด็จการและคณาธิปไตยเท่านั้นที่ปกป้องคนทำผิดและทำให้ผู้เปิดโปงข้อมูลต้องอับอาย
      ไม่ว่าบริษัทเอาต์ซอร์สจะอยู่ประเทศไหน ถ้าอาชญากรรมกลายเป็นเรื่องระดับโลก การคุ้มครองผู้เปิดโปงข้อมูลก็ต้องเป็นระดับโลกเช่นกัน
  • มีรายงานว่าคนงานคนหนึ่งพูดว่า “เห็นตั้งแต่ห้องนั่งเล่นไปจนถึงภาพเปลือย”
    Meta บอกว่านี่มีไว้เพื่อปรับปรุงประสบการณ์ลูกค้า และเป็นแนวปฏิบัติที่บริษัทอื่นก็ทำกันทั่วไป แต่ก็สงสัยจริง ๆ ว่าอ่านสิ่งนี้อย่างเข้าใจแล้วหรือยัง
    นี่น่าจะเป็นคำพูดที่ประหลาดที่สุดที่ฉันเห็นบนอินเทอร์เน็ตในรอบ 20 ปี

    • เป็นภาพลวงตาล้วน ๆ ฉันเคยทำงานใน Big Tech แต่การอัปโหลดรูปส่วนตัวที่ไม่ผ่านการแก้ไขหรือรูปภายในบ้าน เพื่อให้บริษัทหรือผู้รับเหมามาดูด้วยเหตุผลกำกวมอย่าง “ปรับปรุงประสบการณ์ลูกค้า” นั้น ไม่เคยผ่านการทบทวนเรื่องความเป็นส่วนตัวหรือการคุ้มครองข้อมูลแม้แต่แบบผิวเผินในที่ที่ฉันเคยทำงาน
      ทำให้นึกว่า Meta อ่านสิ่งที่ตัวเองพูดบ้างหรือเปล่า
    • ฉันเคยอ่านคู่มือของหุ่นยนต์ดูดฝุ่นตัวเล็ก Ecovacs Deebot U2 pro แล้วในนั้นเขียนทำนองว่าการใช้งานถือเป็นการให้สิทธิ์ถ่ายรูปและส่งไปยังเซิร์ฟเวอร์ระยะไกล
      เหมือนจะบอกว่าเพื่อวัตถุประสงค์อย่างการวิเคราะห์ปัญหา
    • สิ่งที่ควรอ่านให้ดีจริง ๆ คือข้อกำหนดการใช้งานของ Facebook
      ทุกวันนี้ฉันยังโดนมองแปลก ๆ เวลาบอกว่าไม่ใช้ WhatsApp แต่ทรัพย์สินทุกอย่างของ Meta ปนเปื้อนไปหมดแล้ว เลยไม่ใช้เลย
    • ไม่เข้าใจว่าทำไมเรื่องนี้ถึงดูแปลก ผู้คนยอมยกความเป็นส่วนตัวให้มานานแล้วเพื่อแลกกับความสะดวกเพียงเล็กน้อย
    • แท็ก แท็ก แท็ก ทั้งหมดนี้ “การปรับปรุง” ก็คือการสอนLLM และ diffusion modelนั่นเอง
  • ไม่รู้ว่าอะไรแย่กว่ากัน Meta บันทึกวิดีโอจากแว่นอัจฉริยะของลูกค้า หรือไล่คนที่พูดเรื่องนี้ออก

    • อย่างหลังแย่กว่า อย่างน้อยอันนั้นก็อ้างไม่ได้ว่าเป็นความผิดพลาดหรือ “เป็นแค่บั๊ก”
    • อาจจะแย่กว่าถ้าผู้คนใส่แว่นเฝ้าระวังขณะมีเซ็กซ์กับคู่ของตัวเอง
      แน่นอนว่าเราควรกดดันไม่ให้บริษัทพวกนี้ทำตัวเลวทรามได้ แต่สุดท้ายพวกมันก็ต้องมีข้อมูลที่คนยอมส่งให้ก่อนถึงจะเอาไปทำเรื่องเลวทรามได้
      มีข้อยกเว้นอย่าง Flock ที่ทำเรื่องเลวทรามด้วยข้อมูลเฝ้าระวัง “สาธารณะ”
      ฉันรู้ว่าวัฒนธรรมมันพังจนถึงขั้นทำให้การสวมแว่นเฝ้าระวังขององค์กรในช่วงเวลาส่วนตัวกลายเป็นเรื่องปกติแล้ว แต่ก็ยังไม่เข้าใจว่าทำไมถึงไว้ใจกันได้ขนาดนี้
    • ทุกอย่างที่เกี่ยวกับ Meta นั้นชั่วร้ายมาตั้งแต่ต้น แม้แต่ชื่อนั้นเอง
    • ขอเสริมนิดเดียวว่า ฉันไม่เข้าใจเลยว่าทำไมคนถึงสวมกล้องอินเทอร์เน็ตไว้กับร่างกายในตอนเปลือยหรือกำลังมีเซ็กซ์
      มองให้กว้างกว่านั้น ฉันก็ไม่เข้าใจว่าทำไมถึงใส่กล้องที่เชื่อมต่ออินเทอร์เน็ตซึ่ง Meta ย่อมต้องเฝ้าดูอยู่แล้วด้วย
  • ฉันคิดว่าปัญหาความเป็นส่วนตัวและความปลอดภัยที่ซับซ้อนรอบ ๆ แว่นอัจฉริยะกับเทคโนโลยี “ส่วนบุคคล” อื่น ๆ นั้นเป็นเรื่องที่บริษัทที่รอบคอบ ซื่อสัตย์ และตอบสนองไวสามารถจัดการได้
    เพราะแบบนั้นเอง ฉันจึงจะไม่แตะต้องอุปกรณ์ส่วนบุคคลของ Metaเลย
    DNA ทั้งองค์กรของพวกเขาถูกเขียนมาเพื่อเอาเปรียบผู้ใช้เพื่อกำไร
    จากมุมมองของฉัน พวกเขามองปัญหาแบบนี้เป็นแค่สิ่งที่ช่วยบดบังไม่ให้คนเห็นความลึกของการเอาเปรียบเท่านั้น และไม่สามารถหรือจะไม่มีวันพิจารณามันอย่างจริงจังตามตัวอักษรเลย

  • ฉันสงสัยว่าวิดีโอที่ถ่ายจากแว่นจะถูกอัปโหลดเพื่อการคัดแยกภายใต้เงื่อนไขแบบไหน
    เดาว่าน่าจะเป็นโครงสร้างที่เมื่อผู้ใช้ถามอะไรบางอย่างเกี่ยวกับสิ่งที่แว่นกำลังเห็น วิดีโอก็จะถูกอัปโหลดเพื่อคัดแยกสำหรับสร้างคำตอบ
    ดูเหมือนผู้คนจะคิดว่า “ก็แค่ AI” เลยไม่ค่อยกังวลเรื่องความเป็นส่วนตัว

    • ฉันถือว่าโดยค่าเริ่มต้นมันเป็นแบบนั้นเสมอ
  • เห็นหัวข้อนี้แล้วนึกขึ้นได้ว่า “row” เป็นอีกคำที่ฉันออกเสียงผิดมาแทบทั้งชีวิต ปีนี้เพิ่งรู้การออกเสียงที่ถูกต้อง
    row ในบริบทนี้คล้องเสียงกับ cow ไม่ใช่ dough
    ตอนแรกตัวอย่างคำคล้องที่นึกออกคือ bow แต่ก็เพิ่งตระหนักว่าตัวอย่างนั้นเองก็มีปัญหา

    • อย่างน้อยในอังกฤษมันเป็นมุกอยู่แล้ว คนอเมริกันส่วนใหญ่ไม่รู้ความต่าง
      คำว่า “สองประเทศที่แยกจากกันด้วยภาษาร่วมกัน” ช่างตรงเป๊ะ
    • น่าแปลกที่ฉันก็ออกเสียงผิดมาตลอดชีวิตเหมือนกัน ภาษาอังกฤษยังทำให้เจ้าของภาษาประหลาดใจได้เสมอ
      https://www.merriam-webster.com/dictionary/row#dictionary-en...
    • ออกเสียงเหมือน row ใน rowdy
  • ฉันเคยเป็นพนักงาน Meta โห่ใส่ได้เลย
    ข้างในมีการจัดระดับข้อมูล 4 ชั้น โดยระดับ 1 คือข้อมูลสาธารณะอย่าง “ท้องฟ้าเป็นสีฟ้า” ส่วนระดับ 4 คือข้อมูลผู้ใช้ส่วนบุคคลหรือข้อมูลที่อ่อนไหวหากรั่วไหลหรือถูกแชร์
    โดยพื้นฐานแล้วมีการบอกว่าข้อมูลผู้ใช้ทั้งหมดเป็นระดับ 4 และถ้าทำอะไรโดยไม่มีการอนุมัติที่เหมาะสมก็จะถูกไล่ออกทันที
    ตอนบูตแคมป์มักได้ยินว่ามีอย่างน้อยเดือนละคนที่เข้าถึงข้อมูลผู้ใช้แล้วถูกพาออกจากตึกภายในไม่กี่ชั่วโมง
    ฝั่งงานวิจัยด้านวิชวลที่ฉันทำอยู่ต้องผ่านกระบวนการกฎหมายยาวหนึ่งปีเพื่อขออนุญาตบันทึกวิดีโอในที่สาธารณะ
    เราต้องสร้าง pipeline สำหรับการทำให้ไม่ระบุตัวตน ระบบ audit trail ที่แน่นหนา การลบข้อมูลให้มากที่สุดเท่าที่ทำได้ และระบบลบอัตโนมัติหากมีอะไรผิดพลาด
    ยังมีกฎเข้มงวดเรื่องสถานที่เก็บข้อมูลและคนที่เข้าถึงได้ด้วย
    วิดีโอ “ภาคสนาม” ที่อาจมีคนซึ่งไม่ได้เซ็นสัญญาปรากฏอยู่แม้เพียงเล็กน้อยจะถือว่าไปอยู่กับบุคคลที่สาม จึงแชร์เพื่อทำงาน annotation ไม่ได้
    คนและสถานที่ที่ติดตามย้อนกลับได้ทั้งหมดในชุดข้อมูลสาธารณะมีเอกสารยกเว้นความรับผิดทางกฎหมายลงนามไว้ครบ
    แต่ตอนนี้กลับได้ยินว่ามีการเทข้อมูลส่วนตัวให้ annotator ตรง ๆ แล้วใช้เป็นข้อมูลฝึก เท่ากับว่าไม่มีแม้แต่การควบคุมพื้นฐาน
    มันแค่แสดงให้เห็นว่าถ้า Zuck หรืองานสร้างรายได้ต้องการอะไร กฎก็ไม่ถูกนำมาใช้
    ฉันหวังให้อุตสาหกรรมทั้งหมดนั้นล่มสลายไปเอง

    • เมื่อดูจากขนาดและลักษณะของธุรกิจ Meta ฉันนึกว่าจะมีระบบที่ดีกว่านี้
      ฝั่ง SWE ควรเข้าถึงPIIได้เฉพาะเมื่อมีความยินยอมชัดเจนจากผู้ใช้หรือลูกค้า เช่น กรณีตั๋วซัพพอร์ต
      โดยเฉพาะถ้าเป็นคนที่ยังอยู่ในช่วงบูตแคมป์ยิ่งไม่ควรเข้าไปใหญ่ และฉันก็สงสัยว่าระหว่างการฝึกอบรมจะเข้าถึงข้อมูลผู้ใช้ที่ไม่ทำให้นิรนามได้จริงหรือ
      แม้แต่บริษัทเก่าของฉัน ต่อให้ลูกค้ายินยอมแล้ว ถ้าจะเข้าถึงข้อมูลผู้ใช้ก็ยังต้องผ่านขั้นตอนมากมายจริง ๆ
    • หลัง Cambridge Analytica ฉันสงสัยมาตลอดที่เห็น Meta บังคับใช้ข้อกำหนดการใช้ API อย่างเข้มงวดมากแม้กับงานส่วนบุคคล
      เพราะมันดูชัดเจนเหลือเกินว่าภายในองค์กรกลับมีเรื่องราวอีกแบบหนึ่งเกิดขึ้น
  • หนึ่งในตลาดเชิงพาณิชย์ที่ใหญ่กว่าสำหรับแว่นอัจฉริยะคือการถ่ายPOV porn ดังนั้นจึงไม่น่าแปลกมากที่คอนเทนต์แบบนั้นจะเข้าไปอยู่ในคิวม็อดเดอเรชัน
    โปรเจกต์นี้ควรถูกวางแผนโดยคำนึงถึงกรณีใช้งานนั้นตั้งแต่แรก

    • ฉันก็เข้าใจเหมือนกันว่ามันน่าอึดอัดแค่ไหนสำหรับ Meta ที่ต้องยอมรับว่ากรณีใช้งานนั้นมีอยู่จริง
      ย้อนไปสมัย Oculus Go ภายในองค์กรก็มีการใช้ถ้อยคำอ้อมค้อมอย่างสุภาพมากมายเพื่อหลีกเลี่ยงการพูดตรง ๆ ว่า “อุปกรณ์ของเราต้องเปิดตัวพร้อมเบราว์เซอร์เพื่อให้คนดูหนังโป๊ได้”
    • ฉันไม่เข้าใจตั้งแต่แรกแล้วว่าทำไมถึงต้องมี“คิวม็อดเดอเรชัน” นี่ไม่ใช่วิดีโอบันทึกส่วนตัวของผู้คนหรือ
    • จะม็อดเดอเรตสิ่งที่คนทำกันเองได้อย่างไร
      มันถูกสตรีมไปยังเซิร์ฟเวอร์แล้วจะส่งคนไปห้ามไม่ให้มีเซ็กซ์อย่างนั้นหรือ
  • https://archive.ph/ubWba

  • ถ้าอยากอ่านเพิ่มเติมเกี่ยวกับด้านที่น่าขยะแขยงของการฝึก AI ที่ผลักภาระไปให้แรงงานยากจนในโลกที่สาม ฉันแนะนำ Empire of AI ของ Karen Hao
    คนงานเหล่านี้ได้รับค่าแรงน้อยนิดต่อชั่วโมงในงานที่ไม่มั่นคง และต้องเผชิญกับเนื้อหาสุดเลวร้าย

    • อยากรู้ว่าในหนังสือเล่มนั้นยกตัวอย่างอะไรไว้บ้าง