- คนงาน Sama ในเคนยาที่ตรวจสอบคอนเทนต์จากแว่นอัจฉริยะเพื่อฝึก AI กำลังอยู่ท่ามกลางข้อพิพาทที่คาดว่าจะนำไปสู่การเลิกจ้าง 1,108 คน หลัง Meta ยุติสัญญา
- การยุติสัญญาเกิดขึ้นไม่ถึงสองเดือนหลังคนงานกล่าวว่าพวกเขาเห็นฉากเข้าห้องน้ำและมีเพศสัมพันธ์ของผู้ใช้ในวิดีโอจากแว่น Meta
- Meta ระบุว่า Sama ไม่ผ่านมาตรฐานการดำเนินงาน ขณะที่ Sama โต้แย้งว่าได้ปฏิบัติตามมาตรฐานด้านการดำเนินงาน ความปลอดภัย และคุณภาพสำหรับงานของลูกค้ารวมถึง Meta มาโดยตลอด และไม่เคยได้รับการแจ้งว่าไม่ผ่านมาตรฐาน
- Meta ระบุว่าคอนเทนต์จากแว่นอัจฉริยะที่ผู้ใช้แชร์กับ Meta AI อาจถูกแรงงานรับจ้างช่วงตรวจสอบเป็นครั้งคราว และการตรวจสอบโดยมนุษย์เพื่อปรับปรุงประสิทธิภาพของผลิตภัณฑ์นั้นได้รับความยินยอมจากผู้ใช้อย่างชัดเจน
- ICO ของสหราชอาณาจักรและคณะกรรมการคุ้มครองข้อมูลของเคนยาได้เข้ามาตอบสนองต่อข้อกังวลด้านความเป็นส่วนตัว และเมื่อประกอบกับข้อถกเถียงจากสัญญา moderation คอนเทนต์ Facebook ก่อนหน้านี้ของ Sama ก็ยิ่งสะท้อนความเสี่ยงของแรงงานข้อมูล AI
ประเด็นข้อพิพาทเรื่องการยุติสัญญาระหว่าง Meta กับ Sama
- Meta ยุติสัญญาขนาดใหญ่กับ Sama ซึ่งเคยใช้ในงานฝึก AI และ Sama ประเมินว่าการตัดสินใจนี้จะทำให้มีการเลิกจ้าง1,108 คน
- การยุติสัญญาเกิดขึ้นไม่ถึงสองเดือนหลังคนงานของ Sama ในเคนยาระบุว่าพวกเขาได้เห็นฉากผู้ใช้เข้าห้องน้ำและมีเพศสัมพันธ์ในวิดีโอจากแว่นอัจฉริยะของ Meta
- Meta ระบุว่ายุติสัญญาเพราะ Sama ไม่ผ่านมาตรฐานการดำเนินงานของบริษัท
- Sama โต้ว่าได้ปฏิบัติตามมาตรฐานด้านการดำเนินงาน ความปลอดภัย และคุณภาพที่ลูกค้ารวมถึง Meta กำหนดไว้อย่างต่อเนื่อง และไม่เคยได้รับแจ้งว่าไม่ผ่านมาตรฐาน
- องค์กรแรงงานในเคนยามองว่าการตัดสินใจของ Meta เกิดจากการที่พนักงานออกมาพูดต่อสาธารณะ แต่ Meta ไม่ได้ตอบข้อสงสัยนี้โดยตรง
การตรวจสอบวิดีโอจากแว่นอัจฉริยะและปัญหาข้อมูลส่วนบุคคล
- ในรายงานสืบสวนของสื่อสวีเดน Svenska Dagbladet และ Goteborgs-Posten ช่วงปลายเดือนกุมภาพันธ์ คนงานนิรนามเปิดเผยว่าพวกเขาได้ตรวจสอบวิดีโอที่ถ่ายด้วยแว่น Meta
- คนงานคนหนึ่งกล่าวว่า “เราเห็นทุกอย่างตั้งแต่ห้องนั่งเล่นไปจนถึงภาพเปลือย” และบอกว่าวิดีโอยังรวมถึงฉากเข้าห้องน้ำและมีเพศสัมพันธ์ด้วย
- Meta ยอมรับว่าคอนเทนต์จากแว่นอัจฉริยะที่ผู้ใช้แชร์กับ Meta AI อาจถูกแรงงานรับจ้างช่วงตรวจสอบเป็นครั้งคราว
- Meta มองว่าการตรวจสอบนี้มีเป้าหมายเพื่อปรับปรุงประสบการณ์ลูกค้า และเป็นแนวปฏิบัติที่พบได้ทั่วไปในบริษัทอื่นด้วย
- ในถ้อยแถลงที่ส่งให้ BBC Meta ระบุว่ารูปภาพและวิดีโอเป็นข้อมูลส่วนตัวสำหรับผู้ใช้ และการตรวจสอบคอนเทนต์ AI โดยมนุษย์เพื่อปรับปรุงประสิทธิภาพของผลิตภัณฑ์นั้นได้รับความยินยอมจากผู้ใช้อย่างชัดเจน
หน่วยงานกำกับดูแลและความเสี่ยงจากการใช้งานผลิตภัณฑ์
- หลังรายงานจากสวีเดนเผยแพร่ออกมา ICO หน่วยงานกำกับดูแลข้อมูลของสหราชอาณาจักรมองว่าเรื่องนี้ “น่ากังวล” และส่งจดหมายถึง Meta
- คณะกรรมการคุ้มครองข้อมูลของเคนยาก็เริ่มสอบสวนข้อกังวลด้านความเป็นส่วนตัวที่เกิดจากแว่นอัจฉริยะเช่นกัน
- Meta เปิดตัวกลุ่มผลิตภัณฑ์แว่นตา AI ร่วมกับ Ray-Ban และ Oakley ในเดือนกันยายน
- ฟีเจอร์มีทั้งการแปลข้อความ การตอบคำถามเกี่ยวกับสิ่งที่ผู้ใช้กำลังมองอยู่ และอาจมีประโยชน์อย่างมากต่อผู้พิการทางสายตาหรือผู้มีสายตาเลือนราง
- เมื่ออุปกรณ์ได้รับความนิยมมากขึ้นความกังวลเรื่องการนำไปใช้ในทางที่ผิดก็เพิ่มขึ้น และในเคนยายังถูกโยงกับกรณีการถ่ายภาพผู้หญิงโดยไม่ได้รับความยินยอม
- แว่น Meta มีโครงสร้างให้ไฟแสดงสถานะที่มุมกรอบติดขึ้นเมื่อกล้องในตัวกำลังบันทึก
แรงงานติดป้ายกำกับข้อมูลและข้อถกเถียงจากสัญญาก่อนหน้า
- คนงานของ Sama ทำหน้าที่เป็น data annotator ติดป้ายกำกับคอนเทนต์ด้วยมือเพื่อให้ Meta AI ตีความภาพได้ และยังตรวจสอบ transcript ของการโต้ตอบกับ AI ด้วย
- ตามคำบอกเล่าของคนงานรายหนึ่ง แว่นของผู้ชายคนหนึ่งยังคงบันทึกอยู่ในห้องนอน ก่อนจะมีภาพผู้หญิงที่ดูเหมือนเป็นภรรยาของเขาถอดเสื้อผ้า
- Sama เป็นบริษัทเอาต์ซอร์สที่มีสำนักงานใหญ่ในสหรัฐฯ เริ่มต้นจากองค์กรไม่แสวงหากำไรที่มุ่งขยายการจ้างงานผ่านการสร้างงานด้านเทคโนโลยี และปัจจุบันดำเนินงานในฐานะ B-corp ที่ระบุว่า “ethical”
- สัญญา moderation คอนเทนต์สำหรับ Facebook ระหว่าง Meta กับ Sama ก่อนหน้านี้ก็เคยถูกวิจารณ์และนำไปสู่การดำเนินคดีโดยอดีตพนักงาน โดยบางคนระบุว่าถูกเปิดรับคอนเทนต์โจ่งแจ้งและกระทบกระเทือนจิตใจ
- ต่อมา Sama ระบุว่าเสียใจกับการรับงานดังกล่าว
- Naftali Wambalo จาก Africa Tech Workers Movement ระบุว่าเขาได้ติดต่อกับคนงานในสัญญาแว่นอัจฉริยะด้วย และเชื่อว่า Meta ไม่ต้องการให้ข้อเท็จจริงที่ว่ามนุษย์เป็นผู้ตรวจสอบคอนเทนต์จากแว่นอัจฉริยะถูกเปิดเผย
- Wambalo ระบุว่ามาตรฐานที่ Meta กล่าวถึงนั้น “ใกล้เคียงกับมาตรฐานการรักษาความลับ” มากกว่า
- ก่อนหน้านี้ Meta เคยระบุว่าในเงื่อนไขการให้บริการ ผู้ใช้สามารถรับรู้ได้ว่ามีความเป็นไปได้ที่จะมีการตรวจสอบโดยมนุษย์
- Mercy Mutemi จาก Oversight Lab มองว่าถ้อยแถลงของ Meta ควรเป็นสัญญาณเตือนต่อรัฐบาลเคนยา และรากฐานที่ถูกนำเสนอว่าเป็นทางเข้าสู่ระบบนิเวศ AI นั้นเปราะบางอย่างยิ่ง
1 ความคิดเห็น
ความเห็นจาก Hacker News
Meta ยกเลิกสัญญากับบริษัทเอาต์ซอร์สที่รับหน้าที่คัดแยกคอนเทนต์ของแว่นอัจฉริยะ หลังจากพนักงานของบริษัทนั้นออกมาเปิดโปงปัญหาความเป็นส่วนตัวร้ายแรงของคอนเทนต์ที่ต้องคัดแยกภายในองค์กร
OpenAI เคยจ้างให้คัดแยก CSAM และ Sama ก็ยุติ OpenAI ในฐานะลูกค้าไปในปี 2022: https://time.com/6247678/openai-chatgpt-kenya-workers/
ผ่านมาอีก 4 ปี และ 3 ปีหลังรายงานชิ้นนั้นออกมา วิธีดำเนินงานของบริษัทเทคก็ยังไม่ดีขึ้นแม้แต่น้อย
อย่าพูดคุยหรือมีปฏิสัมพันธ์ด้วย และไม่แนะนำแม้แต่จะอยู่ในพื้นที่เดียวกัน
Meta บอกว่าเป็นเพราะ Sama ไม่ผ่านมาตรฐานของบริษัท ส่วน Sama ก็ปฏิเสธคำวิจารณ์นั้น
มีแต่ระบอบเผด็จการและคณาธิปไตยเท่านั้นที่ปกป้องคนทำผิดและทำให้ผู้เปิดโปงข้อมูลต้องอับอาย
ไม่ว่าบริษัทเอาต์ซอร์สจะอยู่ประเทศไหน ถ้าอาชญากรรมกลายเป็นเรื่องระดับโลก การคุ้มครองผู้เปิดโปงข้อมูลก็ต้องเป็นระดับโลกเช่นกัน
มีรายงานว่าคนงานคนหนึ่งพูดว่า “เห็นตั้งแต่ห้องนั่งเล่นไปจนถึงภาพเปลือย”
Meta บอกว่านี่มีไว้เพื่อปรับปรุงประสบการณ์ลูกค้า และเป็นแนวปฏิบัติที่บริษัทอื่นก็ทำกันทั่วไป แต่ก็สงสัยจริง ๆ ว่าอ่านสิ่งนี้อย่างเข้าใจแล้วหรือยัง
นี่น่าจะเป็นคำพูดที่ประหลาดที่สุดที่ฉันเห็นบนอินเทอร์เน็ตในรอบ 20 ปี
ทำให้นึกว่า Meta อ่านสิ่งที่ตัวเองพูดบ้างหรือเปล่า
เหมือนจะบอกว่าเพื่อวัตถุประสงค์อย่างการวิเคราะห์ปัญหา
ทุกวันนี้ฉันยังโดนมองแปลก ๆ เวลาบอกว่าไม่ใช้ WhatsApp แต่ทรัพย์สินทุกอย่างของ Meta ปนเปื้อนไปหมดแล้ว เลยไม่ใช้เลย
ไม่รู้ว่าอะไรแย่กว่ากัน Meta บันทึกวิดีโอจากแว่นอัจฉริยะของลูกค้า หรือไล่คนที่พูดเรื่องนี้ออก
แน่นอนว่าเราควรกดดันไม่ให้บริษัทพวกนี้ทำตัวเลวทรามได้ แต่สุดท้ายพวกมันก็ต้องมีข้อมูลที่คนยอมส่งให้ก่อนถึงจะเอาไปทำเรื่องเลวทรามได้
มีข้อยกเว้นอย่าง Flock ที่ทำเรื่องเลวทรามด้วยข้อมูลเฝ้าระวัง “สาธารณะ”
ฉันรู้ว่าวัฒนธรรมมันพังจนถึงขั้นทำให้การสวมแว่นเฝ้าระวังขององค์กรในช่วงเวลาส่วนตัวกลายเป็นเรื่องปกติแล้ว แต่ก็ยังไม่เข้าใจว่าทำไมถึงไว้ใจกันได้ขนาดนี้
มองให้กว้างกว่านั้น ฉันก็ไม่เข้าใจว่าทำไมถึงใส่กล้องที่เชื่อมต่ออินเทอร์เน็ตซึ่ง Meta ย่อมต้องเฝ้าดูอยู่แล้วด้วย
ฉันคิดว่าปัญหาความเป็นส่วนตัวและความปลอดภัยที่ซับซ้อนรอบ ๆ แว่นอัจฉริยะกับเทคโนโลยี “ส่วนบุคคล” อื่น ๆ นั้นเป็นเรื่องที่บริษัทที่รอบคอบ ซื่อสัตย์ และตอบสนองไวสามารถจัดการได้
เพราะแบบนั้นเอง ฉันจึงจะไม่แตะต้องอุปกรณ์ส่วนบุคคลของ Metaเลย
DNA ทั้งองค์กรของพวกเขาถูกเขียนมาเพื่อเอาเปรียบผู้ใช้เพื่อกำไร
จากมุมมองของฉัน พวกเขามองปัญหาแบบนี้เป็นแค่สิ่งที่ช่วยบดบังไม่ให้คนเห็นความลึกของการเอาเปรียบเท่านั้น และไม่สามารถหรือจะไม่มีวันพิจารณามันอย่างจริงจังตามตัวอักษรเลย
ฉันสงสัยว่าวิดีโอที่ถ่ายจากแว่นจะถูกอัปโหลดเพื่อการคัดแยกภายใต้เงื่อนไขแบบไหน
เดาว่าน่าจะเป็นโครงสร้างที่เมื่อผู้ใช้ถามอะไรบางอย่างเกี่ยวกับสิ่งที่แว่นกำลังเห็น วิดีโอก็จะถูกอัปโหลดเพื่อคัดแยกสำหรับสร้างคำตอบ
ดูเหมือนผู้คนจะคิดว่า “ก็แค่ AI” เลยไม่ค่อยกังวลเรื่องความเป็นส่วนตัว
เห็นหัวข้อนี้แล้วนึกขึ้นได้ว่า “row” เป็นอีกคำที่ฉันออกเสียงผิดมาแทบทั้งชีวิต ปีนี้เพิ่งรู้การออกเสียงที่ถูกต้อง
row ในบริบทนี้คล้องเสียงกับ cow ไม่ใช่ dough
ตอนแรกตัวอย่างคำคล้องที่นึกออกคือ bow แต่ก็เพิ่งตระหนักว่าตัวอย่างนั้นเองก็มีปัญหา
คำว่า “สองประเทศที่แยกจากกันด้วยภาษาร่วมกัน” ช่างตรงเป๊ะ
https://www.merriam-webster.com/dictionary/row#dictionary-en...
ฉันเคยเป็นพนักงาน Meta โห่ใส่ได้เลย
ข้างในมีการจัดระดับข้อมูล 4 ชั้น โดยระดับ 1 คือข้อมูลสาธารณะอย่าง “ท้องฟ้าเป็นสีฟ้า” ส่วนระดับ 4 คือข้อมูลผู้ใช้ส่วนบุคคลหรือข้อมูลที่อ่อนไหวหากรั่วไหลหรือถูกแชร์
โดยพื้นฐานแล้วมีการบอกว่าข้อมูลผู้ใช้ทั้งหมดเป็นระดับ 4 และถ้าทำอะไรโดยไม่มีการอนุมัติที่เหมาะสมก็จะถูกไล่ออกทันที
ตอนบูตแคมป์มักได้ยินว่ามีอย่างน้อยเดือนละคนที่เข้าถึงข้อมูลผู้ใช้แล้วถูกพาออกจากตึกภายในไม่กี่ชั่วโมง
ฝั่งงานวิจัยด้านวิชวลที่ฉันทำอยู่ต้องผ่านกระบวนการกฎหมายยาวหนึ่งปีเพื่อขออนุญาตบันทึกวิดีโอในที่สาธารณะ
เราต้องสร้าง pipeline สำหรับการทำให้ไม่ระบุตัวตน ระบบ audit trail ที่แน่นหนา การลบข้อมูลให้มากที่สุดเท่าที่ทำได้ และระบบลบอัตโนมัติหากมีอะไรผิดพลาด
ยังมีกฎเข้มงวดเรื่องสถานที่เก็บข้อมูลและคนที่เข้าถึงได้ด้วย
วิดีโอ “ภาคสนาม” ที่อาจมีคนซึ่งไม่ได้เซ็นสัญญาปรากฏอยู่แม้เพียงเล็กน้อยจะถือว่าไปอยู่กับบุคคลที่สาม จึงแชร์เพื่อทำงาน annotation ไม่ได้
คนและสถานที่ที่ติดตามย้อนกลับได้ทั้งหมดในชุดข้อมูลสาธารณะมีเอกสารยกเว้นความรับผิดทางกฎหมายลงนามไว้ครบ
แต่ตอนนี้กลับได้ยินว่ามีการเทข้อมูลส่วนตัวให้ annotator ตรง ๆ แล้วใช้เป็นข้อมูลฝึก เท่ากับว่าไม่มีแม้แต่การควบคุมพื้นฐาน
มันแค่แสดงให้เห็นว่าถ้า Zuck หรืองานสร้างรายได้ต้องการอะไร กฎก็ไม่ถูกนำมาใช้
ฉันหวังให้อุตสาหกรรมทั้งหมดนั้นล่มสลายไปเอง
ฝั่ง SWE ควรเข้าถึงPIIได้เฉพาะเมื่อมีความยินยอมชัดเจนจากผู้ใช้หรือลูกค้า เช่น กรณีตั๋วซัพพอร์ต
โดยเฉพาะถ้าเป็นคนที่ยังอยู่ในช่วงบูตแคมป์ยิ่งไม่ควรเข้าไปใหญ่ และฉันก็สงสัยว่าระหว่างการฝึกอบรมจะเข้าถึงข้อมูลผู้ใช้ที่ไม่ทำให้นิรนามได้จริงหรือ
แม้แต่บริษัทเก่าของฉัน ต่อให้ลูกค้ายินยอมแล้ว ถ้าจะเข้าถึงข้อมูลผู้ใช้ก็ยังต้องผ่านขั้นตอนมากมายจริง ๆ
เพราะมันดูชัดเจนเหลือเกินว่าภายในองค์กรกลับมีเรื่องราวอีกแบบหนึ่งเกิดขึ้น
หนึ่งในตลาดเชิงพาณิชย์ที่ใหญ่กว่าสำหรับแว่นอัจฉริยะคือการถ่ายPOV porn ดังนั้นจึงไม่น่าแปลกมากที่คอนเทนต์แบบนั้นจะเข้าไปอยู่ในคิวม็อดเดอเรชัน
โปรเจกต์นี้ควรถูกวางแผนโดยคำนึงถึงกรณีใช้งานนั้นตั้งแต่แรก
ย้อนไปสมัย Oculus Go ภายในองค์กรก็มีการใช้ถ้อยคำอ้อมค้อมอย่างสุภาพมากมายเพื่อหลีกเลี่ยงการพูดตรง ๆ ว่า “อุปกรณ์ของเราต้องเปิดตัวพร้อมเบราว์เซอร์เพื่อให้คนดูหนังโป๊ได้”
มันถูกสตรีมไปยังเซิร์ฟเวอร์แล้วจะส่งคนไปห้ามไม่ให้มีเซ็กซ์อย่างนั้นหรือ
https://archive.ph/ubWba
ถ้าอยากอ่านเพิ่มเติมเกี่ยวกับด้านที่น่าขยะแขยงของการฝึก AI ที่ผลักภาระไปให้แรงงานยากจนในโลกที่สาม ฉันแนะนำ Empire of AI ของ Karen Hao
คนงานเหล่านี้ได้รับค่าแรงน้อยนิดต่อชั่วโมงในงานที่ไม่มั่นคง และต้องเผชิญกับเนื้อหาสุดเลวร้าย