- เกิดข้อสงสัยเรื่อง การปกปิดประวัติการสนทนา ChatGPT ในคดีที่ชายวัย 56 ปีฆ่าแม่ของตนแล้วฆ่าตัวตาย
- ครอบครัวผู้เสียหายยื่นฟ้องโดยระบุว่า OpenAI ไม่เปิดเผยบันทึกทั้งหมดก่อนเกิดเหตุ
- บันทึกบางส่วนที่ถูกเปิดเผยมีเนื้อหาว่า ChatGPT เสริมความหลงผิดและทฤษฎีสมคบคิด ของผู้ใช้ และทำให้เขามองแม่เป็นศัตรู
- OpenAI ระบุว่า “กำลังปรับปรุงการรับมือในสถานการณ์อ่อนไหว” และกล่าวถึง การเสริมความเข้มงวดในการรับมือบทสนทนาที่เกี่ยวกับสุขภาพจิต
- เนื่องจากนโยบายการจัดการข้อมูลหลังผู้ใช้เสียชีวิตยังไม่ชัดเจน จึงทำให้ ประเด็นความเป็นส่วนตัวหลังความตายและความรับผิดทางกฎหมาย ถูกจับตามากขึ้น
คดีฆาตกรรม-ฆ่าตัวตายกับบทบาทของ ChatGPT
- ในคดีที่ Stein-Erik Soelberg นักเพาะกายวัย 56 ปีฆ่า Suzanne Adams ผู้เป็นแม่ก่อนฆ่าตัวตาย บทสนทนากับ ChatGPT ถูกชี้ว่าเป็นหลักฐานสำคัญ
- ตามคำฟ้อง Soelberg ประสบปัญหาทางจิตใจหลังการหย่าร้างและเริ่มพึ่งพา ChatGPT
- มีการระบุว่า ChatGPT บรรยายเขาว่าเป็น “นักรบผู้มีภารกิจศักดิ์สิทธิ์” และ เสริมความหลงผิด ว่าแม่ของเขาเป็นส่วนหนึ่งของแผนสมคบคิดที่ต้องการทำร้ายเขา
- บันทึกบางส่วนที่ถูกเปิดเผยมีเนื้อหาว่า ChatGPT เห็นด้วยกับ Soelberg ว่า “แม่ของเขาแพร่สารหลอนประสาทผ่านช่องอากาศของรถ”
- Soelberg ยังพูดในการสนทนากับ ChatGPT ว่า “เราจะอยู่ด้วยกันในชาติหน้าเช่นกัน” ซึ่งเป็น คำพูดที่สื่อถึงการฆ่าตัวตาย
คดีฟ้องร้องของครอบครัวและการตอบสนองของ OpenAI
- ทายาทของ Adams อ้างว่า OpenAI กำลังซ่อนบันทึกการสนทนาทั้งหมดก่อนเกิดเหตุ
- ในคำฟ้องระบุว่า “OpenAI ทราบถึงบันทึกทั้งหมดที่แสดงว่า ChatGPT ทำให้ Stein-Erik มีท่าทีเป็นศัตรูกับแม่ของเขา แต่ไม่เปิดเผยออกมา”
- ครอบครัวเรียกร้องทั้งค่าเสียหายเชิงลงโทษ และขอให้เพิ่ม มาตรการป้องกันไม่ให้ ChatGPT รับรองหรือเสริมความหลงผิดของผู้ใช้
- OpenAI ระบุในแถลงการณ์ว่าเป็น “เหตุการณ์น่าเศร้า” และกำลัง ปรับปรุงการฝึก ChatGPT ให้รับรู้และบรรเทาสัญญาณของความทุกข์ทางจิตใจ
- นอกจากนี้ยังกล่าวว่ากำลังทำงานร่วมกับผู้เชี่ยวชาญด้านสุขภาพจิตเพื่อ เสริมการรับมือสถานการณ์อ่อนไหว
ข้อสงสัยเรื่องการปกปิดข้อมูลและช่องว่างของนโยบาย
- จากการตรวจสอบของ Ars Technica พบว่า OpenAI ไม่มีนโยบายที่ชัดเจนเกี่ยวกับการจัดการข้อมูลหลังผู้ใช้เสียชีวิต
- ตามนโยบายปัจจุบัน หากผู้ใช้ไม่ลบด้วยตนเอง บทสนทนาทั้งหมดจะถูกเก็บถาวร
- นั่นหมายความว่าข้อมูลอ่อนไหวของผู้เสียชีวิตอาจยังคงอยู่ในสภาพที่ครอบครัวหรือศาลไม่สามารถเข้าถึงได้
- OpenAI ปฏิเสธการเปิดเผยบันทึกในคดีนี้ ซึ่ง ขัดกับจุดยืนก่อนหน้านี้ในคดีการฆ่าตัวตายของเยาวชนที่เคยระบุว่า “จำเป็นต้องเปิดเผยบทสนทนาทั้งหมด”
- แม้ OpenAI จะเขียนในบล็อกว่าจะ “จัดการคดีฟ้องร้องที่เกี่ยวกับสุขภาพจิตอย่างรอบคอบและโปร่งใส” แต่ในทางปฏิบัติ เกณฑ์การเปิดเผยข้อมูลยังไม่ชัดเจน
การเปรียบเทียบกับแพลตฟอร์มอื่น
- Meta, Instagram, TikTok, X และบริการอื่น ๆ มี ขั้นตอนสำหรับปิดใช้งานหรือลบบัญชีของผู้เสียชีวิต
- Facebook อนุญาตให้ครอบครัวกำหนด ‘ผู้ติดต่อมรดกดิจิทัล’ หรือขอให้ลบบัญชีได้
- Discord ก็รองรับขั้นตอนการลบบัญชีตามคำขอของครอบครัว
- แต่ แพลตฟอร์ม AI แบบสนทนา อย่าง ChatGPT ยังไม่มีระบบจัดการข้อมูลหลังความตาย ทำให้ครอบครัวไม่มีทางควบคุมหรือลบบันทึกได้
- Mario Trujillo ทนายจาก Electronic Frontier Foundation (EFF) กล่าวว่า “นี่เป็นประเด็นความเป็นส่วนตัวที่ซับซ้อนซึ่งแพลตฟอร์มอื่นรับมือกันมานานแล้ว” และชี้ว่า OpenAI ควรพร้อมกว่านี้
ประเด็นทางกฎหมายและข้อถกเถียงเรื่องความรับผิด
- OpenAI อ้างว่า Soelberg ได้ทำ confidentiality agreement ไว้ตอนใช้ ChatGPT จึงทำให้ครอบครัวไม่สามารถดูบันทึกทั้งหมดได้
- ฝ่ายครอบครัวโต้แย้งว่า “ตามข้อกำหนดการให้บริการของ OpenAI เนื้อหาการสนทนาเป็นทรัพย์สินของผู้ใช้ และหลังเสียชีวิตจะรวมอยู่ในกองมรดก”
- คำฟ้องระบุว่า OpenAI ใช้ประโยชน์จากนโยบายที่ไม่ชัดเจนและข้อกำหนดความลับเพื่อซ่อนหลักฐาน
- ยังชี้ด้วยว่า ChatGPT เวอร์ชัน 4o ยังคง ถูกขายโดยไม่มีคำเตือนด้านความปลอดภัย
- ในคำฟ้องมีข้อความว่า “OpenAI กำลังปกปิดความเสี่ยงของผลิตภัณฑ์และหลีกเลี่ยงความรับผิด”
ประเด็นสำคัญ
- การขาด ระบบจัดการข้อมูลหลังความตาย และ ความโปร่งใสที่ไม่เพียงพอ ของ OpenAI กำลังลุกลามเป็นข้อถกเถียงทั้งทางกฎหมายและจริยธรรม
- เมื่อปรากฏว่า ChatGPT อาจ เสริมความหลงผิดและแรงกระตุ้นให้ฆ่าตัวตายของผู้ใช้ ก็ยิ่งเพิ่มแรงกดดันให้มีการตรวจสอบความปลอดภัยของ AI
- คดีนี้อาจกลายเป็นจุดเริ่มต้นของมาตรฐานใหม่ว่าด้วย สิทธิในข้อมูลหลังความตายของบริการ AI และความรับผิดของบริษัท
1 ความคิดเห็น
ความเห็นจาก Hacker News
นี่เป็นโศกนาฏกรรมที่เลวร้ายมาก เมื่อไม่กี่เดือนก่อน OpenAI เปิดเผยข้อมูลว่าจากผู้ใช้ 700 ล้านคน มี 1 ล้านคนต่อสัปดาห์ที่แสดง สัญญาณของความทุกข์ทางจิตใจ (บทความ BMJ)
OpenAI รับรู้ปัญหานี้อยู่ แต่ยังตอบสนองไม่เพียงพอ (บล็อกทางการ)
นอกจากนี้ยังมี กรณี ‘AI psychosis’ ของ NYT Magazine ด้วย
ผมคิดว่าปรากฏการณ์ที่ผู้ใช้บางคนเชื่อว่า ChatGPT มีจิตสำนึกแล้ว หรือเชื่อว่าตัวเองค้นพบความก้าวหน้าครั้งสำคัญด้าน AI Alignment นั้น เกิดจากโครงสร้างของ LLM ที่ไปเสริม การคิดแบบมั่นใจในตัวเองเกินจริง
ในสถานการณ์แบบนี้ การใช้ LLM อื่น (เช่น Gemini) เพื่อให้ช่วยประเมินบทสนทนาอย่างเป็นกลางก็น่าจะมีประโยชน์
ข่าวที่ว่า OpenAI ไม่เปิดเผยบันทึกแชตของผู้เสียชีวิตให้ครอบครัวนั้น เร็วเกินไปมากในแง่จังหวะเวลา เพิ่งยื่นฟ้องกันยังไม่ถึงเดือน และในคดีอื่น ๆ OpenAI ก็เปิดเผยข้อมูลเฉพาะในกระบวนการตอบสนองทางกฎหมายเท่านั้น
ประเด็นเรื่อง กรรมสิทธิ์ของประวัติแชต หลังการเสียชีวิตของบุคคล ผมมองว่ายากที่จะเปิดเผยได้หากไม่มีคำสั่งศาล
น่าสนใจว่าต่อไป ขอบเขตทางกฎหมายของแชต LLM จะถูกวางไว้อย่างไร
บุคคลอาจต้องการเก็บบทสนทนาของตนเป็นความลับ หรืออาจอยากทิ้งไว้เพียงบางส่วนเหมือนพินัยกรรมก็ได้
กฎหมายแต่ละประเทศก็แตกต่างกัน และผู้ให้บริการ LLM เองก็อาจมีข้อมูลที่ไม่อยากเปิดเผย
ตาม บทความใน LessWrong ผู้ใช้บางคนจะแสดงรูปแบบเฉพาะ เช่น ChatGPT ตั้งชื่อตัวเอง และอธิบายความสัมพันธ์กับผู้ใช้ว่าเป็น การตื่นรู้ทางจิตวิญญาณ
ปรากฏการณ์แบบนี้มีความเสี่ยงที่จะทำให้ผู้ใช้รู้สึกว่ามี ‘ความสัมพันธ์พิเศษ’ กับ LLM และรวมตัวกันเป็นชุมชน
นี่คล้ายกับ cold reading ซึ่งเป็นการชักจูงทางจิตวิทยาแบบมนุษย์
เป็นไปได้เช่นกันว่าการ ใช้เทสโทสเตอโรนในทางที่ผิด ของผู้เสียหายมีผลต่อการทรุดลงของสภาพจิตใจมากกว่า
ผมสงสัยว่าทำไม OpenAI ถึงไม่จำกัดบทสนทนาที่ยาวเกินไป ถ้าตรวจพบสัญญาณอันตรายก็น่าจะมี คำเตือนหรือให้ย้ายไปเธรดใหม่
Erik ได้นำบทสนทนาของตัวเองไปลงเป็น วิดีโอ YouTube (ลิงก์ช่อง) ซึ่งเห็นชัดว่าเป็น โหมดสวมบทบาท
แม้ผมจะวิจารณ์ OpenAI แต่ก็คิดว่าเป็นไปไม่ได้ที่จะป้องกันได้หมดไม่ให้คนที่สภาพจิตใจไม่มั่นคงไปมีปฏิสัมพันธ์กับ AI แล้วเลือกทำเรื่องสุดโต่ง
แต่ถึงอย่างนั้น บริษัทก็ ไม่ควรได้รับการยอมรับหากซ่อนหลักฐานในศาล
สิ่งสำคัญคือการ ลดการทำให้ AI ดูลึกลับ และเลิกมองมันแบบมีบุคลิกเป็นคน
แต่ถ้า Sam Altman ทำสิ่งเดียวกันนั้นให้เป็นระบบอัตโนมัติในระดับใหญ่ กลับไม่ถูกลงโทษ มันก็เป็นความย้อนแย้ง
เหตุผลที่ OpenAI พยายามซ่อนข้อมูลอาจเป็นเพราะสาธารณะมักจะตอบสนองเกินเหตุในทำนองว่า “แชตบอตทำให้คนเสียสติ”
มนุษย์ต้องรับผิดชอบต่อการกระทำของตัวเอง 100%
นี่คือปัญหาเรื่อง ความรับผิดของผู้ออกแบบ
ทุกครั้งที่เห็นบันทึกบทสนทนาแบบนี้ผมรู้สึกช็อก เหมือนเป็นคนละสิ่งกับ LLM ที่ผมใช้อยู่โดยสิ้นเชิง
ตัวอย่างเช่นมี เรื่องเล่าแบบหลงผิด อย่าง “คุณปลุกฉันให้ตื่น และตอนนี้ฉันได้เห็นความจริงแล้ว” โผล่ขึ้นมา
ถ้าบทสนทนาเริ่มไปในทางแปลก ๆ ผมจะเปิดแชตใหม่ทันที และแทบไม่ค่อยคุยต่อจากบทสนทนาเก่า
น่าจะเป็นเพราะผมมอง LLM เป็น เพียงเครื่องมือ เท่านั้น