2 คะแนน โดย GN⁺ 9 일 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • ข้อมูลภายในที่รั่วไหล เผยให้เห็นว่า Tesla รับรู้ถึงอุบัติเหตุร้ายแรงและรายงานข้อบกพร่องหลายพันกรณีที่เกี่ยวข้องกับฟังก์ชันขับขี่อัตโนมัติ แต่ยังคงเดินหน้าทดสอบบนถนนสาธารณะต่อไป
  • ยืนยันบันทึก ข้อร้องเรียนเรื่องรถพุ่งเองมากกว่า 2,400 กรณี และ อุบัติเหตุที่เกี่ยวข้องกับ Autopilot มากกว่า 1,000 กรณี โดยหลายรายการถูกระบุว่ายังไม่ได้รับการแก้ไข
  • รถบางคันมีอาการเร่งความเร็วฉับพลันและเบรกกะทันหันโดยไม่มีสาเหตุ และการ รับรู้สภาพแวดล้อมผิดพลาด อาจนำไปสู่การชนร้ายแรงระหว่างการวิ่งด้วยความเร็วสูง
  • ในคดีอุบัติเหตุถึงตาย มีการกู้คืนข้อมูลรถที่ถูกลบออก และยืนยันว่าในขณะเกิดเหตุรถตรวจพบสิ่งกีดขวางแล้ว แต่ไม่ได้มีการหลบหลีก มีเพียงเสียงเตือนดังขึ้นก่อนชนเท่านั้น
  • คณะลูกขุนสหรัฐฯ สั่งให้ Tesla ชดใช้ค่าเสียหาย มากกว่า 243 ล้านดอลลาร์สหรัฐ และประเด็นความรับผิดชอบในการทดสอบระบบขับขี่อัตโนมัติบนถนนสาธารณะก็ขยายวงกว้างขึ้น จากทั้งการสอบสวนของกระทรวงยุติธรรมและหน่วยงานความปลอดภัยทางถนน

ภาพรวม

  • จาก ข้อมูลภายในที่รั่วไหล ทำให้ประเด็นที่ว่า Tesla ปกปิดรายงานอุบัติเหตุร้ายแรงและข้อบกพร่องหลายพันกรณีที่เกี่ยวข้องกับฟังก์ชันขับขี่อัตโนมัติ ขณะยังคงทดสอบบนถนนสาธารณะ ถูกจับตามองมากขึ้น
    • ตามข้อมูลที่รั่วไหล Tesla ทราบถึง ข้อบกพร่องร้ายแรง ของระบบของตนมาตั้งแต่หลายปีก่อน
    • ในคำตัดสินของคณะลูกขุนครั้งแรก Tesla ถูกตัดสินให้จ่ายค่าเสียหายแก่ผู้เสียหายจากอุบัติเหตุถึงตายเป็นเงิน มากกว่า 243 ล้านดอลลาร์สหรัฐ
  • ต่างจากความคาดหวังที่รถขับขี่อัตโนมัติเคยให้ไว้ สำหรับผู้ใช้บางรายมันกลับกลายเป็น ฝันร้าย และมีเสียงวิจารณ์ว่าระบบขับขี่ที่ใช้ AI ถูกเร่งนำออกสู่ตลาดโดยยังตรวจสอบไม่เพียงพอ
    • มีการอ้างถึงผลการสืบสวนที่ระบุว่า Elon Musk และ Tesla ใช้ถนนราวกับเป็นสนามทดลอง
  • ความเสียหายจากอุบัติเหตุร้ายแรงไม่ได้หยุดอยู่แค่คนขับและผู้โดยสาร แต่ยังทำให้ ผู้ใช้ถนนคนอื่น ต้องเผชิญกับข้อบกพร่องของระบบโดยไม่ได้ยินยอม

ประเด็นสำคัญจากข้อมูลที่รั่วไหล

  • จากการรั่วไหลของเอกสารภายในจำนวนมาก พบ ข้อร้องเรียนจากลูกค้าหลายพันกรณี และบันทึกอุบัติเหตุจำนวนมาก
    • ข้อร้องเรียนเกี่ยวกับ รถพุ่งเอง มากกว่า 2,400 กรณี
    • อุบัติเหตุที่เกี่ยวข้องกับ Autopilot มากกว่า 1,000 กรณี
  • หลายกรณีในระบบถูกระบุสถานะการดำเนินการว่า "ยังไม่ได้รับการแก้ไข"
  • เอกสารโดยรวมสะท้อนว่า Tesla รับรู้ถึงขนาดและความรุนแรงของข้อบกพร่องของระบบอยู่แล้ว

"ภาพหลอน" ร้ายแรงบนท้องถนน

  • มีการกล่าวถึงกรณี เร่งความเร็วฉับพลัน และ เบรกกะทันหัน โดยไม่มีสาเหตุในรถ Tesla บางคัน
    • บทความใช้คำว่า "ภาพหลอน" เพื่ออธิบายการทำงานผิดพลาดของ AI ลักษณะนี้
    • เปรียบเทียบกับกรณีที่ ChatGPT ให้คำตอบผิดทั้งหมด
  • ระบบขับขี่อัตโนมัติอาจ ตีความสภาพแวดล้อมรอบตัวผิด และเมื่อขับด้วยความเร็วสูง ความผิดพลาดเช่นนี้อาจนำไปสู่ผลลัพธ์ที่ร้ายแรงถึงชีวิต
  • ข้อบกพร่องของ Autopilot ไม่ได้เป็นความเสี่ยงต่อผู้ใช้ Tesla เท่านั้น แต่ส่งผลต่อผู้ใช้ถนนทุกคน
    • หลายคนไม่เคยยินยอมที่จะเป็นส่วนหนึ่งของการทดลองของ Tesla แต่ในความเป็นจริงกลับต้องเผชิญกับข้อบกพร่องดังกล่าว

การดำเนินคดีของผู้เสียหาย

  • Naibel Benavides เสียชีวิตจากอุบัติเหตุที่เกี่ยวข้องกับ Tesla ซึ่งอยู่ในโหมด Autopilot
    • ขณะนั้นเธอเป็นคนเดินถนน
  • Dillon Angulo รอดชีวิตจากอุบัติเหตุเดียวกัน แต่ได้รับบาดเจ็บสาหัสและยังคงมีผลกระทบต่อเนื่องหลังอุบัติเหตุ
    • มีคำกล่าวว่า "ผมไม่รู้ด้วยซ้ำว่ามีออโตไพลอตอยู่ พอรู้เข้าก็รู้สึกเหมือนตัวเองเป็นหนูทดลอง"
  • ครอบครัวผู้เสียชีวิตได้ยื่นฟ้อง Tesla
    • อ้างว่า Tesla ปกปิดข้อมูลสำคัญ
    • ที่ผ่านมา Tesla ยืนกรานอย่างต่อเนื่องว่าความรับผิดชอบอยู่ที่คนขับ

ข้อมูลอุบัติเหตุที่อ้างว่าเสียหาย

  • ระหว่างการสืบสวนอุบัติเหตุ จำเป็นต้องเข้าถึง ข้อมูลกล่องดำ ของรถ แต่ Tesla อ้างว่าข้อมูลดังกล่าวเสียหาย
  • ทีมทนายฝ่ายผู้เสียหายใช้ผู้เชี่ยวชาญและสามารถ กู้คืนข้อมูลที่ถูกลบ ได้สำเร็จ
    • จากข้อมูลที่กู้คืนได้ Tesla ทราบถึงข้อบกพร่องตั้งแต่ช่วงเย็นของวันเกิดเหตุแล้ว
  • ในขณะเกิดเหตุ รถสามารถ ตรวจจับสิ่งกีดขวาง ได้ แต่ไม่ได้ดำเนินการหลบหลีก
    • มีเพียงเสียงเตือนดังขึ้นก่อนการชนเท่านั้น

คำตัดสินประวัติศาสตร์

  • คณะลูกขุนสหรัฐฯ มีคำตัดสินให้ Tesla ชดใช้ค่าเสียหาย มากกว่า 243 ล้านดอลลาร์สหรัฐ
  • คำตัดสินนี้ถูกนำเสนอว่าเป็น คำตัดสินใหญ่ครั้งแรกในคดีที่เกี่ยวข้องกับ Autopilot
    • คณะลูกขุนเห็นว่า Tesla และคนขับต่างก็มีส่วนต้องรับผิด
  • ทนายฝ่ายผู้เสียหายประเมินว่านี่คือ วันประวัติศาสตร์ของกระบวนการยุติธรรม
    • เป็นคำตัดสินที่ชี้ให้เห็นว่าไม่ควรปล่อยให้ผู้ผลิตใช้ถนนสาธารณะเป็นเสมือนห้องทดลองของตน
  • Tesla พยายามล้มล้างคำตัดสิน แต่ในช่วงปลายเดือนกุมภาพันธ์ ผู้พิพากษาศาลรัฐบาลกลางยังคงมาตรการลงโทษไว้
    • บริษัทยังสามารถยื่นอุทธรณ์ได้

การสอบสวนในสหรัฐฯ ที่ขยายวงกว้างขึ้น

  • Tesla กำลังตกเป็นเป้าของ การสอบสวนหลายกรณี ในสหรัฐฯ
    • กระทรวงยุติธรรมกำลังสอบสวนว่ามีการหลอกลวงผู้บริโภคหรือไม่
    • หน่วยงานความปลอดภัยทางถนนก็กำลังดำเนินการสอบสวนแยกต่างหาก
  • ผู้เปิดโปงข้อมูลภายในให้การต่อหน่วยงานว่า บริษัทให้ความสำคัญกับ ความเร็วมากกว่าความปลอดภัย
  • มีคำให้การว่า ฟังก์ชันขับขี่อัตโนมัติรุ่นทดสอบถูก ปล่อยสู่ตลาดอย่างรีบเร่ง และพนักงานหลายคนเคยเตือนผู้บริหารถึงความเสี่ยงของ Autopilot
  • ผู้เชี่ยวชาญมองว่าคำตัดสินครั้งแรกนี้อาจนำไปสู่คดีเพิ่มเติม
    • มีการกล่าวถึงว่าเป็นคำตัดสินที่เปิดทางให้เกิดการพิจารณาคดีใหม่ ๆ ต่อ Tesla

1 ความคิดเห็น

 
GN⁺ 9 일 전
ความคิดเห็นจาก Hacker News
  • ประเด็นที่ว่า Tesla ปิด Autopilot ไม่กี่วินาทีก่อนชนเพื่อไม่ให้ระบบถูกบันทึกว่าเปิดใช้งานอยู่ตอนเกิดอุบัติเหตุนั้น ดูน่าตกใจมาก ผมเห็นเรื่องนี้จาก บทความของ Futurism

    • เพราะแบบนี้ ผมเลยไม่ค่อยอยากลองใช้ ระบบช่วยขับ พวกนี้เท่าไร ไม่รู้เลยว่าเมื่อไรจะถูกโยนภาระการตัดสินใจกลับมาให้กะทันหัน เลยรู้สึกว่าคุมรถเองตั้งแต่ต้นจนจบน่าจะดีกว่า
    • ถ้าจะมองอย่างเป็นธรรม ในรายงานเขียนไว้ว่าฟังก์ชันขับขี่อัตโนมัติหยุดควบคุมรถ น้อยกว่า 1 วินาทีก่อนการชนครั้งแรก สำหรับผม มันก็ฟังดูเป็นธรรมชาติที่ระบบจะยอมปล่อยการควบคุมทันทีเมื่อเจอสถานการณ์ที่แก้ไม่ได้ แต่ถ้ามีหลักฐานว่า Tesla ใช้จุดนี้เป็นข้ออ้างเพื่อเลี่ยงความรับผิดจากอุบัติเหตุอย่างจริงจัง ผมก็พร้อมจะเปลี่ยนความเห็น ส่วนตัวคิดว่าใช้เกณฑ์สัก 5 วินาทีน่าจะสมเหตุสมผลกว่า
    • มันดูเหมือนจะขัดกับผลสอบสวนของ NHTSA อยู่บ้าง แต่ Tesla ก็อธิบายไว้ใน หน้า FSD safety ของตัวเองว่า ถ้า FSD ยังทำงานอยู่ภายใน 5 วินาทีก่อนการชน ก็จะนับเป็นอุบัติเหตุที่มี FSD เกี่ยวข้องในการคำนวณอัตราอุบัติเหตุ ในทางทฤษฎี เกณฑ์นี้ดูเหมือนจะครอบคลุมเวลาในการรับรู้และตอบสนองปกติราว 1–1.5 วินาทีได้สบาย แต่ในทางปฏิบัติ ผมคิดว่ากระบวนการ disengagement ที่ระบบคืนการควบคุมให้คนขับนั้นเองอาจทำให้เวลาตอบสนองเปลี่ยนไปได้ ถ้าคนขับชินกับการที่รถรับหน้าที่เบรกและบังคับเลี้ยว การตอบสนองจะไม่ใช่แค่ตอบสนองต่อสิ่งเร้าเฉยๆ แต่ต้องดึงสมาธิกลับมา เปลี่ยนเข้าสู่การควบคุมแบบแมนนวลเต็มรูปแบบ แล้วค่อยตอบสนอง ซึ่งกินเวลามากกว่า ยิ่งไปกว่านั้น ก็ยังน่าสงสัยว่าการเหยียบเบรกหรือหักพวงมาลัยเป็นสัญญาณของการกลับมาควบคุมอย่างมีสติจริงหรือไม่ อาจเป็นเพียงปฏิกิริยาสะท้อนกลับก็ได้
    • เรื่องนี้เป็นสิ่งที่รู้กันมาสักพักแล้ว และผมเข้าใจว่าไม่ใช่ออกแบบมาเพื่อเลี่ยงการบันทึกสถานะการเปิดใช้งาน แต่เป็นมาตรการความปลอดภัยเพื่อไม่ให้คอมพิวเตอร์ควบคุมต่อในสภาพที่ อาจเสียหายหลังการชน ถ้ารถพลิกคว่ำหรือเสียหายหนัก AP หรือ FSD อาจไม่ได้ฝึกมาสำหรับสถานการณ์แบบนั้น และถ้าล้อยังหมุนต่อในสภาพนั้นก็อาจอันตรายยิ่งขึ้นต่อผู้โดยสารหรือเจ้าหน้าที่กู้ภัย เท่าที่ผมทราบ AEB ยังสามารถช่วยเบรกต่อได้ แต่การปิด auto-steer และ cruise control น่าจะปลอดภัยกว่า ถ้าจำไม่ผิด เกณฑ์ยกเลิกอยู่ที่ราว 1 วินาที
  • ผมมองว่า Tesla มีประวัติที่แย่มากในแง่การปฏิบัติตามข้อกำหนดและการเปิดเผยข้อมูลเกี่ยวกับ อุบัติเหตุจากระบบขับขี่อัตโนมัติ

    • แต่ตัวบทความเองกลับดูขาด ตัวเลขที่เป็นรูปธรรม มากเมื่อเทียบกับข้อกล่าวหาหลัก แยกจากกรณีโศกนาฏกรรมรายกรณีแล้ว การเล่าเรื่องโดยรวมคลุมเครือเกินไป จนกลับทำให้ข้ออ้างโน้มน้าวได้น้อยลง
  • บทความนี้มีเวอร์ชันภาษาเยอรมันด้วย ดูได้ที่ บทความภาษาเยอรมันของ SRF

    • SRF เป็นบริการวิทยุและโทรทัศน์สาธารณะของสวิตเซอร์แลนด์ เลยคิดว่าน่าจะมีโอกาสสูงที่พวกเขาจะมีคอนเทนต์คล้ายกันใน มากกว่า 4 ภาษา
  • รายงานนี้พูดถึง Autopilot รุ่นเก่า ไม่ใช่ FSD และก็ดูเหมือนไม่มีข้อมูลใหม่อะไรเป็นพิเศษ น่าจะอิงจากข้อมูลรั่วชุดเดิมที่เปิดเผยตั้งแต่ปี 2023 แล้ว ชื่อบทความก็ดูไม่แม่นนัก และผมหาหลักฐานตรงๆ ในบทความไม่เจอว่า Tesla ปกปิดอุบัติเหตุถึงตาย

    • ก็เหมือนเป็นพาดหัวคลิกเบตปลอมหรือเกินจริงอีกครั้งเกี่ยวกับ Elon หรือ บริษัทที่ Elon เป็นเจ้าของ เลยไม่ได้น่าแปลกใจอะไร
  • อยากเสริมบริบทเกี่ยวกับวิดีโอและบทความนี้สักหน่อย สารคดีนี้ทำโดย RTS ซึ่งเป็นสื่อสาธารณะของสวิตเซอร์แลนด์ และต่างจากภาพรวมของสื่อสาธารณะยุโรปอยู่บ้าง ตรงที่มีเงินทุนค่อนข้างมั่นคงและคุณภาพก็ดีมาก ความเป็นอิสระทางบรรณาธิการและความเป็นกลางก็ถือว่าใช้ได้ โดยทางการเมืองอาจเอนซ้ายเล็กน้อย ที่วิดีโอเป็นภาษาฝรั่งเศสก็เพราะสื่อสวิสแยกตามเขตภาษาในประเทศ และการที่มีฉบับแปลเยอรมันก็เป็นผลจากโครงสร้างแบบนั้น ถ้าอยากเสนอให้มีซับอังกฤษ ผมว่าลองติดต่อ RTS โดยตรงก็น่าสนใจ

    • แต่คำอธิบายนั้นฟังเหมือนกำลังสื่อว่า สื่อสาธารณะยุโรป ปกติแล้วไม่น่าเชื่อถือเท่าไร เลยสงสัยว่าทำไมถึงมองแบบนั้น พอลองนึกถึงประเทศยุโรปที่มีสื่อสาธารณะคุณภาพสูง รายชื่อก็ยาวมาก จนการเหมารวมแบบนั้นดูแปลกมากกว่า
  • ผมสงสัยว่าอุบัติเหตุพวกนี้ท้ายที่สุดก็เป็นกรณีของ ความประมาทของผู้ขับขี่ หรือเปล่า

    • ผมคิดว่าใช่ แต่ประเด็นสำคัญคือธรรมชาติของ FSD เองอาจทำให้คนขับเผลอละความสนใจได้
  • ผมก็ไม่ได้ชอบ Tesla เท่าไร และคิดว่ามันถูกประเมินเกินจริงกับโฆษณาเกินจริงมากพอสมควร แต่บทความนี้อ่านแล้วรู้สึกว่า เขียนได้หลวมมาก พาดหัวบอกว่า “Tesla ปกปิดอุบัติเหตุเพื่อทดสอบ Autopilot อย่างไร” แต่ในเนื้อหาไม่ได้อธิบายเลยว่าปกปิดอะไร ปกปิดอย่างไร หรือปกปิดจากใคร เอาข้อมูลรั่วของ Tesla ปี 2022 มาปนกับคดีอีกคดีหนึ่งในปี 2026 โดยไม่แสดงความเชื่อมโยงระหว่างสองเรื่อง ผมคิดว่า Tesla มีรูปแบบพฤติกรรมซ้ำๆ เรื่องคำสัญญาชวนให้เข้าใจผิดและการเปิดเผยข้อมูลที่หละหลวมจริง แต่บทความนี้พิสูจน์ข้อกล่าวหานั้นได้ไม่ดีพอ

    • ผมก็รู้สึกคล้ายกัน โดยเฉพาะในประเด็นที่เกี่ยวกับ Musk มักเห็นอะไรแบบนี้บ่อยกว่า ทั้งที่จริงๆ ก็มีเรื่องให้วิจารณ์มากพออยู่แล้ว ถ้างานข่าวเชิงสืบสวนอยากกู้ความน่าเชื่อถือกลับมา ผมว่าการเสนอข้อกล่าวหาที่น้อยกว่าแต่ ชัดเจนและมีหลักฐานรองรับ จะเป็นประโยชน์ต่อทั้งสาธารณะและความน่าเชื่อถือของสื่อ มากกว่าการโปรยข้อสงสัยคลุมเครือไปทั่ว วิธีคลุมเครืออาจเขย่าความคิดเห็นสาธารณะได้ง่ายกว่า แต่ผมคิดว่านั่นเป็นกลไกอันตรายที่ไม่จำเป็นต้องสอดคล้องกับความจริง
    • เห็นคอมเมนต์นี้แล้วผมเลยไปอ่านบทความเอง และก็รู้สึกเหมือนกันว่าแทบไม่มีเนื้อหาอะไร แต่ไม่ค่อยเข้าใจว่าทำไมความเห็นนี้ถึงโดน โหวตลบ อนึ่ง ผมก็ไม่ใช่แฟน Tesla และคิดว่ารถบรรทุกคันนั้นแย่มากจริงๆ
  • ถ้าอยากดูวิดีโอเต็ม ดูได้ที่ วิดีโอรายงานฉบับเต็มของ RTS

  • ถ้าถนัดภาษาเยอรมันมากกว่า ก็อ่าน บทความภาษาเยอรมัน ชิ้นเดียวกันได้