• Tesla พยายามหลีกเลี่ยงความรับผิดใน อุบัติเหตุที่เกี่ยวข้องกับ Autopilot โดยการ ปกปิดข้อมูลสำคัญและให้ถ้อยคำเท็จ
  • หลังเกิดเหตุ บริษัทซ่อนข้อมูล "snapshot_collision_airbag-deployment.tar" ที่อัปโหลดไปยังเซิร์ฟเวอร์ และอ้างต่อเจ้าหน้าที่ตำรวจและผู้ฟ้องว่าข้อมูลดังกล่าวไม่มีอยู่
  • ตลอดกระบวนการทางกฎหมายและการสอบสวน Tesla ให้ข้อมูลที่ไม่ตรงความจริงอย่างจงใจ และบิดเบือนหลักฐานสำคัญต่อเนื่อง
  • หลังการวิเคราะห์ของผู้เชี่ยวชาญนิติวิทยาศาสตร์ภายนอกและมาตรการบังคับของศาล ข้อมูลที่ถูกซ่อนจึงถูกเปิดเผยในที่สุด และการวิเคราะห์ภายในของ Tesla เองก็ยืนยันการทำงานของ Autopilot
  • คณะลูกขุนตัดสินความรับผิดของ Tesla ที่ 33% โดยพบว่า ข้อบกพร่องด้าน geofencing และการเฝ้าสังเกตผู้ขับที่ไม่เพียงพอของ Autopilot เป็นหนึ่งในสาเหตุที่การป้องกันอุบัติเหตุล้มเหลว

บทนำ

รายละเอียดเหตุการณ์ที่ Tesla ซ่อนข้อมูลและพยายามหลอกลวงตำรวจ ศาล และผู้ฟ้องเป็นเวลาหลายปีในคดีอุบัติเหตุรถยนต์ร้ายแรงที่เกี่ยวข้องกับ Autopilot เมื่อปี 2019 ถูกเปิดเผยผ่านบันทึกการพิจารณาคดีอย่างเป็นขั้นตอน สรุปนี้เรียบเรียงลำดับการปกปิดและการปลอมแปลงหลักฐานอย่างเป็นระบบของบริษัทหลังเหตุการณ์ และผลลัพธ์ที่ตามมา

สาเหตุอุบัติเหตุและลำดับการปกปิดข้อมูล

1 | 25 เมษายน 2019 – เหตุการณ์เกิดอุบัติเหตุและการอัปโหลดข้อมูลทันที

  • ภายใน 3 นาทีหลังเกิดเหตุ ข้อมูลวิดีโอเซนเซอร์ของรถ, CAN bus, EDR และอื่น ๆ ถูกส่งไปยังเซิร์ฟเวอร์ในไฟล์ "snapshot_collision_airbag-deployment.tar"
  • รถได้ลบสำเนาในเครื่องท้องถิ่น ข้อมูลดังกล่าวสามารถเข้าถึงได้โดยเฉพาะโดย Tesla เท่านั้น
  • ผู้เชี่ยวชาญนิติวิทยาศาสตร์ยืนยันว่าข้อมูลนี้มีอยู่จากการวิเคราะห์คอมพิวเตอร์ในตัวรถ
  • Tesla ยื่นคำตอบเท็จในคำขอข้อมูลทางกฎหมายว่าข้อมูลดังกล่าวไม่มีอยู่

2 | 23 พฤษภาคม 2019 – ทนายความ Tesla ช่วยชี้นำเอกสารขอข้อมูลทางการของตำรวจ

  • ร้อยเวรทางหลวงฟลอริด้า (Riso) ขอข้อมูลการชนจาก Tesla
  • ทนายความของ Tesla ชี้นำเนื้อหาเอกสารทางการโดยตรง ทำให้ข้อมูลการชนจริงถูกตัดทิ้ง (เหลือเพียงข้อมูลเสริมเช่นบันทึกระบบความบันเทิง)
  • แม้ Tesla จะครอบครองข้อมูลนี้อยู่แล้ว ก็ปกปิดข้อเท็จจริงนั้นจากตำรวจและผู้ฟ้อง

3 | มิถุนายน 2019 – ขั้นตอนการดึงข้อมูลที่ทำให้เกิดข้อสงสัยเรื่องความร่วมมือ

  • ตำรวจยึด Autopilot ECU และ MCU ของรถคันนั้นโดยตรง
  • มีการพยายามดึงข้อมูลที่ศูนย์บริการ Tesla แต่ช่างเทคนิคภายในระบุว่าไม่คุ้นชินกับขั้นตอนและอ้างว่า "ข้อมูลเสียหาย"
  • ผู้เชี่ยวชาญนิติวิทยาศาสตร์ต่อมาสามารถเข้าถึงข้อมูลจากคอมพิวเตอร์คันดังกล่าวได้ ยืนยันว่าข้อมูลมีอยู่จริง

4 | 2019–2024 – การปกปิดและปฏิเสธข้อมูลซ้ำๆ

  • แม้ Tesla จะมีข้อมูลดังกล่าวอยู่แล้วหลายปี แต่ต่อคำร้องขอจากตำรวจและศาล ก็ยังคงอ้างว่าข้อมูลไม่มีอยู่หรือเสียหายอย่างสม่ำเสมอ
  • อ้างว่ามีฟังก์ชันลบข้อมูลอัตโนมัติ
  • เปิดเผย/ยอมรับอย่างเป็นทางการบางส่วนเฉพาะหลังหลักฐานนิติวิทยาศาสตร์หรือมาตรการบังคับของศาลยืนยันว่าข้อมูลมีอยู่

5 | ครึ่งหลังของปี 2024 – การดึงข้อมูลตามคำสั่งศาล

  • ตามคำสั่งศาล ผู้เชี่ยวชาญฝ่ายผู้ฟ้องได้ดำเนินการสร้างภาพทั้งหมด (imaging) NAND flash ของ Autopilot ECU
  • งานที่ Tesla อ้างว่าเป็นไปไม่ได้ ผู้เชี่ยวชาญภายนอกทำสำเร็จและสามารถเก็บข้อมูลได้ครบถ้วน

6 | กุมภาพันธ์–มีนาคม 2025 – หลักฐานชี้ชัดผ่านการวิเคราะห์นิติวิทย์

  • รวบรวมข้อมูลเมตาหลัก เช่น ชื่อไฟล์ "snapshot_collision_airbag-deployment.tar", ค่า checksum และเส้นทางเซิร์ฟเวอร์
  • แตกต่างจากข้อมูลที่ Tesla ส่งมอบเดิม ข้อมูลนี้มีบันทึกสำคัญหลายอย่าง รวมถึงการทำงานของ Autopilot ก่อนและหลังการชน, สัญญาณเตือน, และข้อมูลแผนที่/วีชั่น
  • แม้แผนที่จะแสดงพื้นที่นี้ว่าเป็น "restriced Autosteer zone" ระบบยังคงทำงานโดย Autopilot ต่อไปโดยไม่ถูกปิดหรือเตือน

7 | พฤษภาคม 2025 – ข้อเท็จจริงชัดเจนจาก log เซิร์ฟเวอร์และการยื่นหลักฐาน

  • ฝ่ายผู้ฟ้องเรียกบันทึก AWS และยืนยันว่าข้อมูลมีการจัดเก็บบนเซิร์ฟเวอร์ตั้งแต่เวลา 18:16 (PDT) ของวันที่ 25 เมษายน 2019
  • การวิเคราะห์ภายในของ Tesla ตอกย้ำว่าไฟล์ดังกล่าวถูกใช้งาน, Autopilot ทำงาน และผู้ขับขี่ได้วางมือออกจากพวงมาลัย
  • ไม่ได้มอบข้อมูลให้ตำรวจหรือครอบครัวผู้เสียหาย

8 | กรกฎาคม 2025 – การพิจารณาคำตัดสินของคณะลูกขุน

  • คณะลูกขุนรับทราบการเปิดเผยข้อมูลอุบัติเหตุและความพยายามปกปิดแบบเป็นระบบของ Tesla
  • เนื้อหาข้อมูลจริง: Autopilot/Autosteer ทำงานอย่างครบถ้วน โดยผู้ขับขี่ไม่เข้าแทรกแซงด้วยมือ
  • ไม่มีการเตือน ระบบตอบสนองไม่เพียงพอเมื่อเข้าสู่โซนจำกัด (Autopilot ทำงานบนถนนที่อยู่นอกบริเวณออกแบบสำหรับทางหลวงเท่านั้น)
  • NTSB เคยแนะนำให้ Tesla ดำเนินมาตรการ geofencing และเพิ่มการตรวจสอบผู้ขับเพื่อป้องกันการใช้ระบบผิดพลาดในอดีต
  • แม้ว่าความประมาทของผู้ขับจะเป็นสาเหตุโดยตรง แต่ Tesla ก็ยังถูกกำหนดให้รับผิดบางส่วนอย่างน้อย (33%) จากข้อบกพร่องเชิงระบบ

ความเห็นของ Electrek

  • ฝ่ายวิจารณ์บางคนดูกรณีนี้ว่าเป็นคำเรียกร้องการชดใช้ที่ไม่เหมาะสมจากผู้ฟ้อง แต่ในมุมมองของครอบครัว มุ่งเน้นที่ความถูกต้องในการสืบค้นข้อเท็จจริงและความตั้งใจป้องกันการเกิดเหตุซ้ำ
  • ความรับผิดโดยตรงอยู่ที่ผู้ขับ แต่ Tesla ก็มีปัญหาสำคัญเช่น ข้อจำกัดการใช้งาน Autopilot ที่ไม่เข้มงวด คำเตือนความเสี่ยงไม่เพียงพอ และความพยายามหลบหนีความรับผิดของบริษัท
  • หลังจากพิจารณาหลักฐานทั้งหมด คณะลูกขุน 12 คนกำหนดความรับผิดของ Tesla ที่ 33% ซึ่งชี้ว่าการตัดสินครั้งนี้เป็นธรรม
  • คดีนี้ย้ำความสำคัญของความน่าเชื่อถือของระบบ Autopilot ความโปร่งใสด้านข้อมูล และการกำหนดความรับผิดชอบอย่างชัดเจน

ยังไม่มีความคิดเห็น

ยังไม่มีความคิดเห็น