Chiếc Tesla được cho là đã sử dụng chế độ tự lái hoàn toàn (Full Self-Driving) đã dừng lại bất ngờ trong một đoạn đường hầm trên đường cao tốc.
Theo Intercept, một video ghi lại từ camera giám sát trên cầu San Francisco Bay vừa được công bố gần đây cho thấy một chiếc Tesla bất ngờ dừng lại trong một đoạn đường hầm trên đường cao tốc, khiến 8 chiếc ôtô đâm liên hoàn ngay sau đó.
Vụ tai nạn xảy ra vào ngày 24/11, gây tắc nghẽn giao thông trong hơn một giờ và làm 9 người bị thương, trong đó có một em bé 2 tuổi. Hai đoạn video giám sát từ vụ việc đã được thu giữ để điều tra.
Trích dẫn từ báo cáo về tai nạn giao thông cho biết sau khi xảy ra tai nạn, người lái xe Tesla cho biết chiếc xe đã bị ảnh hưởng bởi phần mềm Tự lái hoàn toàn (Full Self-Driving - FSD) của Tesla và đã di chuyển vào làn đường bên trái trước khi dừng lại trước một phương tiện khác. Người phát ngôn của Cục quản lý An toàn Giao thông Cao tốc Quốc gia Mỹ (NHTSA) và Bộ Giao thông vận tải California không xác nhận việc tính năng FSD có được kích hoạt hay không.
Vào ngày xảy ra vụ tai nạn, một nhân chứng tại hiện trường, Shayna Kelly ở San Francisco, nói rằng cô đã chứng kiến chiếc Tesla đột ngột thay đổi hướng.
“Nó đột ngột dừng lại”, người phụ nữ chia sẻ. 'Khi đó, các xe khác không có chỗ để tránh.'

Một video ghi lại cho thấy chiếc xe Tesla chuyển sang làn đường bên trái với đèn báo nhấp nháy.
FSD là một tính năng bổ sung cho chế độ hỗ trợ lái tự động Autopilot của Tesla, cho phép xe tự động chuyển làn đường, đi vào và ra khỏi xa lộ, nhận biết các biển báo dừng và đèn giao thông cũng như tự đỗ xe. Phần mềm hiện đang trong giai đoạn thử nghiệm beta và vẫn yêu cầu người lái xe phải giám sát hệ thống mọi lúc.
Người phát ngôn của NHTSA nói với tờ Insider rằng cơ quan này đã mở cuộc điều tra về tai nạn. Cho đến ngày 22/12, đã có ít nhất 41 cuộc điều tra về các tai nạn liên quan đến tính năng tự động của Tesla bao gồm cả phanh khẩn cấp tự động và Autopilot hoặc FSD.
Associated Press cũng đưa tin mới rằng NHTSA đang xem xét một dòng tweet từ CEO Tesla Elon Musk, trong đó tỷ phú cho biết ông dự định cập nhật phần mềm FSD để loại bỏ tính năng giám sát bánh lái cho một số tài xế.

Tai nạn đã gây ra 9 người bị thương, trong đó có một em bé 2 tuổi.
Phần mềm FSD của Tesla đã phải đối mặt với nhiều lời chỉ trích. Trong vài năm qua, những người tham gia thử nghiệm phiên bản beta đã chia sẻ trên YouTube nhiều ví dụ về lỗi trong phần mềm, từ phanh giả và việc chuyển làn vào sai đường cho đến các sự cố khi phần mềm không nhận ra người đi bộ trên đường.
Năm ngoái, Bộ phương tiện giao thông California đã buộc tội Tesla về các hành vi tiếp thị gian lận trong quảng cáo Autopilot và FSD. Vào năm 2021, một người đàn ông đã bị bắt vì ngồi ở ghế sau của chiếc Tesla của mình khi đang sử dụng chế độ tự lái hoàn toàn.
Tham khảo BI, AP
