22.10.2024

Федеральное расследование Tesla: Проверка системы автоматизации после аварий с участием FSD

В США началось федеральное расследование, касающееся возможных дефектов в системе частичной автоматизации Tesla Inc., которая рекламируется как Full Self-Driving (FSD). Это решение было принято после ряда аварий, включая одну с летальным исходом, сообщает Bloomberg.

Национальная администрация безопасности дорожного движения (NHTSA) намерена оценить, способна ли система FSD корректно выявлять и адекватно реагировать на туман и другие условия ограниченной видимости. Агентство отметило, что в подобных ситуациях зарегистрировано четыре инцидента с участием FSD.

Один из этих инцидентов произошел, когда внедорожник Tesla Model Y насмерть сбил пешехода. В другом случае, который произошел с седаном Model 3, пострадал один человек, однако травмы были незначительными. Представители Tesla пока не предоставили комментарии по этому поводу.

Данное расследование может негативно сказаться на усилиях генерального директора Илона Маска по продвижению Tesla в качестве лидера в сфере автоматизированного вождения. На данный момент пользователи FSD обязаны постоянно следить за системой, однако, по словам Маска, с начала следующего года водителям в Техасе и Калифорнии больше не нужно будет это делать.

В результате начала расследования акции Tesla упали на 0,8% вскоре после открытия торгов. Снижение произошло после того, как на прошлой неделе Маск представил прототипы беспилотных автомобилей, не раскрывая при этом подробностей о том, как компания намерена реализовать свои амбиции в области автономного вождения.

Хотя расследование охватывает около 2,4 миллиона автомобилей Tesla, лишь часть клиентов платит за FSD. Это расследование дополнительно к запросу об отзыве, который NHTSA открыла в апреле, чтобы выяснить, сделала ли Tesla достаточно для предотвращения неправильного использования других функций помощи, продвигаемых как Autopilot.

Агентство также изучает, сохраняет ли обновление программного обеспечения, внедренное Tesla в конце прошлого года, вовлеченность водителей в процессе использования системы. NHTSA заявила, что существует «критический разрыв в безопасности» между ожиданиями водителей относительно возможностей автопилота и его реальными возможностями. Этот разрыв привел к предсказуемому неправильному использованию системы и, как следствие, к авариям, которые можно было бы избежать.

В апреле NHTSA сообщила о 211 инцидентах, когда автомобили Tesla попали в аварии, находясь в режиме автопилота, несмотря на то что водители имели достаточно времени для того, чтобы избежать столкновения или смягчить последствия. В 111 случаях водители съезжали с дороги после непреднамеренного отключения системы.

Илон Маск выразил мнение, что способность Tesla разрабатывать технологии автономного транспорта в конечном итоге определит, будет ли компания стоить больших денег или «практически ничего». Автопроизводитель взимает 8 тысяч долларов за FSD в США и сообщил, что в начале следующего года намерен обратиться к регулирующим органам для получения одобрения на развертывание технологии в Европе и Китае.

Оцените статью
ODELAX.RU
Подписаться
Уведомить о
guest
0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x

Проверить франшизу

Спасибо
Ваша заявка отправлена
Скоро мы свяжемся с Вами