В США водитель Tesla впервые предстанет перед судом за ДТП со смертельным исходом, в котором участвовал автопилот Статьи редакции
Это первый случай, когда гражданина США обвиняют в совершении преступления, связанного с использованием автоматизированной системы вождения.
Прокуроры штата Калифорния предъявили владельцу Tesla Model S два обвинения в смертельной аварии, которая произошла в 2019 году и в которых участвовала система автопилота электрокара. Об этом сообщает AP.
По данным окружного прокурора, инцидент произошёл в пригороде Лос-Анджелеса. 27-летний мужчина, съезжая с шоссе, проехал на красный свет и врезался в Honda Civic, что привело к смерти двух человек. Владельца машины обвиняют в ДТП со смертельным исходом. До судебного процесса его выпустили под залог, пока дело находится на рассмотрении.
В официальных документах суда функция автопилота в электрокаре не упоминается. При этом Национальная администрация безопасности дорожного движения США (NHTSA), которая организовала команду для расследования инцидента, подтвердила, что функция была активна во время ДТП. В ближайшем будущем ведомство планирует опубликовать результаты расследования.
NHTSA напоминает, что на сегодняшний день ни одно из имеющихся в продаже транспортных средств не имеет права для полного «самоуправления». Независимо от того, активирован ли автопилот, водитель обязан всё время контролировать дорожную обстановку и смотреть на дорогу. В соответствии с законами штата, он также отвечает за последствия управления с помощью автоматизированных систем.
Автопилот Tesla вызывает пристальное внимание со стороны американских регуляторов не в первые. В 2021 году NHTSA начала расследование, в рамках которого рассматривают более десяти случаев инцидентов, связанных с функцией электрокаров. Например, автопилот способствовал ряду аварий со смертельным исходом, а семьи погибших подавали на Tesla в суд.
Например, в некоторых случаях владельцы Tesla злоупотребляли функцией автопилота. Водители засыпали за рулём, а кто-то ехал по шоссе во время сна со скоростью 150 километров в час.
Комментарий недоступен
Комментарий недоступен
надо поднять
Комментарий недоступен
Комментарий удален модератором
Комментарий недоступен
Комментарий удален модератором
Комментарий недоступен
Комментарий удален модератором
Комментарий недоступен
Комментарий недоступен
сосиска бы не упала, если бы в самом начале обвинили автопилот, а не водилу. после аварии все горели на теслу так-то
Эту херню автопилотом называть нельзя это автоматизированная система управления, по факту, просто улучшенный круиз-контроль. Автопилотом там и не пахнет
Комментарий недоступен
Тут дело не в том насколько их система работает хорошо, а в том что это априори не может считаться автопилотом, уровень не тот
Комментарий недоступен
Автопилот же не должен проезжать на красный свет?
Никто никому ничего не должен
Комментарий удален модератором
Это произошло в 2019 году. Тогда функция автопилота была доступна только для шоссе, и не должна была быть использована в городе в принципе.
Сейчас FSD доступен в городе и работает на совершенно ином программном обеспечении.
Комментарий недоступен
Справедливости ради там и без автопилота хрен среагируешь
Комментарий недоступен
Лидар?
Комментарий недоступен
Это не очевидно, но у радара плохое соотношение сигнал / шум. Невозможно каждый раз жать тормоз в пол когда радар вдруг начинает репортить что луч от чего-то отразился. Придется что-то игнорировать, по неочевидным критериям. Соответсвтенно система пологающаяся на радар не может работать надежно.
Комментарий недоступен
Это все испытывали несколько лет, пришли к тому что можно более лучших результатов добиться с камерами. Есть где-то видео где Andrej Karpathy обясняет в деталях проблему с плохим качеством сигнала с радара.
Помогите сосчитать теслы
https://youtu.be/-9yqXzZ16ns
Здесь очевидно не было времени на реакцию. К томуже шоссейный автопилот в данном примере еще не работает на программном обеспечении FSD (которое доступно для города).
На деле автопилот уже сейчас тысячи и тысячи раз в день спасает людей от аварий, как показано в примерах здесь: https://youtu.be/gZ2SeiLjaEc?t=179 (с 3:26) но это не попадает в новости. Примеры с PMM могли привести к очень печальным последствиям если бы не автопилот.
Так это не автопилот, а по сути чуть более умный адаптивный круиз-контроль
Но на красный свет реагировать должен
Ну не заметил в этот раз, с кем не бывает
Комментарий удален модератором
“транспортных средств не имеет права для полного «самоуправления»” очень плохой перевод.
Транспортное средство в принципе никакими правами не обладает и не может ими обладать, так как не является субъектом права.
Комментарий удален модератором
Особенно роботов 👀
Комментарий удален модератором
Комментарий недоступен
Комментарий удален модератором
Тогда в 2019-м еще не было полноценной системы автопилота. Даже сейчас она в бете и доступна не всем. Тогда ездили обычные системы 2-го уровня по SAE, то есть по факту это продвинутый адаптивный круиз-контроль, который не смотрит на светофоры. Автор либо этого не знает, либо намеренно умалчивает.
И восстали машины из пепла ядерного огня.
Комментарий удален модератором
Комментарий недоступен
Комментарий удален модератором
Кожаный мешок вновь проиграл.
Комментарий удален модератором
Таков путь
Так а машина тем более, думаю от интеллекта тоже ничего не осталось, Так как тесла горит как бенгальский огонь, но только часов 8 при деформации батареи
Илон Маск: Одобряю и предлагаю так же приписывать удаленную ответственность на тех, у кого в собственности автомобиль!
Комментарий недоступен
Комментарий удален модератором
Комментарий недоступен
Какой бы не был автопилот, в любом случае водила сидит за рулем и следит за обстановкой. И если автопилот что-то начинает делать не так, и водила не среагировал - естественно это вина водилы. Если нет, так можно круиз контроль включить, въехать в толпу людей, а потом оправдываться что ты не виновен, потому что не жал на педаль газа, и машина сама всех убила