Технологии
Никита Логинов

Авария Tesla в Техасе стала седьмым смертельным случаем за пять лет. Что произошло и опасен ли автопилот

Инцидент поднимает вопросы, которые скептики задают Илону Маску с 2016 года.

18 апреля в Техасе произошла авария с участием электромобиля Tesla Model S и двумя смертельными исходами. Автомобиль вылетел с трассы на высокой скорости, врезался в дерево и загорелся. Как сообщил Insider, пожарные потратили более 120 тысяч литров воды, чтобы потушить электромобиль. После этого на пассажирских сиденьях обнаружили два сильно обгоревших тела.

Фото Reuters

По словам полицейского, следователи уверены, что в момент аварии на водительском месте никого не было. Погибшие — мужчины 59 и 69 лет, находились на переднем и заднем пассажирских сиденьях. За несколько минут до аварии они сказали жёнам, что хотят прокатиться, и упомянули функцию автопилота Tesla.

Пользователь Twitter под ником Amart15416132 выразил сомнение в версии полицейских — по его мнению, защитные системы Tesla Model S делают эту версию неправдоподобной. Основатель и глава компании Tesla Илон Маск согласился с ним и заявил, что автопилот точно не был включен на разбившейся машине.

Очередной инцидент в очень неудобное время

Новое происшествие может стать серьёзной проблемой для Маска — оно случилось на фоне растущего скепсиса в отношении безопасности автопилота Tesla. Национальная администрация безопасности дорожного движения США (NHTSA) в марте даже начала проверку последних 23 аварий Tesla, в которых мог использоваться автопилот или его отдельные функции. В их числе такие случаи:

  • в 2016 году автопилот Tesla Model S не затормозил автомобиль и позволил ему попасть под тягач, из-за чего водитель Tesla погиб;
  • в том же году электромобиль на автопилоте не пропустил тягач с прицепом на повороте и проехал под ним, из-за чего лишился крыши и тяжело травмировал своих пассажиров;
  • в марте 2018 года Tesla Model X столкнулась с бетонным разделителем и соседними машинами, после чего загорелась — от полученных травм водитель погиб в больнице;
  • год спустя Tesla Model 3 на автопилоте въехала под полуприцеп на повышенной скорости, из-за чего крышу срезало, а водитель погиб;
  • весной 2021 года самоуправляемая Tesla врезалась в стоящий на обочине полицейский автомобиль, никто серьёзно не пострадал.

Чиновники NHTSA пока не комментируют ход расследования, но отметили, что собираются уделить максимум внимания будущей функции полностью автономного вождения Tesla (FSD). Это расширенная версия автопилота, которая предлагается для бета-тестирования некоторым владельцам Tesla.

За пределами госструктур дискуссия о безопасности автопилотов Tesla идёт давно. Скептиков не удовлетворяют заявления Илона Маска, особенно с учётом того, что электромобили Tesla используют литий-ионные аккумуляторы. Такие батареи могут взорваться от сильного удара и бурно гореть даже без внешнего кислорода. Чтобы узнать, как потушить Tesla Model S в Техасе, пожарным пришлось звонить специалистам компании.

Аргументы за безопасность автопилота: статистика, статистика и ещё раз статистика

Система автоматического управления Tesla умеет следовать заданной полосе и менять полосу при необходимости, самостоятельно парковаться и подъезжать к водителю с парковочного места, держать дистанцию до окружающих авто и избегать столкновений. Для этого автопилот использует мощные искусственные нейросети, камеры, радары и прочие датчики.

Функции автопилота постоянно дополняются обновлениями ПО Tesla. Цель Маска — FSD, система полностью автономного вождения, которая сможет самостоятельно довозить человека от одной точки на карте к другой. Её бета-версию начали «с осторожностью» тестировать осенью 2020 года.

Как заявляют представители компании, даже небольшой уровень автоматизации сокращает количество аварий, которые случаются из-за некомпетентности, халатности или усталости водителей.

После первой аварии со смертельным исходом в 2016 году компания отметила, что к тому моменту Tesla со включённым автопилотом проехали в совокупности почти 210 миллионов километров. На других же автомобилях в США люди погибают каждые 150 миллионов километров общего пробега, а по миру — каждые 97 миллионов километров. То есть, Tesla с автопилотом как минимум на 40% безопаснее других автомобилей.

К тем же выводам пришла NHTSA в отчёте 2017 года, проанализировав частоту срабатывания подушек безопасности у различных автомобильных марок. На Tesla с автопилотом она на 40% ниже. 18 апреля 2021 года, за день до аварии в Техасе, Илон Маск отметил, что электромобили Tesla до десяти раз безопаснее других авто.

В 2020 году глава отдела искусственного интеллекта в Tesla заявил, что электромобили компании проехали на автопилоте, в общей сложности, почти пять миллиардов километров. Под его управлением Tesla более 200 тысяч раз успешно перестраивались из полосы в полосу и сотни раз в день предотвращали столкновение с пешеходами.

Что касается аварий со смертельным исходом, то компания склоняется к тому, что в них повинен человеческий фактор. Так, перед аварией 2018 года, когда Tesla въехала в бетонный разделитель, руки водителя не находились на руле. Следствие установило, что водитель, скорее всего, во время поездки играл на своём iPhone.

Легкомыслие проявил и первый погибший владелец Tesla в 2016 году. Расследование показало, что водитель упорно игнорировал предупреждения Tesla о необходимости держать руки на руле. За 37 минут поездки в режиме автопилота водитель держал руль только 25 секунд.

Tesla предусмотрела систему мониторинга водителя, которая проверяет, находится ли водитель на месте, держит ли руль руками, следит ли за дорогой и не увлёкся ли смартфоном. Но эксперты и критики сомневаются в эффективности этих систем.

Аргументы против: защитные системы не так уж и защищают, а статистикой Tesla манипулирует

На проблемы систем безопасности Tesla обращала внимание всё та же NHTSA, когда расследовала аварии 2017 и 2018 годов. Сотрудники администрации отметили, что электромобилям не удаётся хорошо контролировать водителей и принимать нужные меры, когда они отрывают глаза от дороги или руки от руля.

Наглядное доказательство этому появились в 2018 году. Тогда по интернету разошлось видео, на котором владелец Tesla сидит на пассажирском сиденье с запрокинутыми за голову руками, пока сам электромобиль едет по трассе.

А в 2020 году американский тиктокер вовсе лёг спать на заднем сиденье Tesla Model 3, пока машину вёл автопилот.

Такие случаи не единичны и указывают на системность, а не на разовые оплошности. Систему мониторинга водителя Tesla действительно легко обмануть. Например, с помощью фото можно «убедить» систему, что водитель сидит за рулём и внимательно следит за дорогой.

Функцию отслеживания рук водителя «успокоить» ещё проще с помощью нехитрых устройств или первых попавшихся предметов.

Здесь система мониторинга водителя считает, что его руки лежат на руле Скриншот видео с Youtube

Что касается датчиков давления на водительское сиденье, которые призваны контролировать наличие водителя на месте, то с ними, похоже, всё ещё хуже. Эти датчики просто перестают работать после включения автопилота.

В 2018 году журналистам The Wall Street Journal стало известно, что инженеры Tesla предлагали руководству компании использовать более мощные и надёжные системы мониторинга водителя. Но Илон Маск якобы отклонил это предложение из опасений, что такие системы обойдутся слишком дорого и будут раздражать водителей своим «назойливым пищанием».

Позже Маск опроверг эту информацию.

С самим автопилотом Tesla тоже не всё гладко. Опросы «тесловодов» в 2018 и 2019 годах выявили сотни и тысячи жалоб на автоматизированное вождение. Водители говорили о сбоях, неожиданных отключениях, странных манёврах и резких изменениях скорости при включённом автопилоте. Журналисты тоже отмечали опасные перестроения автопилота — по их словам, хороший водитель никогда бы так не сделал.

Наконец, вызывает вопросы и статистика безопасности Tesla, которой так часто щеголяет глава компании Илон Маск. Независимые исследователи отмечают, что она опирается на слишком общие и смутные данные, которые «мешают всё в кучу». Учёные согласны с тем, что Маск «сравнивает яблоки с апельсинами» и утаивает от общественности подозрительно много данных.

Корпорация систем контроля качества (QCS) в своём исследовании также указала на то, что Tesla скрывает слишком много данных. После того, как QCS в судебном порядке получила доступ к этим данным, она сделала неутешительные выводы. Оказывается, количество аварий после внедрения автопилота могло вырасти на 60% вместо того, чтобы упасть на 40%.

Такой разброс результатов специалисты QCS объясняют слишком вольной интерпретацией статистики со стороны NHTSA, которая заявляла о 40-процентном падении аварийности.

* * *

Расследование аварии в Техасе только началось, специалистам ещё предстоит установить, виновен ли автопилот Tesla в инциденте. Но как бы то ни было, электромобили Tesla бьются регулярно, порой со смертельным исходом. Вопрос в том, как с этим бороться — идти к полностью автономному управлению, как хочет Илон Маск, или же, напротив, урезать функции автопилота, как призывают его оппоненты.

#tesla #ии