Прямой эфир
\u0447\u0442\u043e \u043f\u0440\u043e\u0438\u0441\u0445\u043e\u0434\u0438\u0442 \u0432 \u0438\u043d\u0442\u0435\u0440\u043d\u0435\u0442\u0435"]
Автомобиль не учили распознавать нарушителей дорожного движения.
Самоуправляемый Uber, сбивший велосипедистку в 2018 году, «не знал» о существовании пешеходов вне переходов. Из-за этого машина сначала приняла женщину за другой автомобиль, а потом за велосипед. Об этом говорится в отчётах Национального совета по безопасности на транспорте США (NTSB) по итогам расследования аварии.
По данным ведомствам, самоуправляемый Uber заметил велосипедистку за 5,6 секунд до столкновения. Так как машина не ожидала, что человек может оказаться на дороге вне пешеходного перехода, она сначала распознала женщину как другой автомобиль.
Система успела несколько раз сменить классификацию с «машины» на «другое», потом снова на «машину» и в итоге остановилась на велосипеде. К этому моменту до столкновения оставалось 1,2 секунды.
Однако самоуправляемый автомобиль не затормозил, потому что система потратила секунду на оценку потенциального столкновения. Автоматическое торможение началось только за 0,2 секунды до аварии, когда ПО Uber решило, что столкновение уже неизбежно.
Задержку в систему ввели намеренно — инженеров беспокоили ложные срабатывания и таким образом они избавились от проблемы. Кроме того, в Uber отключили встроенную автоматическую систему торможения Volvo, которая по заявлению производителя, могла бы снизить скорость до столкновения или избежать его.
В отчёте NTSB также говорится, что внутренняя рабочая структура Uber была построена ошибочно. В компании не было «культуры безопасности»: в подразделении самоуправляемых автомобилей не было ни операционного отдела безопасности ни даже менеджера по безопасности.
Смертельная авария с самоуправляемым Uber произошла в Аризоне 19 марта 2018 года. Машина сбила велосипедистку, которая переходила дорогу в неположенном месте.
После этого Uber приостановила тестирование самоуправляемых автомобилей в США, а американские власти начали расследование. В мае компания закрыла программу в Аризоне и уволила 300 сотрудников.
В июне 2018 года стало известно, что водитель самоуправляемого Uber смотрела за рулём американский аналог шоу «Голос». Она не видела велосипедистку, потому что не следила за дорогой.
В марте 2019 года американские власти заявили, что не станут предъявлять Uber уголовные обвинения из-за смерти женщины. Следствие не нашло оснований для привлечения корпорации к ответственности.
Технически охрененно сложная машина ошиблась в расчётах, сбив одного человека.
— КАКАЯ ТРАГЕДИЯ! ЗАПРЕТИТЬ! К ЧЁРТУ РАЗВИТИЕ, ЕСЛИ ОНО ПРЕДПОЛАГАЕТ НЕВИННЫЕ ЖЕРТВЫ! НАДО ОСТАНОВИТЬ ВСЕ ИССЛЕДОВАНИЯ И РАЗРАБОТКИ!
Каждый день во всём мире люди на машинах сами сбивают тысячи людей.
— Ну, бывает.
Не говоря уже о том, что почти любая человеческая деятельность предполагает жертвы и возможный вред другим людям. Лифты иногда падают. Корабли тонут. Лекарства иногда убивают. Хирурги иногда неправильно режут. Промышленность дает блага, но и отбирает здоровье у миллиардов людей. Полиция иногда сажает не тех. Дома могут сгореть, как и бензиновые двигатели. Но это не повод от всего этого отказываться. Поэтому очень нелепо, когда печальный случай, ничем не выделяющийся на фоне каждодневной жатвы Молоха цивилизации, но на котором сфокусировали истеричное внимание СМИ, вдруг начинает влиять на судьбу технологии. Помню случаи, когда автомобильные компании отзывали миллионы машин, потому что дефекты конструкции приводили к смертельным ДТП. Что-то никто не предлагал запретить автомобили.
Сдаётся мне, на это влияют когнитивные ошибки вроде боязни незнакомых явлений и фокуса внимания на редкие события. Количество ДТП может возрасти процентов в 50, и это обеспокоит только исследователей, потому что обыденность. Как с теми же самолётами примерно, которые значительно реже падают, но по ним трубят с каждого чайника (и есть вполне реальная фобия перелётов). Печально, что баги мышления мешают сделать процесс действительно безопасным.
Про самолёты обсуждали уже
Самолётной аварии боятся гораздо больше потому что понимаешь: если случится что- о серьёзное, то пипец, шансов на выживание практически нет. И главное, ты ничего не сможешь сделать, только ждать смерти, пока самолёт падает.
В автомобиле если водитель вырубится на ходу - можно сидя рядом рулить, просунуть ногу и нажать на тормоз, по ситуации попробовать тормознуть ручником. На крайняк можно попробовать открыть дверцу и десантироваться - шансы на выживание ГОРАЗДО выше, чем при десантировании из самолёта :)
В машинах есть подушки безопасностии тд.
Что важно: люди при этом не учитывают, что машиной управляет любой чайник с правами (даже электрочайник, в контексте этой статьи), а самолётом - пилоты, которых очень качественно учат. По крайней мере, по сравнению с средним водилой авто :)
Там ещё проблема "продлённой смерти". То есть буквально ситуация "ты уже фактически умер, но пока ещё всё вокруг осознаешь". Как в фильмах "Пила", жуткая крипота. Люди на такое специально в кино ходят, нервы пощекотать, а тут реальность то же самое подкидывает.
Например, если бы использовались телепорт-кабины с шансом не выйти из точки назначения в десять-двадцать раз больше чем у самолёта, их бы всё равно куда меньше боялись.
Да, согласен. Подумал об этом но решил что это не так важно. А после твоего комментария понял, что важно :)
Насколько целесообразно сравнивать самолёт и другой транспорт в контексте количества аварий и прочего, с учётом того, что условных машин в России где-то 52 миллиона, самолётов очевидно в миллионы раз меньше. На 52 ляма машин приходится 194тыс дтп в год, то есть вероятность попасть в дтп 0,4%..
Они исправили баг который вызывал резкое торможение, патчем который делал торможение плавным, и ПО посчитало человека за машину (по логике программы велосипед должен был ускорится примерно на 20км/час за секунду). Тут нужно садить в тюрьму того кто, очевидно, не проверил данную ситуацию на автодроме, и допустил машину к дорогам общего пользования.
Они за каким-то хером отключили систему Вольво, которая остановила бы машину, когда столкновение уже очевидно.
Имхо, ошибка тупейшая. Система не распознает людей вне пешеходного перехода. Омг, она у меня в городе человек 500 за день собьёт если поедет. Интересно сколько Tesla убила людей по ошибке софта за всё время существования компании
С этим никто не спорит. Но баг-то можно пофиксить. Я же говорю про игнор тупейших людских ошибок, на которые лицемерно закрывают глаза.
Всё же проще написать хорошую программу, чем заставить водителей ездить по правилам дорожного движения и не ошибаться.
Кстати, было бы интересно и правда сравнить. Vision Zero во всём мире хоть и дороже, чем Tesla, но возможно надёжнее.
Эээ, статистика строится по проеханным километрам либо по количеству авто. Чтобы сравнить аварийность в разных странах не нужно одинаковое количество авто в них.
А как их будет столько же, если из-за одного случая разводят истерику?
Однако самоуправляемый автомобиль не затормозил, потому что система потратила секунду на оценку потенциального столкновения. Автоматическое торможение началось только за 0,2 секунды до аварии, когда ПО Uber решило, что столкновение уже неизбежно. Задержку в систему ввели намеренно — инженеров беспокоили ложные срабатывания и таким образом они избавились от проблемы.
Следствие не нашло оснований для привлечения корпорации к ответственности.
Пиздец.
Ну, так-то женщина переходила в неположенном месте не по переходу.
Я в штаты когда попал, офигел. Мы вышли к дороге, собирались ее перейти. Место неположенное, поэтому остановились и смотрим по сторонам, всех пропускаем. Стоим у края, на проезжую часть не выходим. Водитель видит нас, останавливается и пропускает. Пришлось перейти, и я до сих пор не понимаю прикола.
А чо офигел то что пропустили в неположенном месте?
Лично постоянно наблюдаю такое и честно говоря не очень положительно к этому отношусь.это создает аварийные ситуации.
В России это редко бывает, тем более в штатах я был в 2008 году. Но соглашусь что это не очень правильно.
В Европе то же самое. Нам махали, пропускали, за машиной образовалась мини-пробка - пришлось перебегать. С другой стороны они там больше половины переходов через дорогу делают не в обозначенном месте - у них просто по городам особо не погоняешь - вот и пользуются
Я вот буквально вчера вернулся с ЛА в Москву и до сих пор охуеваю и думаю, как обратно уехать.
Про то, что водители там уступают дорогу когда ты переходишь в неположенном месте и при этом ещё улыбаются тебе тоже сталкивался
Когда ты едешь по дороге и внезапно кто то перед тобой начинает оттормаживаться хотя никакого перехода тут нет - в этом ничего хорошего.
И к сожалению у себя в городе я такое очень часто встречаю.
Еще хуже когда дорога в несколько полос и на правой полосе чувак останавливается пропустить пешеходов (в неположенном месте) а по левой полосе народ как ехал так и ежет не подозревая подвоха. И тут пешеходам может настать пизлец.
Я вот буквально вчера вернулся с ЛА в Москву и до сих пор охуеваю и думаю, как обратно уехать.
Покупаешь билеты и улетаешь.
Я как то за границей охуел, вижу китайцев которые хотят прощемиться в не положенном месте, ну я думаю хуй бы с ними, притормаживаю, пропускаю. Все бы ничего, но по соседней полосе неслась тачка, и водитель не смог быстро прочитать мои мысли и чуть не выписал пиздоглазым путевку в лучший мир. С тех пор никогда не пропускаю пешеходов, пусть сами дожидаются удачного, по их мнению, момента
Эти самоходные повозки на каждую кошку тормозят. Уж на человека-то тем более должны.
А что, кого-то сажают за сбивание людей, переходящих в неположенном месте?
Я полагаю, если выясняется, что водитель успевал затормозить, но принял решение давить - будут «оба не правы».
А значит водителя посадят (и правильно)
Так пусть внесут правки в прошивку, что людей перебегающих проезжую часть можно давить.
Что за тупой отмаз?! Что из перечисленных объектов убермобиль посчитал препятствием, которое можно невозбранно таранить? И что за логика "много ложных срабатываний, отключим систему безопасности" с такими гениями Чернобыль пол СССР снёс бы.
А какая разница бездушной машине, на переходе объект или нет?
Кстати, в России научили бы ещё чекать, не падает ли какой-нибудь пешеход сверху
Представил прям ситуацию, что в РФ прямо сейчас появилась разработка самоуправляемых машин на гос бюджете.
Мне кажется, кроме прослушки, прямой трансляции в МВД и доставке людей прямо в СИЗО, встроили бы еще дубинку для массажа на задних сидениях и автоматический подбрасыватель наркотиков. Не факт что будет ездить сама, скорее управляться сотрудниками Росгвардии по удаленке как в ГТА.
А наши водители, например, до сих пор не знают, что люди могут оказаться на дороге на пешеходном переходе.
Самоуправляемый Uber, сбивший велосипедистку в 2018 году, «не знал» о существовании пешеходов вне переходов.
А там QA вообще были? Это же один из очень важных corner cas’ов
Сбивший человека насмерть депутат «не знал», что существуют люди.
Все человеческие глупости в программном коде не учесть и не обучить нейросеть избегать падающих с неба парашютистов, вылезающих из канализационных люков по среди дороги людей и т.д. Машина с автопилотом должна ассоциироваться с промышленным оборудованием, которое при первой возможности превратит тебя в безжизненную кучу мяса, если ты попытаешся нарушить правила. Люди привыкли к тому, что водителю же не захочется сесть в тюрьму, остановится. Нет, так нельзя. Самое простое, надёжное и прогнозируемое решение для ИИ машины - продолжать ехать. Суета и экстренные манёвры могут только усугубить ситуацию и создать массовую автокатастрофу. А так, все "электронные вагонетки" едут всегда по своему пути и никогда не сворачивают, человеку это запомнить не сложно.
Что за бред? А если это не велосипедист, а металлоконструкция на пол тонны, тоже на похер ехать надо?
Тут вспомнилась трасса из Логана, полная самоуправляемых грузовиков. Полагаю что если бы человек туда вылез, то сам бы и был виноват.
Тогда бы самоуправляемые грузовики с такой логикой разорили бы компанию
не обучить нейросеть избегать падающих с неба парашютистов вылезающих из канализационных люков по среди дороги людей и т.д
Нет ни одной причины обучать нейросеть этим ситуациям, и правилам дорожного движения в целом.
И это ещё не возникала "проблема вагонетки", которую тоже нужно запрограммировать и внести в юридические документы.
Решил напомнить читателям историю про всемирный опрос Moral Machine и результаты
https://nplus1.ru/news/2018/10/25/the-moral-machine
В конечном итоге примерно так и будут запрограммированы беспилотники, опираясь на "коллективные решения".
Читывал фанатов самоездунских авто, что мол требования детально прописать методику поведения в разных ситуациях для ИИ авто - тупо палки в колеса прогрессу/лоббизм. Недолоббировали видать гражданку, на примере в топикстарте.
Ну почему, если допустим ты не на этапе построения модели это делаешь, а уже на этапе результатов встраиваешь всякие линейные правила - это норм, т.к. спасает от подобных ситуаций. Другое дело, что это костыли
Тут будут (надеюсь) исправлять "на этапе результатов", жертве никак не норм - она мертва.
Жертве конечно не норм, но в конкретном случае жертва переходила дорогу хуй знает где - не мгновенная карма, но жаловаться на такой исход глупо
Ну тогда ещё говорили, что система нормально запрограммирована на распознавание пешеходов (и это подтвердилось тестами), но в данном случае то ли сбой произошёл, то ли освещение неожиданное.
Не очень понимаю разницу. Человек или столб, зачем в него врезаться? Возможно сбитая резко дернулась?
Это не ответ на вопрос.
Вот у неё колбасило понимание, что там: столб, велик или «другое»
В каком случае тормозить НЕ надо?
Я понимаю, что ты не инженер убера, но вдруг ты знаешь ответ на этот вопрос...
"люди могут оказаться на дороге без перехода"(с) Какое же днище журналистики, епажмать...Без какого перехода? Спускаемся до уровня: "ну ты понял? - заебок..." #facepalm