Вердикт: «виновен»! Кое-что про «автопилот» Тесла (Mr.Wolf)

Государственная администрация контроля безопасности на дорогах (National Highway Traffic Safety Administration (NHTSA) – федеральное агентство, подразделение министерства транспорта США) опубликовала отчет с результатами расследования аварий автомобилей марки «Тесла» за период с января 2018 по август 2023 года, связанных тем или иным образом с функцией «автопилота».

Всего было проанализировано 956 аварий, где «автопилот», как утверждалось, первоначально использовался перед или во время аварий. При этом 446 событий, произошедших с начала 2018 по август 2022 года изучались путем углубленной оценки видео с бортовых камер транспортного средства, регистраторов данных о событиях (EDR), журналов данных и другой информации; а оставшиеся 510 (за период август 2022 – август 2023 года) – на основании предоставленных компанией Тесла журналов данных и видео, а также – прочих доступных материалов в случаях, когда информации от Тесла по соответствующему событию было недостаточно.

По результатам анализа большинство ситуаций, где прямое или косвенное влияние «автопилота» было подтверждено, были отнесены к одной из трех категорий.

Удар фронтальной плоскостью

Было выявлено 211 аварий, в которых лобовая плоскость автомобиля столкнулась с транспортным средством или препятствием на своем пути. Ситуация происходит когда водитель прекращает управлять автомобилем Тесла, работающем в режиме автопилота, и транспортное средство сталкивается с обстоятельствами, находящимися за пределами возможностей автопилота по обнаружению объектов или событий (например, обнаружение препятствий и/или планирование правильной траектории). Последствия такого рода аварий часто бывают серьезными, поскольку ни система, ни водитель не реагируют соответствующим образом, что приводит к резкому перепаду скоростей и высокоэнергетической аварии.

В результате 211 аварий, рассмотренных в рамках данного варианта, произошло 13 ДТП со смертельным исходом, в результате которых 14 человек погибли и 49 получили ранения.

Проведенный анализ позволяет сделать вывод о том, что при использовании автопилота водители отключаются от управления автомобилем и в результате – несвоевременно реагируют на заблаговременно видимую опасность.

Реакция водителей на опасность до удара, на основании регистраторов данных о событиях и журналов данных транспортного средства была следующей: водители либо вообще не тормозили, либо тормозили менее чем за одну секунду до аварии в 82 процентах инцидентов, и либо не рулили, либо пытались рулить менее чем за одну секунду до удара в 78 процентах инцидентов.

При этом, в 54% случаев, опасность была видна более чем за 5 секунд, однако по каким-то причинам водители не отреагировали на нее. Для прочих случаев также своевременная реакция водителя позволила бы смягчить последствия аварии, но в виду ее отсутствия этого не произошло.

Таким образом, несмотря на многочисленные предупреждения производителя, самой системы и применение защитных механизмов (включая контроль действий и взгляда водителя специальной камерой) – достаточный уровень вовлеченности водителя в управления автомобилем не был обеспечен. Ситуация характерна для всех версий оборудования Тесла и при всех вариантах аварий.

Потеря контроля при слабом сцеплении с дорогой

Было выявлено 53 аварии, где функционал «autosteer» (компонент пакета Тесла «Basic Autopilot», который предназначен для использования на «автомагистралях с контролируемым доступом» и может обеспечить поддержку рулевого управления, торможения и ускорения для водителей в определенных условияхсогласно документации Тесла) использовался в условиях слабого сцепления с дорогой, например, на мокрых дорогах, где транспортное средство потеряло сцепление с дорогой, и впоследствии -контроль направления движения, что привело к катастрофе. Как правило, транспортное средство почти сразу выходит из своей полосы движения и далее – ударяется о барьер проезжей части или другой объект.

Непреднамеренное переопределение рулевого управления

Было выявлено 55 аварий, когда в ходе использования «автопилота», водитель случайно или неосознанно деактивировал функционал «autosteer», и при этом функционал «TACC» (Traffic-Aware Cruise Control - круиз-контроль с учетом дорожного движения, который в других автомобилях называется ACC или адаптивным круиз-контролем. Это обычный круиз-контроль, за исключением того, что он использует датчики, чтобы «видеть» машины перед вами и изменять скорость в зависимости от дорожного движения. Если автомобиль перед вами движется медленнее, чем заданная вами скорость, он замедлится и сохранит подушку безопасности между вами и автомобилем впереди. При этом нет подсистема не осуществляет рулевое управление, этим управляет водитель – или «autosteer») оставался активным.

Это происходило, как правило, при более активном участии водителя в рулении: сильный поворот руля или несколько прерывистых движений рулем – отключают функционал «autosteer». При этом водитель продолжал считать, что за руление отвечает «автопилот», в результате чего неуправляемая машина покидала свою полосу движения с дальнейшими неблагоприятными последствиями.

Про телеметрическую информацию

В ходе анализа выяснились и неблагоприятные факты о функционировании сбора телеметрии компанией Тесла.

В действительности, компания Тесла не знает о каждой аварии с участием «автопилота» даже в случае серьезных аварий из-за пробелов в телематической отчетности. Дело в том, что Тесла получает телематические данные от своих автомобилей, когда существует соответствующая сотовая связь и антенна не повреждается во время аварии. И в этом случае передается информация как о самой аварии, так и сводные данные по автомобилю, его движению, управлению и т.д. При отсутствии связи – информация не поступает, что заметно усложняет анализ аварий.

Более-менее надежно приходят данные в случае срабатывания подушек безопасности, но доля каких событий по имеющимся отчетам – незначительна (порядка 18%).

Однако Тесла в предоставлении отчетности предпочитает ориентироваться именно на телеметрию, в отличие от других участников рынка, использующих весь комплекс средств для анализа произошедших неблагоприятных событий. Это приводит, в том числе – к расхождению в трендах, наблюдаемых по отчетам.

Сравнение с аналогами

Данные, собранные по аналогичным решениям иных производителей, позволили задокументировать общее состояние внедрения «автопилотов» в США, в том числе - подход каждого производителя к разработке, выбору дизайна, развертыванию и совершенствованию своих систем. Сравнение подхода Тесла с иными решениями позволяет сделать вывод, что решение Тесла несбалансированно в виду применения слабой системы вовлечения водителей наряду с широкими операционными возможностями «автопилота».

В отличие от аналогичных систем, протестированных при анализе, «автопилот» Тесла фактически оказывал сопротивление водителям при попытке обеспечить ручное рулевое управление. Попытки водителя-человека отрегулировать рулевое управление вручную приводили к деактивации «autosteer» с последующей потерей управления автомобилем. Другие протестированные системы учитывали рулевое управление водителей, приостанавливая при этом автоматическое соблюдение полосы движения, а затем повторно активируя его без дополнительных действий водителя.

Примечательно, что сам термин «автопилот» не подразумевает функцию помощи, а скорее вызывает идею о том, что водители не должны осуществлять полный контроль. Эта терминология может привести к тому, что водители полагаются на него, считают, что автоматизация имеет больше возможностей, чем на самом деле. Идентичные решения других производителей обычно используют более консервативную терминологию, такую как «помощь», чтобы подразумевать, что водитель и автоматика предназначены для совместной работы, и именно водитель должен осуществлять постоянный контроль.

P.S.

Tesla выпустила бета-версию крупного обновления (v12) фирменной технологии автономного вождения FSD. По словам Илона Маска, оно внедряет в автопилот «сквозные нейронные сети», благодаря чему за поведение транспортного средства на дороге будет отвечать искусственный интеллект.

Если раньше автомобиль Tesla во время включённого автопилота полагался на заранее запрограммированный код, написанный сотрудниками компании, то в FSD v12 этим занимается нейронная сеть, обученная на миллионах видеозаписей. Это позволило программистам Tesla удалить более 300 тысяч строк кода C++.

Интересно, что Tesla с самого начала заявляла, что Full Self-Driving будет полагаться на искусственный интеллект при управлении транспортным средством, но потребовалось более 7 лет с момента релиза этой функции, прежде чем компания действительно реализовала обещанное. Но как это будет работать на практике — покажет время.

источник