YouTube начала удалять ролики, где Tesla на автопилоте тормозит перед детьми или объезжает их, а не сбивает
Платформа YouTube начала удалять ролики обычных пользователей, которые проводят тесты Tesla на автопилоте на небольшой скорости (12-15 км/ч). Они показывают, как Tesla с активированной системой автопилота Full Self-Driving (FSD) реагирует на детей и тормозит перед ними или объезжает их, а не сбивает. Причина удаления роликов заключается в нарушении политики безопасности в отношении детей и из-за насилия.
На удалённых роликах дети или взрослые стоят или переходят дорогу перед машинами с активной FSD, а электромобили останавливаются, реагируют на препятствие и не причиняют пешеходам никаких повреждений.
Примечательно, что многие ролики на YouTube с тестами, якобы, включённой FSD, при которой электромобили Tesla сбивают манекенов-детей, остаются в открытом доступе без блокировок со стороны платформы.
Автор ролика под названием «действительно ли бета-версия полностью автономного вождения Tesla сбивает детей?» Тэд Парк протестировал работу FSD электромобиля на своих собственных детях. Парк на Tesla Model 3 подъезжал к одному из своих детей, стоящих на дороге, а затем повторил такую же ситуацию с ребёнком, переходящим улицу. Оба раза электромобиль останавливался, не доезжая до детей.
Tesla Model 3 с FSD останавливается перед пешеходом.
Tesla Model 3 с FSD объезжает стоящего пешехода.
Другие пользователи также подтвердили, что Tesla на небольшой скорости прекрасно реагирует на пешеходов даже на узких дорожках со слепыми зонами.
Эксперты рассказали СМИ, что YouTube в данном случае удалила ролики из-за, якобы, призывов совершать подобные тесты и трюки с другими детьми, так как платформа запрещает побуждать несовершеннолетних к опасным действиям. Хотя на видео авторы не призывали это делать и использовали манекены для проверок, а не только настоящих пешеходов. Также на этих видео электромобили Tesla никого не сбивали.
«Я проверял работу бета-версии FSD раньше и в августе проверил ещё раз. Я бы доверил ей жизнь своих детей, так как система обнаруживает пешеходов как препятствие и предпринимает меры для их безопасности », — пояснил Парк. Он также уточнил, что даже при использовании FSD всегда старается контролировать ситуацию, держаться за руль и быть готовым затормозить в любое время.
В начале августа 2022 года обычные пользователи начали массово проверять, как электромобили Tesla с активированной системой FSD на небольшой скорости реагируют на неподвижных или пересекающих дорогу манекенов ростом с ребёнка. В некоторых случаях это закачивалось просто проездом машины далее с повреждением манекена. Причём даже без предупреждения водителя об инциденте. Видео с этими опасными и неудачными для манекенов тестами YouTube не заблокировала.
Пример любительского теста системы FSD на надувном манекене ребёнка, который перебегает дорогу перед Tesla, двигающейся с небольшой скоростью.
Более продвинутый тест системы FSD со сравнением, как действует в этих же условиях машина с автопилотом и лидаром. Tesla сбила манекен и проехала далее, машина с лидаром безопасно затормозила в нескольких метрах перед манекеном.
Основной посыл таких любительских тестов в том, что покупатели Tesla хотят показать разработчикам системы FSD, что она несовершенна, а компании нужно исправлять именно такие ошибки в её работе в первую очередь. В Tesla утверждают, что анализируют каждую аварию и столкновение, возникающие при работе FSD, а также дорабатывают и обучают эту систему на основе новых данных со всех машин.
В Tesla отреагировали на пожелания пользователей. В новой версии FSD 10.69. которая должна начать распространяться уже с 20 августа, будет добавлено много изменений и дополнений, включая улучшенный алгоритм обнаружения животных и пешеходов, систему ограничения скорости и улучшения в работе алгоритма городского движения. Ожидается, что Tesla FSD Beta v11 будет включать в себя слияние стека Tesla для городского и шоссейного вождения, что станет большим шагом на пути к развитию этой автономной системы вождения.
Ранее исследователи проекта Dawn Project несколько раз проверили работу системы автопилота Full Self-Driving (FSD) электромобиля Tesla Model 3 на распознавание неподвижно стоящих манекенов на дороге впереди. В итоге трёх тестов на скорости 40 км/ч три манекена-ребенка были сбиты в контролируемых условиях при испытаниях. Вот только Dawn Project не показали главные детали и настройки машины в ходе тестирования и умышленно скрыли некоторые моменты при их проведении.
Журналисты из Electrek провели своё расследование и показали, что тесты Dawn Project сделаны неправильно. Они нашли там несколько недочётов и нестыковок по разным условиям проведения тестов и пояснили, что результаты Dawn Project предвзятые и некорректные.
Tesla считает, что работа бета-версии системы помощи водителю Full Self-Driving (FSD) является полностью безопасной при выполнении всех рекомендаций компании — руки на руле и внимательно смотреть на дорожную обстановку.
После выявления в СМИ волны тестирования FSD со стороны обычных водителей, Национальное управление безопасностью движения на трассах США (NHTSA) выступило с заявлением, в котором предостерегает от использования детей для тестирования технологии автоматизированного вождения. «Никто не должен рисковать своей жизнью или жизнью кого-либо ещё, чтобы проверить работу автомобильных технологий и систем автопилота», — заявили в агентстве. «Потребители никогда не должны пытаться создавать свои собственные тестовые сценарии или использовать реальных людей, особенно детей, для проверки работы тех или иных сложных автомобильных технологий», — предостерегли в NHTSA.
В начале августа Департамент транспорта Калифорнии (DMV) обвинил Tesla в мошенничестве при маркетинге систем помощи водителю Autopilot и FSD. В худшем случае компания может лишиться лицензий на продажу своих авто в штате. Департамент подал два заявления в Управление административных слушаний Калифорнии, где указал, что «вместо того, чтобы просто обозначать названия продуктов или торговых марок, эти ярлыки Autopilot и Full Self Driving означают, что автомобили, оснащённые функциями ADAS, будут работать как автономные транспортные средства. На практике же автомобили не работали автономно во время рекламной кампании этих функций и не работают сейчас».
В июне эксперты Национального управления по безопасности дорожного движения США (National Highway Traffic Safety Administration, NHTSA) выяснили, что в большинстве зафиксированных случаев система автопилота Tesla отключается за несколько секунд до аварии. Разработчики сделали так, чтобы привлечь компанию в суде по пункту обвинения в причинении умышленного ущерба из-за работы автопилота было нельзя.