10 марта 2026, 10:27
Платформа автопилота FSD Tesla проехала приватный ЖД-переезд
В сети завирусилось видео, на котором Tesla Model 3 в режиме FSD «полностью автономного вождения» проезжает сквозь шлагбаумы железнодорожного переезда в районе Лос-Анджелеса.
Инцидент произошел в тот же день, когда NHTSA установила крайний срок для предоставления Tesla данных из расследования нарушений правил дорожного движения в режиме автопилота.
Пользователь Threads по имени Laushi Liu опубликовал видео с видеорегистратора своей Tesla 8 марта. На нём видно, как автомобиль в режиме «целиком автономного вождения» движется со скоростью 37 км/ч недалеко от Вест-Ковины, Калифорния. Он приближается к железнодорожному переезду, где только что опустились шлагбаумы, и проезжает прямо сквозь них. Шлагбаумы находились приблизительно на высоте фронтальных камер Tesla. Платформа не показала никаких признаков их обнаружения или попытки замедления. Водитель тоже не успел вмешаться, а нажал на тормоза уже в момент столкновения с препятствием.
Пост, который Лю подписал «Платформа FSD Tesla чуть меня сегодня не убила», собрал множество комментариев с момента публикации. Многие комментаторы отметили, что FSD — это система 2-го уровня, требующая постоянного контроля со стороны водителя, в то время как другие раскритиковали Tesla за продажу продукта под названием «Полностью автономное вождение».
Это далеко не начальный случай, когда система FSD даёт сбой на железнодорожных переездах. В NBC News в ходе расследования обнаружили более 40 сообщений о подобных инцидентах.
В одном из задокументированных случаев Tesla Model 3 с системой FSD попала под поезд в восточной Пенсильвании после того, как авто выехало на железнодорожные пути. Водитель и пассажиры успели выйти до столкновения, но сам автомобиль был сбит.
Ситуация оказалась настолько серьёзной, что сенаторы Эд Марки и Ричард Блюменталь обратились в NHTSA (Национальное управление безопасности дорожного движения), призывая к официальному расследованию работы FSD на железнодорожных переездах.
Регулятор начал расследование в октябре 2025 года, связав 58 инцидентов с работой FSD, включая 14 аварий и 23 случая травм. К декабрю 2025-го число задокументированных нарушений выросло до 80 на основании 62 жалоб водителей, 14 отчётов Tesla и четырёх сообщений в СМИ.
Расследование касается конкретно нарушений на железнодорожных переездах, а равным образом других, таких как проезд на красный свет и выезд на встречную полосу. Оно охватывает примерно 2,88 млн автомобилей Tesla с FSD.
При этом организация испытывает трудности с передачей данных NHTSA. Она уже дважды просила отсрочку: с 19 января до 23 февраля, а затем до 9 марта. Компания сообщила NHTSA, что у неё приблизительно 8313 записей, требующих ручной проверки, и она может обрабатывать только по 300 в день. Агентство требует подробной хронологии каждого инцидента.
В феврале стало известно о другом инциденте, когда FSD пытался увести Tesla в озеро. Тогда водитель успел вмешаться и остановить машину. Инцидент произошёл во время использования последней версии FSD.
Читают сейчас
8 часов назад
Анонс лекции по MBSE
Как управлять ИТ-продуктом, когда хаос становится нормой? 27 апреля в 16:00 вместе с экспертом по системной инженерии Антоном Королевым узнаем, как управлять жизненным циклом продукта в условиях посто

8 часов назад
Anthropic назвала причины «отупения» Claude Code
Anthropic объяснила, почему части пользователей Claude Code в последние недели казалось, что инструмент стал хуже писать и править исходник. В инженерном разборе компания пишет, что дело было не в сам

11 часов назад
В НАСА обнаружили земной грибок, который может «заразить» Марс
Исследователи выявили вид, способный выживать в условиях радиации, экстремальной жары и в (пока что) имитированной марсианской почве, что ставит под угрозу протоколы, призванные сохранить «незапятнанн

11 часов назад
Bambu Lab угрожает судом разработчику, который вернул в форк Orca Slicer отправку заданий на принтеры компании
Разработчик Павел Ярчак (Paweł Jarczak) опубликовал форк Orca Slicer, в который вернул функция отправлять задания для печати на принтеры Bamu Lab. Из-за это компания потребовала удалить проект, заявил

11 часов назад
ИИ-трек Дурова успели защитить до того, как его стартовали применять другие для монетизации
Кто-то защитил авторским правом ИИ-трек Дурова про цифровую свободу до того, как его начали применять другие для монетизации. Один из блогеров вставил песню в своё видео, но после этого сразу прислали