2019-04-03 12:39+03:00
Японские хакеры обманули автопилот Tesla
Специалисты по кибербезопасности из лаборатории Keen Labs сумели 2 раза обмануть автопилот Tesla, заставив отклониться от заданного движения и вывести авто на встречную полосу.
Как отмечают японские специалисты, в первом случае автопилот смогли «запутать» с помощью трех небольших наклеек, нанесенных на асфальт с правой стороны. Датчики автомобиля распознали их в качестве продолжения полосы и отклонили автомобиль от заданного курса на встречную полосу.
В своем отчете эксперты заявили, что если фальшивая полоса ведет на встречку, автомобиль должен ее игнорировать. Только в этом случае можно избежать ДТП.
Второй случай наглядно продемонстрировал, что автопилот Tesla Model S можно взломать и перехватить управление машиной. Причем машину можно контролировать при помощи обычного беспроводного джойстика, даже если водитель не активировал автопилот.
«Водитель может в любое время отключить автопилот и взять управление на себя. Он должен быть готов к этому в любое время», — ответили в Tesla на результат первого эксперимента.
Что же касается взлома и управления с помощью джойстика, то, по словам автопроизводителей, уязвимость, которая позволила это сделать, уже была исправлена с помощью обновления в прошлом году.