Следи за скоростью
16+

Японские хакеры обманули автопилот Tesla

Специалисты по кибербезопасности из лаборатории Keen Labs сумели 2 раза обмануть автопилот Tesla, заставив отклониться от заданного движения и вывести авто на встречную полосу.
Автор: Никита Новиков, редактор

Как отмечают японские специалисты, в первом случае автопилот смогли «запутать» с помощью трех небольших наклеек, нанесенных на асфальт с правой стороны. Датчики автомобиля распознали их в качестве продолжения полосы и отклонили автомобиль от заданного курса на встречную полосу.

В своем отчете эксперты заявили, что если фальшивая полоса ведет на встречку, автомобиль должен ее игнорировать. Только в этом случае можно избежать ДТП.

Второй случай наглядно продемонстрировал, что автопилот Tesla Model S можно взломать и перехватить управление машиной. Причем машину можно контролировать при помощи обычного беспроводного джойстика, даже если водитель не активировал автопилот.

«Водитель может в любое время отключить автопилот и взять управление на себя. Он должен быть готов к этому в любое время», — ответили в Tesla на результат первого эксперимента.

Что же касается взлома и управления с помощью джойстика, то, по словам автопроизводителей, уязвимость, которая позволила это сделать, уже была исправлена с помощью обновления в прошлом году.