Автопилот Tesla смогли обмануть при помощи визуальных эффектов

Группа Keen Security Lab, которая занимается вопросами безопасности продуктов Tesla, представила новый отчет о том, как можно обмануть систему автономного вождения электрокаров при помощи различных визуальных эффектов.

Например дворники автомобиля работающие на основе данных полученных от системы компьютерного зрения камер автомобиля, можно активировать специально сгенерированным изображением.

Еще один вариант «обмана» автопилота группой Keen Security Lab заключался размещении наклеек на дороге, которые система воспринимает как помехи, неправильно интерпретирует и даже может вывести машину на встречную полосу движения.

Также Keen Security Lab удалось взломать систему Autopilot и управлять через него автомобилем с помощью беспроводного геймпада.

Илон Маск похвалил работу группы исследователей, но в целом Tesla уже прокомментировала обман дворников тем, что это не реальная ситуация с которой могут столкнуться водители.

Проблема с удаленным доступом к управлению была исправлена компанией еще до опубликования данного отчета, а реакция автопилота на дорожные наклейки как помехи во многом неестественна и может быть легко исправлена водителем.

Напомним, недавно хакеры взломали Tesla Model 3 на хакерском мероприятии Pwn2Own.

По материалам: keenlab.tencent.com. Подготовил: hevcars.com.ua




Еще интересное пишут по теме

HEVCARS 🔌