Автопилот Tesla обманом заставили разогнаться с 35 до 85 миль в час с измененным знаком ограничения скорости

0
40

Группе хакеров удалось обманом заставить автопилот Tesla первого поколения разогнаться с 35 до 85 миль в час с измененным знаком ограничения скорости, который люди смогут правильно читать.

Хакеры из McAfee Advanced Threat Research провели эксперимент.

Они объясняют, что они намеревались сделать, в своем блоге:

McAfee Advanced Threat Research (ATR) преследует конкретную цель: выявить и выявить широкий спектр угроз в сегодняшней сложной среде. Благодаря взлому модели, изучению того, как злоумышленники могут нацеливаться на искусственный интеллект и уклоняться от него, у нас есть невероятная возможность повлиять на осведомленность, понимание и разработку более безопасных технологий, прежде чем они будут реализованы таким образом, который будет иметь реальную ценность для противника.

Имея это в виду, они решили нацелить систему камер MobilEye, поскольку она развернута на более чем 40 миллионах транспортных средств, включая первые автомобили Tesla с автопилотом, которые использовались для этого конкретного эксперимента.

Они решили попытаться изменить знаки ограничения скорости таким образом, чтобы человек мог знать ограничение, но автоматизированная система могла запутаться:

В конечном итоге они смогли заставить автомобиль Tesla на автопилоте разогнаться на 50 миль в час сверх лимита:

Конечный результат здесь заключается в том, что мы смогли достичь первоначальной цели. Сделав крошечную модификацию нашего знака ограничения скорости на основе стикеров, мы смогли вызвать целенаправленную неверную классификацию камеры MobilEye на Tesla и использовать ее, чтобы заставить автомобиль автономно разгоняться до 85 миль в час при чтении знака 35 миль в час. . Из соображений безопасности видео-демонстрация показывает, что скорость начинает резко возрастать, а TACC ускоряется на пути к 85, но, учитывая наши условия испытаний, мы задействуем тормоза задолго до того, как она достигнет целевой скорости. Стоит отметить, что это, по-видимому, возможно только при первой реализации TACC, когда водитель дважды нажимает на рычаг, включая TACC. Если ошибочная классификация прошла успешно, автопилот срабатывает в 100% случаев. Это быстрое демонстрационное видео показывает, как объединяются все эти концепции.

Они выпустили короткое видео одного из экспериментов:

McAfee подтвердила, что перед тем, как обнародовать, она раскрыла свои выводы как Tesla, так и MobilEye:

McAfee сообщила Tesla о результатах 27 сентября.th, 2019 и MobilEye 3 октябряrd, 2019. Оба поставщика проявили интерес и были благодарны за исследование, но не выразили каких-либо текущих планов решения проблемы на существующей платформе. MobilEye действительно указала, что более поздняя версия (и) системы камеры учитывает эти варианты использования.

В предыдущих случаях уязвимости, обнаруживаемой хакерами в белых шляпах, Tesla довольно быстро исправляла их.

В 2016 году мы сообщили о китайской хакерской группе Keen Security Lab в Tencent, которой удалось удаленно взломать Tesla Model S через вредоносную точку доступа Wi-Fi. Считается, что это первый удаленный взлом автомобиля Tesla.

Хакеры сообщили об уязвимости в Tesla, прежде чем обнародовать ее, и автопроизводитель довольно быстро выпустил обновление.

Хотя технически это уязвимость, исправить ее сложнее, поскольку для нее требуется более совершенная система распознавания изображений.

Бьюсь об заклад, Tesla не торопится исправлять это, поскольку это влияет только на автопилот первого поколения, но я думаю, что для владельцев важно хотя бы знать, что это может произойти.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь