Хакерам подвластно прямое воздействие на автоматические системы вождения транспортных средств
Tesla — злоумышленник может вмешаться в работу автопилота и спровоцировать опасную ситуацию на дороге. Причём каких-либо технологий противодействия этому в «мозгах» искусственного интеллекта не предусмотрено,
утверждают специалисты Университета Южной Каролины в рамках подготовки доклада для
DEFCON Hacking в Лас-Вегасе.
В 2016-м году AI уделено много внимания.
Этим летом не прекращаются дискуссии о целесообразности применения автоматического управления в транспортных средствах на дорогах общественного пользования. Напомним, в мае случилось первое в мире ДТП со смертельным исходом из-за искусственного интеллекта («
Детали первой страшной аварии из-за Tesla Autopilot»), которое не остановило других владельцев автомобилей
Tesla продолжить дурачиться при включённом автопилоте («
Какие глупости американцы делают с Tesla Autopilot?»).
Будущее неизбежно, каким оно будет?
Но инженеры уже близки к той эпохе, когда автомобили смогут добираться из пункта А в пункт Б совершенно без участия человека. Робот гораздо быстрее обрабатывает информацию с дорожной обстановкой и анализирует любую мелочь при любом освещении, а ещё никогда не устаёт рулить. Учёные продолжают снижать риски автоматического управления даже там, где нет обозначения дороги, полно ям и мало дорожных знаков. Вот только до сих пор они слишком мало внимания уделяют системе безопасности от вмешательства извне.
Автопилот Tesla уязвим для атак.
Например,
Tesla Model S не оснащена достаточным количеством систем противодействия хакерским атакам. Так, например, экспертам удалось обмануть сенсоры автомобиля, заставив их принять несуществующий на дороге объект за настоящий путём установки огней и радиопередатчиков. Подобный хак может спровоцировать настоящее ДТП на ровном месте. Вот, как они комментируют свои исследования.
Автопилот Tesla определяет окружение автомобиля тремя различными способами: радаром, ультразвуковым излучением и камерами. Исследователи атаковали весь спектр «чувств» механизма и обнаружили, что даже одних радиолокационных атак достаточно, чтобы вызвать столкновение на большой скорости. Там было две части радиоборудования на сумму порядка 90’000 долларов с генератором сигналов и частотным мультипликатором (Keysight Technologies и VDI), которые глушили радиосигналы и подавляли радарный датчик Tesla, расположенный над бампером для определения объектов и собственного положения на дороге. Исследователи поставили оборудование на тележке перед Tesla для имитации другого транспортного средства. И вот когда начинались заклинивания, тогда машина исчезала, как и всякое предупреждение в приборной системе Tesla.
Это самый дорогостоящий способ выведения из строя
Tesla Model S. Но есть способ и попроще. Для этого хакеру нужно повозиться с ультразвуковыми датчиками. Крошечный компьютер ценой
40 долларов способен заставить автопилот потерять всякие ориентиры во время замедления на парковке или разгона при вызове для подъезда к владельцу — то есть практически в стоячем положении с минимальными прогнозируемыми последствиями ввиду низкой скорости движения.
И хотя защиты нет, взлом всё ещё слишком сложен.
Пока автоконцерны стремительно призывают будущее, подобные исследования могут помочь обезопасить владельцев, принявших участие в тестировании
Tesla Autopilot уже сейчас. Здесь важно отметить, многие легальные хакерские организации в своих экспериментах отмечают, что обмануть автоматически пилотируемое транспортное средство предельно сложно. В том числе, например, об этом говорят и цифры стоимости оборудования, способного свести с ума роботомобиль.
Автопилоту Tesla прописали смену «мозгов»
Тысячекилограммовая махина на смертоносной скорости.
Так или иначе, до сих пор мы видели лишь достаточно безобидные хакерские атаки, превращающие программное обеспечение в бесполезные и неуправляемые блоки, которые всё ещё можно отключить. Другое дело, когда речь заходит о тысячекилограммовой махине, несущейся по асфальту на смертоносной скорости, чьи «мозги» может «вскружить» злоумышленник.