буквоед


буквоед

Наука

В Китае смогли обмануть автопилот Tesla

2 апреля 2019 0

tesla

Источник: flickr.com 

Автопилоты в машинах Tesla вовсе небезопасны. К такому выводу пришли специалисты китайской компании Keen Security Lab, которая занимается кибербезопасностью. Они на практике показали, что вполне реально взломать автопилот этого автомобиля и отправить его на встречную полосу. Причем, для этого достаточно рисунка на асфальте.

Китайские хакеры изучили особенность машин Tesla частично поврежденную и плохо считываемую разметку разметку на дороге. Выяснилось, что если нанести на асфальт три квадрата, которые перекрывают полосу и ведут на «встречку», то искусственный интеллект, встроенный в бортовой компьютер, распознает квадраты как продолжение правой линии. Из-за этого автомобиль отправляется на полосу встречного движения.

Все это говорит о том, что алгоритмы, по которым работают автопилоты на современных машинах, небезупречны.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Рассказать друзьям

0 Комментариев

Подписаться на рассылку

Комментарии

Войти с помощью 

Присоединяйтесь к нам в социальных сетях

В наших группах вы можете узнать много нового и интересного, а так же - принять участие в опросах и конкурсах

Присоединиться
Присоединиться