Quão confiável é a função Autopilot dos veículos da Tesla Motors? Se você confiar plenamente no CEO da empresa, Elon Musk, você dirá “100%”. Um grupo de pesquisadores da empresa de segurança McAfee colocou isso à prova, porém, e o resultado não foi dos mais legais para a companhia.

Por meio de um experimento simples, os pesquisadores em questão conseguiram enganar as câmeras externas de dois carros, um Model S e um Model X — ambos rodando dentro de um ambiente controlado, obviamente —, fazendo com que ambos acelerassem bem acima do limite de velocidade. E qual foi a ferramenta de tecnologia de ponta que esses “hackers” usaram para derrubar um sistema tido como um dos mais seguros?

Fita isolante. Dessas que se usa para fazer emendas em fiações elétricas.

Como você pode perceber pelo vídeo acima, os pesquisadores não se valeram de nenhum software de última geração ou um ataque direto ao sistema: eles meramente colaram pedaços de fita isolante em uma placa de sinalização. Enquanto a placa em si originalmente diz “35 milhas por hora (mph)” (pouco mais de 56 quilômetros por hora, ou “km/h”) como limite de velocidade, algumas tiras de fita isolante estrategicamente posicionadas a fizeram parecer dizer “85 mph” ou quase 137 km/h.

Sem falha, as câmeras externas dos dois veículos da Tesla (a chamada Mobileye Eye Q3) acelerou. “Durante um processo de 18 meses de pesquisa, [os pesquisadores da McAfee] Trivedi e Povolny replicaram e expandiram uma série de ataques adversariais de machine learning, incluindo um estudo onde a professora Dawn Song da Universidade de Berkeley usou adesivos para enganar um carro com direção autônoma, fazendo-o acreditar que um sinal de parada fosse uma placa de 70 km/h de velocidade”, diz o estudo, publicado no site MIT Technology Review. No ano passado, hackers enganaram um Tesla a virar para a faixa errada ao colar adesivos na estrada, em uma tentativa de manipular os algoritmos de machine learning do carro”.

A função de piloto automático da Tesla Motors foi inaugurada em outubro de 2014, com o CEO da empresa, Elon Musk, dizendo que o sistema empregava tecnologia de machine learning para sempre se manter aprendendo e melhorando sua capacidade de navegação. Musk chegou a prometer que, até o final de 2018, promoveria uma viagem de um Tesla da Califórnia até Nova York — uma distância de quase 4 mil quilômetros — totalmente feita pelo piloto automático. É verdade que a tecnologia evolui muito de lá até aqui, mas tal viagem ainda não foi feita.

Teste daMcAfee consegue enganar o piloto automático de carros da Tesla usando apenas uma fita isolante (Imagem: Divulgação/McAfee)

Apesar de toda a evolução ocorrida, porém, o teste mostra que mesmo o ataque mais simples pode acabar criando situação de perigo à vida do usuário: “A razão de estarmos estudando isso agora é porque nós temos sistemas inteligentes que, eventualmente, estarão realizando tarefas que hoje são feitas por humanos”, disse Povolny. “Se não estivermos cientes sobre o que são esses ataques e cuidadosos sobre como esses sistemas são desenhados, então teremos uma frota de computadores interconectados que serão uma das mais tentadores e impactantes áreas de ataque no mercado”.

A situação expõe sistemas de machine learning, que, apesar de toda a evolução implementada nesse tipo de tecnologia, ainda há muito o que se debater no que tange à sua segurança: em março de 2019, um sistema autônomo médico, por exemplo, foi enganado e passou a oferecer diagnósticos ruins.

Os registros e anotações da McAfee foram oferecidos à Tesla Motors ao final do ano passado, quando o teste em questão foi feito. A empresa não comentou em detalhes sobre a situação, mas reconheceu as falhas apontadas pelo estudo e assegurou que os problemas estão sendo resolvidos. Vale citar, porém, que os carros envolvidos no teste são, ambos, modelos de 2016, sendo que os veículos atuais já não utilizam mais a câmera da Mobileye: a Tesla já usa câmeras produzidas internamente.

Fonte: MIT Technology Review



LEAVE A REPLY

Please enter your comment!
Please enter your name here