Algoritmo consegue enganar sistemas de reconhecimento facial


Pesquisadores da McAfee utilizaram um algoritmo de tradução de imagens para enganar um sistema de reconhecimento facial. Ao aplicar aprendizado de máquina, os técnicos criaram uma imagem que parecia uma pessoa para o olho humano, mas foi identificada como outra pessoa pelo sistema.A técnica pode ser usada, por exemplo, para burlar a checagem de passaportes em aeroportos. "Se ficarmos em frente à uma câmera que usa reconhecimento facial para identificar e interpretar quem eles estão olhando e comparar com uma foto de passaporte, podemos forçar esse tipo de classificação errônea", explica o autor do estudo, Steve Povolny.A equipe da McAfee usou 1.500 fotos de dos dois pesquisadores no CycleGAN, um programa que consegue mesclar fotografias de um estilo para outro. Como fazem muitos apps de edição de imagens para smartphone, o CycleGAN consegue, por exemplo, aplicar filtros para que fotos pareçam pinturas ou transformar zebras em cavalos comuns.As fotos dos rostos produzidas pelo algoritmo foram então analisadas pelo sistema de reconhecimento facial, para verificar quais dos dois pesquisadores foi reconhecido. Depois de gerar centenas de imagens, o CycleGAN acabou criando uma imagem falsificada que parecia a pessoa A a olho nu, mas enganou o reconhecimento de rosto ao pensar que era a pessoa B.O estudo apresenta um perigo em potencial para sistemas de reconhecimento facial, porém com ressalvas. Para os testes, os pesquisadores não tiveram acesso ao sistema real usado, por exemplo, pelos aeroportos para identificar passageiros, mas um algoritmo de código aberto de última geração. Outro ponto é que esse tipo de ataque requer muito tempo e recursos. O CycleGAN precisa de computadores e conhecimentos avançados para ser executado, por enquanto.“A Inteligência Artificial e o reconhecimento facial são ferramentas incrivelmente poderosas para ajudar no processo de identificação e autorização de pessoas”, diz Povolny. "Mas quando você os pega e substitui cegamente um sistema existente que depende inteiramente de um ser humano sem ter algum tipo de verificação secundária, de repente você introduziu talvez uma fraqueza maior do que antes", completa.Via: MIT Technology Review

from Olhar Digital :: Segurança https://ift.tt/2DKwhsj

No comments:

Post a Comment

Hackers Use LinkedIn Messages to Spread RAT Malware Through DLL Sideloading

Cybersecurity researchers have uncovered a new phishing campaign that exploits social media private messages to propagate malicious payloads...