Esta “camuflagem” da IA pode impedir que você seja identificado por software de detecção facial
A tecnologia de detecção facial usada para vigilância em grande escala está apenas começando a se tornar uma realidade.
Em setembro deste ano, Moscou conectou sua rede de CCTV a um sistema de reconhecimento facial. Nova York planeja estender a detecção facial através de pontes e túneis. O banco de dados de reconhecimento facial de Londres tem sido criticado por ir “muito além dos propósitos de vigilância e segurança”, e a China está levando tudo isso para um nível totalmente novo de vigilância total do estado.
Mas a invenção do navio também levou à invenção da pirataria. Vários projetos foram lançados que mostram como esses sistemas de detecção podem ser falsificados, evitados ou sequestrados. A última é uma pesquisa sobre um sistema de visão computacional na Universidade de Illinois, que usa camuflagem para enganar a detecção de objetos de redes neurais.
Este método é baseado em “exemplos contraditórios”; uma maneira de atacar um sistema de aprendizado de máquina com dados levemente modificados – geralmente imperceptíveis para um humano – que são suficientemente diferentes para o sistema classificá-los erroneamente. Em seu trabalho, Jiajun Lu Sibai Hussein e Evan Fabry explicar que “se há exemplos de conflito que poderia enganar um detector poderiam ser usados para (por exemplo) maliciosamente criar riscos de segurança nas estradas povoadas com veículos inteligentes”.
Para demonstrar isso, a equipe criou “três sinais de parada opostos”, projetados para bloquear o tipo de detecção de objetos usados por automóveis autônomos. Quando essas imagens distorcidas foram impressas e coladas em sinais de parada reais, apenas o exemplo mais extremo não foi detectado pelo sistema de detecção de objetos.
Os pesquisadores tiveram mais sorte na detecção facial de roubo de identidade, usando uma máscara de estilo do Google DeepDream para distorcer as características de um sujeito.
Como a camuflagem envolve o treinamento do sistema de ataque em um vídeo específico, presumivelmente ele seria usado para filmar imagens para tornar certas pessoas indetectáveis - em vez de bloquear uma pessoa em tempo real. No entanto, outros têm investigado. No ano passado, pesquisadores da Universidade Carnegie Mellon conseguiram criar montagens para óculos de reconhecimento facial.
Esses óculos coloridos podem ser imperceptíveis para a vigilância de detecção facial, mas estão longe de serem invisíveis para todos os demais em uma sala.
Fonte: Engenharia é