A Inteligência Artificial que “mandou nudes”

A Inteligência Artificial que “mandou nudes”

Mais de 100 mil mulheres tiveram suas fotos adulteradas através de ferramentas de inteligência artificial. As roupas são removidas digitalmente e as imagens falsas espalhadas pelo aplicativo Telegram.

A tecnologia usada é a deepfake bot. Deepfake são imagens e vídeos baseados em um modelo real e alterados em computador. Tem sido aplicado, principalmente, para criação de videoclipes pornográficos falsos envolvendo celebridades.

“Ter uma conta nas redes sociais com fotos abertas ao público é o suficiente para que qualquer pessoa se torne um alvo.”, disse o presidente-executivo da Sensity, Giorgio Patrini.

Uma composição de ilustrações mostra imagens de corpos femininos com biquinis e trajes sendo retirados em coversa com robô

A alteração da foto é feita por um bot que opera com IA dentro de um canal privado do Telegram. O usuário adiciona a foto de uma mulher e retirar suas roupas sem nenhum custo em minutos.

Um dos administradores do serviço, disse:

“Não me importo muito. É entretenimento e não leva a violência.”

“Existem guerras, doenças, muitas outras coisas ruins que são prejudiciais no mundo.”

“Ninguém vai chantagear ninguém com isso, já que a qualidade não é realista.”

As imagens falsas podem ser rapidamente disseminadas e devastadoras para as vítimas. No entanto, atualmente ainda não configuram um crime específico.

E agora, como controlar o uso correto da IA?

Deixe seu comentário!

Fonte: BBC

Por: Júlia Bittencourt

Júlia Bittencourt

%d blogueiros gostam disto: