Especial: 7 Casos em que a Inteligência Artificial (IA) errou feio
A inteligência artificial e o aprendizado de máquina produzem muitos dos avanços que vemos hoje na indústria da tecnologia. Mas como as máquinas recebem a capacidade de aprender? Além disso, como a maneira com que fazemos isso resulta em conseqüências não intencionais? Veja como funcionam os algoritmos de aprendizado de máquina, juntamente com 7 casos em que a Inteligência Artificial (IA) errou.
O que são algoritmos de aprendizado de máquina?
O aprendizado de máquina é um ramo da ciência da computação que se concentra em dar à IA a capacidade de aprender tarefas. Isso quer dizer que no desenvolvimento de habilidades, não é necessário que os programadores codifiquem explicitamente a AI para fazer certas coisas. Em vez disso, o AI é capaz de usar dados para ensinar a si mesmo.
Os programadores conseguem isso através de algoritmos de aprendizado de máquina. Esses algoritmos são os modelos nos quais um comportamento de aprendizagem de IA é baseado. Algoritmos, em conjunto com conjuntos de dados de treinamento, permitem que a IA aprenda.
Um algoritmo geralmente fornece um modelo que a inteligência artificial pode usar para resolver um problema. Por exemplo, aprender a identificar fotos de gatos vs cães. A AI aplica o modelo estabelecido pelo algoritmo à um conjunto de dados, que inclui imagens de gatos e cães. Com o tempo, a IA aprenderá a identificar gatos e cães com mais precisão e facilidade, sem a intervenção humana.
O aprendizado de máquina aprimora a tecnologia, como mecanismos de pesquisa, dispositivos domésticos inteligentes, serviços on-line e máquinas autônomas. É como a Netflix sabe quais os filmes você está mais propenso a assistir, e como os serviços de streaming de música podem recomendar listas de reprodução para você.
Mas, embora o aprendizado de máquina possa facilitar muito nossa vida, também pode haver algumas consequências inesperadas.
7 Casos em que a Inteligência Artificial (IA) errou
1. Acidentes do Resultado da Pesquisa de Imagens do Google
A Pesquisa do Google tornou a navegação na Web muito mais fácil. O algoritmo do mecanismo leva em consideração uma variedade de fatores ao gerar resultados, como palavras-chaves e taxa de rejeição. Mas o algoritmo também aprende com o tráfego do usuário, o que pode causar problemas com a qualidade do resultado e da pesquisa.
Em nenhum lugar isso é mais aparente do que nos resultados de imagem. Como as páginas que recebem tráfego alto têm maior probabilidade de ter suas imagens exibidas, as histórias que atraem um grande número de usuários, incluindo clickbait, geralmente são priorizadas.
Por exemplo, os resultados da pesquisa de imagens para “acampamentos de posseiros na África do Sul” causaram polêmica quando se descobriu que predominavam sul-africanos brancos. Isto apesar das estatísticas que mostram que a esmagadora maioria dos que vivem em habitações informais, como os barracos, são sul-africanos negros.
Os fatores usados no algoritmo do Google também significam que os usuários da Internet podem manipular os resultados. Por exemplo, uma campanha de usuários influenciou os resultados da pesquisa de imagens do Google, na medida em que a pesquisa pelo termo “idiota” mostre imagens do presidente dos EUA, Donald Trump e do Presidente brasileiro Jair Bolsonaro.
2. A chatbot Tay virou uma racista
Confie no Twitter para corromper um chatbot de aprendizado de máquina bem-intencionado. Foi o que aconteceu no dia do lançamento do notório chatbot Tay, da Microsoft.
Tay imitou os padrões de linguagem de uma adolescente, e aprendeu através de suas interações com outros usuários do Twitter. No entanto, ela se tornou um dos mais infames erros da IA quando começou a compartilhar declarações nazistas e insultos raciais.
Acontece que os trolls usaram a máquina da IA contra ela, inundando-a com interações carregadas de fanatismo. Não muito tempo depois, a Microsoft encerrou a Tay.
3. Problemas de Reconhecimento Facial
A AI de reconhecimento facial costuma ser manchetes por várias razões erradas, como histórias sobre reconhecimento facial e preocupações com a privacidade. Mas essa IA também causou grandes preocupações ao tentar reconhecer pessoas negras.
Em 2015, os usuários descobriram que o Google Fotos classificava alguns negros como gorilas. Em 2018, uma pesquisa da ACLU mostrou que o software de identificação facial Rekognition, da Amazon, identificou 28 membros do Congresso dos EUA como suspeitos da polícia, com falsos positivos afetando desproporcionalmente pessoas negras.
Outro incidente envolveu o software Face ID, da Apple, identificando incorretamente duas mulheres chinesas diferentes como a mesma pessoa. Como resultado, uma delas conseguia desbloquear o iPhone X da outra.
Enquanto isso, Joy Buolamwini, pesquisadora do MIT, teve que usar uma máscara branca enquanto trabalhava na tecnologia de reconhecimento facial, a fim de fazer com que o software a reconhecesse.
Para resolver problemas como esse, Buolamwini e outros profissionais de TI estão chamando a atenção para a questão e para a necessidade de conjuntos de dados mais inclusivos para o treinamento em IA.
Embora as pessoas usem o Photoshop para criar imagens fraudulentas, o aprendizado de máquina elevou isso à um novo nível. Softwares como o FaceApp permitem trocar de assunto de um vídeo para outro.
Mas muitas pessoas exploram o software para uma variedade de usos maliciosos, incluindo a sobreposição de rostos de celebridades em vídeos adultos, ou a geração de vídeos fraudulentos. Enquanto isso, os usuários da Internet ajudaram a melhorar a tecnologia para tornar cada vez mais difícil distinguir vídeos reais de falsos. Como resultado, isso torna esse tipo de inteligência artificial muito poderoso, em termos de espalhar notícias e fraudes falsas.
Para mostrar o poder da tecnologia, o diretor Jordan Peele e o CEO da BuzzFeed, Jonah Peretti, criaram um vídeo profundo mostrando o que parece ser o ex-presidente dos EUA, Barack Obama, entregando um PSA sobre o poder de deepfakes.
5. A ascensão dos bots do Twitter
Os bots do Twitter foram originalmente criados para automatizar coisas, como respostas de atendimento ao cliente para marcas. Mas a tecnologia é agora uma das principais causas de preocupação. Na verdade, pesquisas estimaram que até 48 milhões de usuários no Twitter são, na verdade, robôs de IA.
Em vez de simplesmente usar algoritmos para seguir certas hashtags, ou responder a consultas de clientes, muitas contas de bot tentam imitar pessoas reais. Essas pessoas então promovendo fraudes, e ajudam a tornar a viralizar fake news.
Uma onda de bots do Twitter influenciou até mesmo a opinião pública em relação ao Saída do Reino Unido da União Europeia, e à eleição presidencial de 2016 nos EUA. O próprio Twitter admitiu ter descoberto cerca de 50 mil bots de fabricação russa, que postaram sobre as eleições.
Os bots continuam atormentando o serviço, espalhando desinformação. O problema é tão grande que está afetando a avaliação da empresa.
6. A inteligência artificial da Amazon prefere contratar homens
Em outubro de 2018, a agência de notícias britânica Reuters informou que a Amazon teve que descartar uma ferramenta de recrutamento de trabalho, depois que a inteligência artificial do software decidiu que os candidatos do sexo masculino eram melhores.
Como resultado, a IA começou a filtrar os currículos com base na palavra-chave “mulheres”. A palavra-chave apareceu no CV sob atividades como “capitão do clube de xadrez feminino”. Enquanto os desenvolvedores alteraram a IA para impedir essa penalização dos currículos das mulheres, a Amazon acabou cancelando o projeto.
7. Conteúdo impróprio no YouTube Kids
O YouTube Kids tem muitos vídeos infantis, destinados a entreter as crianças. Mas também tem um problema de vídeos com spam, que manipulam o algoritmo da plataforma.
Esses vídeos são baseados em tags populares. Como as crianças pequenas, não são espectadores muito perspicazes, os vídeos indesejados que usam essas palavras-chave e atraem milhões de visualizações. A AI gera automaticamente alguns desses vídeos, usando elementos de animação de ações, com base em tags de tendências. Mesmo quando os vídeos são feitos por animadores, seus títulos são especificamente gerados para o preenchimento de palavras-chave.
Essas palavras-chave ajudam a manipular o algoritmo do YouTube, para que acabem nas recomendações. Uma quantidade significativa de conteúdo impróprio apareceu nos feeds de crianças que usam o aplicativo do YouTube Kids. Isso incluiu conteúdo com violência e conteúdo sexual.
Por que o aprendizado de máquina está errado
Existem duas razões principais pelas quais o aprendizado de máquina resulta em conseqüências não intencionais: dados e pessoas. Em termos de dados, o mantra de “junk in, junk out” se aplica. Se os dados que são alimentados para um AI são limitados, tendenciosos ou de baixa qualidade; o resultado é um AI com escopo ou viés limitado.
Mas, mesmo se os programadores acertarem os dados, as pessoas podem dar uma guinada nos trabalhos. Os criadores de software geralmente não percebem como as pessoas podem usar a tecnologia maliciosamente ou para fins egoístas. Deepfakes veio da tecnologia usada para melhorar os efeitos especiais no cinema.
O que visa proporcionar entretenimento mais imersivo também acaba arruinando a vida das pessoas quando exploradas.
Há pessoas trabalhando para melhorar as salvaguardas em torno da tecnologia de aprendizado de máquina para impedir o uso malicioso. Mas a tecnologia já está aqui. Enquanto isso, muitas empresas não mostram a força de vontade necessária para evitar o abuso desses desenvolvimentos.
Algoritmos de aprendizado de máquina podem nos ajudar
Pode parecer um pouco triste quando você percebe o quanto a aprendizagem de máquina e a inteligência artificial ficam aquém das expectativas. Mas também nos ajuda de muitas maneiras – não apenas em termos de conveniência, mas melhorando nossas vidas em geral.
Fonte: Oficina da Net