Nova IA consegue gerar textos para fake news automaticamente
Elon Musk é conhecido, entre outras coisas, por criticar duramente softwares de inteligência artificial (IA), apontando suas possibilidades negativas. Curiosamente, de acordo com o que reportou hoje (14) a MIT Technology Review, uma de suas empresas acaba de criar uma IA que consegue gerar automaticamente textos para fake news.
Não é preciso nem dizer o quão destrutivo um software como esse pode ser em um mundo onde pessoas acreditam cada vez mais facilmente em publicações falsas e de fontes duvidosas. Mas é interessante destacar que, caso um programa como esse caia nas mãos erradas, todo o trabalho feito por redes sociais como Facebook e Twitter para diminuir a disseminação de fake news em suas plataformas pode ir por água abaixo.
Uma coisa é usar máquinas para competir com humanos fazendo trabalho manual. Outra totalmente diferente é combater máquinas inteligentes capazes de criar textos críveis, porém falsos.
E agora?
O software foi criado pela OpenIA, de Elon Musk, mas a empresa está considerando não compartilhar o código com o mundo por razões óbvias. A MIT Technology Review diz que a companhia talvez apenas publique uma versão simplificada para fins científicos, a qual não teria a capacidade de realmente gerar bons textos para notícias falsas.
As versões originais do software foram criadas para realizar tradução e outros processamentos de texto. Os criadores, contudo, logo perceberam que o programa seria capaz de algo diferente.
Felizmente, mesmo a versão completa do programa ainda é incapaz de produzir matérias falas em massa. Segundo seus criadores, boa parte das peças tem sérios problemas de coesão, impedindo que o leitor consiga entender o que realmente o software quis dizer.
O programa também faz muito plágio direto, o que seria fácil de detectar quando um texto assim fosse publicado na web. Mesmo assim, hora ou outra, a IA consegue criar textos realmente elaborados. Segundo a OpenIA, para descobrir se as informações dessas peças são falsas ou não, é preciso um trabalho bastante esforçado de checagem de fatos.
Seja como for, a decisão de a OpenIA de não distribuir o software é apenas uma ação ética de uma só empresa. Outras várias ou mesmo agências governamentais podem estar fazendo pesquisas na mesma linha nesse exato momento. Por isso, pode ser que, em dois ou três anos, a internet esteja ainda mais infestada de notícias falsas do que já é hoje.
Fonte: Tecmundo