Especial: Inteligência Artificial em Armas. Para onde estamos caminhando?

Especial: Inteligência Artificial em Armas. Para onde estamos caminhando?

A criatividade e a habilidade dos humanos em solucionar problemas e criar ferramentas trouxeram avanços extraordinários para a ciência e para o mundo, como a Inteligência Artificial (IA, em abreviação), que tem como objetivo elaborar dispositivos que simulem a capacidade humana de raciocinar, perceber, tomar decisões e resolver problemas, ou seja, a capacidade de ser inteligente. E, a menos que você tenha vivido em uma caverna por 30 anos, você sabe que a IA é usada hoje para atingir a excelência em tarefas minuciosas e repetitivas nos mais diversos meios da sociedade moderna, desde empresas de advocacia para analisar processos de divórcio, até enviar pessoas e equipamentos para o espaço e vencer os melhores humanos do mundo em jogos – como já tratamos em uma notícia.

Contudo para onde o desenvolvimento da inteligência artificial e da robótica estão nos levando?  Essa expansão também chegou no setor bélico, que enxerga o potencial das armas autônomas tanto para salvar vidas quanto para tirá-las, algo que pode mudar completamente a direção que seguimos rumo ao futuro.

Uma mudança na arte da guerra

“ A primeira revolução (na guerra) foi quando os chineses inventaram a pólvora. Aquilo mudou a guerra de ser algo muito pessoal e de mãos em coisas ensanguentadas para algo onde usamos armas e bombas para lutar mais a distância. A segunda revolução (na guerra) foi quando nós inventamos armas nucleares. E aquilo mudou de novo a natureza completa da guerra. Nós tínhamos a tecnologia ali, onde podíamos potencialmente aniquilar toda a humanidade. E as pessoas falaram dramaticamente sobre as Armas autônomas sendo potencialmente a terceira revolução na guerra, o que muda completamente a natureza da guerra“. Estas foram as palavras do Professor Toby Walsh da Universidade de Nova Gales do Sul (UNSW) em uma leitura pública sobre o desenvolvimento de armas autônomas ofensivas.

 

Segundo o mesmo e muitos outros cientistas, a Inteligência Artificial avançou a tal ponto que seu uso no setor militar já é uma realidade que não está distante, o que nos leva a um grande dilema moral: Como dar a computadores o direito de tomar decisões de vida ou morte? Esta questão é seriamente discutida e leva a muitas preocupações, não só no sentido técnico, mas também no ético.

 

 

A carta a ONU

Em 21 de Agosto de 2017, 116 especialistas em Inteligência Artificial e Robótica enviaram à ONU uma carta aberta requisitando o banimento das armas autônomas ofensivas – fato que as colocaria na mesma classificação de armas químicas, biológicas, nucleares, bombas incendiárias, minas terrestres e armas laser que cegam.

Dentre os especialistas, estão muitas figuras famosas como Elon Musk, cofundador e CEO da Tesla Motors e da SpaceX, Mustafa Suleyman, cofundador da DeepMind Technologies (empresa subordinada a Google que trabalha com pesquisas em IA), e o já supracitado Tobin Walsh.

A carta pede para banir o uso das armas com Inteligência Artificial ofensivas, ou seja, com capacidade de ataque e de tomar decisões sobre vida ou morte, sem o controle humano, para prevenir acidentes e seu uso indevido. Ela possui ainda um bônus de pressão por reforçar uma carta enviada à ONU, em 2015, por mais de 1000 cientistas – dentre eles o físico Stephen Hawking e Elon Musk, já citado – que chamava a atenção para os perigos do desenvolvimento da IA.

Muitos argumentos e preocupações baseiam a decisão dos cientistas. Listando alguns, temos principalmente que:

  1. Os confrontos irão ocorrer em uma escala e velocidades impossíveis de serem acompanhadas pelos seres humanos.
  2. As fatalidades de civis ainda existiriam. Uma preocupação dos especialistas é em relação com máquinas estúpidas, já que a Inteligência Artificial se baseia na aprendizagem por repetição de ações e em cenários e experiências já conhecidos, é difícil saber como uma máquina autônoma reagiria em uma situação totalmente nova. Ela poderia ferir pessoas inocentes que não deveriam ser atingidas.
  3. Essas máquinas iriam se proliferar. Ao contrário das armas nucleares que são difíceis de proliferar, pois necessitam de recursos minerais, tecnologia especifica e um montante de outros requisitos, as armas autônomas são muito mais baratas e fáceis de se desenvolverem, o que impulsionaria elas serem espalhadas pelo mundo.
  4. Elas seriam difíceis de regular, uma vez que todo computador que já construímos pode ser hackeado, não seria muito diferente com armas autônomas.
  5. Isso levaria a uma Nova Corrida Armamentista, onde países iriam competir, em sigilo, uns com os outros para decidir quem iria possuir em seu arsenal as melhoras armas –  assim como ocorreu no Século XX, mas ao invés de misseis nucleares, blindados e armas de fogo, seriam máquinas com Inteligência Artificial.

Nova corrida armamentista

Mesmo que tais armas ofensivas totalmente autônomas ainda não estejam entre nós, algumas nações e empresas já trabalham com protótipos que possuem estas características, ou dispõem de armas sofisticadas que minimizam o elemento humano.

A Agência de Projetos de Pesquisa Avançada de Defesa (DARPA, em inglês) dos Estados Unidos equipou um drone de vigilância comum com IA avançada e projetada para discernir entre civis e insurgentes durante um teste sobre uma réplica de uma aldeia do Oriente Médio em Massachusetts. Vale lembrar que os Drones não são armas autônomas, e necessitam sempre de uma equipe de seres humanos para controla-los e, principalmente,   tomar as decisões.

 

 

 

No mar, o navio de guerra autônomo Sea Hunter dos EUA é projetado para operar por longos períodos no mar sem um único membro da tripulação e mesmo se guiar dentro e fora do porto.

 

 

 

 

Ao longo do lado sul-coreano da Zona Desmilitarizada Coreana, foi implementada a Sentry Gun (pistolas de sentinela, em tradução livre) SGR-A1 da Samsung, capaz de disparar de forma autônoma.

 

 

 

 

 

 

O Reino Unido possui o drone Taranis, aproximadamente do tamanho de um jato de combate Hawk Red Arrow e está sendo desenvolvido pela BAE Systems. Ele é projetado para transportar uma infinidade de armas de longas distâncias e terá “elementos” de autonomia total, diz a BAE Systems.

 

 

 

O Phalanx é uma arma autônoma de defesa – não questionada pelos cientistas que propuseram o banimento apenas das armas autônomas ofensivas – utilizada para defender embarcações de ataques de misseis e opera da forma livre de decisões humanas pela marinha dos Estados Unidos e outras.

 

 

 

Repetindo a história

Para finalizar este especial, é interessante ver como a história parece se repetir e como é fascinante a capacidade humana de criar ferramentas e solucionar problemas.

Todas as maquinas citadas não possuem vontade própria, sentimentos e livre arbítrio – mesmo que isso seja discutido em outras áreas – mas possuem uma ferramenta em comum: a própria Inteligência Artificial, que veio com o propósito de auxiliar as pessoas em suas tarefas e solucionar problemas.

Ao longo da nossa história, muitas invenções com propostas iniciais nobres tomaram um rumo oposto com os anos, haja visto os aviões de Santos Dummont e a Energia Nuclear, que pode tanto abastecer uma cidade por anos ou destruí-la em segundos. Mas foi com os erros e exageros que aprendemos e tomamos iniciativas para corrigi-los.

Foi o que aconteceu em 1970, quando 189 nações assinaram o Tratado de Não Proliferação de Armas Nucleares (TNP) que, ao entrar em vigor, firmava o compromisso, entre as nações assinantes, de impedir a proliferação da tecnologia de produção de armas nucleares, bem como promover o desarmamento nuclear, encorajando apenas a utilização pacífica de tal tecnologia. E é muito interessante, tendo o TNP em mente, encarar a carta aberta enviada a ONU pelos 116 especialistas que pede o banimento das armas autônomas ofensivas.

A Inteligência Artificial é uma ferramenta moderna incrível, que a cada dia nos ajuda a chegar cada vez mais longe, mas como todo grande invento sua expansão deve ser encorajada mas controlada de forma que erros e excessos sejam evitados.

Gostou da matéria ? Deixe seu comentário !

Fontes:

BBC: Is ‘killer robot’ warfare closer than we think? ( inglês )

BBC: Killer robots: Experts warn of ‘third revolution in warfare’    ( inglês )

Killer Robots: The Third Revolution in Warfare – UNSWTV   ( inglês )

The Dawn of Killer Robots (Full Length) – Motherboard   ( inglês )

Tratado de Não Proliferação de Armas Nucleares – Infoescola ( português )

Phalanx CIWS – Wikipedia ( português )

O que é Inteligência Artificial ? – tecmundo ( português )

logo_pet2

1008jia2001