Um drone com Inteligência Artificial pode ter ‘caçado’ e matado soldados na Líbia sem a intervenção humana

Um drone de ataque Kargu. (Crédito da imagem: STM)

Um relatório da ONU sugere que os drones de IA atacaram alvos humanos sem que nenhum homem fosse consultado antes do ataque.

Pelo menos um drone autônomo operado por inteligência artificial (IA) pode ter matado pessoas pela primeira vez no ano passado na Líbia, sem que nenhum ser humano fosse consultado antes do ataque, de acordo com uma U.N. relatório.

De acordo com um relatório de março da ONU Painel de especialistas sobre a Líbia, aeronaves autônomas letais podem ter “caçado e engajado remotamente” soldados e comboios que lutavam pelo general líbio Khalifa Haftar. Não está claro quem exatamente inseriu esses robôs assassinos, embora os restos de uma dessas máquinas encontradas na Líbia tenham vindo do drone Kargu-2, que é fabricado pelo empreiteiro militar turco STM.

“Armas autônomas como conceito não são tão novas. As minas terrestres são essencialmente armas autônomas simples – você pisa nelas e elas explodem”, Zachary Kallenborn, um afiliado de pesquisa do Consórcio Nacional para o Estudo do Terrorismo e Respostas ao Terrorismo no University of Maryland, College Park, disse ao Live Science. “O que é potencialmente novo aqui são as armas autônomas que incorporam inteligência artificial”, acrescentou Kallenborn, que trabalha na divisão de armas e tecnologia não convencionais do consórcio.

Esses ataques podem ter ocorrido em março de 2020, durante um período em que o reconhecido Governo de Acordo Nacional da ONU expulsou as forças de Haftar da capital da Líbia, Trípoli.

“Os sistemas de armas autônomas letais foram programados para atacar alvos sem exigir conectividade de dados entre o operador e a munição: na verdade, uma verdadeira capacidade de ‘atirar, esquecer e encontrar'”, observou o relatório.

O Kargu-2 é um drone de quatro rotores que a STM descreve como um “sistema de munição ocioso”. Uma vez que seu software de IA identificou os alvos, ele pode voar autonomamente sobre eles a uma velocidade máxima de cerca de 45 mph (72 km / h) e explodir com uma ogiva perfurante ou uma destinada a matar o pessoal que não usa armadura. Embora os drones tenham sido programados para atacar se perdessem a conexão com um operador humano, o relatório não diz explicitamente que isso aconteceu.

Também não está claro se a Turquia operou diretamente o drone ou apenas o vendeu ao Governo de Acordo Nacional, mas de qualquer forma, ele desafia a ONU. embargo de armas, que impede todos os estados membros, como a Turquia, e seus cidadãos de fornecer armas para a Líbia, acrescentou o relatório. A proibição de armas foi imposta após a violenta repressão contra os manifestantes na Líbia em 2011, que desencadeou uma guerra civil e a crise em curso no país.

As forças de Haftar “não foram treinadas nem motivadas para se defender contra o uso eficaz desta nova tecnologia e geralmente recuaram em desordem”, observou o relatório. “Uma vez em retirada, eles foram sujeitos a perseguição contínua dos veículos aéreos de combate não tripulados e sistemas de armas autônomas letais.”

Embora o relatório não afirme inequivocamente que esses drones autônomos mataram alguém na Líbia, está fortemente implícito, escreveu Kallenborn em um relatório no Bulletin of the Atomic Scientists. Por exemplo, o U.N. observou que os sistemas de armas autônomas letais contribuíram para “baixas significativas” entre as tripulações dos sistemas de mísseis superfície-ar das forças de Haftar, escreveu ele.

Embora muitos, incluindo Stephen Hawking e Elon Musk, tenham pedido a proibição de armas autônomas, “tais campanhas normalmente assumem que essas armas ainda estão no futuro”, disse Kallenborn. “Se eles estão no campo de batalha agora, isso significa que as discussões sobre proibições e questões éticas precisam se concentrar no presente.”

“Não estou surpreso que isso tenha acontecido agora”, acrescentou Kallenborn. “A realidade é que criar armas autônomas hoje em dia não é tão complicado.”

Por mais perigosas que essas armas sejam, “elas não são como o filme ‘Terminator'”, disse Kallenborn. “Eles não têm nem perto desse nível de sofisticação, que pode demorar décadas.”

Ainda assim, os temores sobre armas autônomas são parte de preocupações maiores que os cientistas e outros levantaram sobre o campo da IA.

“As IAs atuais são tipicamente fortemente dependentes dos dados em que são treinadas”, disse Kallenborn. “Uma máquina geralmente não sabe o que é um gato ou cachorro, a menos que seja alimentada com imagens de cães e gatos e você diga quais são eles. Portanto, há um risco significativo de erro nessas situações se os dados de treinamento estiverem incompletos, ou as coisas não são tão simples quanto parecem. Um soldado pode usar camuflagem, ou um fazendeiro um ancinho, mas um fazendeiro pode usar camuflagem também, e um soldado pode usar um ancinho para derrubar uma torre de arma. ”

Muitas vezes, o software de IA também carece do que os humanos consideram bom senso. Por exemplo, cientistas da computação descobriram que alterar um único pixel em uma imagem pode levar um programa de IA a concluir que é uma imagem completamente diferente, disse Kallenborn.

“Se é tão fácil bagunçar esses sistemas, o que acontece no campo de batalha quando as pessoas estão se movendo em um ambiente complexo?” ele disse.

Kallenborn observou que há pelo menos nove questões-chave quando se trata de analisar os riscos que as armas autônomas podem representar.

– Como uma arma autônoma decide quem matar? Os processos de tomada de decisão dos programas de IA são frequentemente um mistério, disse Kallenborn.

– Qual é o papel dos humanos? Em situações em que as pessoas monitoram quais decisões um drone toma, elas podem fazer correções antes que erros potencialmente letais ocorram. No entanto, operadores humanos podem confiar nessas máquinas ao ponto da catástrofe, como vários acidentes com carros autônomos demonstraram, disse Kallenborn.

– Qual é a carga útil de uma arma autônoma? Os riscos que essas armas representam aumentam com o número de pessoas que podem matar.

– Qual é o alvo da arma? A IA pode errar quando se trata de reconhecer alvos em potencial.

– Quantas armas autônomas estão sendo usadas? Mais armas autônomas significam mais oportunidades de fracasso, e os militares estão cada vez mais explorando a possibilidade de implantar enxames de drones no campo de batalha. “O exército indiano anunciou que está desenvolvendo um enxame de mil drones, trabalhando de forma totalmente autônoma”, disse Kallenborn.

– Onde as armas autônomas estão sendo usadas? O risco que os drones representam aumenta com a população da área em que são implantados e com a confusão na qual viajam. O clima também pode fazer a diferença – um estudo descobriu que um sistema de IA usado para detectar obstáculos nas estradas era 92% preciso em tempo claro, mas 58% em tempo nublado, disse Kallenborn.

– Quão bem testada é a arma? Uma arma autônoma testada em um clima chuvoso como Seattle pode ter um desempenho diferente no calor da Arábia Saudita, observou Kallenborn.

– Como os adversários se adaptaram? Por exemplo, a empresa de IA OpenAI desenvolveu um sistema que poderia classificar uma maçã como Granny Smith com 85,6% de confiança, mas se alguém colasse um pedaço de papel que dizia “iPod” na fruta, concluía com 99,7% de confiança que a maçã era um iPod, disse Kallenborn. Os adversários podem encontrar maneiras semelhantes de enganar armas autônomas.

– Quão amplamente disponíveis estão as armas autônomas? Se amplamente disponíveis, eles podem ser implantados onde não deveriam estar – como a ONU. relatório notado, a Turquia não deveria ter trazido o drone Kargu-2 para a Líbia.

“O que considero mais significativo sobre o futuro das armas autônomas são os riscos que vêm com os enxames. Na minha opinião, os enxames de drones autônomos que podem matar pessoas são armas potencialmente de destruição em massa”, disse Kallenborn.

Em suma, “a realidade é que o que aconteceu na Líbia é apenas o começo”, disse Kallenborn. “O potencial de proliferação dessas armas é bastante significativo”.


Publicado em 05/06/2021 22h34

Artigo original: