Robô assassino autônomo acusado de atacar soldados

Um comício em Berlim em 2019 para pressionar pelo banimento de armas autônomas. Crédito: Wolfgang Kumm / imagem aliança via Getty Images

A era dos robôs assassinos totalmente autônomos, capazes de identificar e engajar alvos sem supervisão humana, parece ter começado.

Um pequeno drone kamikaze de fabricação turca chamado STM Kargu-2 atacou soldados em retirada durante um conflito civil na Líbia, de acordo com um relatório recente do Conselho de Segurança das Nações Unidas pelo Painel de Peritos na Líbia. O relatório implica, mas não diz explicitamente, que o robô matou soldados humanos. Como Axios observa, o desenvolvimento nos leva a uma nova era preocupante em que a supervisão humana não é mais tecnicamente necessária para travar a guerra e acabar com vidas.

3D Minefield

O relatório da ONU se refere ao drone Kargu-2 como uma “munição ociosa”, o que significa que estava pairando no local até que detectou um possível alvo. Nesse sentido, o drone autônomo foi implantado quase como uma mina terrestre aérea, pois poderia atacar um alvo que se aproximasse de uma certa proximidade sem supervisão humana.

“Comboios logísticos e em retirada [Forças Afiliadas de Haftar] foram posteriormente caçados e remotamente envolvidos pelos veículos aéreos de combate não tripulados ou os sistemas de armas autônomas letais, como o STM Kargu-2 … e outras munições vagabundeando”, diz o relatório da ONU.” Os sistemas de armas autônomas letais foram programados para atacar alvos sem exigir conectividade de dados entre o operador e a munição: na verdade, uma verdadeira capacidade de ‘disparar, esquecer e encontrar’.”

Ascensão dos drones assassinos

A ascensão de drones assassinos totalmente autônomos é alarmante, mas não surpreendente, já que vários militares poderosos, incluindo os dos EUA, Rússia, China e Reino Unido têm trabalhado em busca de robôs assassinos por anos – apesar do clamor de especialistas e especialistas em ética em todo o mundo .

Drones assassinos – ou “robôs assassinos” – já estão conduzindo ataques aéreos sem nenhum humano envolvido na tomada de decisão, de acordo com um relatório recente da ONU. Novamente, não o piloto, a tomada de decisão. Os computadores estão decidindo quem atacar o drone.

E isso deve nos deixar muito preocupados, argumenta um grupo de pesquisadores em um post convidado para o IEEE Spectrum. “Em outras palavras, a linha vermelha do direcionamento autônomo de humanos agora foi cruzada”, escreve a equipe.

O uso de sistemas de armas autônomas letais, segundo eles, deve ser cessado imediatamente. Nações em todo o mundo devem assinar um tratado para garantir que esses robôs assassinos nunca sejam usados novamente.

Para enviar a mensagem para casa, o Future of Life Institute, uma organização sem fins lucrativos focada em educar o mundo sobre os riscos da IA e das armas nucleares, montou um vídeo, lançado em 2017, co-assinado pelos autores do IEEE Spectrum publicar.

“Além da questão moral de entregar decisões de vida e morte a algoritmos, o vídeo apontou que as armas autônomas irão, inevitavelmente, se transformar em armas de destruição em massa, precisamente porque não requerem supervisão humana e, portanto, podem ser implantadas em grande número,” escreveu a equipe, que é formada por professores de ciência da computação e física.

Tem havido algum movimento da comunidade internacional para pressionar pelo fim dos sistemas de armas autônomos, incluindo uma declaração do Comitê Internacional da Cruz Vermelha pedindo “a proibição de sistemas de armas autônomos que são projetados ou usados para aplicar força contra pessoas”.

O relatório da ONU divulgado publicamente em março delineou o uso de drones STM Kargu-2 de fabricação turca que realizaram ataques aéreos na Líbia sem qualquer intervenção humana. O drone de 14 libras pode ser produzido em massa e tem a capacidade de atingir vítimas usando software de reconhecimento facial de forma autônoma.

De acordo com o relatório, sistemas de drones como este “foram programados para atacar alvos sem exigir conectividade de dados entre o operador e a munição”.

Não é tarde demais, argumentam os pesquisadores, para nos unirmos como uma comunidade internacional e pôr fim a esta virada extremamente sombria.

“Não queremos nada mais do que que nosso vídeo de “Slaughterbots” se torne apenas um lembrete histórico de um caminho horrendo que não foi percorrido”, escreveu a equipe em sua postagem. “Um erro que a raça humana poderia ter cometido, mas não o fez.”


Publicado em 18/06/2021 09h37

Artigo original: