A inteligência artificial está mudando todos os aspectos da guerra

Earth-i

Enquanto um avião da marinha voava baixo sobre a selva, ele jogou um feixe de dispositivos no dossel abaixo. Alguns eram microfones, ouvindo passos de guerrilheiros ou ignições de caminhões. Outros eram detectores sísmicos, sintonizados com as diminutas vibrações do solo. O mais estranho de tudo eram os sensores olfativos, farejando amônia na urina humana. Dezenas de milhares desses órgãos eletrônicos transmitiram seus dados para drones e computadores. Em minutos, aviões de guerra estariam a caminho para bombardear o quadrado da grade ordenado por algoritmos. A Operação Igloo White foi o futuro da guerra – em 1970.

O esforço da América para cortar a trilha de Ho Chi Minh que vai do Laos ao Vietnã não foi um sucesso. Custou cerca de US $ 1 bilhão por ano (cerca de US $ 7,3 bilhões em dólares de hoje) – $ 100.000 ($ 730.000 hoje) para cada caminhão destruído – e não impediu a infiltração. Mas o fascínio da guerra semiautomática nunca desapareceu. A ideia de coletar dados de sensores, processando-os com algoritmos alimentados por cada vez mais poder de processamento e agindo na saída mais rapidamente do que o inimigo está no cerne do pensamento militar nas maiores potências do mundo. E hoje isso está sendo sobrecarregado por novos desenvolvimentos em inteligência artificial (IA).

A AI está “preparada para mudar o caráter do futuro campo de batalha”, declarou o Departamento de Defesa da América em seu primeiro documento de estratégia ai, em fevereiro. Um Centro Conjunto de Inteligência Artificial (jaic) foi lançado no Pentágono no verão de 2018, e uma Comissão de Segurança Nacional de Inteligência Artificial se reuniu pela primeira vez em março. O orçamento do Pentágono para 2020 esbanjou quase US $ 1 bilhão em ia e mais de quatro vezes mais em recursos não tripulados e autônomos que dependem dele.

Ascensão das máquinas

Uma onda semelhante de atividades está ocorrendo na China, que quer liderar o mundo em IA até 2030 (em que medida não está claro), e na Rússia, onde o presidente Vladimir Putin previu que “quem quer que se torne o líder nesta esfera se tornará o governante do mundo”. Mas o paradoxo é que ai pode ao mesmo tempo penetrar e engrossar a névoa da guerra, permitindo que ela seja travada com uma velocidade e complexidade que a torna essencialmente opaca para os humanos.

ai é um termo amplo e impreciso, cobrindo uma variedade de técnicas, desde sistemas de obediência a regras, pioneiros na década de 1950, até o moderno aprendizado de máquina baseado em probabilidade, no qual os computadores aprendem a realizar tarefas sozinhos. O aprendizado profundo – uma abordagem particularmente moderna e potente para o aprendizado de máquina, envolvendo muitas camadas de redes neurais inspiradas no cérebro – provou ser altamente competente em tarefas tão diversas quanto tradução, reconhecimento de objetos e jogos (veja o gráfico). Michael Horowitz, da Universidade da Pensilvânia, compara ai ao motor de combustão interna ou eletricidade – uma tecnologia capacitadora com inúmeras aplicações. Ele divide suas aplicações militares em três tipos. Uma é permitir que as máquinas atuem sem supervisão humana. Outra é processar e interpretar grandes volumes de dados. Um terceiro é ajudar, ou mesmo conduzir, o comando e controle da guerra.


Comece no campo de batalha. O apelo da autonomia é óbvio – os robôs são mais baratos, mais resistentes e mais dispensáveis do que os humanos. Mas uma máquina capaz de vagar pelo campo de batalha, quanto mais derramar sangue sobre ele, deve ser inteligente o suficiente para carregar esse fardo – um drone não inteligente não sobreviverá por muito tempo em uma batalha; pior ainda, um robô sem inteligência armado é um crime de guerra esperando para acontecer. Portanto, ai é necessário para dotar as máquinas com as habilidades necessárias. Isso inclui habilidades simples, como percepção e navegação, e habilidades de ordem superior, como coordenação com outros agentes.

Máquinas inteligentes que combinam essas habilidades podem fazer coisas que humanos individuais não podem. “Um sistema ai já pode superar um piloto militar experiente em combate ar-ar simulado”, observa Kenneth Payne, do King?s College London. Em fevereiro, a Defense Advanced Research Projects Agency (darpa), o braço do Pentágono que pensa o céu azul, conduziu o mais recente teste de um enxame de drones de seis fortes, capaz de colaborar em um ambiente de “alta ameaça”, mesmo quando isolado de contato humano.

Por tudo isso, a maioria desses sistemas incorpora inteligência que é estreita e frágil – boa em uma tarefa em um ambiente bem definido, mas sujeita a falhar gravemente em ambientes desconhecidos. Portanto, as armas autônomas existentes são compostas de mísseis que se chocam contra os radares ou canhões de disparo rápido que defendem navios e bases. Útil, mas não revolucionário – e também não requer as sofisticadas técnicas de aprendizado de máquina pioneiras nos últimos anos.

Melhorar. Melhorar. Melhorar

Seria um erro pensar que ai só é útil para o trabalho enfadonho do campo de batalha. Os robôs, assassinos ou não, devem agir de acordo com o que veem. Mas para muitas plataformas militares, como aviões espiões e satélites, o objetivo é enviar de volta dados brutos que podem ser transformados em inteligência útil. Agora há mais disso do que nunca – somente em 2011, o ano mais recente para o qual há dados, os drones da América cerca de 11.000 enviaram de volta mais de 327.000 horas (37 anos) de filmagem.

A maior parte disso permaneceu sem vigilância. Felizmente, a segunda maior aplicação de IA nas forças armadas será no processamento de dados. Em testes baseados em laboratório, os algoritmos superaram o desempenho humano na classificação de imagens em 2015 e quase dobraram seu desempenho em uma tarefa mais difícil, a segmentação de objetos, que envolve a seleção de vários objetos de imagens únicas, entre 2015 e 2018, de acordo com o índice anual da Universidade de Stanford de progresso ai. A visão computacional está longe de ser perfeita e pode ser explorada de maneiras que não enganariam um observador humano. Em um estudo, alterar 0,04% dos pixels em uma imagem de um panda – imperceptível para humanos – fez com que o sistema visse um gibão.

Apesar dessas fraquezas, em fevereiro de 2017 o próprio Pentágono concluiu que algoritmos de aprendizagem profunda “podem funcionar em níveis quase humanos”. Assim, estabeleceu a equipe “Algorithmic Warfare”, conhecida como Projeto Maven, que usa aprendizado profundo e outras técnicas para identificar objetos e ações suspeitas, inicialmente em filmagens da guerra contra o Estado Islâmico e agora de forma mais ampla. O objetivo é produzir inteligência “acionável” – o tipo que geralmente termina com bombas caindo ou forças especiais chutando portas.

Um insider com conhecimento do Projeto Maven diz que os benefícios para os analistas – em termos de economia de tempo e novos insights – permanecem marginais por enquanto. Câmeras de grande angular que podem ver cidades inteiras geram um grande número de falsos positivos, por exemplo. “Mas a natureza desses sistemas é altamente iterativa”, diz ele. O progresso é rápido e o Projeto Maven é apenas a ponta do iceberg.

Earth-i, uma empresa britânica, pode aplicar algoritmos de aprendizado de máquina de uma variedade de satélites para identificar diferentes variantes de aeronaves militares em dezenas de bases com mais de 98% de precisão (veja a imagem principal), de acordo com Sean Corbett, um vice-presidente aposentado -marechal da Royal Air Force (raf) que agora trabalha para a empresa. “A parte inteligente”, diz ele, “é então desenvolver métodos para identificar automaticamente o que é normal e o que não é normal”. Observando as bases ao longo do tempo, o software pode distinguir implantações de rotina de movimentos irregulares, alertando os analistas sobre mudanças significativas.

Os algoritmos, é claro, são onívoros e podem ser alimentados com qualquer tipo de dados, não apenas imagens. “Os dados em massa combinados com análises modernas tornam o mundo moderno transparente”, observou Sir Alex Younger, chefe da mi6, agência de espionagem da Grã-Bretanha, em dezembro. Em 2012, documentos vazados da nsa, agência de inteligência de sinais dos Estados Unidos, descreveram um programa (tranquilizadoramente chamado de Skynet), que aplicava aprendizado de máquina a dados de telefones celulares do Paquistão para identificar indivíduos que poderiam ser mensageiros de grupos terroristas. Quem, por exemplo, viajou de Lahore para a cidade fronteiriça de Peshawar no mês anterior – e desligou ou trocou os aparelhos com mais frequência do que o normal? “Está começando a mudar a inteligência do velho mundo, onde os comandantes faziam uma pergunta e as agências de inteligência usavam recursos de coleta para encontrar a resposta, para um mundo onde as respostas estão na … nuvem”, diz Sir Richard Barrons, um general aposentado que comandou as forças conjuntas da Grã-Bretanha até 2016.

Na verdade, os dados em questão nem sempre precisam vir de um inimigo. O primeiro projeto de jaic não era nem uma arma nem uma ferramenta de espionagem, mas uma colaboração com forças especiais para prever falhas de motor em seus helicópteros Black Hawk. A primeira versão do algoritmo foi entregue em abril. Os testes da força aérea em aviões de comando e controle e transportadores mostraram que essa manutenção preditiva poderia reduzir o trabalho não programado em quase um terço, o que poderia permitir grandes cortes nos US $ 78 bilhões que o Pentágono gasta atualmente em manutenção.

Golpe de Inteligência Artificial

O objetivo do processamento de informações, é claro, é agir de acordo com elas. E a terceira maneira que a IA mudará a guerra é infiltrando-se na tomada de decisões militares, desde o humilde pelotão até o quartel-general nacional. Northern Arrow, uma ferramenta construída pela uniqai, uma empresa de ai israelense, é um dos muitos produtos no mercado que ajuda os comandantes a planejar missões ao processar grandes volumes de dados sobre variáveis como posições inimigas, alcance de armas, terreno e clima – um processo que normalmente levaria de 12 a 24 horas para os soldados, à moda antiga, examinando mapas e gráficos. Ele é alimentado com dados de livros e manuais – digamos, sobre a velocidade dos tanques em diferentes elevações – e também de entrevistas com comandantes experientes. O algoritmo então oferece opções para tomadores de decisão apressados, junto com uma explicação de por que cada um foi escolhido.

Essas plataformas de “sistema especialista”, como o Northern Arrow e o software de cadete semelhante da América, podem funcionar muito mais rápido do que as mentes humanas – dois minutos para cadete em comparação com 16 horas-pessoa para humanos, em um teste – mas tendem a empregar o cumprimento de regras técnicas que são algoritmicamente simples. Pelos padrões históricos, isso seria considerado ai, mas a maioria usa métodos determinísticos, o que significa que as mesmas entradas sempre produzirão as mesmas saídas. Isso seria familiar para os soldados que usaram as saídas do eniac, o primeiro computador eletrônico de uso geral do mundo, que gerou mesas de tiro de artilharia em 1945.

No mundo real, a aleatoriedade muitas vezes atrapalha as previsões precisas, então muitos sistemas IA modernos combinam seguir regras com aleatoriedade adicional como um trampolim para um planejamento mais complexo. O software de Inteligência Adversarial e Tomada de Decisão (raid) em tempo real da darpa visa prever os objetivos, movimentos e até mesmo as possíveis emoções das forças inimigas cinco horas no futuro. O sistema se baseia em um tipo de teoria dos jogos que reduz os problemas a jogos menores, reduzindo o poder computacional necessário para resolvê-los.

Nos primeiros testes entre 2004 e 2008, o raid foi executado com maior precisão e velocidade do que os planejadores humanos. Em batalhas simuladas de duas horas em Bagdá, equipes humanas foram colocadas contra qualquer ataque ou outros humanos; eles podiam distingui-los menos da metade do tempo. Os coronéis aposentados elaborados para simular os insurgentes iraquianos “ficaram com tanto medo” do software, observa Boris Stilman, um de seus projetistas, que “pararam de se comunicar e passaram a usar sinais manuais”. raid agora está sendo desenvolvido para uso do exército.


Os sistemas de aprendizado profundo mais recentes podem ser os mais enigmáticos de todos. Em março de 2016, AlphaGo, um algoritmo de aprendizagem profunda desenvolvido pela DeepMind, venceu um dos melhores jogadores do mundo em Go, um antigo jogo de estratégia chinês. No processo, executou vários movimentos altamente criativos que confundiram os especialistas. No mês seguinte, a Academia de Ciências Militares da China realizou um workshop sobre as implicações da partida. “Para estrategistas militares chineses, entre as lições aprendidas com as vitórias de AlphaGo estava o fato de que um ai poderia criar táticas e estratagemas superiores aos de um jogador humano em um jogo que pode ser comparado a um jogo de guerra”, escreveu Elsa Kania, um especialista em inovação militar chinesa.

Vamos jogar um jogo?

Em dezembro de 2018, outro dos programas da DeepMind, AlphaStar, derrotou um dos jogadores mais fortes do mundo em StarCraft II, um videogame jogado em tempo real, em vez de turn-by-turn, com informações escondidas dos jogadores e com muitos mais graus de liberdade (movimentos potenciais) do que Go. Muitos oficiais esperam que essa aptidão para o jogo possa eventualmente se traduzir em um talento para manobras engenhosas e engenhosas do tipo celebrado na história militar. Michael Brown, diretor da Defense Innovation Unit, um órgão do Pentágono encarregado de explorar a tecnologia comercial, diz que o “raciocínio estratégico” habilitado para IA é uma das prioridades de sua organização.

Mas se algoritmos que ultrapassam a criatividade humana também escapam ao entendimento humano, eles levantam problemas de lei, ética e confiança. As leis de guerra exigem uma série de julgamentos sobre conceitos como proporcionalidade (entre dano civil e vantagem militar) e necessidade. O software que não consegue explicar porque um alvo foi escolhido provavelmente não pode cumprir essas leis. Mesmo se puder, os humanos podem desconfiar de um auxiliar de decisão que pode parecer externamente um Magic 8-Ball.

“O que fazemos quando ai é aplicada à estratégia militar e calculou as inferências probabilísticas de múltiplas interações, muitos movimentos além do que podemos considerar”, pergunta o comandante Keith Dear, um oficial de inteligência do raf, “e recomenda um curso de ação que não entendemos?” Ele dá o exemplo de um AI que pode propor o financiamento de uma ópera em Baku em resposta a uma incursão militar russa na Moldávia – uma manobra surreal capaz de confundir as próprias forças, quanto mais o inimigo. No entanto, pode resultar do ai compreender uma cadeia de eventos políticos que não seriam imediatamente perceptíveis aos comandantes.

Mesmo assim, ele prevê que os humanos aceitarão o trade-off entre inescrutabilidade e eficiência. “Mesmo com as limitações da tecnologia de hoje, um ai pode apoiar, se não assumir, a tomada de decisões em combates no mundo real” usando uma “simulação massiva quase em tempo real”.

Isso não é tão rebuscado quanto parece. Sir Richard Barrons aponta que o Ministério da Defesa da Grã-Bretanha já está comprando um demonstrador de tecnologia para uma replicação virtual baseada em nuvem de um ambiente operacional complexo – conhecido como um único ambiente sintético – essencialmente uma versão militar do software que alimenta videogames online em grande escala como “Fortnite”. Ele é construído pela Improbable, uma empresa de jogos, e cae, conhecida por seus simuladores de vôo, usando padrões abertos, de modo que tudo, desde inteligência secreta a dados meteorológicos em tempo real, podem ser conectados. “Isso vai revolucionar a forma como o comando e o controle são feitos,” diz Sir Richard, contanto que haja dados abundantes, redes para movê-los e computação em nuvem para processá-los. Isso permitiria uma “única ferramenta de comando sintética desde o conselho de segurança nacional até o comandante tático”.

Automático sem as pessoas?

Os governos ocidentais insistem que os humanos estarão “no circuito”, supervisionando as coisas. Mas mesmo muitos de seus próprios oficiais não estão convencidos. “Parece que os humanos estarão cada vez mais fora do circuito e fora da equipe na tomada de decisões táticas para estratégicas”, diz o comandante Dear. A expectativa de que o combate se acelerará “além das capacidades da cognição humana” também é recorrente na escrita chinesa, diz Kania. O resultado não seria apenas armas autônomas, mas um campo de batalha automatizado. No início de uma guerra, sistemas de ai interconectados escolheriam alvos, de lançadores de mísseis a porta-aviões, e coreografariam ataques rápidos e precisos para destruí-los na ordem mais eficiente.

As consequências mais amplas disso permanecem obscuras. A perspectiva de ataques precisos e rápidos “poderia corroer a estabilidade, aumentando o risco percebido de ataque surpresa”, escreve Zachary Davis em um artigo recente para o Laboratório Nacional Lawrence Livermore. Mas ai pode igualmente ajudar os defensores a desviar esses golpes, identificando os sinais reveladores de um ataque iminente. Ou, como a onda de dispersão de sensores da América na selva vietnamita na década de 1960, tais esquemas podem acabar como falhas caras e mal concebidas. No entanto, nenhuma potência quer correr o risco de ficar para trás de seus rivais. E aqui, a política, não apenas a tecnologia, pode ter um impacto.

Os gastos do Pentágono com IA são uma fração dos US $ 20 bilhões gastos por grandes empresas de tecnologia em 2016. Embora muitas empresas americanas estejam felizes em aceitar dólares de defesa – Amazon e Microsoft estão se aproximando de um contrato de computação em nuvem de US $ 10 bilhões com o Pentágono ?Outros são mais ariscos. Em junho de 2018, o Google disse que permitiria que seu contrato de US $ 9 milhões para o trabalho no Projeto Maven expirasse este ano, depois que 4.000 funcionários protestaram contra o envolvimento da empresa em “tecnologia de guerra”.

Na China, por outro lado, as empresas podem ser facilmente pressionadas a servir ao Estado e as leis de privacidade são um estorvo menor. “Se os dados são o combustível da IA, então a China pode ter uma vantagem estrutural sobre o resto do mundo”, alertou Robert Work, um ex-secretário adjunto de defesa dos EUA, em junho. Não está claro se os dados civis podem alimentar algoritmos militares, mas a questão está nas mentes dos líderes militares. O diretor geral do jaic, Jack Shanahan, expressou suas preocupações em 30 de agosto: “O que eu não quero ver é um futuro onde nossos adversários em potencial tenham uma força totalmente habilitada para ai e nós não.”


Publicado em 27/03/2021 09h12

Artigo original: