A inteligência artificial e a guerra

Getty Images

Como os computadores desempenham um papel maior na guerra, os perigos para os humanos aumentam

A disputa entre China e Estados Unidos, as duas superpotências mundiais, tem muitas dimensões, desde conflitos por cotas de aço até disputas por vistos de estudante. Uma das mais alarmantes e menos compreendidas é a corrida em direção à guerra habilitada pela inteligência artificial. Ambos os países estão investindo grandes somas em inteligência artificial militarizada (IA), de robôs autônomos a softwares que fornecem aos generais conselhos táticos rápidos no calor da batalha. A China se preocupa com o fato de os Estados Unidos estarem em vantagem graças aos avanços das empresas ocidentais, como seu sucesso em sofisticados jogos de estratégia. Os Estados Unidos temem que os autocratas da China tenham livre acesso a dados copiosos e possam recrutar empresas de tecnologia locais para o serviço nacional. Nenhum dos lados quer ficar para trás. Como Jack Shanahan, um general que é o homem de ponta do Pentágono para IA, disse no mês passado: “O que eu não quero ver é um futuro onde nossos adversários em potencial tenham uma força totalmente habilitada para AI e nós não.”

armas habilitadas para IA podem oferecer velocidade e precisão sobre-humanas (ver artigo). Mas eles também têm o potencial de perturbar o equilíbrio de poder. Para obter uma vantagem militar, a tentação dos exércitos será permitir que não apenas recomendem decisões, mas também dêem ordens. Isso pode ter consequências preocupantes. Capaz de pensar mais rápido do que os humanos, um sistema de comando habilitado para IA pode indicar ataques de mísseis em porta-aviões e bases aéreas em um ritmo que não deixa tempo para diplomacia e de maneiras que não são totalmente compreendidas por seus operadores. Além disso, os sistemas IA podem ser hackeados e enganados com dados manipulados.

Durante o século 20, o mundo acabou encontrando uma maneira de administrar uma mudança de paradigma na tecnologia militar, o surgimento da bomba nuclear. Um desastre global foi evitado por meio de uma combinação de três abordagens: dissuasão, controle de armas e medidas de segurança. Muitos estão olhando para este template para ai. Infelizmente, seu uso é limitado – e não apenas porque a tecnologia é nova.

A dissuasão baseava-se no consenso de que, se fossem usadas bombas nucleares, elas representariam riscos catastróficos para ambos os lados. Mas a ameaça representada por AI é menos sinistra e menos clara. Pode ajudar a ataques de surpresa ou confundi-los, e o número de mortos pode variar de zero a milhões. Da mesma forma, o controle de armas da Guerra Fria se baseava na transparência, na capacidade de saber com alguma confiança o que o outro lado estava fazendo. Ao contrário dos silos de mísseis, o software não pode ser espionado de satélites. E enquanto as ogivas podem ser inspecionadas pelos inimigos sem reduzir sua potência, mostrando ao mundo exterior que um algoritmo pode comprometer sua eficácia. O incentivo pode ser para que ambos os lados enganem o outro. “A ignorância dos adversários sobre as configurações de IA se tornará uma vantagem estratégica”, sugere Henry Kissinger, que liderou os esforços de controle de armas da Guerra Fria com a União Soviética.

Isso deixa o último controle – segurança. Os arsenais nucleares envolvem sistemas complexos nos quais o risco de acidentes é alto. Protocolos foram desenvolvidos para garantir que as armas não possam ser usadas sem autorização, como mecanismos à prova de falhas que significam que as bombas não detonam se forem lançadas prematuramente. É necessário pensar mais sobre como medidas análogas podem ser aplicadas a sistemas de IA, particularmente aqueles encarregados de orquestrar forças militares em um campo de batalha caótico e nebuloso.

Os princípios que essas regras devem incorporar são diretos. ai terá que refletir os valores humanos, como justiça, e ser resiliente às tentativas de enganá-la. Crucialmente, para serem seguras, as armas ai terão que ser tão explicáveis quanto possível para que os humanos possam entender como eles tomam decisões. Muitas empresas ocidentais que desenvolvem IA para fins comerciais, incluindo carros autônomos e software de reconhecimento facial, já estão testando seus sistemas de IA para garantir que apresentem algumas dessas características. As apostas são maiores na esfera militar, onde o engano é rotina e o ritmo é frenético. Em meio a um confronto entre as duas grandes potências mundiais, a tentação será cortar custos para obter vantagens temporárias. Até agora, há poucos sinais de que os perigos foram levados a sério o suficiente – embora o centro de IA do Pentágono esteja contratando um especialista em ética. Deixar a guerra para os computadores tornará o mundo um lugar mais perigoso.


Publicado em 28/03/2021 11h34

Artigo original: