´Espere um futuro orwelliano se a Inteligência Artificial não for controlada´, diz executivo da Microsoft

Xu Li, CEO do SenseTime Group Ltd., é identificado pela A.I. sistema de reconhecimento facial da empresa no showroom da empresa em Pequim, China, em 15 de junho de 2018. (Crédito da imagem: Gilles Sabrie / Bloomberg via Getty Images)

A Inteligência Artificial já está sendo usada para vigilância generalizada na China.

A inteligência artificial pode levar a um futuro orwelliano se as leis para proteger o público não forem promulgadas logo, de acordo com o presidente da Microsoft, Brad Smith.

Smith fez os comentários ao noticiário da BBC “Panorama” no dia 26 de maio, durante um episódio focado nos perigos potenciais da inteligência artificial (IA) e a corrida entre os Estados Unidos e a China para desenvolver a tecnologia. O aviso surge cerca de um mês depois que a União Europeia lançou um projeto de regulamento tentando estabelecer limites sobre como a IA pode ser usada. Existem poucos esforços semelhantes nos Estados Unidos, onde a legislação se concentrou amplamente em limitar a regulamentação e promover a IA para fins de segurança nacional.

“Eu sou constantemente lembrado das lições de George Orwell em seu livro ‘1984’”, disse Smith. ?A história fundamental era sobre um governo que podia ver tudo o que todos faziam e ouvir tudo o que todos diziam o tempo todo. Bem, isso não aconteceu em 1984, mas se não tivermos cuidado, pode acontecer em 2024. ”

Uma ferramenta com um lado escuro

Inteligência artificial é um termo mal definido, mas geralmente se refere a máquinas que podem aprender ou resolver problemas automaticamente, sem serem dirigidas por um operador humano. Muitos programas de IA hoje dependem de aprendizado de máquina, um conjunto de métodos computacionais usados para reconhecer padrões em grandes quantidades de dados e, em seguida, aplicar essas lições à próxima rodada de dados, teoricamente se tornando mais e mais precisos a cada passagem.

Essa é uma abordagem extremamente poderosa que foi aplicada a tudo, desde a teoria matemática básica até as simulações do universo primitivo, mas pode ser perigosa quando aplicada a dados sociais, argumentam os especialistas. Os dados sobre humanos vêm pré-instalados com preconceitos humanos. Por exemplo, um estudo recente na revista JAMA Psychiatry descobriu que algoritmos destinados a prever o risco de suicídio tiveram um desempenho muito pior em indivíduos negros e índios americanos / nativos do Alasca do que em indivíduos brancos, parcialmente porque havia menos pacientes de cor no sistema médico e parcialmente porque os pacientes de cor eram menos propensos a receber tratamento e diagnósticos apropriados em primeiro lugar, o que significa que os dados originais foram distorcidos para subestimar seu risco.

O preconceito nunca pode ser completamente evitado, mas pode ser resolvido, disse Bernhardt Trout, professor de engenharia química no Instituto de Tecnologia de Massachusetts que ministra um curso profissional de IA e ética. A boa notícia, disse Trout ao Live Science, é que reduzir o preconceito é uma das principais prioridades tanto na academia quanto na indústria de IA.

“As pessoas estão muito cientes dessa questão na comunidade e estão tentando resolvê-la”, disse ele.



Vigilância governamental

O uso indevido de IA, por outro lado, é talvez mais desafiador, disse Trout. Como a IA é usada não é apenas uma questão técnica; é uma questão tanto política quanto moral. E esses valores variam amplamente de país para país.

“O reconhecimento facial é uma ferramenta extraordinariamente poderosa em algumas maneiras de fazer coisas boas, mas se você quiser vigiar todos na rua, se quiser ver todos que aparecem em uma demonstração, você pode colocar a IA para funcionar”, disse Smith a BBC. “E estamos vendo isso em certas partes do mundo.”

A China já começou a usar tecnologia de inteligência artificial de maneiras mundanas e alarmantes. O reconhecimento facial, por exemplo, é usado em algumas cidades em vez de passagens em ônibus e trens. Mas isso também significa que o governo tem acesso a dados abundantes sobre os movimentos e interações dos cidadãos, descobriu o “Panorama” da BBC. O grupo de defesa dos EUA IPVM, que se concentra na ética de vigilância por vídeo, encontrou documentos sugerindo planos na China para desenvolver um sistema chamado “Uma pessoa, um arquivo”, que reuniria as atividades, relacionamentos e crenças políticas de cada residente em um arquivo do governo .

“Não acho que Orwell jamais [teria] imaginado que um governo seria capaz desse tipo de análise”, disse Conor Healy, diretor da IPVM, à BBC.

O famoso romance “1984” de Orwell descreveu uma sociedade na qual o governo vigia os cidadãos através de “teletelas”, mesmo em casa. Mas Orwell não imaginou as capacidades que a inteligência artificial acrescentaria à vigilância – em seu romance, os personagens encontram maneiras de evitar a vigilância por vídeo, apenas para serem denunciados por outros cidadãos.

Na região autônoma de Xinjiang, onde a minoria uigur acusou o governo chinês de tortura e genocídio cultural, a IA está sendo usada para rastrear pessoas e até mesmo avaliar sua culpa quando são presas e interrogadas, apurou a BBC. É um exemplo da tecnologia que facilita o abuso generalizado dos direitos humanos: O Conselho de Relações Exteriores estima que um milhão de uigures foram detidos à força em campos de “reeducação” desde 2017, normalmente sem quaisquer acusações criminais ou meios legais para escapar.

Empurrando para trás

A regulamentação potencial da UE para a IA proibiria sistemas que tentam contornar o livre arbítrio dos usuários ou sistemas que permitem qualquer tipo de “pontuação social” por parte do governo. Outros tipos de aplicativos são considerados de “alto risco” e devem atender a requisitos de transparência, segurança e fiscalização para serem colocados no mercado. Isso inclui coisas como IA para infraestrutura crítica, aplicação da lei, controle de fronteiras e identificação biométrica, como sistemas de identificação facial ou por voz. Outros sistemas, como chatbots de atendimento ao cliente ou videogames habilitados para IA, são considerados de baixo risco e não estão sujeitos a um escrutínio rigoroso.

O interesse do governo federal dos EUA em inteligência artificial, por outro lado, tem se concentrado amplamente no incentivo ao desenvolvimento de IA para fins militares e de segurança nacional. Esse foco ocasionalmente gerou controvérsia. Em 2018, por exemplo, o Google cancelou seu Projeto Maven, um contrato com o Pentágono que teria analisado automaticamente vídeos feitos por aeronaves militares e drones. A empresa argumentou que o objetivo era apenas sinalizar objetos para análise humana, mas os críticos temiam que a tecnologia pudesse ser usada para atingir automaticamente pessoas e lugares para ataques de drones. Denunciantes dentro do Google trouxeram o projeto à luz, levando a uma pressão pública forte o suficiente para que a empresa cancelasse o esforço.

No entanto, o Pentágono agora gasta mais de US $ 1 bilhão por ano em contratos de IA, e aplicações militares e de segurança nacional de aprendizado de máquina são inevitáveis, dado o entusiasmo da China em alcançar a supremacia da IA, disse Trout.

“Você não pode fazer muito para impedir o desejo de um país estrangeiro de desenvolver essas tecnologias”, disse Trout ao Live Science. “E, portanto, o melhor que você pode fazer é desenvolvê-los você mesmo para ser capaz de entendê-los e se proteger, enquanto é o líder moral.”

Nesse ínterim, os esforços para controlar a IA internamente estão sendo liderados por governos estaduais e locais. O maior condado do estado de Washington, King County, acaba de proibir o uso de software de reconhecimento facial pelo governo. É o primeiro condado nos EUA a fazer isso, embora a cidade de San Francisco tenha feito a mesma mudança em 2019, seguida por um punhado de outras cidades.

Já houve casos de softwares de reconhecimento facial que levaram a falsas prisões. Em junho de 2020, um homem negro em Detroit foi preso e mantido por 30 horas em detenção porque um algoritmo o identificou falsamente como um suspeito em um caso de furto. Um estudo de 2019 do Instituto Nacional de Padrões e Tecnologia descobriu que o software retornou mais correspondências falsas para indivíduos negros e asiáticos em comparação com indivíduos brancos, o que significa que a tecnologia provavelmente aumentará as disparidades no policiamento para pessoas de cor.

“Se não aprovarmos, agora, as leis que protegerão o público no futuro, vamos encontrar a tecnologia em alta velocidade”, disse Smith, “e será muito difícil alcançá-la.”


Publicado em 10/06/2021 17h54

Artigo original: