Revisão de enviesamento codificado: um relato revelador dos perigos da IA

A IA de reconhecimento facial só podia “ver” Joy Buolamwini quando ela usava uma máscara branca

7th Empire Media


EM SEU primeiro semestre como estudante de graduação no MIT Media Lab, Joy Buolamwini encontrou um problema peculiar. O software comercial de reconhecimento de rosto, que detectou perfeitamente seus colegas de turma de pele clara, não conseguiu “ver” seu rosto. Até, isto é, ela colocou uma máscara de plástico branca em frustração.

Coded Bias é um documentário instigante e oportuno do diretor Shalini Kantayya. Segue-se a jornada de Buolamwini para descobrir o preconceito racial e sexista em software de reconhecimento de rosto e outros sistemas de inteligência artificial. Essa tecnologia é cada vez mais usada para tomar decisões importantes, mas muitos dos algoritmos são uma caixa preta.

“Espero que este seja um tipo de Verdade Inconveniente da justiça algorítmica, um filme que explica a ciência e a ética em torno de uma questão de importância crítica para o futuro da humanidade”, disse Kantayya à New Scientist.

O documentário, que estreou no Festival de Cinema de Sundance no início deste ano, mostra um bando de cientistas, acadêmicos e autores articulados que falam mais. Este elenco consiste principalmente em mulheres de cor, o que é adequado porque estudos, incluindo os de Buolamwini, revelam que os sistemas de reconhecimento de rosto têm taxas de precisão muito mais baixas ao identificar rostos femininos e de pele mais escura em comparação com rostos masculinos brancos.

Recentemente, houve uma reação contra o reconhecimento de rosto. IBM, Amazon e Microsoft suspenderam ou restringiram as vendas de sua tecnologia. Cidades americanas, notadamente Boston e São Francisco, proibiram o uso de reconhecimento facial pelo governo, reconhecendo problemas de preconceito racial.

As pessoas parecem ter experiências diferentes com a tecnologia. O documentário mostra um pedestre perplexo em Londres sendo multado por cobrir parcialmente o rosto ao passar por uma van de vigilância da polícia. Nas ruas de Hangzhou, China, encontramos uma skatista que diz gostar da conveniência do reconhecimento facial, pois é usado para permitir sua entrada em estações de trem e seu complexo residencial.

“Se um AI suspeitar que você é um jogador, você poderá ver anúncios de tarifas com desconto para Las Vegas”

O filme também explora como algoritmos de tomada de decisão podem ser suscetíveis a vieses. Em 2014, por exemplo, a Amazon desenvolveu uma ferramenta experimental para examinar pedidos de emprego para funções de tecnologia. A ferramenta, que não foi projetada para ser sexista, descontou currículos que mencionavam faculdades ou grupos de mulheres, captando o desequilíbrio de gênero nos currículos enviados à empresa. A ferramenta nunca foi usada para avaliar candidatos reais a empregos.

Os sistemas de IA também podem criar uma imagem das pessoas enquanto elas navegam na Internet, conforme o documentário investiga. Eles podem descobrir coisas que não divulgamos, diz Zeynep Tufekci, da Universidade da Carolina do Norte em Chapel Hill, no filme. Os indivíduos podem então ser alvos de anunciantes online. Por exemplo, se um sistema de IA suspeitar que você é um jogador compulsivo, você pode ser presenteado com tarifas com desconto para Las Vegas, diz ela.

Na União Europeia, o Regulamento Geral de Proteção de Dados oferece às pessoas um melhor controle sobre seus dados pessoais, mas não há regulamento equivalente nos EUA.

“A proteção de dados é um trabalho inacabado do movimento pelos direitos civis”, disse Kantayya. O filme argumenta que a sociedade deve responsabilizar os fabricantes de software de IA. Ele defende um órgão regulador para proteger o público de seus danos e preconceitos.

No final do filme, Buolamwini testemunha perante o Congresso dos Estados Unidos para pressionar o caso pela regulamentação. Ela quer que as pessoas apoiem a equidade, a transparência e a responsabilidade no uso da IA que governa nossas vidas. Ela agora fundou um grupo chamado Liga da Justiça Algorítmica, que tenta destacar essas questões.

Kantayya disse que foi inspirada a fazer Coded Bias de Buolamwini e outros matemáticos e cientistas brilhantes e durões. É um relato revelador dos perigos da vigilância invasiva e do preconceito em IA.


Publicado em 17/08/2020 08h59

Artigo original:


Achou importante? Compartilhe!


Assine nossa newsletter e fique informado sobre Astrofísica, Biofísica, Geofísica e outras áreas. Preencha seu e-mail no espaço abaixo e clique em “OK”: