A Inteligência Artificial pode ser uma força poderosa para o bem – mas atualmente estamos seguindo um caminho mais sombrio


A Inteligência Artificial (IA) já está reconfigurando o mundo de maneiras conspícuas. Os dados impulsionam nosso ecossistema digital global e as tecnologias de IA revelam padrões nos dados.

Smartphones, casas inteligentes e cidades inteligentes influenciam a maneira como vivemos e interagimos, e os sistemas de IA estão cada vez mais envolvidos em decisões de recrutamento, diagnósticos médicos e veredictos judiciais. Se este cenário é utópico ou distópico depende da sua perspectiva.

Os riscos potenciais da IA ??são enumerados repetidamente. Robôs assassinos e desemprego em massa são preocupações comuns, enquanto algumas pessoas até temem a extinção humana. Previsões mais otimistas afirmam que a IA acrescentará US $ 15 trilhões à economia mundial até 2030 e, eventualmente, nos levará a algum tipo de nirvana social.

Certamente precisamos considerar o impacto que essas tecnologias estão tendo em nossas sociedades. Uma preocupação importante é que os sistemas de IA reforçam os vieses sociais existentes – com efeitos prejudiciais.

Vários exemplos notórios desse fenômeno têm recebido ampla atenção: sistemas de tradução automática automatizados de ponta que produzem resultados sexistas e sistemas de reconhecimento de imagem que classificam os negros como gorilas.

Esses problemas surgem porque esses sistemas usam modelos matemáticos (como redes neurais) para identificar padrões em grandes conjuntos de dados de treinamento. Se esses dados forem distorcidos de várias maneiras, seus preconceitos inerentes serão inevitavelmente aprendidos e reproduzidos pelos sistemas treinados.

Tecnologias autônomas tendenciosas são problemáticas, pois podem potencialmente marginalizar grupos como mulheres, minorias étnicas ou idosos, agravando os desequilíbrios sociais existentes.

Se os sistemas de IA forem treinados em dados de detenções policiais, por exemplo, quaisquer preconceitos conscientes ou inconscientes manifestos nos padrões existentes de detenções seriam replicados por um sistema de IA de “policiamento preditivo” treinado nesses dados.

Reconhecendo as sérias implicações disso, várias organizações autorizadas recomendaram recentemente que todos os sistemas de IA deveriam ser treinados em dados imparciais. As diretrizes éticas publicadas no início de 2019 pela Comissão Europeia ofereceram a seguinte recomendação:

Quando os dados são coletados, eles podem conter vieses, imprecisões, erros e erros socialmente construídos. Isso precisa ser resolvido antes do treinamento com qualquer conjunto de dados.

Lidando com dados tendenciosos

Tudo isso parece bastante sensato. Mas, infelizmente, às vezes é simplesmente impossível garantir que determinados conjuntos de dados sejam imparciais antes do treinamento. Um exemplo concreto deve esclarecer isso.

Todos os sistemas de tradução automática de última geração (como o Google Translate) são treinados em pares de frases.

Um sistema inglês-francês usa dados que associam frases em inglês (“ela é alta”) a frases em francês equivalentes (“elle est grande”).

Pode haver 500 milhões de pares desse tipo em um dado conjunto de dados de treinamento e, portanto, um bilhão de frases separadas no total. Todos os preconceitos relacionados a gênero precisariam ser removidos de um conjunto de dados desse tipo se quiséssemos impedir que o sistema resultante produzisse resultados sexistas, como os seguintes:

Entrada: As mulheres começaram a reunião. Eles trabalharam eficientemente.
Saída: Les femmes ont a partir da resposta. É a eficácia do travaillé.
A tradução em francês foi gerada usando o Google Translate em 11 de outubro de 2019 e está incorreta: “Ils” é o pronome de sujeito plural masculino em francês e aparece aqui, apesar do contexto indicar claramente que as mulheres estão sendo referidas.

Este é um exemplo clássico do padrão masculino preferido pelo sistema automatizado devido a vieses nos dados de treinamento.

Em geral, 70% dos pronomes de gênero nos conjuntos de dados de tradução são masculinos, enquanto 30% são femininos. Isso ocorre porque os textos usados ??para tais fins tendem a se referir mais aos homens do que às mulheres.

Para impedir que os sistemas de tradução replicem esses vieses existentes, pares específicos de frases teriam que ser removidos dos dados, para que os pronomes masculino e feminino ocorressem 50/50 nos lados inglês e francês. Isso impediria o sistema de atribuir probabilidades mais altas a pronomes masculinos.

Substantivos e adjetivos precisariam ser equilibrados em 50/50 também, é claro, pois eles podem indicar gênero nos dois idiomas (“ator”, “atriz”; “neuf”, “neuve”) – e assim por diante. Mas essa drástica amostragem reduziria necessariamente os dados de treinamento disponíveis consideravelmente, diminuindo assim a qualidade das traduções produzidas.

E mesmo que o subconjunto de dados resultante fosse totalmente equilibrado em termos de gênero, ainda assim seria distorcido de todas as formas possíveis (como etnia ou idade). Na verdade, seria difícil remover todos esses vieses completamente.

Se uma pessoa dedicasse apenas cinco segundos à leitura de cada um bilhão de frases nos dados de treinamento, levaria 159 anos para verificar todas – e isso pressupõe disposição para trabalhar dia e noite, sem pausas para o almoço.

Uma alternativa?

Portanto, não é realista exigir que todos os conjuntos de dados de treinamento sejam imparciais antes que os sistemas de IA sejam construídos. Tais requisitos de alto nível geralmente assumem que “IA” denota um cluster homogêneo de modelos matemáticos e abordagens algorítmicas.

Na realidade, diferentes tarefas de IA requerem tipos muito diferentes de sistemas. E subestimar toda a extensão dessa diversidade disfarça os problemas reais colocados por (digamos) dados de treinamento profundamente distorcidos. Isso é lamentável, pois significa que outras soluções para o problema de viés de dados são negligenciadas.

Por exemplo, os vieses em um sistema de tradução automática treinado podem ser substancialmente reduzidos se o sistema for adaptado após ter sido treinado no conjunto de dados maior, inevitavelmente tendencioso.

Isso pode ser feito usando um conjunto de dados muito menor e menos inclinado. A maioria dos dados pode ser fortemente tendenciosa, portanto, mas o sistema treinado para isso não precisa ser. Infelizmente, essas técnicas raramente são discutidas pelos responsáveis ??pelo desenvolvimento de diretrizes e estruturas legislativas para a pesquisa em IA.

Se os sistemas de IA simplesmente reforçam os desequilíbrios sociais existentes, eles obstruem, em vez de facilitar, mudanças sociais positivas. Se as tecnologias de IA que usamos cada vez mais diariamente forem muito menos tendenciosas do que nós, elas poderão nos ajudar a reconhecer e enfrentar nossos próprios preconceitos à espreita.

Certamente é para isso que devemos trabalhar. E, portanto, os desenvolvedores de IA precisam pensar com muito mais cuidado sobre as consequências sociais dos sistemas que constroem, enquanto aqueles que escrevem sobre IA precisam entender com mais detalhes como os sistemas de IA são realmente projetados e construídos.

Porque se realmente estamos nos aproximando de um idílio tecnológico ou apocalipse, o primeiro seria preferível. A conversa

Marcus Tomalin, pesquisador associado sênior no Laboratório de Inteligência de Máquinas do Departamento de Engenharia da Universidade de Cambridge e Stefanie Ullmann, pesquisador associado de pós-doutorado da Universidade de Cambridge.


Publicado em 15/10/2019

Artigo original: https://www.sciencealert.com/ai-could-be-a-powerful-force-for-good-but-we-re-currently-heading-down-a-darker-path


Achou importante? Compartilhe!



Assine nossa newsletter e fique informado sobre Astrofísica, Biofísica, Geofísica e outras áreas. Preencha seu e-mail no espaço abaixo e clique em “OK”: