Definir o que é ético na inteligência artificial precisa de informações dos africanos

Crédito CC0: domínio público

A inteligência artificial (IA) já foi matéria de ficção científica. Mas está se espalhando. É usado em tecnologia de telefonia móvel e veículos motorizados. Ele fornece ferramentas para agricultura e saúde.

Mas surgiram preocupações sobre a responsabilidade da IA e tecnologias relacionadas, como Machine Learning. Em dezembro de 2020, um cientista da computação, Timnit Gebru, foi demitido da equipe de AI do Google. Ela já havia alertado sobre os efeitos sociais do preconceito nas tecnologias de IA. Por exemplo, em um artigo de 2018, Gebru e outro pesquisador, Joy Buolamwini, mostraram como o software de reconhecimento facial era menos preciso na identificação de mulheres e pessoas de cor do que os homens brancos. Vieses nos dados de treinamento podem ter efeitos de longo alcance e indesejados.

Já existe um corpo substancial de pesquisas sobre ética em IA. Isso destaca a importância dos princípios para garantir que as tecnologias não apenas piorem os preconceitos ou mesmo introduzam novos danos sociais. Como afirma o projeto de recomendação da UNESCO sobre a ética da IA: “Precisamos de políticas e estruturas regulatórias internacionais e nacionais para garantir que essas tecnologias emergentes beneficiem a humanidade como um todo.”

Nos últimos anos, muitas estruturas e diretrizes foram criadas para identificar objetivos e prioridades para IA ética.

Este é certamente um passo na direção certa. Mas também é fundamental olhar além das soluções técnicas ao abordar questões de parcialidade ou inclusão. Os preconceitos podem entrar no nível de quem define os objetivos e equilibra as prioridades.

Em um artigo recente, argumentamos que a inclusão e a diversidade também precisam estar no nível de identificação de valores e definição de estruturas do que conta como IA ética em primeiro lugar. Isso é especialmente pertinente quando se considera o crescimento da pesquisa de IA e do Machine Learning em todo o continente africano.

Contexto

A pesquisa e o desenvolvimento de IA e tecnologias de Machine Learning estão crescendo nos países africanos. Programas como Data Science Africa, Data Science Nigeria e Deep Learning Indaba com seus eventos satélite IndabaX, que até agora foram realizados em 27 países africanos diferentes, ilustram o interesse e o investimento humano nos campos.

O potencial da IA e tecnologias relacionadas para promover oportunidades de crescimento, desenvolvimento e democratização na África é um fator chave para esta pesquisa.

No entanto, muito poucas vozes africanas estiveram até agora envolvidas nas estruturas éticas internacionais que visam orientar a pesquisa. Isso pode não ser um problema se os princípios e valores nessas estruturas tiverem aplicação universal. Mas não está claro que eles façam.

Por exemplo, a estrutura europeia da AI4People oferece uma síntese de seis outras estruturas éticas. Identifica o respeito pela autonomia como um dos seus princípios fundamentais. Esse princípio tem sido criticado no campo da ética aplicada da bioética. É visto como uma falha em fazer justiça aos valores comunitários comuns em toda a África. Estes focam menos no indivíduo e mais na comunidade, mesmo exigindo que sejam feitas exceções para defender tal princípio para permitir intervenções eficazes.

Desafios como esses – ou mesmo o reconhecimento de que poderia haver tais desafios – estão amplamente ausentes das discussões e estruturas de IA ética.

Assim como os dados de treinamento podem consolidar as desigualdades e injustiças existentes, também o pode deixar de reconhecer a possibilidade de diversos conjuntos de valores que podem variar entre contextos sociais, culturais e políticos.

Resultados inutilizáveis

Além disso, deixar de levar em consideração os contextos sociais, culturais e políticos pode significar que mesmo uma solução técnica ética aparentemente perfeita pode ser ineficaz ou mal orientada uma vez implementada.

Para que o Machine Learning seja eficaz em fazer previsões úteis, qualquer sistema de aprendizado precisa acessar os dados de treinamento. Isso envolve amostras dos dados de interesse: entradas na forma de vários recursos ou medições e saídas que são os rótulos que os cientistas desejam prever. Na maioria dos casos, esses recursos e rótulos exigem conhecimento humano do problema. Mas uma falha em considerar corretamente o contexto local pode resultar em sistemas de baixo desempenho.

Por exemplo, registros de chamadas de telefones celulares têm sido usados para estimar o tamanho da população antes e depois dos desastres. No entanto, as populações vulneráveis têm menos probabilidade de ter acesso a dispositivos móveis. Portanto, esse tipo de abordagem pode gerar resultados que não são úteis.

Da mesma forma, as tecnologias de visão computacional para identificar diferentes tipos de estruturas em uma área provavelmente terão um desempenho inferior quando diferentes materiais de construção forem usados. Em ambos os casos, como nós e outros colegas discutimos em outro artigo recente, não levar em conta as diferenças regionais pode ter efeitos profundos em qualquer coisa, desde a entrega de ajuda em desastres até o desempenho de sistemas autônomos.

Daqui para frente

As tecnologias de IA não devem simplesmente piorar ou incorporar os aspectos problemáticos das sociedades humanas atuais.

Ser sensível e inclusivo em contextos diferentes é vital para projetar soluções técnicas eficazes. É igualmente importante não presumir que os valores são universais. Aqueles que desenvolvem IA precisam começar a incluir pessoas de diferentes origens: não apenas nos aspectos técnicos do projeto de conjuntos de dados e similares, mas também na definição dos valores que podem ser chamados para enquadrar e definir objetivos e prioridades.


Publicado em 25/11/2021 09h41

Artigo original:

Estudo original: