A inteligência artificial pode vir a discriminar com base em raça, gênero e idade

Os adultos mais velhos estão cada vez mais usando tecnologias em suas vidas cotidianas, mas as necessidades dessa população são frequentemente ignoradas no design de IA. (Shutterstock)

Aceitamos o uso de inteligência artificial (IA) em processos complexos – desde cuidados de saúde até nosso uso diário de mídias sociais – muitas vezes sem investigação crítica, até que seja tarde demais. O uso da IA é inevitável em nossa sociedade moderna e pode perpetuar a discriminação sem que seus usuários tenham consciência de qualquer preconceito. Quando os profissionais de saúde confiam em tecnologia tendenciosa, há impactos reais e prejudiciais.

Isso ficou claro recentemente quando um estudo mostrou que os oxímetros de pulso – que medem a quantidade de oxigênio no sangue e têm sido uma ferramenta essencial para o manejo clínico do COVID-19 – são menos precisos em pessoas com pele mais escura do que com pele mais clara. As descobertas resultaram em uma ampla revisão de preconceito racial em andamento, na tentativa de criar padrões internacionais para testar dispositivos médicos.

Há exemplos na área de saúde, negócios, governo e vida cotidiana em que algoritmos tendenciosos levaram a problemas, como buscas sexistas e previsões racistas sobre a probabilidade de um infrator reincidir.

A IA é frequentemente considerada mais objetiva do que os humanos. Na realidade, no entanto, os algoritmos de IA tomam decisões com base em dados anotados por humanos, que podem ser tendenciosos e excludentes. A pesquisa atual sobre viés na IA se concentra principalmente em gênero e raça. Mas e o viés relacionado à idade – a IA pode ser etária?

Tecnologias anti-idade?

Em 2021, a Organização Mundial da Saúde divulgou um relatório global sobre o envelhecimento, que pedia ações urgentes para combater o envelhecimento por causa de seus impactos generalizados na saúde e no bem-estar.

Ageism é definido como “um processo de estereótipo sistemático e discriminação contra pessoas porque são velhas“. Pode ser explícito ou implícito e pode assumir a forma de atitudes negativas, atividades discriminatórias ou práticas institucionais.

A difusão do preconceito de idade foi trazida à tona durante a pandemia do COVID-19. Os adultos mais velhos foram rotulados como “fardos para as sociedades” e, em algumas jurisdições, a idade foi usada como o único critério para tratamentos que salvam vidas.

A campanha da OMS para combater o preconceito de idade.

O idadismo digital existe quando o preconceito e a discriminação baseados na idade são criados ou apoiados pela tecnologia. Um relatório recente indica que um “mundo digital” de mais de 2,5 quintilhões de bytes de dados é produzido a cada dia. No entanto, embora os adultos mais velhos estejam usando a tecnologia em maior número – e se beneficiando desse uso – eles continuam sendo a faixa etária com menor probabilidade de ter acesso a um computador e à Internet.

O idadismo digital pode surgir quando as atitudes etários influenciam o design da tecnologia ou quando o idadismo torna mais difícil para os adultos mais velhos acessar e aproveitar todos os benefícios das tecnologias digitais.

Ciclos de injustiça

Existem vários ciclos entrelaçados de injustiça onde os preconceitos tecnológicos, individuais e sociais interagem para produzir, reforçar e contribuir para o ageismo digital.

As barreiras ao acesso tecnológico podem excluir os idosos do processo de pesquisa, design e desenvolvimento de tecnologias digitais. Sua ausência no design e desenvolvimento de tecnologia também pode ser racionalizada com a crença de que os idosos são incapazes de usar a tecnologia. Como tal, os idosos e suas perspectivas raramente estão envolvidos no desenvolvimento de IA e políticas relacionadas, financiamento e serviços de apoio.

As experiências e necessidades únicas dos adultos mais velhos são negligenciadas, apesar da idade ser um preditor mais poderoso do uso da tecnologia do que outras características demográficas, incluindo raça e gênero.

A IA é treinada por dados, e a ausência de adultos mais velhos pode reproduzir ou até amplificar as suposições egípcias acima em sua produção. Muitas tecnologias de IA estão focadas em uma imagem estereotipada de um idoso com problemas de saúde – um segmento estreito da população que ignora o envelhecimento saudável. Isso cria um ciclo de feedback negativo que não apenas desencoraja os adultos mais velhos a usar a IA, mas também resulta em mais perda de dados desses dados demográficos que melhorariam a precisão da IA.

Mesmo quando os idosos são incluídos em grandes conjuntos de dados, eles geralmente são agrupados de acordo com divisões arbitrárias pelos desenvolvedores. Por exemplo, os adultos mais velhos podem ser definidos como todos com 50 anos ou mais, apesar das coortes mais jovens serem divididas em faixas etárias mais restritas. Como resultado, os idosos e suas necessidades podem se tornar invisíveis para os sistemas de IA.

Dessa forma, os sistemas de IA reforçam a desigualdade e ampliam a exclusão social para setores da população, criando uma “subclasse digital” composta principalmente por grupos mais velhos, pobres, racializados e marginalizados.

Abordando o envelhecimento digital

Devemos entender os riscos e danos associados aos preconceitos relacionados à idade, à medida que mais idosos recorrem à tecnologia.

O primeiro passo é que pesquisadores e desenvolvedores reconheçam a existência do ageism digital ao lado de outras formas de vieses algorítmicos, como racismo e sexismo. Eles precisam direcionar esforços para identificá-lo e medi-lo. O próximo passo é desenvolver salvaguardas para sistemas de IA para mitigar os resultados de envelhecimento.

Atualmente, há muito pouco treinamento, auditoria ou supervisão de atividades orientadas por IA do ponto de vista regulatório ou legal. Por exemplo, o atual regime regulatório de IA do Canadá é extremamente deficiente.

Isso representa um desafio, mas também uma oportunidade de incluir o preconceito de idade ao lado de outras formas de preconceito e discriminação que precisam ser extirpadas. Para combater o envelhecimento digital, os idosos devem ser incluídos de forma significativa e colaborativa na concepção de novas tecnologias.

Com o preconceito na IA agora reconhecido como um problema crítico que precisa de ação urgente, é hora de considerar a experiência do ageism digital para adultos mais velhos e entender como envelhecer em um mundo cada vez mais digital pode reforçar as desigualdades sociais, a exclusão e a marginalização.


Publicado em 22/01/2022 13h40

Artigo original: