O problema do carrinho autônomo: como os sistemas de IA do futuro farão as escolhas mais éticas para todos nós?

Crédito: Shutterstock

A inteligência artificial (IA) já está tomando decisões nas áreas de negócios, saúde e manufatura. Mas os algoritmos de IA geralmente ainda recebem ajuda de pessoas que aplicam verificações e fazem a chamada final.

O que aconteceria se os sistemas de IA tivessem que tomar decisões independentes, e aquelas que poderiam significar vida ou morte para os humanos?

A cultura pop há muito retrata nossa desconfiança geral em relação à IA. No filme de ficção científica “I, Robot” de 2004, o detetive Del Spooner (interpretado por Will Smith) suspeita de robôs depois de ser resgatado por um em um acidente de carro, enquanto uma menina de 12 anos foi abandonada para se afogar. Ele diz: “Fui a escolha lógica. Calculou-se que eu tinha 45% de chance de sobrevivência. Sarah só tinha 11% de chance. Era o bebê de alguém – 11% é mais do que suficiente. Um ser humano saberia disso . ”

As Três Leis da Robótica de Asimov

Ao contrário dos humanos, os robôs carecem de consciência moral e seguem a “ética” programada neles. Ao mesmo tempo, a moralidade humana é altamente variável. A coisa “certa” a fazer em qualquer situação dependerá de para quem você perguntar.

Para que as máquinas nos ajudem em todo o seu potencial, precisamos garantir que elas se comportem de maneira ética. Portanto, a questão é: como a ética dos desenvolvedores e engenheiros de IA influencia as decisões tomadas pela IA?

O futuro autônomo

Imagine um futuro com carros autônomos e totalmente autônomos. Se tudo funcionar como planejado, o trajeto matinal será uma oportunidade de se preparar para as reuniões do dia, saber das novidades ou sentar e relaxar.

Mas e se as coisas derem errado? O carro se aproxima de um semáforo, mas de repente os freios falham e o computador tem que tomar uma decisão em frações de segundo. Ele pode desviar para um poste próximo e matar o passageiro ou continuar e matar o pedestre à frente.

O computador que controla o carro só terá acesso a informações limitadas coletadas pelos sensores do carro e terá que tomar uma decisão com base nisso. Por mais dramático que possa parecer, estamos a apenas alguns anos de enfrentar esses dilemas.

Os carros autônomos geralmente proporcionam uma direção mais segura, mas os acidentes serão inevitáveis – especialmente em um futuro previsível, quando esses carros estarão compartilhando as estradas com motoristas humanos e outros usuários da estrada.

A Tesla ainda não produz carros totalmente autônomos, embora planeje. Em situações de colisão, os carros Tesla não operam ou desativam automaticamente o sistema de Frenagem Automática de Emergência (AEB) se um motorista humano estiver no controle.

Hardware de piloto automático totalmente autônomo (bairro curto)

Em outras palavras, as ações do motorista não são interrompidas – mesmo se eles próprios estiverem causando a colisão. Em vez disso, se o carro detectar uma potencial colisão, ele enviará alertas para o motorista agir.

No modo “piloto automático”, no entanto, o carro deve frear automaticamente para os pedestres. Alguns argumentam que se o carro pode evitar uma colisão, então existe a obrigação moral de ele anular as ações do motorista em todos os cenários. Mas será que queremos um carro autônomo para tomar essa decisão?

Quanto vale uma vida?

E se o computador de um carro pudesse avaliar o “valor” relativo do passageiro em seu carro e do pedestre? Se sua decisão levasse em consideração esse valor, tecnicamente estaria apenas fazendo uma análise de custo-benefício.

Isso pode parecer alarmante, mas já existem tecnologias em desenvolvimento que podem permitir que isso aconteça. Por exemplo, o Meta (antigo Facebook), recentemente renomeado, tem um reconhecimento facial altamente evoluído que pode identificar facilmente os indivíduos em uma cena.

Se esses dados fossem incorporados ao sistema de IA de um veículo autônomo, o algoritmo poderia atribuir um valor em dólar a cada vida. Essa possibilidade é retratada em um extenso estudo de 2018 conduzido por especialistas do Instituto de Tecnologia de Massachusetts e colegas.

Por meio do experimento Moral Machine, os pesquisadores propuseram vários cenários de carros autônomos que obrigaram os participantes a decidir se matariam um pedestre sem-teto ou um pedestre executivo.

Os resultados revelaram que as escolhas dos participantes dependiam do nível de desigualdade econômica em seu país, em que mais desigualdade econômica significava que eles eram mais propensos a sacrificar o homem sem-teto.

Embora não tão evoluída, essa agregação de dados já está em uso com o sistema de crédito social da China, que decide quais direitos sociais as pessoas têm.

O setor de saúde é outra área onde veremos a IA tomando decisões que podem salvar ou prejudicar humanos. Os especialistas estão desenvolvendo cada vez mais IA para detectar anomalias em imagens médicas e ajudar os médicos a priorizar o atendimento médico.

Por enquanto, os médicos têm a palavra final, mas à medida que essas tecnologias se tornam cada vez mais avançadas, o que acontecerá quando um médico e um algoritmo de IA não fizerem o mesmo diagnóstico?

O problema do bonde

Outro exemplo é um sistema automatizado de lembretes de medicamentos. Como o sistema deve reagir se um paciente se recusar a tomar o medicamento? E como isso afeta a autonomia do paciente e a responsabilidade geral do sistema?

Drones e armamentos movidos a IA também são eticamente preocupantes, pois podem tomar a decisão de matar. Existem pontos de vista conflitantes sobre se essas tecnologias devem ser completamente proibidas ou regulamentadas. Por exemplo, o uso de drones autônomos pode ser limitado à vigilância.

Alguns pediram que os robôs militares sejam programados com ética. Mas isso levanta questões sobre a responsabilidade do programador no caso em que um drone mata civis por engano.

Dilemas filosóficos

Tem havido muitos debates filosóficos sobre as decisões éticas que a IA terá que tomar. O exemplo clássico disso é o problema do carrinho.

As pessoas muitas vezes lutam para tomar decisões que podem ter um resultado de mudança de vida. Ao avaliar como reagimos a tais situações, um estudo relatou que as escolhas podem variar dependendo de uma série de fatores, incluindo a idade, sexo e cultura do entrevistado.

Quando se trata de sistemas de IA, os processos de treinamento de algoritmos são críticos para como eles funcionarão no mundo real. Um sistema desenvolvido em um país pode ser influenciado pelos pontos de vista, política, ética e moral desse país, tornando-o impróprio para uso em outro lugar e época.

Se o sistema estava controlando aeronaves ou guiando um míssil, você gostaria de ter um alto nível de confiança de que ele foi treinado com dados representativos do ambiente em que está sendo usado.

Exemplos de falhas e preconceitos na implementação de tecnologia incluem dispensador de sabonete racista e rotulagem de imagem automática inadequada.

Se você já teve problemas para entender a importância da diversidade na tecnologia e seu impacto na sociedade, assista a este vídeo

AI não é “bom” ou “mau”. Os efeitos que isso tem sobre as pessoas dependerão da ética de seus desenvolvedores. Portanto, para aproveitá-lo ao máximo, precisaremos chegar a um consenso sobre o que consideramos “ético”.

Embora as empresas privadas, organizações públicas e instituições de pesquisa tenham suas próprias diretrizes para IA ética, as Nações Unidas recomendaram o desenvolvimento do que chamam de “um instrumento de definição de padrões globais abrangente” para fornecer uma estrutura de IA ética global – e garantir que os direitos humanos sejam protegidos.


Publicado em 25/11/2021 10h28

Artigo original:

Estudo original: