Paradoxos matemáticos demonstram os limites da Inteligência Artificial

Imagem via Unsplash

Os humanos geralmente são muito bons em reconhecer quando erram, mas os sistemas de inteligência artificial não são. De acordo com um novo estudo, a IA geralmente sofre de limitações inerentes devido a um paradoxo matemático centenário.

Como algumas pessoas, os sistemas de IA geralmente têm um grau de confiança que excede em muito suas habilidades reais. E como uma pessoa superconfiante, muitos sistemas de IA não sabem quando estão cometendo erros. Às vezes, é ainda mais difícil para um sistema de IA perceber quando está cometendo um erro do que produzir um resultado correto.

Pesquisadores da Universidade de Cambridge e da Universidade de Oslo dizem que a instabilidade é o calcanhar de Aquiles da IA moderna e que um paradoxo matemático mostra as limitações da IA. As redes neurais, a ferramenta de última geração em IA, imitam aproximadamente as ligações entre os neurônios no cérebro. Os pesquisadores mostram que existem problemas onde existem redes neurais estáveis e precisas, mas nenhum algoritmo pode produzir tal rede. Somente em casos específicos os algoritmos podem computar redes neurais estáveis e precisas.

Os pesquisadores propõem uma teoria de classificação que descreve quando as redes neurais podem ser treinadas para fornecer um sistema de IA confiável sob certas condições específicas. Seus resultados são relatados no Proceedings of the National Academy of Sciences.

O deep learning, a principal tecnologia de IA para reconhecimento de padrões, tem sido objeto de inúmeras manchetes de tirar o fôlego. Exemplos incluem o diagnóstico de doenças com mais precisão do que os médicos ou a prevenção de acidentes rodoviários através da condução autónoma. No entanto, muitos sistemas de deep learning não são confiáveis e fáceis de enganar.

“Muitos sistemas de IA são instáveis e estão se tornando um grande risco, especialmente porque são cada vez mais usados em áreas de alto risco, como diagnóstico de doenças ou veículos autônomos”, disse o coautor Professor Anders Hansen, do Departamento de Matemática Aplicada e Física Teórica de Cambridge. “Se os sistemas de IA são usados em áreas onde podem causar danos reais se derem errado, a confiança nesses sistemas deve ser a principal prioridade”.

O paradoxo identificado pelos pesquisadores remonta a dois gigantes matemáticos do século 20: Alan Turing e Kurt Gödel. No início do século 20, os matemáticos tentaram justificar a matemática como a última linguagem consistente da ciência. No entanto, Turing e Gödel mostraram um paradoxo no coração da matemática: é impossível provar se certas afirmações matemáticas são verdadeiras ou falsas, e alguns problemas computacionais não podem ser resolvidos com algoritmos. E, sempre que um sistema matemático é rico o suficiente para descrever a aritmética que aprendemos na escola, ele não pode provar sua própria consistência.

Décadas depois, o matemático Steve Smale propôs uma lista de 18 problemas matemáticos não resolvidos para o século XXI. O 18º problema dizia respeito aos limites da inteligência tanto para humanos quanto para máquinas.

“O paradoxo identificado pela primeira vez por Turing e Gödel agora foi trazido para o mundo da IA por Smale e outros”, disse o co-autor Dr. Matthew Colbrook do Departamento de Matemática Aplicada e Física Teórica. “Existem limites fundamentais inerentes à matemática e, da mesma forma, algoritmos de IA não podem existir para certos problemas”.

Os pesquisadores dizem que, por causa desse paradoxo, há casos em que boas redes neurais podem existir, mas uma rede inerentemente confiável não pode ser construída. “Não importa quão precisos sejam seus dados, você nunca pode obter as informações perfeitas para construir a rede neural necessária”, disse o coautor Dr. Vegard Antun, da Universidade de Oslo.

A impossibilidade de computar a boa rede neural existente também é verdadeira independentemente da quantidade de dados de treinamento. Não importa quantos dados um algoritmo possa acessar, ele não produzirá a rede desejada. “Isso é semelhante ao argumento de Turing: existem problemas computacionais que não podem ser resolvidos independentemente do poder de computação e do tempo de execução”, disse Hansen.

Os pesquisadores dizem que nem toda IA é inerentemente falha, mas é confiável apenas em áreas específicas, usando métodos específicos. “O problema está nas áreas em que você precisa de garantia, porque muitos sistemas de IA são uma caixa preta”, disse Colbrook. “Em algumas situações, não há problema em que uma IA cometa erros, mas precisa ser honesta sobre isso. E não é isso que estamos vendo para muitos sistemas – não há como saber quando eles estão mais confiantes ou menos confiantes sobre uma decisão.”

“Atualmente, os sistemas de IA às vezes podem ter um toque de adivinhação”, disse Hansen. “Você tenta algo e, se não funcionar, adiciona mais coisas, esperando que funcione. Em algum momento, você se cansará de não conseguir o que deseja e tentará um método diferente. É importante entender as limitações de diferentes abordagens. Estamos no estágio em que os sucessos práticos da IA estão muito à frente da teoria e do entendimento. É necessário um programa para entender os fundamentos da computação de IA para preencher essa lacuna.”

“Quando os matemáticos do século 20 identificaram diferentes paradoxos, eles não pararam de estudar matemática. Eles apenas tiveram que encontrar novos caminhos, porque entenderam as limitações”, disse Colbrook. “Para a IA, pode ser o caso de mudar caminhos ou desenvolver novos para construir sistemas que possam resolver problemas de maneira confiável e transparente, entendendo suas limitações”.

A próxima etapa para os pesquisadores é combinar teoria de aproximação, análise numérica e fundamentos de computação para determinar quais redes neurais podem ser computadas por algoritmos e quais podem se tornar estáveis e confiáveis. Assim como os paradoxos sobre as limitações da matemática e dos computadores identificados por Gödel e Turing levaram a teorias de fundamentos ricas – descrevendo tanto as limitações quanto as possibilidades da matemática e da computação – talvez uma teoria de fundamentos semelhante possa florescer na IA.


Publicado em 21/03/2022 12h23

Artigo original:

Estudo original: