Neurocientista explica diferenças entre Inteligência Artificial e aprendizado humano

Imagem via Unsplash

Modelos de inteligência artificial (IA) desenvolvidos recentemente são capazes de muitos feitos impressionantes, incluindo o reconhecimento de imagens e a produção de linguagem semelhante à humana. Mas só porque a IA pode realizar comportamentos semelhantes aos humanos não significa que ela possa pensar ou entender como humanos.

Como pesquisador que estuda como os humanos entendem e raciocinam sobre o mundo, acho importante enfatizar que a maneira como os sistemas de IA “pensam” e aprendem é fundamentalmente diferente de como os humanos o fazem – e temos um longo caminho a percorrer antes que a IA possa realmente pensar como nós.

Um equívoco generalizado

Os desenvolvimentos em IA produziram sistemas que podem executar comportamentos muito semelhantes aos humanos. O modelo de linguagem GPT-3 pode produzir texto que muitas vezes é indistinguível da fala humana. Outro modelo, o PaLM, pode produzir explicações para piadas nunca vistas antes.

Mais recentemente, foi desenvolvida uma IA de uso geral conhecida como Gato, que pode executar centenas de tarefas, incluindo legendar imagens, responder perguntas, jogar videogames Atari e até controlar um braço robótico para empilhar blocos. E o DALL-E é um sistema que foi treinado para produzir imagens e ilustrações modificadas a partir de uma descrição de texto.

Uma foto de Kermit, o sapo em Blade Runner 2049

Esses avanços levaram a algumas afirmações ousadas sobre a capacidade dessa IA e o que ela pode nos dizer sobre a inteligência humana.

Por exemplo, Nando de Freitas, pesquisador da DeepMind, empresa de IA do Google, argumenta que a ampliação dos modelos existentes será suficiente para produzir inteligência artificial em nível humano. Outros ecoaram essa visão.

O artigo de opinião de alguém. Minha opinião: é tudo uma questão de escala agora! O jogo acabou! Trata-se de tornar esses modelos maiores, mais seguros, eficientes em computação, mais rápidos na amostragem, memória mais inteligente, mais modalidades, DADOS INOVADORES, on/offline, ? 1/N

Em toda a empolgação, é fácil supor que um comportamento humano significa uma compreensão humana. Mas existem várias diferenças importantes entre como a IA e os humanos pensam e aprendem.

Redes neurais contra o cérebro humano

A IA mais recente é construída a partir de redes neurais artificiais, ou “redes neurais”. O termo “neural” é usado porque essas redes são inspiradas no cérebro humano, no qual bilhões de células chamadas neurônios formam teias complexas de conexões umas com as outras, processando informações à medida que disparam sinais para frente e para trás.

As redes neurais são uma versão altamente simplificada da biologia. Um neurônio real é substituído por um nó simples, e a força da conexão entre os nós é representada por um único número chamado “peso”.

Com nós conectados suficientes empilhados em camadas suficientes, as redes neurais podem ser treinadas para reconhecer padrões e até “generalizar” para estímulos semelhantes (mas não idênticos) ao que viram antes. Simplesmente, generalização refere-se à capacidade de um sistema de IA de pegar o que aprendeu com certos dados e aplicá-lo a novos dados.

Ser capaz de identificar recursos, reconhecer padrões e generalizar a partir de resultados está no centro do sucesso das redes neurais – e imita as técnicas que os humanos usam para essas tarefas. No entanto, existem diferenças importantes.

As redes neurais são tipicamente treinadas por “aprendizagem supervisionada”. Então eles são apresentados com muitos exemplos de uma entrada e a saída desejada, e então gradualmente os pesos de conexão são ajustados até que a rede “aprenda” a produzir a saída desejada.

Para aprender uma tarefa de linguagem, uma rede neural pode ser apresentada com uma frase, uma palavra de cada vez, e lentamente aprende a prever a próxima palavra na sequência.

Isso é muito diferente de como os humanos normalmente aprendem. A maior parte do aprendizado humano é “sem supervisão”, o que significa que não nos dizem explicitamente qual é a resposta “certa” para um determinado estímulo. Temos que resolver isso nós mesmos.

Por exemplo, as crianças não recebem instruções sobre como falar, mas aprendem isso por meio de um processo complexo de exposição à fala, imitação e feedback dos adultos.

A aprendizagem das crianças é assistida por adultos, mas eles não são alimentados com grandes conjuntos de dados como os sistemas de IA. Shutterstock

Outra diferença é a grande escala de dados usados para treinar a IA. O modelo GPT-3 foi treinado em 400 bilhões de palavras, em sua maioria retiradas da internet. A uma taxa de 150 palavras por minuto, um humano levaria quase 4.000 anos para ler tanto texto.

Esses cálculos mostram que os humanos não podem aprender da mesma forma que a IA. Temos que fazer uso mais eficiente de quantidades menores de dados.

As redes neurais podem aprender de maneiras que não podemos

Uma diferença ainda mais fundamental diz respeito à maneira como as redes neurais aprendem. Para combinar um estímulo com uma resposta desejada, as redes neurais usam um algoritmo chamado “backpropagation” para passar erros para trás pela rede, permitindo que os pesos sejam ajustados da maneira certa.

No entanto, é amplamente reconhecido pelos neurocientistas que a retropropagação não pode ser implementada no cérebro, pois exigiria sinais externos que simplesmente não existem.

Alguns pesquisadores propuseram que variações de retropropagação poderiam ser usadas pelo cérebro, mas até agora não há evidências de que cérebros humanos possam usar esses métodos de aprendizado.

Em vez disso, os humanos aprendem criando conceitos mentais estruturados, nos quais muitas propriedades e associações diferentes estão ligadas. Por exemplo, nosso conceito de “banana” inclui sua forma, a cor amarela, o conhecimento de que é uma fruta, como segurá-la e assim por diante.

Até onde sabemos, os sistemas de IA não formam conhecimento conceitual assim. Eles dependem inteiramente da extração de associações estatísticas complexas de seus dados de treinamento e, em seguida, aplicá-las a contextos semelhantes.

Esforços estão em andamento para construir IA que combine diferentes tipos de entrada (como imagens e texto) – mas resta saber se isso será suficiente para que esses modelos aprendam os mesmos tipos de representações mentais ricas que os humanos usam para entender o mundo.

Ainda há muito que não sabemos sobre como os humanos aprendem, entendem e raciocinam. No entanto, o que sabemos indica que os humanos realizam essas tarefas de maneira muito diferente dos sistemas de IA.

Como tal, muitos pesquisadores acreditam que precisaremos de novas abordagens e insights mais fundamentais sobre como o cérebro humano funciona, antes que possamos construir máquinas que realmente pensem e aprendam como humanos.


Publicado em 11/06/2022 15h24

Artigo original: