Para ter eficiência energética, os cérebros prevêem suas percepções

Quando somos apresentados a uma imagem ambígua, o que percebemos pode depender do contexto. Alguns neurocientistas veem isso como evidência de que o cérebro monta suas percepções de cima para baixo usando previsões sobre o que espera.

Os resultados das redes neurais apóiam a ideia de que os cérebros são “máquinas de previsão” – e que funcionam dessa forma para conservar energia.

Como nosso cérebro, uma massa de tecido de um quilo e meio envolta em um crânio ósseo, cria percepções a partir de sensações é um mistério antigo. Evidências abundantes e décadas de pesquisas sustentadas sugerem que o cérebro não pode simplesmente reunir informações sensoriais, como se estivesse montando um quebra-cabeça, para perceber o que está ao seu redor. Isso é corroborado pelo fato de que o cérebro pode construir uma cena com base na luz que entra em nossos olhos, mesmo quando a informação que chega é barulhenta e ambígua.

Consequentemente, muitos neurocientistas estão se voltando para uma visão do cérebro como uma “máquina de previsão”. Por meio do processamento preditivo, o cérebro usa seu conhecimento prévio do mundo para fazer inferências ou gerar hipóteses sobre as causas das informações sensoriais recebidas. Essas hipóteses – e não as entradas sensoriais em si – dão origem a percepções em nossa mente. Quanto mais ambígua for a entrada, maior será a confiança no conhecimento prévio.

“A beleza da estrutura de processamento preditivo [é] que ela tem uma capacidade realmente grande – às vezes os críticos podem dizer muito grande – de explicar muitos fenômenos diferentes em muitos sistemas diferentes”, disse Floris de Lange, neurocientista do Predictive Brain Laboratório da Radboud University na Holanda.

No entanto, a crescente evidência neurocientífica para essa ideia tem sido principalmente circunstancial e está aberta a explicações alternativas. “Se você olhar para a neurociência cognitiva e a neuroimagem em humanos, [há] muitas evidências – mas evidências superimplícitas e indiretas”, disse Tim Kietzmann, da Radboud University, cuja pesquisa está na área interdisciplinar de aprendizado de máquina e neurociência .

Portanto, os pesquisadores estão se voltando para modelos computacionais para entender e testar a ideia do cérebro preditivo. Neurocientistas computacionais construíram redes neurais artificiais, com designs inspirados no comportamento de neurônios biológicos, que aprendem a fazer previsões sobre as informações que chegam. Esses modelos mostram algumas habilidades misteriosas que parecem imitar as de cérebros reais. Alguns experimentos com esses modelos até sugerem que os cérebros tiveram que evoluir como máquinas de previsão para satisfazer as restrições de energia.

E, à medida que os modelos computacionais proliferam, os neurocientistas que estudam animais vivos também estão se tornando mais convencidos de que os cérebros aprendem a inferir as causas das entradas sensoriais. Embora os detalhes exatos de como o cérebro faz isso permaneçam nebulosos, as pinceladas gerais estão se tornando mais claras.

Inferências inconscientes na percepção

O processamento preditivo pode parecer à primeira vista um mecanismo complexo de percepção, mas há uma longa história de cientistas que recorreram a ele porque outras explicações pareciam inexistentes. Até mil anos atrás, o astrônomo e matemático árabe muçulmano Hasan Ibn Al-Haytham destacou uma forma disso em seu Livro de Óptica para explicar vários aspectos da visão. A ideia ganhou força na década de 1860, quando o físico e médico alemão Hermann von Helmholtz argumentou que o cérebro infere as causas externas de suas entradas sensoriais em vez de construir suas percepções “de baixo para cima” a partir dessas entradas.

Psicólogos cognitivos em meados do século 20 usaram essa imagem, que pode se parecer com um pato ou com um coelho, para estudar a percepção humana.

Helmholtz expôs este conceito de “inferência inconsciente” para explicar a percepção biestável ou multiestável, na qual uma imagem pode ser percebida de mais de uma maneira. Isso ocorre, por exemplo, com a conhecida imagem ambígua que podemos perceber como um pato ou um coelho: Nossa percepção fica girando entre as duas imagens de animais. Nesses casos, Helmholtz afirmou que a percepção deve ser resultado de um processo inconsciente de inferências de cima para baixo sobre as causas dos dados sensoriais, uma vez que a imagem que se forma na retina não muda.

Durante o século 20, os psicólogos cognitivos continuaram a argumentar que a percepção era um processo de construção ativa que se baseava em dados sensoriais ascendentes e conceituais de cima para baixo. O esforço culminou em um influente artigo de 1980, “Perceptions as Hypotheses”, do falecido Richard Langton Gregory, que argumentou que as ilusões perceptivas são essencialmente suposições errôneas do cérebro sobre as causas das impressões sensoriais. Enquanto isso, os cientistas da visão por computador tropeçaram em seus esforços para usar a reconstrução de baixo para cima para permitir que os computadores vissem sem um modelo “gerador” interno para referência.

“Tentar dar sentido aos dados sem um modelo gerador está fadado ao fracasso – tudo o que se pode fazer é fazer afirmações sobre os padrões dos dados”, disse Karl Friston, neurocientista computacional da University College London.

Mas enquanto a aceitação do processamento preditivo crescia, questões permaneciam sobre como ele poderia ser implementado no cérebro. Um modelo popular, chamado de codificação preditiva, defende uma hierarquia de níveis de processamento de informações no cérebro. O nível mais alto representa o conhecimento mais abstrato e de alto nível (por exemplo, a percepção de uma cobra nas sombras à frente). Essa camada faz previsões, antecipando a atividade neural da camada abaixo, enviando sinais para baixo. A camada inferior compara sua atividade real com a previsão de cima. Se houver uma incompatibilidade, a camada gera um sinal de erro que flui para cima, de modo que a camada superior pode atualizar suas representações internas.

Esse processo acontece simultaneamente para cada par de camadas consecutivas, até a camada mais inferior, que recebe a entrada sensorial real. Qualquer discrepância entre o que é recebido do mundo e o que está sendo antecipado resulta em um sinal de erro que volta à hierarquia. A camada mais alta eventualmente atualiza sua hipótese (que não era uma cobra afinal, apenas uma corda enrolada no chão).

Lucy Reading-Ikkanda / Quanta Magazine

“Em geral, a ideia da codificação preditiva, especialmente quando aplicada ao córtex, é que o cérebro tem basicamente duas populações de neurônios”, disse de Lange: uma que codifica a melhor previsão atual sobre o que está sendo percebido e outra que sinaliza erros nessa previsão.

Em 1999, os cientistas da computação Rajesh Rao e Dana Ballard (então no Salk Institute for Biological Studies e na University of Rochester, respectivamente) construíram um modelo computacional formidável de codificação preditiva que tinha neurônios explicitamente para previsão e correção de erros. Eles modelaram partes de uma via no sistema de processamento visual de cérebros de primatas que consiste em regiões organizadas hierarquicamente responsáveis por reconhecer rostos e objetos. Eles mostraram que o modelo pode recapitular alguns comportamentos incomuns do sistema visual dos primatas.

Esse trabalho, no entanto, foi feito antes do advento das redes neurais profundas modernas, que têm uma camada de entrada, uma camada de saída e várias camadas ocultas imprensadas entre as duas. Em 2012, os neurocientistas estavam usando redes neurais profundas para modelar o fluxo visual ventral dos primatas. Mas quase todos esses modelos eram redes feedforward, nas quais as informações fluem apenas da entrada para a saída. “O cérebro claramente não é uma máquina puramente feedforward”, disse de Lange. “Há muito feedback no cérebro, quase tanto quanto há feedforward [sinalização].”

Assim, os neurocientistas se voltaram para outro tipo de modelo, chamado de rede neural recorrente (RNN). Eles têm características que os tornam “um substrato ideal” para modelar o cérebro, de acordo com Kanaka Rajan, neurocientista computacional e professor assistente da Escola de Medicina Icahn no Monte Sinai em Nova York, cujo laboratório usa RNNs para entender a função cerebral. Os RNNs têm conexões de feedforward e feedback entre seus neurônios e têm atividade contínua constante que é independente de entradas. “A capacidade de produzir essas dinâmicas por um longo período de tempo, essencialmente para sempre, é o que dá a essas redes a capacidade de serem treinadas”, disse Rajan.

A previsão é eficiente em termos de energia

Os RNNs chamaram a atenção de William Lotter e seus orientadores de teses de doutorado David Cox e Gabriel Kreiman na Universidade de Harvard. Em 2016, a equipe exibiu um RNN que aprendeu a prever o próximo quadro em uma sequência de vídeo. Eles o chamaram de PredNet (“Vou assumir a culpa por não ter criatividade suficiente para inventar algo melhor”, disse Lotter). A equipe projetou o RNN de acordo com os princípios da codificação preditiva como uma hierarquia de quatro camadas, cada uma prevendo a entrada que está antecipando da camada abaixo e enviando um sinal de erro para cima se houver uma incompatibilidade.

Eles então treinaram a rede em vídeos de ruas da cidade filmados por uma câmera montada em um carro. PredNet aprendeu a prever continuamente o próximo quadro em um vídeo. “Não sabíamos se realmente funcionaria”, disse Lotter. “Nós tentamos e vimos que ele estava realmente fazendo previsões. E isso foi muito legal. ”

A próxima etapa foi conectar o PredNet à neurociência. No ano passado, na Nature Machine Intelligence, Lotter e colegas relataram que PredNet demonstra comportamentos vistos em cérebros de macacos em resposta a estímulos inesperados, incluindo alguns que são difíceis de replicar em redes simples de feedforward.

“É um trabalho fantástico”, disse Kietzmann sobre a PredNet. Mas ele, Marcel van Gerven e seus colegas em Radboud estavam atrás de algo mais básico: tanto o modelo de Rao e Ballard quanto o PredNet incorporaram explicitamente neurônios artificiais para previsão e correção de erros, junto com mecanismos que causaram previsões de cima para baixo corretas para inibir os neurônios de erro . Mas e se eles não fossem especificados explicitamente? “Nós nos perguntamos se todas essas restrições arquitetônicas de? cozimento ?são realmente necessárias ou se sairíamos impunes com uma abordagem ainda mais simples”, disse Kietzmann.

O que ocorreu a Kietzmann e van Gerven foi que a comunicação neural é energeticamente cara (o cérebro é o órgão do corpo que mais consome energia). A necessidade de conservar energia pode, portanto, restringir o comportamento de qualquer rede neural em evolução nos organismos.

Os pesquisadores decidiram ver se algum dos mecanismos computacionais para codificação preditiva poderia surgir em RNNs que tinham que realizar suas tarefas usando o mínimo de energia possível. Eles descobriram que as forças das conexões, também conhecidas como pesos, entre os neurônios artificiais em suas redes poderiam servir como um proxy para a transmissão sináptica, que é o que responde por grande parte do uso de energia em neurônios biológicos. “Se você reduzir o peso entre as unidades artificiais, isso significa que você se comunica com menos energia”, disse Kietzmann. “Entendemos isso como uma forma de minimizar a transmissão sináptica.”

Quando a PredNet, uma rede neural com arquitetura de codificação preditiva, foi apresentada a quadros em uma sequência de vídeo (parte superior), ela aprendeu a predizê-los (parte inferior).

A equipe então treinou um RNN em várias sequências de dígitos consecutivos em ordem crescente e envolvente: 1234567890, 3456789012, 6789012345 e assim por diante. Cada dígito foi mostrado à rede na forma de uma imagem de 28 por 28 pixels. O RNN aprendeu um modelo interno que poderia prever qual seria o próximo dígito, começando de qualquer lugar aleatório na sequência. Mas a rede foi forçada a fazer isso com os menores pesos possíveis entre as unidades, análogo aos baixos níveis de atividade neural em um sistema nervoso biológico.

Nessas condições, o RNN aprendeu a prever o próximo número na sequência. Alguns de seus neurônios artificiais atuaram como “unidades de previsão”, representando um modelo das entradas esperadas. Outros neurônios agiam como “unidades de erro” que eram mais ativas quando as unidades de previsão ainda não haviam aprendido a antecipar corretamente o próximo número. Essas unidades de erro foram subjugadas quando as unidades de previsão começaram a acertar. Crucialmente, a rede chegou a essa arquitetura porque foi obrigada a minimizar o uso de energia. “Ele apenas aprende a fazer o tipo de inibição que as pessoas normalmente vêm inserindo explicitamente no sistema”, disse Kietzmann. “Nosso sistema faz isso fora da caixa, como algo emergente para ser eficiente em termos de energia.”

A conclusão é que uma rede neural que minimiza o uso de energia acabará implementando algum tipo de processamento preditivo – fazendo com que os cérebros biológicos provavelmente estejam fazendo o mesmo.

Rajan chamou o trabalho de Kietzmann de “um exemplo muito bom de como as restrições de cima para baixo, como a minimização de energia, podem levar indiretamente a uma função específica como a codificação preditiva”. Isso a levou a se perguntar se o surgimento de erros específicos e unidades de previsão no RNN poderia ser uma consequência não intencional do fato de que apenas neurônios na borda da rede estavam recebendo entradas. Se as entradas fossem distribuídas por toda a rede, “meu palpite é que você não encontrará a separação entre unidades de erro e unidades preditivas, mas ainda encontrará atividade preditiva”, disse ela.

Uma estrutura unificadora para comportamentos cerebrais

Por mais persuasivos que possam parecer esses insights de estudos computacionais, no final, apenas as evidências de cérebros vivos podem convencer os neurocientistas do processamento preditivo no cérebro. Para tanto, Blake Richards, neurocientista e cientista da computação da Universidade McGill e Mila, do Instituto de Inteligência Artificial de Quebec, e seus colegas formularam algumas hipóteses claras sobre o que deveriam ver no cérebro ao aprender a fazer previsões sobre eventos inesperados.

Os neurônios piramidais no cérebro parecem ser anatomicamente adequados para o processamento preditivo porque podem integrar separadamente sinais “de baixo para cima” dos neurônios vizinhos e sinais “de cima para baixo” dos mais distantes.

Para testar suas hipóteses, eles se voltaram para pesquisadores do Allen Institute for Brain Science em Seattle, que realizaram experimentos em ratos enquanto monitoravam a atividade neural em seus cérebros. De particular interesse foram certos neurônios piramidais no neocórtex do cérebro, que são considerados anatomicamente adequados para o processamento preditivo. Eles podem receber sinais sensoriais locais de baixo para cima de neurônios próximos (por meio de entradas para seu corpo celular) e sinais de predição de cima para baixo de neurônios mais distantes (por meio de seus dendritos apicais).

Os camundongos viram muitas sequências de manchas de Gabor, que consistem em listras claras e escuras. Todos os quatro patches em cada sequência tinham aproximadamente a mesma orientação, e os ratos passaram a esperar isso. (“Deve ter sido muito chato, apenas assistir essas sequências”, disse Richards.) Em seguida, os pesquisadores inseriram um evento inesperado: um quarto patch Gabor girado aleatoriamente para uma orientação diferente. Os animais ficaram inicialmente surpresos, mas com o tempo, passaram a esperar o elemento surpresa também. Ao mesmo tempo, os pesquisadores observaram a atividade nos cérebros dos ratos.

O que eles viram foi que muitos neurônios responderam de maneira diferente a estímulos esperados e inesperados. Crucialmente, essa diferença foi forte nos sinais locais de baixo para cima no primeiro dia de teste, mas diminuiu no segundo e terceiro dias. No contexto do processamento preditivo, isso sugeriu que as expectativas recém-formadas de cima para baixo começaram a inibir as respostas às informações sensoriais recebidas à medida que os estímulos se tornavam menos surpreendentes.

Enquanto isso, o oposto estava acontecendo nos dendritos apicais: a diferença em sua resposta a estímulos inesperados aumentava com o tempo. Os circuitos neurais pareciam estar aprendendo a representar melhor as propriedades dos eventos surpreendentes, para fazer melhores previsões da próxima vez.

“Este estudo fornece mais suporte para a ideia de que algo como aprendizagem preditiva ou codificação preditiva está acontecendo no neocórtex”, disse Richards.

É verdade que as observações individuais da atividade neuronal ou do comportamento de um animal podem às vezes ser explicadas por algum outro modelo do cérebro. Por exemplo, as respostas decrescentes dos neurônios à mesma entrada, em vez de serem interpretadas como a inibição de unidades de erro, podem ser simplesmente devido a um processo de adaptação. Mas então “você obtém toda essa lista telefônica de explicações para diferentes fenômenos”, disse de Lange.

O processamento preditivo, por outro lado, fornece uma estrutura unificadora para explicar muitos fenômenos de uma vez, daí seu fascínio como uma teoria de como o cérebro funciona. “Acho que as evidências neste momento são bastante convincentes”, disse Richards. “Estou disposto a apostar muito dinheiro nessa reclamação, na verdade.”


Publicado em 23/11/2021 07h46

Artigo original:

Estudo original: