A Inteligência Artificial identifica estruturas celulares que os humanos não conseguem

Ilustração de The Project Twins

Os modelos podem prever a localização de estruturas celulares apenas a partir de imagens de microscopia de luz, sem a necessidade de rotulagem de fluorescência prejudicial.

Susanne Rafelski e seus colegas tinham um objetivo aparentemente simples. “Queríamos ser capazes de rotular muitas estruturas diferentes na célula, mas fazer imagens ao vivo”, diz o biólogo celular quantitativo e vice-diretor do Allen Institute for Cell Science em Seattle, Washington. “E queríamos fazer isso em 3D.”

Esse tipo de objetivo normalmente depende da microscopia de fluorescência – problemática neste caso porque, com apenas um punhado de cores para usar, os cientistas ficariam sem rótulos bem antes de ficarem sem estruturas. Também problemático é que esses reagentes são caros e trabalhosos de usar. Além disso, as manchas são prejudiciais às células vivas, assim como a luz usada para estimulá-las, fazendo com que o próprio ato de imagear as células possa danificá-las. “A fluorescência é cara, em muitas versões diferentes da palavra ‘cara'”, diz Forrest Collman, microscopista do Allen Institute for Brain Science, também em Seattle. Quando Collman e seus colegas tentaram fazer um filme 3D com lapso de tempo usando três cores diferentes, os resultados foram “horríveis”, lembra Collman. “Todas as células morrem na sua frente.”

As células de imagem usando luz branca transmitida (microscopia de campo claro) não dependem de rotulagem, então evita alguns dos problemas da microscopia de fluorescência. Mas o contraste reduzido pode tornar a maioria das estruturas celulares impossíveis de detectar. O que a equipe de Rafelski precisava era de uma maneira de combinar as vantagens de ambas as técnicas. A inteligência artificial (IA) poderia ser usada em imagens de campo claro para prever como os rótulos de fluorescência correspondentes ficariam – um tipo de “coloração virtual”? Em 2017, o então colega de Rafelski, o cientista de aprendizado de máquina Gregory Johnson, propôs exatamente essa solução: ele usaria uma forma de IA chamada aprendizado profundo para identificar estruturas difíceis de localizar em imagens de campo claro de células não marcadas.

“De jeito nenhum”, disse Rafelski, ao sair para uma licença de alguns meses. Quando ela voltou ao trabalho, Johnson disse a ela que tinha feito isso. “Fiquei surpreso ao saber que era possível”, lembra Rafelski. Usando um algoritmo de aprendizado profundo em células não marcadas, a equipe de Allen criou um filme 3D mostrando DNA e subestruturas no núcleo, além de membranas celulares e mitocôndrias.

“Esses modelos estão ‘vendo’ coisas que os humanos não vêem”, diz Jason Swedlow, um biólogo celular quantitativo da Universidade de Dundee, no Reino Unido. Nossos olhos, diz ele, simplesmente não estão adaptados para detectar padrões sutis em tons de cinza, como os da microscopia óptica – não é assim que evoluímos. “Seus olhos deveriam ver leões e árvores e coisas assim.”

Nos últimos anos, os cientistas que trabalham com IA desenvolveram vários sistemas que podem identificar esses padrões. Cada modelo é treinado usando pares de imagens das mesmas células, um de campo claro e outro marcado com fluorescência. Mas os modelos diferem nos detalhes: alguns são feitos para imagens 2D, outros para 3D; alguns visam aproximar estruturas celulares, enquanto outros criam imagens que podem ser confundidas com fotomicrografias verdadeiras.

“Isso representa um grande avanço no que somos capazes de alcançar”, disse Mark Scott, gerente da instalação de microscopia do Translational Research Institute Australia em Brisbane. O que é necessário agora é que os biólogos colaborem com os codificadores de IA, testando e melhorando a tecnologia para uso no mundo real.

Campo de rápido crescimento

Steven Finkbeiner, neurocientista da University of California, San Francisco, e do Gladstone Institutes, também em San Francisco, usa microscopia robótica para rastrear células por até um ano. No início de 2010, seu grupo estava acumulando terabytes de dados por dia. Isso chamou a atenção de pesquisadores do Google, que perguntaram como poderiam ajudar. Finkbeiner sugeriu o uso de aprendizado profundo para encontrar os recursos celulares que ele não conseguia ver.

O aprendizado profundo usa nós de computador em camadas de maneira semelhante aos neurônios do cérebro humano. No início, as conexões entre os nós dessa rede neural são ponderadas aleatoriamente, de modo que o computador está apenas adivinhando. Mas com o treinamento, o computador ajusta os pesos, ou parâmetros, até começar a acertar.

A equipe de Finkbeiner treinou seu sistema para identificar neurônios em imagens 2D e, em seguida, escolher o núcleo e determinar se uma determinada célula está viva ou não2. “O ponto principal era mostrar aos cientistas que provavelmente há muito mais informações nos dados de imagem do que eles imaginam”, diz Finkbeiner. A equipe chamou sua técnica de rotulagem in silico.

A abordagem não conseguiu identificar neurônios motores, no entanto – talvez porque não havia nada nas células não marcadas para indicar sua especialização. Essas previsões só funcionarão se houver alguma pista visível que a IA possa usar, diz Collman. As membranas, por exemplo, têm um índice de refração diferente de seu entorno, produzindo contraste.

Collman, Johnson e seus colegas do Allen Institute usaram uma rede neural diferente para resolver o problema de Rafelski, com base em um sistema chamado U-Net que foi desenvolvido para imagens biológicas. Ao contrário da abordagem de Finkbeiner, o modelo de Allen funciona com micrografias 3D, e alguns pesquisadores do instituto agora o usam rotineiramente – por exemplo, para identificar marcadores nucleares em estudos de organização da cromatina.

Na Universidade de Illinois em Urbana-Champaign, o físico Gabriel Popescu está usando o aprendizado profundo para responder, entre outras coisas, uma das questões mais fundamentais da microscopia: uma célula está viva ou morta? Isso é mais difícil do que parece porque os testes de vida, paradoxalmente, requerem produtos químicos tóxicos. “É como medir o pulso do paciente com uma faca”, diz ele.

Popescu e seus colegas chamam sua abordagem de PICS: imagem de fase com especificidade computacional. Popescu o usa em células vivas para identificar o núcleo e o citoplasma e, a seguir, calcula suas massas ao longo dos dias3. Essas assinaturas indicam com precisão o crescimento celular e a viabilidade, diz ele.

O PICS engloba software baseado em U-Net e hardware de microscópio, portanto, em vez de obter imagens e treinar uma máquina para processá-las posteriormente, tudo acontece perfeitamente. Depois que um usuário tira uma imagem de luz branca, leva apenas 65 milissegundos para o modelo entregar a contrapartida de fluorescência prevista.

Outros grupos usam diferentes tipos de aprendizado de máquina. Por exemplo, uma equipe da Universidade Católica da América em Washington DC usou um tipo de rede neural chamada GAN para identificar núcleos em imagens de microscopia óptica de contraste de fase4. Um GAN, ou rede adversária geradora, configura dois modelos opostos: o “gerador” prevê as imagens de fluorescência e o “discriminador” adivinha se são reais ou falsas. Quando o discriminador é enganado na metade do tempo, o gerador deve estar fazendo previsões plausíveis, diz Lin-Ching Chang, engenheiro do projeto. “Mesmo os humanos não podem dizer que os exemplos gerados são falsos.”

Descoberta de medicamentos

As previsões de fluorescência também estão se firmando na indústria farmacêutica. Na AstraZeneca em Gotemburgo, Suécia, o farmacologista Alan Sabirsh estuda as células de gordura por seus papéis nas doenças e no metabolismo de medicamentos. Sabirsh e AstraZeneca se uniram ao Centro Nacional Sueco de Inteligência Artificial aplicada para executar o Desafio de Imagens de Células de Adipócitos, pedindo aos competidores que identificassem o núcleo, o citoplasma e as gotículas lipídicas em micrografias não marcadas. O prêmio de US $ 5.000 foi para uma equipe liderada por Ankit Gupta e Håkan Wieslander, dois alunos de doutorado da Universidade de Uppsala, na Suécia, que trabalham com processamento de imagens.

Como Chang e seus colegas, a equipe usou um GAN para identificar gotículas de lipídios. Mas para chegar aos núcleos, eles usaram uma técnica diferente, chamada LUPI – aprender usando informações privilegiadas, que dá à máquina uma ajuda extra conforme ela aprende. Nesse caso, a equipe usou uma técnica de processamento de imagem adicional para identificar os núcleos nos pares de imagens de treinamento padrão. Uma vez que o modelo foi treinado, no entanto, ele poderia prever núcleos com base apenas em imagens de microscopia de luz5.

As imagens resultantes não são perfeitas: Gupta diz que a coloração fluorescente real fornece texturização mais realista no núcleo e no citoplasma do que o modelo. É bom o suficiente para Sabirsh, no entanto. Ele já começou a usar o código em experimentos de microscopia robótica com o objetivo de desenvolver terapêuticas.

Com vários projetos de prova de princípio concluídos, a técnica foi além dos primeiros passos do bebê, diz Swedlow, e a comunidade mais ampla está começando a colocá-la à prova. “Acho que estamos aprendendo a andar e o que significa andar”, diz ele.

Por exemplo, quando é benéfico fazer previsões com base em imagens de luz branca e quando isso deve ser evitado? Tentar determinar a segmentação de compartimentos e estruturas celulares é provavelmente uma boa aplicação, porque nenhum erro afetará significativamente os resultados downstream, diz Anne Carpenter, diretora sênior da Imaging Platform no Broad Institute of MIT e Harvard em Cambridge, Massachusetts. Ela é mais cautelosa ao prever resultados experimentais, no entanto, porque a máquina pode contar com uma estrutura que prevê outra apenas sob condições de controle. “Freqüentemente, em biologia, são as exceções à regra que estamos procurando”, diz Carpenter.

Por enquanto, pelo menos, os cientistas fariam bem em confirmar as principais previsões de um modelo usando a coloração fluorescente padrão, diz Popescu. E é uma boa ideia buscar colaboradores especializados, acrescenta Laura Boucheron, engenheira elétrica da New Mexico State University em Las Cruces. “É necessário um know-how de informática muito significativo até mesmo para colocá-los em funcionamento.”

Alguns modelos usam apenas um punhado de imagens para treinamento, mas Boucheron adverte que conjuntos de dados maiores são preferíveis. Centenas, ou melhor ainda, milhares, podem ser necessárias, diz Yvan Saeys, biólogo computacional do VIB Center for Inflammation Research da Ghent University, na Bélgica. E se você quiser que o modelo funcione com vários tipos de células ou diferentes configurações de microscópio, certifique-se de incluir essa variedade no conjunto de treinamento, acrescenta.

O treinamento de grande volume pode exigir semanas de tempo em supercomputadores com várias unidades de processamento gráfico, avisa Boucheron. Mas, uma vez feito isso, o modelo de previsão pode ser executado em um laptop ou até mesmo em um telefone celular.

Para muitos pesquisadores, esse investimento único vale a pena, se isso significar nunca mais manchar para este ou aquele recurso novamente. “Se você pudesse coletar imagens de células não marcadas e já tivesse algoritmos treinados”, diz Finkbeiner. “Você obtém todas essas informações, basicamente, de graça.”


Publicado em 01/04/2021 11h37

Artigo original: