Capacidade ‘incrível’ do Machine Learning de prever o caos

Os pesquisadores usaram o aprendizado de máquina para prever a evolução caótica de um modelo de frente de chama. DVDP para Quanta Magazine

Em novos experimentos de computador, os algoritmos de inteligência artificial podem prever o futuro dos sistemas caóticos.

Meio século atrás, os pioneiros da teoria do caos descobriram que o “efeito borboleta” torna a previsão de longo prazo impossível. Mesmo a menor perturbação em um sistema complexo (como o clima, a economia ou qualquer outra coisa) pode desencadear uma concatenação de eventos que leva a um futuro dramaticamente divergente. Incapazes de determinar o estado desses sistemas com precisão suficiente para prever como eles se desenvolverão, vivemos sob um véu de incerteza.

Mas agora os robôs estão aqui para ajudar.

Em uma série de resultados relatados nas revistas Physical Review Letters and Chaos, os cientistas usaram o aprendizado de máquina – a mesma técnica computacional por trás dos sucessos recentes em inteligência artificial – para prever a evolução futura de sistemas caóticos para horizontes surpreendentemente distantes. A abordagem está sendo elogiada por especialistas externos como inovadora e com probabilidade de encontrar ampla aplicação.

“Acho realmente incrível o quão longe no futuro eles prevêem” a evolução caótica de um sistema, disse Herbert Jaeger, professor de ciência computacional da Universidade Jacobs em Bremen, Alemanha.

As descobertas vêm do veterano teórico do caos Edward Ott e de quatro colaboradores da Universidade de Maryland. Eles empregaram um algoritmo de aprendizado de máquina denominado computação de reservatório para “aprender” a dinâmica de um sistema caótico arquetípico denominado equação de Kuramoto-Sivashinsky. A solução em evolução para essa equação se comporta como uma frente de chama, piscando conforme avança por um meio combustível. A equação também descreve as ondas de deriva em plasmas e outros fenômenos, e serve como “uma bancada de teste para estudar turbulência e caos espaço-temporal”, disse Jaideep Pathak, aluno de pós-graduação de Ott e principal autor dos novos artigos.

Jaideep Pathak, Michelle Girvan, Brian Hunt e Edward Ott da Universidade de Maryland, que (junto com Zhixin Lu, agora da Universidade da Pensilvânia) mostraram que o aprendizado de máquina é uma ferramenta poderosa para prever o caos. – Faye Levine / Universidade de Maryland

Depois de se treinar com os dados da evolução anterior da equação de Kuramoto-Sivashinsky, o computador do reservatório dos pesquisadores poderia então prever de perto como o sistema semelhante a chamas continuaria a evoluir até oito “tempos Lyapunov” no futuro, oito vezes mais à frente do que o anterior métodos permitidos, vagamente falando. O tempo de Lyapunov representa quanto tempo leva para dois estados quase idênticos de um sistema caótico divergirem exponencialmente. Como tal, normalmente define o horizonte de previsibilidade.

“Isso é realmente muito bom”, disse Holger Kantz, teórico do caos do Instituto Max Planck para a Física de Sistemas Complexos em Dresden, Alemanha, sobre a previsão dos oito tempos de Lyapunov. “A técnica de aprendizado de máquina é quase tão boa quanto saber a verdade, por assim dizer.”

O algoritmo não sabe nada sobre a própria equação de Kuramoto-Sivashinsky; ele só vê os dados registrados sobre a solução em evolução da equação. Isso torna a abordagem de aprendizado de máquina poderosa; em muitos casos, as equações que descrevem um sistema caótico não são conhecidas, prejudicando os esforços dos dinâmicos para modelá-los e predizê-los. Os resultados de Ott e da empresa sugerem que você não precisa das equações – apenas dados. “Este artigo sugere que um dia talvez possamos prever o clima por algoritmos de aprendizado de máquina e não por modelos sofisticados da atmosfera”, disse Kantz.

Além da previsão do tempo, especialistas dizem que a técnica de aprendizado de máquina pode ajudar a monitorar arritmias cardíacas em busca de sinais de ataques cardíacos iminentes e monitorar padrões de disparo neuronal no cérebro em busca de sinais de picos de neurônios. Mais especulativamente, também pode ajudar na previsão de ondas rebeldes, que colocam navios em perigo e, possivelmente, até terremotos.

Ott espera particularmente que as novas ferramentas sejam úteis para dar um aviso prévio de tempestades solares, como a que eclodiu em 35.000 milhas da superfície do Sol em 1859. Essa explosão magnética criou aurora boreal visível em toda a Terra e explodiu alguns sistemas telegráficos, enquanto gera voltagem suficiente para permitir que outras linhas operem com a energia desligada. Se tal tempestade solar açoitasse o planeta de forma inesperada hoje, os especialistas dizem que isso danificaria seriamente a infraestrutura eletrônica da Terra. “Se você soubesse que a tempestade estava chegando, poderia simplesmente desligar a energia e ligá-la mais tarde”, disse Ott.

Um algoritmo de aprendizado de máquina demonstrou prever com precisão um sistema caótico muito mais longe no futuro do que era possível anteriormente. A) Os pesquisadores do modelo de caos começaram com a solução em evolução para a equação de Kuramoto-Sivashinsky, que modela chamas propagantes: * Tempo de Lyapunov = período de tempo antes que uma pequena diferença no estado inicial do sistema comece a divergir exponencialmente. Normalmente define o horizonte de previsibilidade, que varia de sistema para sistema. B) Aprendizado de máquina Depois de se treinar com os dados da evolução anterior do sistema Kuramoto-Sivashinsky, o algoritmo de “computação de reservatório” prevê sua evolução futura: Eles correspondem? Subtrair B de A mostra que o algoritmo prevê com precisão o modelo em impressionantes 8 vezes Lyapunov, antes que o caos finalmente prevaleça: – DOI: 10.1103 / PhysRevLett.120.024102

Ele, Pathak e seus colegas Brian Hunt, Michelle Girvan e Zhixin Lu (que agora está na Universidade da Pensilvânia) alcançaram seus resultados sintetizando ferramentas existentes. Seis ou sete anos atrás, quando o poderoso algoritmo conhecido como “aprendizado profundo” estava começando a dominar tarefas de IA, como reconhecimento de imagem e fala, eles começaram a ler sobre aprendizado de máquina e pensar em maneiras inteligentes de aplicá-lo ao caos. Eles aprenderam sobre um punhado de resultados promissores anteriores à revolução do aprendizado profundo. Mais importante ainda, no início dos anos 2000, Jaeger e seu colega teórico do caos alemão Harald Haas fizeram uso de uma rede de neurônios artificiais conectados aleatoriamente – que formam o “reservatório” na computação de reservatório – para aprender a dinâmica de três variáveis coevoluentes caoticamente. Após o treinamento nas três séries de números, a rede poderia prever os valores futuros das três variáveis até um horizonte impressionantemente distante. No entanto, quando havia mais do que algumas variáveis interagindo, os cálculos se tornavam impossivelmente pesados. Ott e seus colegas precisavam de um esquema mais eficiente para tornar a computação de reservatórios relevante para grandes sistemas caóticos, que têm um grande número de variáveis inter-relacionadas. Cada posição ao longo da frente de uma chama em avanço, por exemplo, tem componentes de velocidade em três direções espaciais para serem rastreados.

Demorou anos para chegar a uma solução simples. “O que exploramos foi a localidade das interações” em sistemas caóticos espacialmente estendidos, disse Pathak. Localidade significa que as variáveis em um lugar são influenciadas por variáveis em lugares próximos, mas não por lugares distantes. “Ao usar isso”, explicou Pathak, “podemos essencialmente dividir o problema em pedaços”. Ou seja, você pode paralelizar o problema, usando um reservatório de neurônios para aprender sobre um patch de um sistema, outro reservatório para aprender sobre o próximo patch e assim por diante, com ligeiras sobreposições de domínios vizinhos para explicar suas interações.

A paralelização permite que a abordagem de computação de reservatório trate de sistemas caóticos de quase qualquer tamanho, desde que recursos de computador proporcionais sejam dedicados à tarefa.

Ott explicou a computação de reservatório como um procedimento de três etapas. Digamos que você queira usá-lo para prever a evolução de um incêndio em propagação. Primeiro, você mede a altura da chama em cinco pontos diferentes ao longo da frente da chama, continuando a medir a altura nesses pontos na frente à medida que a chama oscilante avança ao longo de um período de tempo. Você alimenta esses fluxos de dados em neurônios artificiais escolhidos aleatoriamente no reservatório. Os dados de entrada acionam os neurônios para disparar, acionando neurônios conectados por sua vez e enviando uma cascata de sinais por toda a rede.

A segunda etapa é fazer com que a rede neural aprenda a dinâmica da frente de chama em evolução a partir dos dados de entrada. Para fazer isso, ao fornecer dados, você também monitora as intensidades de sinal de vários neurônios escolhidos aleatoriamente no reservatório. Ponderar e combinar esses sinais de cinco maneiras diferentes produz cinco números como saídas. O objetivo é ajustar os pesos dos vários sinais que entram no cálculo das saídas até que essas saídas correspondam consistentemente ao próximo conjunto de entradas – as cinco novas alturas medidas um momento depois ao longo da frente da chama. “O que você quer é que a saída seja a entrada um pouco mais tarde”, explicou Ott.

Para aprender os pesos corretos, o algoritmo simplesmente compara cada conjunto de saídas, ou alturas de chama previstas em cada um dos cinco pontos, com o próximo conjunto de entradas, ou alturas de chama reais, aumentando ou diminuindo os pesos dos vários sinais a cada vez em qualquer maneira teria feito suas combinações fornecer os valores corretos para as cinco saídas. De uma etapa de tempo para a próxima, conforme os pesos são ajustados, as previsões melhoram gradualmente, até que o algoritmo seja consistentemente capaz de prever o estado da chama uma etapa de tempo depois.

“Na terceira etapa, você realmente faz a previsão”, disse Ott. O reservatório, tendo aprendido a dinâmica do sistema, pode revelar como ele irá evoluir. A rede essencialmente se pergunta o que vai acontecer. As saídas são realimentadas como as novas entradas, cujas saídas são realimentadas como entradas e assim por diante, fazendo uma projeção de como as alturas nas cinco posições na frente da chama irão evoluir. Outros reservatórios trabalhando em paralelo prevêem a evolução da altura em outras partes da chama.

Em um enredo em seu artigo PRL, que apareceu em janeiro, os pesquisadores mostram que sua solução semelhante a chamas prevista para a equação de Kuramoto-Sivashinsky corresponde exatamente à verdadeira solução para oito vezes Lyapunov antes que o caos finalmente vença, e os estados reais e previstos do sistema diverge.

A abordagem usual para prever um sistema caótico é medir suas condições em um momento com a maior precisão possível, usar esses dados para calibrar um modelo físico e, então, evoluir o modelo para frente. Como uma estimativa aproximada, você teria que medir as condições iniciais de um sistema típico 100 milhões de vezes com mais precisão para prever sua evolução futura oito vezes mais à frente.

É por isso que o aprendizado de máquina é “uma abordagem muito útil e poderosa”, disse Ulrich Parlitz, do Instituto Max Planck de Dinâmica e Auto-organização em Göttingen, Alemanha, que, como Jaeger, também aplicou o aprendizado de máquina a sistemas caóticos de baixa dimensão no início dos anos 2000. “Acho que não está apenas funcionando no exemplo que eles apresentam, mas é universal em certo sentido e pode ser aplicado a muitos processos e sistemas.” Em um artigo a ser publicado em breve na Chaos, Parlitz e um colaborador aplicaram a computação de reservatórios para prever a dinâmica de “mídia excitável”, como o tecido cardíaco. Parlitz suspeita que o aprendizado profundo, embora seja mais complicado e computacionalmente intensivo do que a computação de reservatório, também funcionará bem para lidar com o caos, assim como outros algoritmos de aprendizado de máquina. Recentemente, pesquisadores do Massachusetts Institute of Technology e do ETH Zurich obtiveram resultados semelhantes aos da equipe de Maryland, usando uma rede neural de “memória de longo prazo”, que tem loops recorrentes que permitem armazenar informações temporárias por um longo tempo.

Desde o trabalho em seu artigo PRL, Ott, Pathak, Girvan, Lu e outros colaboradores chegaram mais perto de uma implementação prática de sua técnica de previsão. Em uma nova pesquisa aceita para publicação no Chaos, eles mostraram que previsões aprimoradas de sistemas caóticos como a equação de Kuramoto-Sivashinsky se tornaram possíveis ao hibridizar a abordagem de aprendizado de máquina baseada em dados e a previsão baseada em modelo tradicional. Ott vê isso como um caminho mais provável para melhorar a previsão do tempo e esforços semelhantes, uma vez que nem sempre temos dados completos de alta resolução ou modelos físicos perfeitos. “O que devemos fazer é usar o bom conhecimento que temos onde o temos”, disse ele, “e se tivermos ignorância, devemos usar o aprendizado de máquina para preencher as lacunas onde reside a ignorância”. As previsões do reservatório podem essencialmente calibrar os modelos; no caso da equação de Kuramoto-Sivashinsky, as previsões precisas são estendidas para 12 vezes Lyapunov.

A duração de um tempo de Lyapunov varia para diferentes sistemas, de milissegundos a milhões de anos. (São alguns dias no caso do clima.) Quanto mais curto, mais sensível ou mais sujeito ao efeito borboleta é um sistema, com estados semelhantes partindo mais rapidamente para futuros díspares. Os sistemas caóticos estão por toda parte na natureza, ficando malucos mais ou menos rapidamente. No entanto, estranhamente, o caos em si é difícil de definir. “É um termo que a maioria das pessoas em sistemas dinâmicos usa, mas elas meio que tapam o nariz enquanto o usam”, disse Amie Wilkinson, professora de matemática da Universidade de Chicago. “Você se sente meio cafona por dizer que algo é caótico”, disse ela, porque isso chama a atenção das pessoas sem ter uma definição matemática combinada ou condições necessárias e suficientes. “Não existe um conceito fácil”, concordou Kantz. Em alguns casos, ajustar um único parâmetro de um sistema pode fazer com que ele passe de caótico a estável ou vice-versa.

Wilkinson e Kantz definem o caos em termos de esticar e dobrar, da mesma forma que esticar e dobrar repetidamente a massa para fazer folhados. Cada pedaço de massa se estende horizontalmente sob o rolo, separando-se exponencialmente rapidamente em duas direções espaciais. Em seguida, a massa é dobrada e achatada, comprimindo as manchas próximas na direção vertical. O clima, os incêndios florestais, a superfície tempestuosa do sol e todos os outros sistemas caóticos agem exatamente dessa forma, disse Kantz. “Para ter essa divergência exponencial de trajetórias, você precisa desse alongamento, e para não correr para o infinito, você precisa de alguma dobra”, onde a dobra vem de relações não lineares entre variáveis nos sistemas.

O alongamento e a compressão nas diferentes dimensões correspondem aos “expoentes de Lyapunov” positivos e negativos de um sistema, respectivamente. Em outro artigo recente no Chaos, a equipe de Maryland relatou que seu computador reservatório poderia aprender os valores desses expoentes caracterizadores a partir de dados sobre a evolução de um sistema. Exatamente por que a computação de reservatório é tão boa em aprender a dinâmica de sistemas caóticos ainda não é bem compreendida, além da ideia de que o computador ajusta suas próprias fórmulas em resposta aos dados até que as fórmulas repliquem a dinâmica do sistema. A técnica funciona tão bem, na verdade, que Ott e alguns dos outros pesquisadores de Maryland pretendem agora usar a teoria do caos como uma forma de entender melhor as maquinações internas das redes neurais.


Publicado em 01/10/2021 17h04

Artigo original: