Como o machine learning pode prever eventos desastrosos raros – como terremotos ou pandemias

Uma equipe de pesquisadores desenvolveu uma nova estrutura que utiliza machine learning avançado e algoritmos estatísticos para prever eventos raros sem a necessidade de grandes conjuntos de dados.

Cientistas podem usar uma combinação de machine learning avançado e técnicas de amostragem sequencial para prever eventos extremos sem a necessidade de grandes conjuntos de dados, de acordo com pesquisadores de Brown e MIT.

Quando se trata de prever desastres causados por eventos extremos (pense em terremotos, pandemias ou “ondas rebeldes” que podem destruir estruturas costeiras), a modelagem computacional enfrenta um desafio quase intransponível: estatisticamente falando, esses eventos são tão raros que simplesmente não há dados sobre eles para usar modelos preditivos para prever com precisão quando eles acontecerão a seguir.

No entanto, um grupo de cientistas da Brown University e do Massachusetts Institute of Technology sugere que não precisa ser assim.

Em um estudo publicado na Nature Computational Science, os pesquisadores explicam como utilizaram algoritmos estatísticos que requerem menos dados para previsões precisas, em combinação com uma poderosa técnica de machine learning desenvolvida na Brown University. Essa combinação permitiu prever cenários, probabilidades e até mesmo cronogramas de eventos raros, apesar da falta de dados históricos.

Ao fazer isso, a equipe de pesquisa descobriu que essa nova estrutura pode fornecer uma maneira de contornar a necessidade de grandes quantidades de dados que são tradicionalmente necessários para esses tipos de cálculos, em vez de resumir o grande desafio de prever eventos raros a uma questão de qualidade. sobre quantidade.

“Você precisa perceber que esses são eventos estocásticos”, disse George Karniadakis, professor de matemática aplicada e engenharia da Brown e autor do estudo. “Uma explosão de uma pandemia como a COVID-19, um desastre ambiental no Golfo do México, um terremoto, grandes incêndios florestais na Califórnia, uma onda de 30 metros que virou um navio – esses são eventos raros e, por serem raros, não t tem um monte de dados históricos. Não temos amostras suficientes do passado para prever o futuro. A questão que abordamos no artigo é: quais são os melhores dados possíveis que podemos usar para minimizar o número de pontos de dados de que precisamos?”

Os pesquisadores encontraram a resposta em uma técnica de amostragem sequencial chamada aprendizagem ativa. Esses tipos de algoritmos estatísticos não são apenas capazes de analisar a entrada de dados neles, mas, mais importante, eles podem aprender com as informações para rotular novos pontos de dados relevantes que são igualmente ou até mais importantes para o resultado que está sendo calculado. No nível mais básico, eles permitem que mais seja feito com menos.

Isso é fundamental para o modelo de machine learning que os pesquisadores usaram no estudo. Chamado de DeepOnet, o modelo é um tipo de rede neural artificial, que usa nós interconectados em camadas sucessivas que imitam aproximadamente as conexões feitas pelos neurônios no cérebro humano. DeepOnet é conhecido como um operador neural profundo. É mais avançado e poderoso do que as redes neurais artificiais típicas porque, na verdade, são duas redes neurais em uma, processando dados em duas redes paralelas. Isso permite analisar conjuntos gigantescos de dados e cenários em uma velocidade vertiginosa para cuspir conjuntos igualmente massivos de probabilidades assim que aprende o que está procurando.

O gargalo dessa ferramenta poderosa, especialmente no que se refere a eventos raros, é que os operadores neurais profundos precisam de toneladas de dados para serem treinados para fazer cálculos eficazes e precisos.

No artigo, a equipe de pesquisa mostra que, combinado com técnicas de aprendizado ativo, o modelo DeepOnet pode ser treinado em quais parâmetros ou precursores procurar que levem ao evento desastroso que alguém está analisando, mesmo quando não há muitos pontos de dados.

“O objetivo não é pegar todos os dados possíveis e colocá-los no sistema, mas procurar proativamente por eventos que significarão os eventos raros”, disse Karniadakis. “Podemos não ter muitos exemplos do evento real, mas podemos ter esses precursores. Através da matemática, nós os identificamos, o que junto com eventos reais nos ajudará a treinar esse operador faminto por dados.”

No artigo, os pesquisadores aplicam a abordagem para identificar parâmetros e diferentes faixas de probabilidades de picos perigosos durante uma pandemia, encontrar e prever ondas rebeldes e estimar quando um navio quebrará ao meio devido ao estresse. Por exemplo, com ondas traiçoeiras – aquelas que são maiores que o dobro do tamanho das ondas circundantes – os pesquisadores descobriram que poderiam descobrir e quantificar quando ondas rebeldes se formariam observando as prováveis condições de onda que interagem não linearmente ao longo do tempo, levando a ondas às vezes três vezes maiores. seu tamanho original.

Os pesquisadores descobriram que seu novo método superou os esforços de modelagem mais tradicionais e acreditam que apresenta uma estrutura que pode descobrir e prever com eficiência todos os tipos de eventos raros.

No artigo, a equipe de pesquisa descreve como os cientistas devem projetar experimentos futuros para que possam minimizar custos e aumentar a precisão das previsões. Karniadakis, por exemplo, já está trabalhando com cientistas ambientais para usar o novo método para prever eventos climáticos, como furacões.


Publicado em 03/02/2023 09h18

Artigo original:

Estudo original: