Inteligência artificial assume que pode prever terremotos

Remanescentes de uma floresta de abetos de 2.000 anos de idade em Neskowin Beach, Oregon – uma das dezenas de “florestas fantasmas” ao longo da costa de Oregon e Washington. Pensa-se que um mega terremoto da zona de subducção de Cascadia derrubou as árvores e que os tocos foram então enterrados por detritos do tsunami.

Depois de prever com sucesso terremotos de laboratório, uma equipe de geofísicos aplicou um algoritmo de aprendizado de máquina a terremotos no noroeste do Pacífico.


Em maio do ano passado, após uma pausa de 13 meses, o terreno sob o Puget Sound, em Washington, voltou a ganhar vida. O terremoto começou a mais de 32 quilômetros abaixo das montanhas Olpympic e, ao longo de algumas semanas, foi para o noroeste, chegando à ilha de Vancouver, no Canadá. Em seguida, inverteu brevemente o curso, migrando de volta para a fronteira dos EUA antes de ficar em silêncio novamente. Ao todo, o terremoto de um mês provavelmente liberou energia suficiente para registrar uma magnitude 6. Quando acabou, o extremo sul da ilha de Vancouver já estava a um centímetro ou mais mais perto do Oceano Pacífico.

Como o terremoto foi tão espalhado no tempo e no espaço, no entanto, é provável que ninguém o tenha sentido. Esses tipos de terremotos fantasmas, que ocorrem mais fundo no subsolo do que os terremotos rápidos e convencionais, são conhecidos como “escorregões lentos”. Eles ocorrem aproximadamente uma vez por ano no noroeste do Pacífico, ao longo de um trecho de falha em que a placa de Juan de Fuca está lentamente penetrando sob a placa norte-americano. Mais de uma dúzia de deslizamentos lentos foram detectados pela extensa rede de estações sísmicas da região desde 2003. E durante o ano e meio passado, esses eventos foram o foco de um novo esforço na previsão de terremotos pelo geofísico Paul Johnson.


Um passo importante foi dado – um passo extremamente importante. Mas é como um pequeno passo na direção certa.
Maarten de Hoop


A equipe de Johnson está entre alguns grupos que estão usando o aprendizado de máquina para tentar desmistificar a física dos terremotos e provocar os sinais de alerta de terremotos iminentes. Há dois anos, usando algoritmos de localização de padrões semelhantes aos que estão por trás dos recentes avanços no reconhecimento de imagem e fala e outras formas de inteligência artificial, ele e seus colaboradores previram com sucesso os tremores em um sistema em modelo de laboratório – um feito que já foi duplicado por pesquisadores em Europa.

Agora, em um artigo publicado esta semana no site de pré-impressão científica arxiv.org, Johnson e sua equipe relatam que testaram seu algoritmo em terremotos de deslizamento lento no noroeste do Pacífico. O documento ainda não foi submetido à revisão por pares, mas especialistas externos dizem que os resultados são tentadores. Segundo Johnson, eles indicam que o algoritmo pode prever o início de um terremoto de escorregamento lento para “dentro de alguns dias – e possivelmente melhor”.

“Este é um desenvolvimento empolgante”, disse Maarten de Hoop, sismólogo da Universidade Rice que não estava envolvido no trabalho. “Pela primeira vez, acho que há um momento em que realmente estamos progredindo” em direção à previsão de terremotos.

Mostafa Mousavi, um geofísico da Universidade de Stanford, chamou os novos resultados de “interessantes e motivadores”. Ele, de Hoop e outros especialistas ressaltam que o aprendizado de máquina ainda tem um longo caminho a percorrer antes que possa prever com segurança terremotos catastróficos – e que alguns obstáculos podem ser difíceis, se não impossíveis, de superar. Ainda assim, em um campo em que os cientistas lutam há décadas e viram poucos vislumbres de esperança, o aprendizado de máquina pode ser a melhor opção.

Sticks and Slips

O falecido sismólogo Charles Richter, para quem a escala de magnitude Richter é nomeada, observou em 1977 que a previsão de terremotos pode fornecer “um campo de caça feliz para amadores, manivelas e falsas promessas de publicidade”. Hoje, muitos sismólogos dizem que eles já viram sua parte justa dos três.

Mas também houve cientistas respeitáveis ??que inventaram teorias que, em retrospectiva, parecem terrivelmente equivocadas, se não completamente malucas. Havia o geofísico Panayiotis Varotsos da Universidade de Atenas, que alegou que podia detectar terremotos iminentes medindo “sinais elétricos sísmicos”. Havia Brian Brady, físico do Bureau of Mines dos EUA que no início dos anos 80 soou sucessivos alarmes falsos no Peru, baseando-os em uma noção tênue de que explosões de rochas em minas subterrâneas eram sinais reveladores de terremotos.

Paul Johnson está bem ciente dessa história quadriculada. Ele sabe que a mera frase “previsão de terremotos” é tabu em muitos setores. Ele conhece os seis cientistas italianos que foram condenados por homicídio culposo em 2012 por subestimar as chances de um terremoto perto da cidade central italiana de L’Aquila, dias antes da região ser devastada por um tremor de magnitude 6,3. (As condenações foram anuladas mais tarde.) Ele conhece os sismólogos proeminentes que declararam com força que “terremotos não podem ser previstos”.

Mas Johnson também sabe que os terremotos são processos físicos, não diferentes nesse aspecto do colapso de uma estrela moribunda ou da mudança dos ventos. E embora ele enfatize que seu objetivo principal é entender melhor a física de falhas, ele não se esquivou do problema de previsão.

Paul Johnson, geofísico do Laboratório Nacional Los Alamos, fotografou em 2008 com um bloco de plástico acrílico, um dos materiais que sua equipe usa para simular terremotos no laboratório.

Mais de uma década atrás, Johnson começou a estudar “terremotos de laboratório”, feitos com blocos deslizantes separados por finas camadas de material granular. Como as placas tectônicas, os blocos não deslizam suavemente, mas se encaixam e começam: normalmente ficam juntos por segundos, mantidos por fricção, até que a tensão de cisalhamento se torne suficientemente grande para que de repente deslizem. Esse deslize – a versão laboratorial de um terremoto – libera o estresse e o ciclo de deslizamento começa novamente.

Quando Johnson e seus colegas registraram o sinal acústico emitido durante os ciclos de escorregamento, eles notaram picos agudos logo antes de cada escorregamento. Esses eventos precursores eram o equivalente laboratorial das ondas sísmicas produzidas pelos foreshocks antes de um terremoto. Mas, da mesma maneira que os sismólogos se esforçaram para traduzir as previsões em quando o terremoto principal ocorrerá, Johnson e seus colegas não conseguiram descobrir como transformar os eventos precursores em previsões confiáveis ??de terremotos de laboratório. “Estávamos em um beco sem saída”, lembrou Johnson. “Não consegui ver como proceder.”

Em uma reunião de alguns anos atrás, em Los Alamos, Johnson explicou seu dilema a um grupo de teóricos. Eles sugeriram que ele reanalisasse seus dados usando o aprendizado de máquina – uma abordagem que era bem conhecida na época por sua proeza em reconhecer padrões em dados de áudio.

Juntos, os cientistas traçaram um plano. Eles pegavam os cerca de cinco minutos de áudio gravados durante cada execução experimental – abrangendo cerca de 20 ciclos de escorregamento – e dividiam em vários segmentos minúsculos. Para cada segmento, os pesquisadores calcularam mais de 80 recursos estatísticos, incluindo o sinal médio, a variação sobre essa média e informações sobre se o segmento continha um evento precursor. Como os pesquisadores estavam analisando os dados em retrospectiva, eles também sabiam quanto tempo havia passado entre cada segmento sonoro e a subsequente falha da falha do laboratório.

Armado com esses dados de treinamento, eles usaram o que é conhecido como algoritmo de aprendizado de máquina “random forest ” para procurar sistematicamente combinações de recursos fortemente associados à quantidade de tempo restante antes da falha. Depois de ver alguns dados experimentais em alguns minutos, o algoritmo pode começar a prever tempos de falha com base apenas nos recursos da emissão acústica.

Johnson e seus colegas de trabalho optaram por empregar um algoritmo de random forest para prever o tempo antes do próximo escorregão em parte porque – comparado com redes neurais e outros algoritmos populares de aprendizado de máquina – as random forest são relativamente fáceis de interpretar. O algoritmo funciona essencialmente como uma árvore de decisão na qual cada ramificação divide o conjunto de dados de acordo com algum recurso estatístico. A árvore preserva, portanto, um registro de quais características o algoritmo usado para fazer suas previsões – e a importância relativa de cada característica em ajudar o algoritmo a chegar a essas previsões.

Uma lente polarizada mostra o acúmulo de estresse quando uma placa tectônica modelo desliza lateralmente ao longo de uma linha de falha em um experimento no Laboratório Nacional de Los Alamos.

Quando os pesquisadores de Los Alamos sondaram o funcionamento interno de seu algoritmo, o que aprenderam os surpreendeu. O recurso estatístico em que o algoritmo se apoiou mais fortemente por suas previsões não estava relacionado aos eventos precursores imediatamente antes de um terremoto de laboratório. Pelo contrário, foi a variação – uma medida de como o sinal flutua sobre a média – e foi transmitida ao longo do ciclo de escorregamento, não apenas nos momentos imediatamente anteriores à falha. A variação começaria pequena e aumentaria gradualmente durante o período que antecedeu o terremoto, presumivelmente quando os grãos entre os blocos se empurravam cada vez mais sob a tensão crescente de cisalhamento. Apenas conhecendo essa variação, o algoritmo poderia adivinhar de forma bastante razoável quando um deslizamento ocorreria; informações sobre eventos precursores ajudaram a refinar essas suposições.

A descoberta teve grandes implicações potenciais. Durante décadas, os possíveis prognósticos de terremotos haviam se envolvido em choques e outros eventos sísmicos isolados. O resultado de Los Alamos sugeriu que todos estavam procurando no lugar errado – que a chave da previsão estava na informação mais sutil transmitida durante os períodos relativamente calmos entre os grandes eventos sísmicos.

Para ter certeza, os blocos deslizantes não começam a capturar a complexidade química, térmica e morfológica das falhas geológicas verdadeiras. Para mostrar que o aprendizado de máquina poderia prever terremotos reais, Johnson precisava testá-lo com uma falha real. Que lugar melhor para fazer isso, ele imaginou, do que no noroeste do Pacífico?

Fora do laboratório

A maioria, se não todos os lugares na Terra que podem sofrer um terremoto de magnitude 9, são zonas de subducção, onde uma placa tectônica mergulha sob a outra. Uma zona de subducção a leste do Japão foi responsável pelo terremoto de Tohoku e pelo subsequente tsunami que devastou a costa do país em 2011. Um dia, a zona de subducção de Cascadia, onde a placa de Juan de Fuca mergulha sob a placa norte-americana, também devastará Puget Sound, Vancouver Island e o noroeste do Pacífico circundante.


A zona de subducção de Cascadia se estende por cerca de 1.000 quilômetros da costa do Pacífico, do Cabo Mendocino, no norte da Califórnia, até a Ilha Vancouver. A última vez que houve um rompimento, em janeiro de 1700, gerou um tremor de magnitude 9 e um tsunami que atingiu a costa do Japão. Os registros geológicos sugerem que, em todo o Holoceno, a falha produziu esses mega-terremotos aproximadamente uma vez a cada meio milênio, mais ou menos algumas centenas de anos. Estatisticamente falando, o próximo grande está previsto para qualquer século relativamente próximo.

Essa é uma das razões pelas quais os sismólogos prestaram tanta atenção aos terremotos da região. Pensa-se que os deslizamentos lentos nos alcances inferiores de uma falha na zona de subducção transmitam pequenas quantidades de estresse à crosta frágil acima, onde ocorrem terremotos rápidos e catastróficos. Com cada escorregão lento na área de Puget Sound-Vancouver Island, as chances de um megaquemoto no Noroeste do Pacífico aumentam um pouco. De fato, um lento deslize foi observado no Japão no mês que antecedeu o terremoto de Tohoku.

Para Johnson, no entanto, há outro motivo para prestar atenção aos terremotos de escorregamento lento: eles produzem muitos e muitos dados. Para comparação, não houve grandes terremotos rápidos no trecho de falha entre Puget Sound e Vancouver Island nos últimos 12 anos. No mesmo período, a falha produziu uma dúzia de deslizamentos lentos, cada um registrado em um catálogo sísmico detalhado.

Esse catálogo sísmico é a contrapartida do mundo real das gravações acústicas do experimento de terremoto em laboratório de Johnson. Assim como fizeram com as gravações acústicas, Johnson e seus colegas dividiram os dados sísmicos em pequenos segmentos, caracterizando cada segmento com um conjunto de características estatísticas. Eles então forneceram esses dados de aprendizagem, juntamente com informações sobre o tempo dos eventos passados ??de escorregamento lento, ao algoritmo de aprendizado de máquina.

Depois de treinado em dados de 2007 a 2013, o algoritmo conseguiu fazer previsões sobre deslizamentos lentos que ocorreram entre 2013 e 2018, com base nos dados registrados nos meses anteriores a cada evento. A característica principal era a energia sísmica, uma quantidade intimamente relacionada à variação do sinal acústico nas experiências de laboratório. Assim como a variação, a energia sísmica subiu de maneira característica na preparação para cada escorregamento lento.

As previsões de Cascadia não eram tão precisas quanto as de terremotos de laboratório. Os coeficientes de correlação que caracterizam quão bem as previsões se encaixam nas observações foram substancialmente mais baixos nos novos resultados do que no estudo de laboratório. Ainda assim, o algoritmo foi capaz de prever todos, exceto um dos cinco deslizamentos lentos que ocorreram entre 2013 e 2018, identificando os horários de início, diz Johnson, em questão de dias. (Um deslize lento que ocorreu em agosto de 2019 não foi incluído no estudo.)

Para De Hoop, o grande argumento é que “as técnicas de aprendizado de máquina nos deram um corredor, uma entrada na pesquisa de dados para procurar coisas que nunca identificamos ou vimos antes”. Mas ele alerta que há mais trabalho a ser feito. “Um passo importante foi dado – um passo extremamente importante. Mas é como um pequeno passo na direção certa. ”

Verdades sérias

O objetivo da previsão de terremotos nunca foi prever lentidão. Em vez disso, é prever terremotos repentinos e catastróficos que representam perigo para a vida e para os membros. Para a abordagem de aprendizado de máquina, isso apresenta um aparente paradoxo: os maiores terremotos, aqueles que os sismólogos mais gostariam de prever, também são os mais raros. Como um algoritmo de aprendizado de máquina obterá dados de treinamento suficientes para prever com confiança?

O grupo de Los Alamos está apostando que seus algoritmos não precisam realmente aprender com terremotos catastróficos para ser capaz de prevê-los. Estudos recentes sugerem que os padrões sísmicos antes dos pequenos terremotos são estatisticamente semelhantes aos de seus maiores homólogos, e em qualquer dia, dezenas de pequenos terremotos podem ocorrer em uma única falha. Um computador treinado em milhares desses pequenos tremores pode ser versátil o suficiente para prever os grandes. Os algoritmos de aprendizado de máquina também podem ser capazes de treinar em simulações de terremotos rápidos que poderiam um dia servir como medida de aproximação para dados reais.

Mas, mesmo assim, os cientistas enfrentarão essa verdade preocupante: embora os processos físicos que levam uma falha à beira de um terremoto possam ser previsíveis, o real desencadeamento de um terremoto – o crescimento de um pequeno distúrbio sísmico em uma ruptura total de falha – acredita-se que a maioria dos cientistas contém pelo menos um elemento aleatório. Supondo que seja assim, não importa o quão bem as máquinas sejam treinadas, elas podem nunca ser capazes de prever terremotos, assim como os cientistas preveem outros desastres naturais.

“Ainda não sabemos o que a previsão em relação ao tempo significa”, disse Johnson. “Seria como um furacão? Não, eu não penso assim.”

Na melhor das hipóteses, as previsões de grandes terremotos provavelmente terão limites de semanas, meses ou anos. Tais previsões provavelmente não poderiam ser usadas, por exemplo, para coordenar uma evacuação em massa às vésperas de um tremor. Mas eles podem aumentar a preparação do público, ajudar as autoridades públicas a direcionar seus esforços para modernizar edifícios inseguros e, de outro modo, mitigar os riscos de terremotos catastróficos.

Johnson vê isso como um objetivo pelo qual vale a pena lutar. Sempre o realista, no entanto, ele sabe que levará tempo. “Não estou dizendo que vamos prever terremotos na minha vida”, disse ele, “mas … vamos fazer muito progresso”.


Publicado em 28/09/2019

Artigo original: https://www.quantamagazine.org/artificial-intelligence-takes-on-earthquake-prediction-20190919/


Achou importante? Compartilhe!



Assine nossa newsletter e fique informado sobre Astrofísica, Biofísica, Geofísica e outras áreas. Preencha seu e-mail no espaço abaixo e clique em “OK”: