domingo, março 23, 2025

Pesquisadores da Unesp desenvolvem modelo de IA para mapear áreas de risco de deslizamento no litoral norte de São Paulo

Compartilhar

Há pouco menos de um ano, em 19 de fevereiro de 2024, o litoral norte de São Paulo vivenciava o que foi considerado pelo Governo Estadual como uma das maiores tragédias da história do estado. Com chuvas que acumularam mais de 600mm em 24h, o temporal foi o maior acumulado de chuva que se tem registro no país e deixou um rastro de destruição, culminando em deslizamentos de terra que deixaram 65 mortos, casas destruídas e rodovias bloqueadas.

Dentre as oito cidades afetadas, São Sebastião foi considerada o epicentro do desastre e a mais impactada, somando o maior número de mortos e desabrigados. Um ano após a tragédia, os moradores da região seguem sob ameaça de novos deslizamentos, o que levantou um debate sobre as potenciais áreas de risco e as ações de prevenção necessárias.

Os caminhos, entretanto, não são claros: enquanto a Procuradoria Geral do Estado ingressou com uma ação para autorizar a demolição de 893 imóveis da Vila Sahy, uma das áreas mais impactadas e de maior risco, o Ministério Público Federal (MPF) acionou engenheiros da Universidade Federal de São Paulo (Unifesp) para prestarem esclarecimentos sobre a situação à Justiça Estadual, que decidiu pela permanência das moradias.

Confrontados com a catástrofe, pesquisadores da Unesp em São José dos Campos e do Centro Nacional de Monitoramento e Alertas de Desastres Naturais (Cemaden) desenvolveram um estudo no qual utilizaram algoritmos de aprendizado de máquina para gerar mapas com as principais zonas de risco de deslizamentos de terra em São Sebastião. “A combinação de fatores naturais, como a presença da Serra do Mar, com pressões antrópicas, como a urbanização crescente, destacou a importância de métodos avançados de aprendizado de máquina para mapear e prever áreas suscetíveis a deslizamentos”, diz Enner Alcântara, docente do Instituto de Ciência e Tecnologia da Unesp.

No artigo, intitulado Machine learning approaches for mapping and predicting landslide-prone areas in São Sebastião (Southeast Brazil), o grupo de pesquisadores selecionou o algoritmo mais eficiente e com maior taxa de precisão na previsão de desastres. Além disso, também identificaram quais características ambientais e de ocupação têm maior impacto no risco de deslizamento.

Escolhendo o melhor algoritmo

Uma primeira etapa da pesquisa consistiu em testar cinco dos algoritmos mais utilizados em trabalhos de previsão de desastres para conseguir identificar aquele com a melhor precisão. Para isso, o grupo alimentou os modelos com informações de clima, tipo de solo, tipo de vegetação, relevos da região, acidentes anteriores e ocupação de terra. Com isso, o conjunto de algoritmos selecionados passaram por um treinamento, no qual aprenderam a identificar as combinações de fatores que levaram a deslizamentos, tendo como base eventos passados, para, por fim, serem testados realizando novas previsões de áreas de risco.

Segundo os pesquisadores, o grupo decidiu trabalhar com modelos de aprendizado de máquina porque eles são particularmente bons para lidar com uma grande quantidade de dados, além de serem capazes de identificar padrões que são praticamente impossíveis de vislumbrar com outras técnicas ou mesmo com a análise humana.

“Atualmente, as técnicas tradicionais empregadas para previsão de deslizamentos de terra se baseiam principalmente em abordagens físicas e estatísticas”, explica Alcântara, que também é coordenador do Programa de Pós-Graduação em Desastres Naturais, criado em parceria entre Unesp e Cemaden. Segundo o pesquisador, alguns dos principais desafios enfrentados pelas técnicas tradicionais envolvem a necessidade de informações precisas e de dados de alta resolução, que nem sempre estão disponíveis. Além disso, elas tendem a não apresentar bom desempenho quando expostas a uma grande quantidade de dados, por exemplo, ao tentar fazer previsões em áreas extensas ou em regiões que apresentam uma grande variabilidade ambiental. É justamente nessas lacunas que as técnicas de aprendizado de máquina prosperam.

Nos testes comparativos, o modelo chamado de Gradient Boosting (GB) se destacou. Na escala AUC-ROC, utilizada para medir a performance geral dos algoritmos, o modelo GB alcançou uma performance de 0.963 – a pontuação máxima que pode ser atingida é 1. Além disso, o modelo chegou a 99,6% de precisão, enquanto o segundo colocado, chamado de Random Forest, obteve 90.2% no mesmo teste. Com informações do jornal Unesp.

Leia Mais

Outras Notícias