Página traducida con IA
Esta página fue traducida utilizando inteligencia artificial (IA). El contenido puede contener imprecisiones o interpretaciones erróneas. Para uso oficial o crítico, consulte al administrador del sitio para confirmar la información.
04 de Dezembro de 2024
ACTAS 002/2024 - Revisión 003
Agenda 1 - Presentación sobre el uso de Computación en la Nube para Modelado de Predicción del Tiempo
La reunión comenzó con la presentación de la Profesora Lúcia M. A. Drummond (UFF) y del estudiante Mateus S. de Melo sobre el uso de la computación en la nube para el modelado de predicción del tiempo. La Profesora Lúcia explicó que el trabajo es fruto de la disertación de maestría de Mateus, dirigida por ella y por Roberto P. Souto del LNCC. Roberto agradeció a Lúcia y a Mateus por la presentación, destacando el trabajo como la maestría de Mateus en el tema de computación en la nube aplicada a modelos de predicción. Roberto resaltó la tendencia de utilizar la nube como plataforma para aplicaciones de alto rendimiento (HPC), mencionando que grandes usuarios de supercomputación, como Petrobras, ya realizan el desbordamiento de aplicaciones hacia la nube en momentos de alta demanda. Enfatizó que la computación en la nube es costosa y que el desafío es minimizar el costo sin perjudicar el tiempo.
Mateus detalló que el objetivo del trabajo fue proponer un enfoque para reducir los costos financieros asociados al uso de clústeres en la nube para la ejecución de modelos de predicción del tiempo. Se desarrollaron dos estrategias principales: 1) El uso exclusivo de instancias Spot, que son más económicas, pero están sujetas a la revocación del acceso; y 2) Un algoritmo de selección de máquinas virtuales junto con una estrategia de reprogramación en instancias On-Demand, que son más caras, pero no están sujetas a revocación. El modelo BRAMS fue utilizado para las pruebas. El supercomputador Santos Dumont del LNCC se utilizó como referencia para la comparación, con una capacidad de 5,1 petaflops. En la nube, se usó el servicio Amazon EC2 para las instancias virtuales, con diferentes familias de configuraciones. La herramienta AWS Parallel Cluster se utilizó para crear y gestionar los clústeres en la nube.
La primera estrategia, de reprogramación en instancias Spot, incluyó un procedimiento que monitoreaba fallas y revocaciones de trabajos, configurando el BRAMS para reiniciarse a partir de puntos de control (checkpoints), garantizando un entorno tolerante a fallos. La ejecución del BRAMS fue comparada entre Santos Dumont y AWS (instancias R5n.12xlarge), revelando que, aunque Santos Dumont era inicialmente más rápido con menos nodos, la diferencia disminuía con el aumento del número de nodos. El costo por hora de uso fue significativamente menor en las instancias Spot (U$1,744) en comparación con las On-Demand (U$3,576), con un bajo costo de grabación de checkpoints. Las simulaciones de revocaciones indicaron un aumento considerable en el tiempo de ejecución y en el costo, lo que motivó la segunda estrategia.
La segunda estrategia consistió en un algoritmo de selección de instancias para encontrar la mejor relación costo-beneficio y una reprogramación hacia instancias On-Demand en caso de revocación de instancias Spot. Se implementó una arquitectura de clúster con tres colas (Spot, On-Demand y controladora). El análisis de la arquitectura para el nodo principal (Head Node) sugirió que el uso de instancias más baratas (por ejemplo, T2.micro) no afectaba significativamente el rendimiento y reducía el costo en un 20%. Para el nodo de cómputo (Compute Node), las instancias con arquitectura ARM (Graviton) demostraron costos de ejecución menores en comparación con CPUs x86.
La aplicación de estas propuestas con el modelo BRAMS resultó en reducciones de costos de hasta un 89% en el mejor caso de prueba, combinando instancias Spot con reprogramación en On-Demand. La estrategia de reprogramación en On-Demand fue más ventajosa cuando las revocaciones ocurrían a la mitad o al final de la ejecución. La identificación y eliminación de la recreación redundante de archivos de radiación durante la reprogramación resultaron en una reducción adicional del 72% al 76% en el costo. Las pruebas con un dominio espacial mayor (5 km, 48 h de predicción) confirmaron la reducción de costos en casi un 90% con el uso potencial de instancias Spot. La comparación con Santos Dumont para el dominio mayor mostró un tiempo de ejecución ligeramente mayor en el supercomputador y un alto tiempo de espera en entornos locales (on-premises).
Las conclusiones indicaron que la migración de aplicaciones a la nube debe considerar tanto el tiempo como el costo. El uso de instancias Spot y el algoritmo de selección de instancias demostraron ser eficaces en la reducción de costos. Las instancias ARM son más económicas, y la reprogramación en On-Demand es beneficiosa ante revocaciones. La nube ofrece menores tiempos de ejecución y de espera en comparación con sistemas locales. Los trabajos futuros incluyen el monitoreo de variaciones de precios Spot durante la ejecución, la reutilización de archivos de radiación y la investigación de variaciones de rendimiento.
Pedro Dias preguntó sobre la aparente anomalía en el gráfico comparativo de tiempo Santos Dumont vs Nube, donde Santos Dumont era más rápido con un nodo, pero la nube se volvía más rápida con más nodos. Mateus explicó que esto es un trabajo futuro por investigar, posiblemente relacionado con la contención de memoria. Pedro elogió el trabajo, destacando la importancia del análisis de costos y el potencial para el uso de MONAN en predicciones regionales. Lúcia añadió que el CNPq ya acepta partidas para el pago de proveedores de nube y que existen convocatorias CNPq/AWS que ofrecen créditos para proyectos de investigación. Pedro añadió que la FAPESP y otras agencias de financiamiento incentivan el uso de servicios en la nube para aplicaciones más pequeñas, optimizando el uso de grandes supercomputadores.
Agenda 2 - Bienvenida a nuevos miembros del Comité Científico MONAN
Saulo Freitas dio la bienvenida a los nuevos miembros del comité científico del MONAN:
- Profesor Jorge Arévalo, de la Universidad de Valparaíso, Chile, quien se presentó mencionando su investigación con aprendizaje automático (machine learning) para simular procesos hidrológicos y su interés en colaborar para mejorar modelos.
- Daniel Poleo, del Instituto Meteorológico de Costa Rica, quien estuvo presente en la reunión, pero tuvo problemas con el micrófono y no logró presentarse.
- Marlos Guimarães, ingeniero de Eletrobras, quien representa al primer “stakeholder” en integrar el comité. Tampoco logró presentarse en el momento.
Agenda 3 - Informes Generales de los Componentes del Sistema MONAN
Asimilación de Datos (João Gerd)
João Gerd presentó las implementaciones del JEDI (Joint Effort for Data Assimilation Infrastructure) y los planes para el MONAN. El objetivo es expandir la capacidad de asimilación de datos en el CPTEC y realizar la transición del JEDI al MONAN, priorizando avances en la asimilación de datos. Una colaboración con el NCAR permitió acoplar el JEDI con la versión actual del MPAS. Las ventajas del JEDI incluyen soporte para diversos métodos de asimilación, compatibilidad con MPAS global y regional, y soporte para más sensores y datos satelitales. La estrategia de transición será por fases: 3D-Var-FGAT (a partir de septiembre), seguido por 3D-EnVar y, finalmente, Hybrid 3D-EnVar. Los desafíos incluyen una mayor demanda computacional para 3D-EnVar, la necesidad de capacitación del grupo en el sistema JEDI (diferente del GSI) y la inclusión de nuevos datos. El plan prevé la validación del 3D-Var-FGAT hasta junio de 2025 y el sistema híbrido completo hasta finales de 2026, con expectativas de mejoras en la incorporación de sensores y reducción de errores.
Pedro Dias preguntó sobre la asimilación regional. João Gerd afirmó que, tras el enfoque global, la asimilación regional es un objetivo futuro, importante para evitar el “Cold Start” en predicciones regionales. Pedro preguntó sobre la posibilidad de acelerar el desarrollo. João Gerd indicó que el mayor desafío es la necesidad de más personas dedicadas 100% a la asimilación. Saulo añadió que la aceleración podría provenir de una mayor interacción con la NOAA y el NCAR (con viajes e intercambios planificados) y de la movilización de la comunidad y socios.
Océanos y Criosfera (Rosio Camayo)
Rosio Camayo presentó los esfuerzos para la elección del componente oceánico para el MONAN. El grupo está evaluando candidatos como HYCOM y MOM6. La comunidad internacional utiliza modelos como HYCOM, MOM6 y NEMO. El INPE tiene experiencia con modelos acoplados como BAM y MOM6 con hielo marino CICE6. La comunidad oceanográfica brasileña posee una fuerte experiencia con HYCOM, lo que justifica la colaboración con el Profesor Afonso Paiva. El modelo MPAS-Ocean fue considerado, pero su soporte será descontinuado. El componente oceánico del MONAN debe resolver fenómenos y patrones climáticos principales, acoplarse a futuros componentes (olas, ciclos biogeoquímicos) y proporcionar datos de condiciones de frontera para modelos regionales. El gran desafío es la elección del acoplador.
La estrategia de evaluación implica la implementación de HYCOM y MOM6 en el EGEON, la configuración de experimentos globales y la evaluación física y computacional. Los resultados preliminares incluyen la compilación y ejecución satisfactoria del HYCOM en el EGEON para el año 2016, que mostró el patrón espacial de la Temperatura Superficial del Mar (TSM), excepto para el Pacífico Sur y Este, donde hubo deficiencia con respecto al GLORYS de 9 km. La implementación del MOM6 Global en el EGEON para el año 2015 mostró deficiencias en la región tropical, necesitando equilibrio para representar las temperaturas máximas en el Atlántico y Pacífico tropical.
Los próximos pasos incluyen ejecuciones largas de 20 años (2004-2023) con HYCOM y MOM6, forzando con MERRA-2 y probando diferentes condiciones iniciales climatológicas para el spinup. La definición de parámetros físicos y la evaluación del rendimiento físico, numérico y computacional, con colaboración de la comunidad, son cruciales. Pedro Dias observó que el problema en la costa oeste de América del Sur es recurrente y puede estar relacionado con la reproducción de nubes bajas por el modelo atmosférico o con la resolución según la batimetría. Sugirió asociaciones para explorar esas deficiencias. Luciano añadió que el problema puede deberse a la forzante colocada en el modelo oceánico, posiblemente un “upwelling” exacerbado, y que las nubes son un tema ideal para explorar con las parametrizaciones del MONAN.
Atmósfera (Paulo Kubota)
Paulo Kubota presentó los logros del grupo de atmósfera en 2024 y la planificación para 2025, con miras a un estado de modelado del sistema terrestre. Las metas de 2024 incluyeron:
- Correcciones en el geopotencial e interpolación vertical, ajustando el diagnóstico del modelo para una mayor compatibilidad con los reanálisis y continuidad en regiones de topografía elevada.
- Cálculo de promedios para variables pronosticadas y diagnósticas, esencial para simulaciones largas.
- Implementación de la parametrización de convección Grell-Freitas con representación de piscinas frías.
- Posprocesamiento para una malla regular, con modificaciones en los programas
convert_mpasympas_cat, facilitando la visualización y uso de los datos. - Desarrollo de un software de análisis energético modal por Paulo Bon, para diagnóstico de las simulaciones.
- Evaluación de simulaciones de alta resolución (3 km) para eventos en la Amazonia por el Dr. Jonathan, comparando con el modelo WRF-LES e indicando la necesidad de ajustes.
- Preprocesamiento de datos estáticos (topografía, albedo, vegetación, suelo) y datos oceánicos (TSM, hielo marino) para simulaciones de mediano y largo plazo.
- Pruebas de simulaciones de mediano y largo plazo (por ejemplo, El Niño y La Niña 97-99) mostraron buena respuesta del modelo a las forzantes climáticas y reproducción de la climatología de precipitación.
- Organización de 14 reuniones generales del MONAN y del primer entrenamiento MONAN/JEDI.
- Disponibilización de una versión del MONAN para notebooks y PCs en GitHub.
- Trabajos en microfísica de nubes, con una interfaz para acoplar diferentes parametrizaciones y planes para implementar una nueva formulación con graupel.
El plan para 2025 tiene como principal objetivo hacer operativo el MONAN en el primer semestre, utilizando análisis de alta resolución para inicialización. Otras metas incluyen: trabajar en nuevas formulaciones de convección de Grell (con subsidencia 3D lateral), implementación de la microfísica WSM6, desarrollo de una capa límite seca y húmeda (por Guilherme Machado), modelos de aerosol (Carla Longo y Rosário), emulación de asimilación de datos mediante redes neuronales (Otávio, Haroldo, Saulo) y estudios en dinámica del MPAS a escala de nubes.
Pedro Dias elogió la presentación, destacando la relevancia de los temas para los trópicos. Preguntó sobre el gráfico de presión, sugiriendo investigar una caída abrupta en julio del 97, y subrayó la importancia de diagnósticos de conservación de masa y agua durante la ejecución del modelo en la malla original. Saulo reforzó la importancia de las reuniones generales quincenales del MONAN, organizadas y conducidas por Paulo Kubota.
Superficie (Antonio Manzi)
Manzi presentó la composición del grupo de superficie y las actividades de 2024, centradas en la evaluación de esquemas de superficie para la predicción del tiempo, y la planificación para 2025. El grupo incluye a Manzi (miembro nato), Paulo Kubota (integración), João Gerd (asimilación de agua en el suelo), y colaboraciones con otros grupos y Celso von Randow. Está prevista la contratación de dos nuevos investigadores en 2025 para procesos físicos de superficie/ecofisiología y vegetación dinámica/ciclo de nutrientes, lo que aumentará significativamente el potencial de desarrollo.
Las prioridades de 2024 incluyeron la actualización del mapa de tipos de vegetación sobre Brasil, en colaboración con el área de teledetección del INPE (Cláudio Almeida, Luciana Soler) y Embrapa, utilizando datos del IBGE, PRODES, TerraClass y MapBiomas. También se desarrolló un balance hídrico global para la inicialización del contenido de agua en el suelo, usando reanálisis y datos de precipitación (MERGE) y radiación satelital. Hubo cooperación con Otávio Acevedo para la evaluación de flujos de superficie en el bioma Pampa.
El plan para 2025 busca vitalizar y hacer operativo el esquema de balance hídrico para la predicción del tiempo, enfocándose en la inserción de agua en el suelo y su impacto en la partición de energía. La finalización del mapa de tipos de vegetación y la selección del esquema de superficie para el MONAN y aplicaciones climáticas también son prioridades. Los candidatos incluyen NOAH-MP (ya incorporado en el MPAS), IBIS, JULES y CLM. El NOAH-MP en el MPAS presenta desventajas como una capa de suelo poco profunda (2 m con 4 capas) y ausencia de asignación de carbono en raíces/hojas y dinámica de vegetación.
Manzi explicó los componentes de los esquemas de superficie: balance radiativo, partición de energía (flujos de calor latente y sensible), balance hídrico, fisiología vegetal y ciclos biogeoquímicos. Detalló las ecuaciones y procesos de radiación, partición de energía (incluyendo almacenamiento en el suelo y vegetación) y evapotranspiración (evaporación directa del suelo, transpiración y evaporación del agua interceptada). El balance hídrico en el suelo (precipitación, escorrentía, drenaje, evapotranspiración) también fue descrito. El esquema de superficie NOAH en el MONAN 1.0 (MPAS 8.1) tiene cuatro capas de suelo y requiere condiciones de contorno e iniciales, pero no trata reservas y flujos de carbono.
La evaluación de NOAH vs NOAH-MP fue presentada con base en simulaciones realizadas por Paulo Kubota con MPAS 8.2 (con NOAH-MP y una versión corregida) y MPAS 8.1 (con NOAH). Los análisis de balance de energía en un punto en la Amazonia (2.5°S, 60°O) revelaron que el NOAH-MP original presentaba un gran desequilibrio (casi -5 W/m²) y dificultad para equilibrar la temperatura del suelo, requiriendo muchos ajustes. El MONAN 1.0 (MPAS 8.1 con NOAH) mostró un residuo del balance de energía cercano a cero en la Amazonia. La versión MPAS 8.2 con NOAH tuvo un residuo más ruidoso, pero aún cercano a cero. La versión NOAH-MP corregida (por Paulo Kubota) aún presentó un desequilibrio persistente (-5 W/m²) y un secado del suelo en el primer año, con reducción del flujo de calor latente y aumento del sensible, lo que no se observó en otras integraciones. Esto sugiere que el NOAH-MP, a pesar de ser un código moderno, requiere un trabajo y calibración considerables.
Comparaciones anuales globales (60°S a 60°N) entre NOAH y NOAH-MP (corregido) indicaron que NOAH-MP tiene más radiación solar incidente, menor albedo, mayor emisión de radiación de onda larga y un balance de radiación menor. El flujo de calor sensible es ligeramente mayor y el latente es menor. La temperatura a 2 m aumentó en 1,5 °C en la región tropical, y la humedad específica a 2 m es mucho mayor con NOAH-MP, lo que parece ser un error de diagnóstico. Los análisis del ciclo diurno medio (31 días) en la Amazonía y el Sahara mostraron que, en la Amazonía, NOAH-MP tuvo una atmósfera más transparente (mayor radiación solar incidente), balance de radiación mayor y flujo de calor latente menor (excepto por la mañana), con flujo de calor sensible mayor. El flujo de calor en el suelo fue muy grande con NOAH-MP. En el Sahara, NOAH-MP presentó menor albedo, resultando en un balance de radiación mayor. El flujo de calor latente fue prácticamente cero, y el flujo de calor en el suelo fue mayor. Las temperaturas del suelo fueron mucho más altas con NOAH-MP en la Amazonía y el Sahara. La temperatura a 2 m fue mayor por la noche, con variaciones extrañas en la humedad específica, que ya fue corregida por el NCAR. La altura de la capa límite planetaria fue más desarrollada con NOAH-MP en la Amazonía debido al aumento del flujo de calor sensible. El ciclo de precipitación (total y convectiva) presentó diferencias entre NOAH y NOAH-MP. Manzi concluyó que NOAH-MP todavía necesita mucho trabajo y calibración, pero el NCAR ya realizó algunas correcciones. Saulo resaltó la importancia de especificar las parametrizaciones físicas utilizadas al presentar resultados.
Agenda 4 - Validación e Intercomparación Regional del MONAN
Saulo reforzó las principales acciones del MONAN, incluyendo la creación de la versión oficial en GitHub (release 1.1) con scripts y tutoriales, y el trabajo de actualización a la versión 8.22 del MPAS. Mencionó las pruebas continuas para ajuste y mejora de sesgos, un proceso complejo que aún no ha alcanzado el punto óptimo para pruebas preoperacionales. La suite de físicas propia del MONAN incluye nuevas parametrizaciones de convección y microfísica de nubes. El primer entrenamiento MONAN/JEDI se realizó en agosto, con 30 investigadores y recursos del MCTI. Saulo destacó la capacidad del MONAN de reproducir eventos extremos, como las inundaciones en Río Grande do Sul (abril/mayo) y el huracán Beryl, mostrándose competitivo con ERA5 y más consistente con observaciones (GPM) incluso en resoluciones similares. Concluyó que el modelo de superficie y atmosférico es competitivo, y la programación apunta a coronarse en 2026 con la integración de océanos y asimilación de datos.
Pedro Dias complementó, reiterando la importancia de la validación continua del modelo utilizando el sistema de intercomparación de métricas de superficie (T2m, humedad 2 m, viento 10 m, lluvia, radiación), que existe desde hace más de 20 años y ha sido eficaz en la identificación de problemas en parametrizaciones. La idea es estimular el uso del MONAN en centros regionales, expandiendo el sistema de validación para recibir datos de simulaciones de socios. Resaltó que la experiencia diaria con pronósticos puede revelar problemas que largas integraciones no muestran. El acceso a la supercomputación para centros regionales es crucial, mencionando la expansión del Santos Dumont y la creación de un Portal MONAN en SINPAD. El INPE también planea abrir acceso a países de América del Sur con la llegada del nuevo superordenador.
Agenda 5 - Actividades de la Organización Meteorológica Mundial (OMM) y el MONAN en América Latina
Daniel Vila (OMM) destacó la relevancia del MONAN en el contexto de la iniciativa de la ONU "Early Warning for All" (Alerta Temprana para Todos), que busca mejorar los pronósticos en todas las escalas temporales. La iniciativa, que se extenderá hasta 2030, ofrece un "buen suelo" para el MONAN. Mencionó el curso virtual y presencial del INPE para pronosticadores de América del Sur y Central.
Daniel Vila relató la visita de la comitiva del INPE a la oficina regional de la OMM en las Américas, donde el MONAN fue un tema central para involucrar a la comunidad latinoamericana (América del Sur, Central y Caribe). Presentó el MONAN para el proyecto "Severe Weather Forecast Program" en América Central, generando gran interés en usar el MONAN para monitoreo de tiempo severo, razón por la cual Daniel Poleo (Costa Rica) participa en las reuniones. En la reunión de la Asociación Regional 3 de la OMM (América del Sur), la delegación de Brasil propuso reforzar y establecer un mecanismo de coordinación regional para mejorar las capacidades de pronóstico del sistema terrestre, con el desarrollo de modelos numéricos. Esta propuesta fue aprobada y servirá de "guía" para apoyar actividades como el MONAN. Daniel Vila expresó la intención de continuar con la difusión del MONAN y espera que otros países, como Argentina, se unan para compartir conocimiento y colaborar, con un entrenamiento para países de América Latina en la planificación futura.
Agenda 6 - Consideraciones Finales y Próximos Pasos del MONAN
Saulo Freitas pidió disculpas por la extensión de la reunión y reiteró la disponibilidad total del equipo MONAN para colaborar, resolver dudas y apoyar localmente (con presupuesto para viajes en 2025) o mediante talleres en línea. Enfatizó la importancia de que la comunidad use, identifique problemas, evalúe y desarrolle nuevas parametrizaciones más adecuadas a las condiciones climáticas y territoriales de Brasil, para avanzar en la calidad de los pronósticos. Saulo deseó un buen fin de año y reforzó las metas para 2025 (ajustar y operacionalizar el modelo) y 2026 (asimilación de datos, modelado oceánico, competitividad internacional en tiempo medio y entrada en pronóstico subestacional/estacional para ampliar la cartera de productos del MONAN).