Modelado Numérico en el CIMA
Transcripción
Modelado Numérico en el CIMA
Celeste Saulo PRIMER ENCUENTRO NACIONAL DE COMPUTACION DE ALTO RENDIMIENTO PARA APLICACIONES CIENTÍFICAS La Falda, Córdoba, Argentina 3-5 de Mayo de 2010 Con agradecimiento especial a la colaboración de Juan Ruiz ` ` ` Modelado climático Modelado del tiempo Modelado oceanográfico sobre la plataforma continental argentina ` ` ` 15 servidores 2 Clusters de 32 y 12 nodos respectivamente 2 Sistemas tipo Data storage ` ` Los modelos se emplean para estudiar la dinámica de ambos sistemas y para predecir sus cambios o su evolución La calidad de una predicción depende fundamentalmente de: ◦ La calidad con que se define el estado inicial ◦ La calidad del modelo ` Dado que la predicción tiene incertidumbre, es deseable buscar estrategias para cuantificar esa incertidumbre Seamless Prediction of Weather and Climate 1. Planetary Scale Resolving Models (1970~): ∆x~500Km 2. Cyclone Resolving Models (1980~): 3. Mesoscale Resolving Models (1990~): 4. Cloud System Resolving Models (2000 ~): Organized Convection Convective Heating Mesoscale System Cloud System MJO Center of Ocean-LandAtmosphere studies ∆x~100-300Km ∆x~10-30Km Synoptic Scale ENSO ∆x~3-5Km Planetary Scale Climate Change Shukla, 2009 International Research and Computational Facilities to Revolutionize Climate Prediction 1. Computational Requirement: - Sustained Capability of 2 Petaflops by 2011 - Sustained Capability of 10 Petaflops by 2015 Earth Simulator (sustained 7.5 Teraflops) takes 6 hours for 1 day forecast using 3.5 km global atmosphere model; ECMWF (sustained 2 Teraflops) takes 20 minutes for 10 day forecast using 24 km global model 2. Scientific Staff Requirement: - Team of 200 scientists to develop next generation climate model - Distributed team of 500 scientists (diagnostics, experiments) A computing capability of sustained 2 Petaflops will enable 100 years of integration of coupled ocean-atmosphere model of 5 km resolution in 1 month of real time Center of Ocean-LandAtmosphere studies Shukla, 2009 ` ` ` ` Estudios de caso, para entender la dinámica de los sistemas y evaluar la calidad con que se representan patrones específicos del tiempo o del clima Estudios de sensibilidad, para entender cómo responde el sistema a forzantes externos (por ejemplo, el estado de la superficie terrestre o el estado del mar) Asimilación de datos, para mejorar la calidad de las condiciones iniciales Pronósticos por ensambles, para mejorar la representación de la incertidumbre mas información en www.cima.fcen.uba.ar ` ` ` ` ` Es un modelo de última generación, desarrollado por un consorcio de instituciones de USA Es de libre disponibilidad Cuenta con 5 equipos de desarrollo, uno de los cuales se concentra en la parte numérica y de software La continuidad del uso de esta herramienta ha permitido mejorar su performance para la representación de los fenómenos significativos sobre Sudamérica Además del uso para investigación, es la base de nuestra página de pronósticos operativos: http://wrf.cima.uba.ar Resolución espacial (km) Longitud pronóstico Area de cobertura Tiempo de cómputo Dimensión matrices WRF alta 15 2 días Argentina 2 h 40 min 150x300x50 WRF baja 60 (/20) 3 días Sudamérica 45 min 102x111x27 ` ` ` Modelo básico: WRF (Weather research and forecast model) Ciclos: 00 UTC (21 HOA) y 12 UTC (09 HOA) Cada matriz corresponde a 1 variable meteorológica pronosticada (se emplean 7 ó más, dependiendo de la versión) WRF alta WRF baja Datos iniciales Post-proces. 15-20 min 1 hora 5 minutos ` ` ` Intel(R) Xeon(R) CPU E5405 @ 2.00GHz (8 procesadores) 4Gb de memoria RAM 700 Gb de disco. ` ` ` Esta escala requiere de corridas de muy larga duración (de meses a varias décadas) Es deseable trabajar con ensambles de al menos 15 miembros El CIMA trabaja empleando modelos regionales, ya que no tiene la capacidad computacional para correr modelos globales ` ` ` El CIMA ha empleado modelos desarrollados por otras instituciones (MM5 y WRF, NCAR-USA y RCA, Rossby Center, Suecia) , pero modificados para su óptimo funcionamiento sobre Sudamérica. La estrategia adoptada para las simulaciones largas (realizadas localmente) fue la de corridas únicas La resolución de las corridas regionales ha sido mejorada respecto a la de los modelos globales (por ejemplo, 50 km vs. 100 ó 200 km) ` ` ` El CIMA es Centro responsable de la generación de los escenarios del clima futuro para la realización de las Comunicaciones Nacionales sobre Cambio Climático en cumplimiento con los compromisos asumidos por la República Argentina ante la Convención Marco de las Naciones Unidas sobre Cambio Climático. Esto requiere corridas de décadas bajo condiciones (escenarios) diferentes, además de corridas de “control” que representan el clima actual La participación en la 2da Comunicación Nacional (corridas simulando 10 años con 50 km sobre Sudamérica) requirió meses de cómputos empleando el cluster completo ` ` Se realizan ensambles de corridas climáticas multianuales en el cluster Tornado, un centro de supercomputación sueco http://www.nsc.liu.se/systems/cluster/torna do/ Se participa del super-ensamble de modelos regionales coordinado por la Universidad de San Pablo, para disponer de ensambles de pronósticos a corto plazo sobre Sudamérica ` ` ` Ejecutar ensambles de pronósticos (i.e. varias realizaciones con pequeñas diferencias en la condición inicial) Asimilación de datos Simulaciones decadales a multi-decadales en alta resolución (20 km o quizás mayor) ` ` ` ` ` ` Si bien el CIMA posee un cluster interesante y varios servidores, deben contemplarse necesidades muy diversas. 2 grupos realizando experimentos climáticos y de cambio climático (lo cual incluye más de 5 doctorandos con distinto grado de avance) 1 grupo realizando investigación en pronósticos por ensambles y asimilación de datos Varios investigadores realizando estudios de caso (incluye simulaciones climáticas) ejecución de pronóstico operativo en alta y baja resolución Participación de la 3ra Comunicación sobre Cambio Climático ` ` ` Bajo las condiciones actuales, implementar la técnica de asimilación por Local Ensamble Transform Kalman Filter (Hunt et al. 2007), requeriría unas 11 horas para cada ciclo de análisis (es decir, cada 6 horas). Es completamente inviable para ser operativo, y muy poco estimulante para pruebas Cada día de análisis, llevaría 11*4 horas = 44 horas “máquina” para tener la representación de “24 horas reales” ` Sin embargo, esta técnica tiene la ventaja de ser 100% paralelizable, con lo cual si en lugar de 8 procesadores tuviéramos el doble, entonces el tiempo bajaría a la mitad y así sucesivamente ` ` ` Hay que tener en cuenta que duplicar la resolución espacial implica un incremento del costo computacional de 24 aproximadamente La eficiencia de paralelización del WRF es muy dependiente de los tiempos asociados al intercambio de datos entre los procesos (la red). Con una red tipo gigabit se saturaría la eficiencia en 20 procesos Tomada de: https://srvgrid01.offis. uni-oldenburg.de/wrfbenchmark/case.pl?cas e=conus12km_2001