Despliega el menú
Sociedad

Tercer Milenio

Primer Aguathón

Se busca algoritmo para predecir riadas

Equipos de Aragón, País Vasco, Cataluña, Madrid... aceptaron el reto planteado por Itainnova de diseñar un algoritmo matemático que ayude a predecir futuras inundaciones con la mayor precisión. El modelo debía devolver predicciones del nivel del río a su paso por Zaragoza con 24, 48 y 72 horas de antelación. El 17 de junio tendrá lugar la entrega de premios de este primer Aguathón, en el marco de una jornada.

CRECIDA DEL RIO EBRO ( ZARAGOZA ) / 03/02/2019 / FOTO : OLIVER DUCH [[[FOTOGRAFOS]]]
Riada ordinaria del río Ebro a su paso por Zaragoza en febrero de este año.
Oliver Duch

Cuando el Ebro crece, prever con antelación lo que va a ocurrir permite evitar daños. Para ello, tenemos que sacar el máximo partido a los datos de que disponemos, con ayuda de tecnologías como big data, inteligencia artificial y algoritmos de predicción.

Para encontrar el algoritmo que mejor modelice el comportamiento del nivel del río Ebro a su paso por la ciudad de Zaragoza con el fin de obtener predicciones realistas de su variación, Itainnova convocó el primer ‘hackathón’ o concurso de proyectos dedicado al tema del agua: Aguathón. "Con estas predicciones, la Administración Pública podrá generar alertas automáticas ante posibles desbordamientos o inundaciones y activar los sistemas de emergencia y supervisión para evitar posibles daños que pueden afectar a los habitantes de la ciudad de Zaragoza", explica Íñigo Zubizarreta, del equipo de Big Data y Sistemas Cognitivos de Itainnova.

La participación superó las expectativas iniciales: 89 grupos procedentes de Aragón, País Vasco, Cataluña, Madrid...; en total, 161 personas compitiendo por conseguir las mejores predicciones.

El modelo ganador

César Montenegro Portillo, de la Universidad del País Vasco, logró el primer premio, al presentar el modelo que realiza predicciones más precisas del nivel del Ebro, en Zaragoza, con 24, 48 y 72 horas de antelación.

El jurado tuvo en cuenta dos puntos principalmente: por una parte, "la precisión del algoritmo entregado, comparando los resultados del algoritmo con los resultados reales aportados por la Confederación Hidrográfica del Ebro y, por otra, –señala Zubizarreta– aspectos relacionados con el código creado por el desarrollador, prestando especial atención a la velocidad de cálculo, si el código estaba documentado, la innovación y la originalidad del modelo creado".

El 17 de junio tendrá lugar la entrega de premios, en el marco de una jornada en la que Sergio Ilarri, responsable del grupo de investigación Cosmos de la Universidad de Zaragoza, hablará de ‘El papel de la ingeniería de datos en la inteligencia artificial’.

Esta iniciativa contó con el patrocinio del Instituto Aragonés del Agua y la colaboración de la Confederación Hidrográfica del Ebro (CHE), el clúster del Agua Zinnae, y el Grupo de Ciencias de la Computación para el Modelado de Sistemas del Instituto de Investigación en Ingeniería de Aragón (I3A).

A partir de la idea ganadora, la organización, patrocinadores y colaboradores están barajando, señala Zubizarreta, "la posibilidad de crear un producto real que permita predecir riadas y así, poder avisar a emergencias con antelación con la información recopilada, en tiempo real, desde la instalación de la CHE". Por otra parte, también se contempla "realizar un estudio para poder escalar estos algoritmos a todas las confederaciones hidrográficas de España. La idea sería, después, desarrollar un producto para entorno público y ciudadanía, realizando las modificaciones oportunas para que el producto se ajuste a cada caso".

Otra gestión del agua

Zubizarreta constata que la aplicación de estas tecnologías en la gestión del agua están siendo cada vez más habitual. "La tecnología revolucionaria de internet de las cosas está permitiendo sensorizar maquinaria y así, los agricultores actuales puedan ajustar, exactamente, la cantidad de agua necesaria para regar sus campos, de modo que reduzcan costes y aumenten sus beneficios con la venta de sus productos". Esta misma técnica se aplica en entornos de fabricación.

Todavía veremos muchos cambios en los siguientes años: "Con las mediciones oportunas, se podrá predecir lo que sucederá con más precisión que ahora, y tomar las acciones correctoras de antemano, evitando males mayores". Esto se aplicará "en todos los ámbitos relacionados con aguas, también en los embalses se podrá hacer una predicción exacta de la cantidad de agua necesaria para satisfacer a unas ciudades que cada vez están más pobladas".

Los premios

  • PRIMER PREMIO César Montenegro Portillo, de la Universidad del País Vasco, consiguió el primer premio, tras lograr un error de 0,15 metros en las predicciones a 24 horas, de 0,37 m a 48 h y de 0,47 m a 72 h para los momentos de riesgo de desbordamiento del río. Generó un modelo que predecía para 6, 12, 18, 24, 30, 36, 42, 48, 54, 60, 66 y 72 horas. Utilizaba las predicciones de tiempos pasados para predecir nuevos resultados.
  • SEGUNDO PREMIO El segundo premio recayó en el Equipo Apsu, de Pamplona, cuyo líder es Sergio Díaz Valdés. Los otros dos miembros del equipo son Miguel López-Caballero y Jorge Biera; todos ellos trabajan en departamentos de Ciencias de Datos en distintas empresas navarras. El jurado valoró de este grupo que consiguió un error de 0,14 m en las predicciones a 24 h, de 0,40 m a 48 h y de 0,67 m a 72 h para los momentos de riesgo de desbordamiento del río. Utilizaron gran cantidad de datos externos de distintos niveles de ríos y de precipitaciones.

El reto añadido de mantener alta la motivación

Se buscaba el mejor modelo de predicción del nivel del Ebro a su paso por Zaragoza. A disposición de los concursantes en el Aguathón de Itainnova –89 equipos, integrados por un total de 161 personas (solo un 16% mujeres)– filas y filas de datos de las andanzas del Ebro de 2008 a 2018. Una materia prima con la que trabajar durante marzo y abril. César Montenegro Portillo fue uno de los que recogieron el guante y su solución resultó ganadora. Es ingeniero informático con máster en Investigación Aplicada a la Industria. Tras haber trabajado en diferentes sectores (civil, movilidad, energía y máquina herramienta) creando soluciones basadas en inteligencia artificial, en 2015 se unió al Intelligent Systems Group de la Universidad del País Vasco, donde realiza el doctorado en el área del procesamiento del lenguaje natural.

Era la primera vez que participaba en un hackathón y su principal objetivo era "competir con los compañeros de mi grupo de investigación y así aprender de las soluciones que propusiéramos cada uno. Normalmente trabajamos en campos muy diferentes y se hace complicado aprender unos de otros". Aunque cada uno participaba por separado, "nos ayudábamos con problemas técnicos o nos dábamos consejos". En su opinión, "para competir en estas cosas hace falta motivación constante, el premio no es una de ellas ya que si lo haces por dinero, sale más rentable trabajar en cualquier otra cosa, pues el riesgo de quedarte sin premio es muy alto". En su caso, justamente "gracias a la motivación de competir con mis compañeros y aprender unos de otros hemos llegado hasta el final". No es fácil mantener alta la motivación, "al fin y al cabo, durante la semana tienes que trabajar y no siempre la cabeza está dispuesta a trabajar en fin de semana también". Para motivarse, tenían "un chat común en el que poníamos los resultados que íbamos obteniendo para un periodo de prueba que nos habíamos definido. De esta forma, cuando alguien conseguía una mejora y enviaba el error que obtenía su modelo, todos recibíamos una inyección de motivación".

El modelo ganador "en sí no es novedoso, ya que uso Random-Forest Regressor, pues, tras probar muchos otros, este parecía dar el mejor resultado para las tres predicciones (24, 48 y 72 horas)". Lo que marca la diferencia en este tipo de problemas es, indica Montenegro, "cómo trabajas la información antes de dársela al modelo para que aprenda, cómo haces para que el modelo aprenda aquellas situaciones en las que no consigue buenos resultados... y esto es específico para cada problema que quieres resolver con técnicas de ‘machine learning’".

Desde su perspectiva, "no hay empresa grande que no invierta hoy en big data e inteligencia artificial; sería de locos no aprovechar el potencial que ofrecen y, poco a poco, empresas medianas se van sumando". Cree que "en un futuro próximo casi todas las empresas y organismos públicos tendrán integrados sistemas basados en inteligencia artificial; si no, seguramente se quedarán atrás y la competencia les ganará la carrera".

-Ir al suplemento Tercer Milenio

Etiquetas
Comentarios