Supercomputadores, en los límites del conocimiento

Máxima potencia, ultrarrápidos y capaces de resolver millones de ecuaciones a la vez en segundos. Así son estas supermáquinas, que están propiciando una auténtica revolución en prácticamente todos los ámbitos de la ciencia.

(reportaje publicado en el Magazine del domingo 9 de noviembre de 2014)

 

Captura de pantalla 2014-11-10 a las 16.21.55

 

“Mi trabajo, de alguna manera, consiste en ayudar a la gente a llegar a su destino” resume esta joven italiana, al tiempo que deja escapar una tímida sonrisa. Y prosigue arrojando algunas pistas más sobre su oficio: “Nadie piensa que porque un volcán entre en erupción en algún lugar remoto del planeta, eso pueda llegar a afectar su vida, su trabajo, sus vacaciones. Y sin embargo, mira lo que pasó en Islandia”.

En esta isla situada en el extremo noroccidental de Europa, el 20 de marzo de 2010 un volcán de nombre impronunciable, Eyjafjallajökull, comenzó a expulsar lava. Un par de semanas después, vomitó ceniza volcánica a la atmósfera, que se fue extendiendo hacia el viejo continente. Aquella enorme nube negra contenía partículas de roca, cristal y arena; se temía que pudiera afectar a las turbinas e incluso parar los motores de los aviones, por lo que se decidió cerrar la mayoría del espacio aéreo. Y aunque existe un baile de cifras en cuanto a los daños que produjo aquel episodio, se estima que se cancelaron unos 100.000 vuelos, lo que afectó a unos 10 millones de pasajeros y ocasionó pérdidas de miles de millones de euros.

Pero, sobre todo, considera Chiara Scaini, investigadora del Barcelona Supercomputing Centre y Centro nacional de supercomputación (BSC-CNS), aquel episodio “nos hizo sentir muy vulnerables, frágiles”. No era para menos. Las probabilidades de que la ceniza de un volcán islandés llegue a Europa son de entre un 5 y un 10%. “Lo que ocurrió no era esperable y no teníamos modelos computacionales sofisticados buenos por lo que nadie sabía qué iba a pasar. De ahí que el evento generara un impacto negativo mucho mayor del esperado”. Desde entonces, en Europa “nos hemos puesto las pilas”, asegura.

Junto a su grupo de investigación en aplicación computacional en ciencia e ingeniería (CASE) del BSC-CNS , Scaini se dedica a analizar el impacto de las nubes de ceniza volcánica en el tráfico aéreo; su objetivo es desarrollar modelos de predicción complejos que ayuden a tomar mejores decisiones ante una erupción para así minimizar al máximo los efectos que un fenómeno natural de este tipo puede llegar a tener. Sus simulaciones también permiten discernir, por ejemplo, dónde, en países con riesgo volcánico como Ecuador o Nicaragua, resulta más seguro construir un aeropuerto.

Para ello, lanzan miles de simulaciones a la vez y utilizan un supercomputador, una serie de ordenadores funcionando como uno solo, de la máxima potencia posible, ultrarrápidos, capaces de resolver miles de millones de ecuaciones matemáticas a la vez y de enfrentarse a problemas sumamente complejos en que deben manejar enormes cantidades de datos. “Con un ordenador normal, por potente que fuera, tardaría un día o más por cada simulación. Necesitaríamos años y años para completar todos los cálculos que ahora realizamos en horas”, aduce esta ingeniera italiana.

Y lo mismo ocurre en muchos otros ámbitos de la ciencia. Saber si un avión volará antes de construirlo; valorar la efectividad y los efectos secundarios de un medicamento antes de probarlo en pacientes; calcular cuánta energía producirá un parque eólico hora a hora; diseñar nuevos materiales, más resistentes y ligeros; o comparar miles de genomas del cáncer. La supercomputación está transformando la investigación y acelerando el cruce de disciplinas.

“Los superordenadores ya han realizado descubrimientos que los científicos solos, por sí mismos, no hubieran podido hacer”, sentencia Mateo Valero, uno de los científicos españoles más relevantes a nivel internacional; experto en arquitectura informática, dirige desde que se creó en 2004 el Centro Nacional de Supercomputación (CNS), uno de los centros de investigación más potentes de España y también de Europa. “Antes la ciencia se centraba en investigar una célula, un fósil, un organismo vivo. Ahora, en cambio, se trabaja con ingentes colecciones de datos que, sin la supercomputación, tardaríamos más de una vida poder analizar”.

Estos supercomputadores están empujando las fronteras del conocimiento. En ocasiones, incluso sin ayuda humana. En mayo de 2013, en San José, California, un superordenador llamado KnIT “leyó” en menos de dos horas nada menos que 100.000 artículos publicados en revistas científicas en busca de información acerca de una proteína llamada p53 y de las enzimas con las que puede interactuar, las kinasas. Esta proteína es sumamente importante en el organismo porque está implicada en la prevención del cáncer.

Este supercerebro de millones de microprocesadores, identificó dos nuevas kinasas desconocidas para la ciencia. Y eso es importante porque puede arrojar pistas para el desarrollo de nuevos fármacos dirigidos a esas dianas terapéuticas. Rebuscó meticulosamente entre esa gran cantidad de información científica publicada y conocida, y fue capaz de extraer nuevo conocimiento, muchísimo más rápido de lo que podría hacerlo un ser humano y con mayor eficiencia.

 

De la guerra a la ciencia

Como tantas otras tecnologías, ésta también tiene un origen militar. El primer superordenador de la historia fue desarrollado en los Estados Unidos, en el Laboratorio de Los Alamos. No era un superordenador como lo entendemos ahora, digital, sino que aquel primer modelo era una enorme máquina de cálculo analógica, implementada por IBM, que funcionaba con tarjetas troqueladas. A pesar de ser más una supercalculadora que un superordenador, esta máquina permitió evaluar cuál sería el efecto de Little Boy y Fat Man, las dos bombas nucleares que EEUU lanzó sobre Japón durante la II Guerra Mundial.

Hoy cualquier móvil o tableta tiene muchísima más capacidad y potencia que aquella primera máquina. De hecho, señala Valero, los smartphone de hoy son tan potentes como el más potente de los superordenadores de hace dos décadas. Y es que la ciencia computacional avanza a ritmo exponencial.

España cuenta con una red de supercomputación distribuida por toda la geografía de la Península y coordinada desde el BSC-CNS. El más potente de todos los supercerebros que tenemos es el Mare Nostrum, ubicado dentro de una antigua capilla, en Barcelona. Desde que se puso en marcha, se ha actualizado en tres ocasiones y ahora, aseguran desde el centro, es unas 25 veces más potente que cuando arrancó.

Pinta de ordenador, como el de casa o la oficina, no tiene; carece de pantallas donde poder visualizar los datos y de teclado; no ocupa un escritorio sino que está metido dentro de un enorme cubículo de 19 toneladas de cristal, del tamaño aproximadamente de una cancha de baloncesto; el supercerebro pesa unos 40.000 kilos y consiste en diversos pasillos formados por paredes, literalmente, de armarios negros llenos de CPU conectados entre sí que producen un ruido ensordecedor.

A Mateo Valero se le ilumina la cara cuando le preguntan por la ‘niña de sus ojos’. Y raudo lanza que Mare Nostrum “tiene una memoria principal de casi 100 terabytes; puede almacenar en disco 2 petabytes y está conectado a un sistema de almacenamiento en ficheros que supera los 11 petabytes”. Y eso, traducido a lenguaje comprensible para los profanos en informática, quiere decir que tiene una potencia comparable a unos 50.000 ordenadores personales trabajando a la vez. Y no sólo eso:“tenemos una capacidad de almacenamiento comparable a guardar un siglo entero de películas en alta definición”, añade Valero.

Hacia una medicina personalizada

Cuesta encontrar un ámbito de la ciencia en que no se emplee supercomputación y en el caso de España, le ha dado un buen empujón a la investigación. Se utiliza desde para investigar el genoma humano y diseñar nuevos fármacos, hasta para mejorar la seguridad de los aviones y trenes, o cartografiar las estrellas de nuestra galaxia.

Uno de los ámbitos en que se están produciendo más avances gracias a estas máquinas es en medicina personalizada. En el BSC-CNS han desarrollado, en este sentido, un modelo que reproduce de forma hiperrealista el corazón. “[Este órgano humano] es una de las máquinas más complejas que existen y ha sido un trabajo difícil y arduo conseguir reproducirlo”, indica Vázquez. Para ello, aunaron esfuerzos ingenieros, matemáticos, , programadores, físicos y también un artista, y tras años de investigación, han desarrollo un software capaz de simular desde el impulso eléctrico de las células Purkinje hasta el bombeo sanguíneo, los músculos, la sangre.

La intención es que en un futuro no muy lejano, el médico pueda tener en su tableta una herramienta en la que introducir los datos de un paciente sobre este modelo, de manera que aprenda más de su estado y así afine mejor el diagnóstico. “Los cardiólogos podrán realizar operaciones virtuales para ensayar y ver cómo responde el paciente; o calcular si un aneurisma en una arteria aguantará o si es urgente operar; o valorar si es conveniente instalar un marcapasos en este paciente virtual antes de pasar al de carne y huesos”, explica Mariano Vázquez, físico computacional investigador del BSC al frente de este proyecto.

Y algo similar han hecho junto al Imperial College de Londres y el Hospital Saint Mary, aunque en este caso se trata de una simulación del sistema respiratorio con la que poder evaluar la efectividad de muchos fármacos que se toman inhalados, como aquellos que tratan el asma. “En medicamentos inhalados, parte del fluido se queda enganchado en la nariz o la laringe y no llega a su destino. El quid de la cuestión es el tamaño de las micropartículas del fluido –apunta Cela-. Con este modelo podemos avanzar en el diseño de fármacos más eficientes, que lleguen a su destino, y sin necesidad de sobremedicarnos”, explica el ingeniero Jose María Cela, director de aplicaciones computacionales del BSC-CNS.

La supercomputación también se ha revelado esencial en la lucha contra el cáncer. En este sentido, España participa en un proyecto internacional para la secuenciación de los genomas de los tumores cáncer que arrancó en 2000 y que concluirá el próximo año. “El objetivo es llegar a identificar el paisaje genómico de los tumores más frecuentes”, indica el bioquímico Carlos López-Otín, codirector científico del proyecto español.

Cada país se encarga del estudio de tumor, que en el caso de España es la leucemia linfática crónica, Así, el objetivo es tomar muestras de ADN de células sanas y tumorales de medio millar de pacientes, que se secuenciarán en el Centro Nacional de Análisis Genómico (CNAG), también ubicado en Barcelona y que cuenta con otro superordenador, MinoTauro. Luego en la Universidad de Oviedo un equipo de investigadores interpretarán esos datos. “Se necesita talento humano para descifrar ese caos. Los superordenadores, por sí solos, no pueden reemplazar la creatividad y la intuición humanas”, señala López-Otín.

Con ese mapa de las mutaciones genéticas se espera transformar radicalmente la forma de enfrentarse a la enfermedad. Y comenzar a curar. “Ahora mismo los tratamientos que hay para el cáncer son muy generales. En el futuro, en una tarde se podrá secuenciar el genoma de un paciente, encontrar las mutaciones de su tumor y administrarle fármacos específicos para tratarlas”, destaca David Torrents, investigador ICREA en el BSC-CNS.

 

Más eficientes

Otro de los ámbitos en los que la supercomputación está aportando más beneficios es en el de la mejora de la eficiencia energética, que es uno de los grandes desafíos del siglo XXI. Ahora las empresas antes de invertir miles de millones de euros para construir un nuevo vehículo, desarrollar un nuevo material o instalar un parque eólico, realizan cientos de simulaciones. “Es lógico que quieran saber de antemano cómo podrán minimizar costes y sacar el máximo rendimiento a la futura explotación de su producto”, cuenta Guillaume Houzeaux, físico e investigador en el ámbito de la mecánica computacional de altas prestaciones, en el BSC-CNS.

“En el caso, por ejemplo, de un parque eólico –prosigue este investigador francés- la compañía necesita saber cuál es el mejor lugar para instalarlo, dónde poner los molinos y cuánta electricidad van a generar para en las siguientes horas para calcular qué potencia inyectarán a la red eléctrica. Y para ello tienen que contemplar una gran cantidad de parámetros”.

Un ejemplo es el proyecto que desarrollaron junto a Iberdrola. Houzeaux y su equipo diseñaron un modelo muy complejo de parque eólico en el que introdujeron parámetros como el viento, la radiación solar, la temperatura, la humedad. Después, lanzaron miles de simulaciones para ver qué ocurría en condiciones meteorológicas concretas cambiantes hora a hora para ir afinando el modelo. “Con este proyecto, estamos al límite del conocimiento humano”, exclama orgulloso ese físico.

Este grupo también ha colaborado con otra empresa española, Repsol, y juntos han dado un vuelco a los sistemas tradicionales de localización de hidrocarburos. La empresa española se centra en buscar crudo en aguas profundas y en ese caso, el petróleo suele estar atrapado en una especie en trampas geológicas que hacen muy difícil que se localice. Y no es cuestión de ir probando: cada vez, indica Cela, que se “pincha” para ver si hay o no carburante cuesta entre 100 y 150 millones de dólares.

El equipo de expertos en supercomputación liderados por Cela en el BSC-CNS desarrolló un nuevo software que es capaz de convertir los datos geofísicos en imágenes precisas del subsuelo. Gracias a este proyecto, bautizado como Calidoscopio, Repsol ha conseguido hallar crudo en el litoral de Brasil y en el Golfo de México. “Los algoritmos para la exploración geofísica que generamos eran pioneros. Están a nivel competitivo con la tecnología más avanzada que tienen petroleras con mucha más tradición”, señala Cela.

Estudiar la inmensidad

Curiosamente, la supercomputación es como un potentísimo microscopio que nos permite ver desde lo más pequeño, como los genes o la forma de las proteínas, hasta lo más inmenso, como es el universo. La Agencia Espacial Europea tiene en marcha una misión, Gaia, cuyo objetivo es crear un mapa tridimensional de las estrellas de nuestra galaxia, la Vía Láctea; también de sus movimientos, con el objetivo de que nos aporten alguna pista más sobre su origen y evolución. Gaia implica simular el universo y eso sólo se puede hacer en un superordenador, en este caso también el Mare Nostrum.

Para Miguel Ángel Aloy, investigador del Departamento de Astronomía y Astrofísica de la Universitat de Valencia, “la mayoría de las cosas que podemos observar en astronomía son fenómenos extraordinariamente complejos. Para entenderlos, conocemos las leyes de la naturaleza que los gobiernan pero necesitamos resolver numéricamente ecuaciones matemáticas, hacer simulaciones complejísimas para ver qué ocurre, qué factores están implicados”.

A diferencia de otras ciencias, la astrofísica no puede realizar experimentos en el laboratorio, no puede, pongamos por caso, simular una supernova, una estrella que al final de su vida explota liberando una cantidad de energía masiva. Ni tampoco una tormenta solar, ni la expansión del universo, ni el Big Bang. Es, tal vez, una de las desventajas de esta ciencia en comparación con otras. No obstante, el aumento de la capacidad de computación de los últimos cinco años les está permitiendo partir de simulaciones detalladas, que usan a modo de laboratorio virtual, en las que controlan de forma precisa todas las condiciones que se producen.

«Es fascinante, ahora empezamos a poder incorporar la complejidad y vemos como en nuestros modelos comienzan a explotar las supernovas, algo que veíamos en el universos pero que eran irreproducibles en el ordenador. Estoy seguro de que dentro de 10 años, algunas de las cosas que damos por buenas, a la luz de lo que vamos averiguando con las simulaciones, se revelarán erróneas”, considera este astrofísico de la Universidad de Valencia.

 

El estudio de los genomas del cáncer, la cartografía de la Vía Láctea, el estudio de volcanes y de parques eólicos, son sólo algunos ejemplos de cómo la ciencia se vale de la capacidad de los superordenadores para avanzar a pasos de gigante. “Sin las herramientas de la supercomputación, nos tendríamos que conformar con lo que podemos hacer sin ella. Y entonces, se pararía el avance de la ciencia”, considera el astrofísico Miguel Ángel Aloy.

Deja un comentario