El futuro se llama ‘Grid’

Voy a aprovechar esta entrada para hablaros del Grid, un proyecto europeo con el que se pretende formar una red de computadoras interconectadas que permitan el procesado de grandes volúmenes de información. El objetivo primordial es integrar y optimizar el uso de recursos distribuidos y de grandes bases de datos.

Como parte de este ambicioso proyecto, se está construyendo el ‘Large Hadron Collider’ (LHC) en el CERN, cerca de la ciudad de Ginebra. Empezará a funcionar en el 2007, generará 15 Petabytes (15.000 millones de Gigabytes) de información cada año y permitirá que miles de científicos de todo el mundo puedan utilizar su enorme potencial para ir un paso más allá en la comprensión de los misterios que encierra la materia oscura o las condiciones que siguieron a la gran explosión provocada por el Big Bang. Asimismo, facilitará la investigación de nuevas partículas fundamentales y el análisis de sus propiedades.

Este último punto será posible gracias al ‘LHC Computing Project’ (LCG), creado para almacenar y tener a disposición de la comunidad científica la ingente cantidad de información que generará el LHC. Las metas que se persiguen con el LCG son las siguientes:

  1. Desarrollar un software que permita el uso de análisis científicos avanzados en un entorno como el que proporcionará el Grid.
  2. Desarrollar y aplicar servicios de computación basados en un modelo distribuido.
  3. Administrar permisos de usuario en un entorno descentralizado e internacional.
  4. Facilitar la instalación del enorme número de componentes de la red de computadoras que conformarán el Grid.

Cuando el acelerador LHC entre en funcionamiento, los datos que proporcione tendrán que estar disponibles en todo momento para los cerca de 5.000 científicos de 500 instituciones y universidades de todo el mundo que participarán de los experimentos. Por otro lado, la información deberá ser accesible durante los 15 años de vida que se espera que tenga el LHC.

Para hacerse una idea de las dificultades que conlleva todo ello, baste con señalar que para llevar a cabo el análisis de los datos que aportará el LHC serían necesarios el uso de 100.000 microprocesadores actuales trabajando en paralelo.

Pero lo verdaderamente sorprendente será que a partir del año 2007 todo ello se conseguirá mediante un modelo de trabajo distribuido compuesto por centros de computación situados a lo largo y ancho del planeta. Como podéis observar, esta iniciativa se contrapone al enfoque tradicional en el que toda la capacidad de cálculo se centraliza en un único punto cercano al lugar donde se llevan a cabo los experimentos. La explicación del porqué se ha optado por este modelo es la siguiente:

  1. Los costes de mantenimiento y mejora de los equipos se pueden soportar mucho mejor en un entorno de trabajo distribuido, por cuanto cada una de las instituciones que participan del proyecto pueden colaborar con fondos al desarrollo del mismo.
  2. En un sistema distribuido existen múltiples copias de los datos en todos los centros, lo que facilita que científicos de todo el mundo puedan acceder a la información sin problemas.

Por contra, un modelo distribuido presenta los inconvenientes de que todos los equipos deben estar interconectados mediante una red que asegure un enorme ancho de banda o de que el conjunto de las computadoras que integran la red deben utilizar las mismas versiones de software.

Aún así, deberemos esperar hasta el año 2007 para saber cómo evoluciona un proyecto en el que la comunidad científica internacional tiene depositadas grandes esperanzas.

ETIQUETAS: Ciencia