domingo, 10 de mayo de 2009

Origenes

La imagen del científico resolviendo problemas armado de tiza y pizarra ha quedado muy atrás; ya no se entiende la ciencia sin la ayuda de los ordenadores. Los científicos e investigadores afrontan cada día mayores retos que precisan de la potencia de cálculo de enormes supercomutadoras. Pero a pesar de que la Ley de Moore sigue vigente y los procesadores doblan su potencia cada 18 meses, los ordenadores no son capaces de absorber la demanda de almacenamiento y proceso de datos que genera la investigación en la actualidad.
La solución se ha encontrado en distribuir la tarea entre multitud de ordenadores conectados, aprovechando la gran cantidad de tiempo en que éstos no se utilizan o no se exprime toda su capacidad. Es lo que se conoce como computación distribuida que, gracias a Internet, consigue que cualquier usuario con conexión pueda ceder tiempo y espacio de su PC para ayudar, por ejemplo, en la lucha contra el Sida o en la búsqueda de inteligencia extraterrestre. Los datos se dividen en pequeños paquetes que se envían a los voluntarios, y se devuelven tras ser analizados por su ordenador.
Desde que se conectaron entre sí las primeras computadoras, a principios de los 70, nació la idea de aprovechar los recursos de las CPU (procesadores) infrautilizadas. Ya en Arpanet, red predecesora de Internet, programas como Creeper y Reaper-ran experimentaban con la computación distribuida. Pero fue en 1973, en el Centro de Investigación Xerox de Palo Alto, cuando se creó la primera red Ethernet en la que se introdujo un 'gusano' (un pequeño programa) que recorría las máquinas utilizando recursos inactivos.
Desde entonces se sucedieron los experimentos centrados en la descentralización de los trabajos aprovechando redes de ordenadores que resuelven varios problemas al mismo tiempo:
• Potencia de cálculo: ninguna supercomputadora es capaz de competir con varios miles de máquinas (de todos los tamaños) conectadas a una red.
• Tiempo: las investigaciones que requieren del análisis de una ingente cantidad de datos (genoma humano ) se aceleran con proyectos de computación distribuida.
• Almacenamiento: de la misma forma, el volumen de datos generados por algunos proyectos (como las señales de radio procedentes del espacio que analiza SETI@home) se puede distribuir entre los discos duros de millones de internautas.
• Dinero: No todas las empresas pueden permitirse una supercomputadora o una red propia para afrontar grandes retos . Una red distribuida que emplee recursos no utilizados reduce drásticamente el coste de grandes proyectos.
• Colaboración: entre países, organismos o grupos de investigadores situados en distintos puntos del planeta para trabajar en un proyecto común.

No hay comentarios:

Publicar un comentario