domingo, 10 de mayo de 2009

Ser un Blogger

Hasta 1981, cuando aparece la PC, la tecnología más avanzada que teníamos en casa para producir obras intelectuales era la máquina de escribir o tal vez un piano. Con la PC saltamos al futuro. Hoy tenemos no sólo la posibilidad de procesar datos a precios accesibles, sino también de divulgar nuestras opiniones e ideas a costos irrisorios.Pero había un obstáculo. Poner una página en la Web no era sencillo. Aunque servicios como Geocities ( www.geocities.com , hoy de Yahoo!) habían allanado mucho el camino, la llegada del weblog o, simplemente, blog, convertiría la publicación en la Web en tan fácil como escribir y enviar un mail. El blog es una página web, desde luego, pero tiene dos características que lo hacen bastante especial. La primera, se ordena cronológicamente, igual que un diario personal o la bitácora de un barco. Segundo, y mucho más importante, un weblog es razonablemente fácil de crear y mantener. Este detalle constituye la base de la multitud de bitácoras personales que existe hoy en la gran Red.
La mayoría de los weblogs se publican hoy gracias a servicios como Blogger (nacido en 1999, dos años después de que Jorn Barger acuñara la palabra “weblog”, y adquirido por Google en 2003), que ofrecen herramientas muy sencillas para poner en línea un blog y difundir su existencia. Existen varios por el estilo (como LiveJournal, www.livejournal.com ) y todos se guían por más o menos las mismas reglas.
Primero hay que abrir el Internet Explorer o el Firefox (o el navegador Web que nos resulte familiar) y visitar www.blogger.com . Una vez allí, hay que seguir tres pasos, que se explican en la portada. El sitio está en español. Una flecha roja etiquetada “Cree su blog ahora” señala dónde hacer clic para dar comienzo a este proceso. En primer lugar hay que registrar una cuenta. Para eso, sólo se solicita un nombre de usuario (se puede elegir el que se desee), una contraseña (para que sólo nosotros podamos editar el blog) y una dirección de correo electrónico.
Luego, hay que darle un título al blog y elegir la dirección que tendrá en la Web. Conviene apretar el botón “Comprobar disponibilidad” para ver si esa dirección no está siendo usada por otra página de Blogger. Además, es menester escribir en una casilla las letras que se ven como imagen en el apartado “Verificación de palabra”. Esto se hace para que no puedan crearse blogs de forma automática por medio de programas maliciosos. Por último, debe elegirse el aspecto del nuevo blog entre una cantidad de plantillas, y listo. Aparecerá el mensaje de que el blog se está creando y finalmente una flecha roja con la etiqueta “Comenzar a publicar”.
La interfaz de edición es muy sencilla y tiene un gran parentesco con el correo electrónico, con un gran botón para publicar o guardar textos como borrador. También, claro, se pueden agregar fotos, diseñar un nuevo aspecto, agregar links, activar comentarios y muchos más. En menos tiempo del que le ha llevado leer este artículo, el lector podrá empezar a formar parte de ese universo virtual conocido como “Blogósfera”. Podes encontrar el artículo completo en http://www.lanacion.com.ar/857803Si queres saber más de tecnología, computación y novedades, conectate a http://www.lanacion.com.ar/Tecnologia
Este curso os he preparado una actividad un poco especial: vamos a contactar con un grupo de alumnos italianos con los que os comunicaréis en inglés, castellano, italiano e incluso en francés, vosotros elegís!.

Ahora mismo no está muy claro todavía sobre qué hacerlo: un intercambio de problemas, una ruta matemática y/o un trabajo de estadística pero eso sí: que estará relacionado con las matemáticas del curso y que habrá que utilizar una serie de herramientas informáticas, por tanto debemos aprender a utilizarlas!!.

Así que tenéis que conocer las herramientas que vais a utilizar: Word, Excel, Power point, Páginas web, el correo E-mail, Descartes y un Blog o bitácora.





Antes de crearlo es necesario:

* Tener una dirección de correo electrónico. Si ya la tiens y la quieres utilizar bien, sino nos hacemos con una en Gmail, etc.

* Un nombre para el blog

* Un login o dirección URL del blog.

* Una contraseña. CUIDADO: el login no es el nombre del blog aunque puede coincidir!!

* Y adelante a publicar !!! cosas con valor no llenes el internet d basura por favor

Diferencia entre Pagina Web y Blog

• Un blog, o en español también una bitácora, es un sitio web periódicamente actualizado que recopila cronológicamente textos o artículos de uno o varios autores, apareciendo primero el más reciente, donde el autor conserva siempre la libertad de dejar publicado lo que crea pertinente. El término blog proviene de las palabras web y log (’log’ en inglés = diario). El término bitácora, en referencia a los antiguos cuadernos de bitácora de los barcos, se utiliza preferentemente cuando el autor escribe sobre su vida propia como si fuese un diario, pero publicado en Internet en línea.
• Una página web u hoja electrónica es una fuente de información adaptada para la World Wide Web (WWW) y accesible mediante un navegador de Internet. Esta información se presenta generalmente en formato HTML y puede contener hiperenlaces a otras páginas web, constituyendo la red enlazada de la World Wide Web.
Las páginas web pueden ser cargadas de un ordenador o computador local o remoto, llamado Servidor Web, el cual servirá de HOST. El servidor web puede restringir las páginas a una red privada, por ejemplo, una intranet, o puede publicar las páginas en el World Wide Web. Las páginas web son solicitadas y transferidas de los servidores usando el Protocolo de Transferencia de Hipertexto (HTTP - Hypertext Transfer Protocol). La acción del Servidor HOST de guardar la página web, se denomina “HOSTING”.
Las páginas web pueden consistir en archivos de texto estático, o se pueden leer una serie de archivos con código que instruya al servidor cómo construir el HTML para cada página que es solicitada, a esto se le conoce como Página Web Dinámica.




• Un blog, o en español también una bitácora, es un sitio web periódicamente actualizado que recopila cronológicamente textos o artículos de uno o varios autores, apareciendo primero el más reciente, donde el autor conserva siempre la libertad de dejar publicado lo que crea pertinente. El término blog proviene de las palabras web y log (’log’ en inglés = diario). El término bitácora, en referencia a los antiguos cuadernos de bitácora de los barcos, se utiliza preferentemente cuando el autor escribe sobre su vida propia como si fuese un diario, pero publicado en Internet en línea.
• Una página web u hoja electrónica es una fuente de información adaptada para la World Wide Web (WWW) y accesible mediante un navegador de Internet. Esta información se presenta generalmente en formato HTML y puede contener hiperenlaces a otras páginas web, constituyendo la red enlazada de la World Wide Web.
Las páginas web pueden ser cargadas de un ordenador o computador local o remoto, llamado Servidor Web, el cual servirá de HOST. El servidor web puede restringir las páginas a una red privada, por ejemplo, una intranet, o puede publicar las páginas en el World Wide Web. Las páginas web son solicitadas y transferidas de los servidores usando el Protocolo de Transferencia de Hipertexto (HTTP - Hypertext Transfer Protocol). La acción del Servidor HOST de guardar la página web, se denomina “HOSTING”.
Las páginas web pueden consistir en archivos de texto estático, o se pueden leer una serie de archivos con código que instruya al servidor cómo construir el HTML para cada página que es solicitada, a esto se le conoce como Página Web Dinámica.
• el término inglés weblog (de web + log(book); abreviado, blog), que significa ‘sitio electrónico personal, actualizado con mucha frecuencia, donde alguien escribe a modo de diario o sobre temas que despiertan su interés, y donde quedan recopilados asimismo los comentarios que esos textos suscitan en sus lectores.
• la expresión Página Web significa un documento de la Red, al que se accede mediante enlaces de hipertexto.
• Un blog puede ser mucho más fácil de crear que una página web, aunque dependiendo de su plataforma, su diseño y funciones; también puede resultar mucho mas complicado.
• Una página web parecería carecer de una actualización en tiempo real, mientras que los blogs basan parte de su potencial en la capacidad de reproducir noticias, eventos y publicaciones en tiempo récord y de manera constante. Sin embargo existen páginas web como lo son los diarios (Lanacion.com, TheHerald.co.uk, ElPais.com, etc.) y la misma wikipedia, que nos entregan datos en tiempo casi real y de forma periódica.
• Un blog permite que los usuarios interactúen entre sí y con el o los editores prácticamente sin restricciones. Una página web no lo permite en su totalidad.
• Una página web puede tener un costo de creación mucho mas elevado que el de un blog. No existe un blog cuyo costo de creación sea superior al de cualquier página web.
• Un blog incluye características de posicionamiento mucho mas efectivas y de menor esfuerzo que las de una página web. Una página web demandará más horas de CEO en posicionamiento que un blog.
• Un blog simple puede ser creado por cualquier persona del mundo sin que posea conocimientos en informática. Una página web siempre demanda conocimientos de programación para su creación.


Estas sonalgunas de las diferencias que existen entre un blog y una pagina web:
*Una página web tiene una información más estática, no se actualiza muy a menudo
* Un blog es mucho más dinámico en cuanto a la información que contiene, y más rápido y más fácil de publicar.
*Son dos medios de comunicación diferentes.
*El blog es más interactivo porque admite comentarios de los lectores.
*Un medio no excluye al otro. Puedo tener una página web y también una bitácora.
* La frecuencia de actualización: algunos blogs muy activos se actualizan varias veces al día.
*El trabajo en colaboración: Por costumbre, un blog puede ser llevado por una sola persona (su propietario), pero a menudo recibe infinidad de colaboraciones que aportan una gran información para la creación de los artículos. También encontrará muchos enlaces entre los blogs, que forman así una verdadera comunidad.
*La facilidad con la que se añade el contenido: En el caso de nuestra comunidad, los blogs (y más concretamente el sistema que existe detrás) permiten escribir el texto de los artículos de una forma rápida y sencilla. Además el autor (blogger) no necesita ningún conocimiento técnico y la publicación es una cuestión de minutos.

Glosario

Cluster – Esto posiblemente le suene a más de uno. Un cluster es un grupo de ordenadores en red que comparten el mismo conjunto de recursos.

XML – Es el lenguaje de marcada extensible, y se trata de un lenguaje de ordenador que describe otros datos y que es leíble por los computadores.

Los nodos de control – Para saber lo que es esto, diremos que un nodo es cualquier dispositivo conectado a una red, que puede transmitir, recibir y enrutar datos. Los nodos de control dependen en lenguajes XML, como por ejemplo WSDL. La información en estos lenguajes le dicen al nodo de control como manejar los datos y las aplicaciones.

Los HUBs – Un punto dentro de una red donde varios dispositivos se conectan entre si.

IDE – Lo podemos llamar un entorno de desarrollo integrado. Se trata de las herramientas y funciones que los programadores informáticos necesitan para crear las aplicaciones para una plataforma.

Interoperabilidad – Se refiera a la habilidad de software para poder operar en entornos completamente diferentes. Por ejemplo, una red de ordenadores puede incluir ordenadores Macintosh y PCs. Sin la interoperabilidad de software, estos ordenadores no podrían trabajar juntos porque son sistemas operativos y arquitecturas distintas.


Estándares abiertos – Es una técnica para crear estándares disponibles para su publicación. De forma diferente a los estándares propietarios, los cuales pueden pertenecer exclusivamente a una sola entidad, cualquiera puede adoptar y usar un estándar abierto. Las aplicaciones basadas en esta técnica, son más fáciles de integrar que los que están construidos sobre los propietarios.

Procesamiento paralelo – Es usar muchas CPUs para solucionar un solo problema de computación. Esto está estrechamente relacionado con los recursos compartidos, donde hereda los recursos de una red para realizar una tarea.

Plataforma – Es una fundación donde los desarrolladores pueden crear aplicaciones. Una plataforma puede ser un sistema operativo, una arquitectura de ordenadores, un lenguaje de programación o incluso un sitio Web.
• Una granja de servidores – Se trata de un cluster de servidores usados para realizar tareas, que suelen ser demasiado complejas para que lo haga un solo servidor.

Virtualización de servidores – Es una técnica donde una aplicación de software divide un único servidor físico, en múltiples servidores para una determinada plataforma, normalmente conocidos como servidores virtuales. Cada servidor virtual puede funcionar con su sistema operativo de forma independiente de otros servidores virtuales. Dicho de otra manera, una máquina puede estar funcionando con Linux, mientras que otra en el grupo puede estar corriendo con Windows. La computación distribuida necesita muchos servidores para gestionar varias tareas, y los servidores virtuales ayudan a recortar mucho los costes de hardware.

El servicio – En redes distribuidas, un servicio es cualquier sistema de software que permite a ordenadores interactuar entre si en una red.

SOAP – Lo podemos traducir como protocolo de acceso de objetos simple, y es un conjunto de normas para intercambiar mensajes escritos en XML por una red. El responsable de este protocolo es Microsoft.

Que Pasa Con las Redes Centralizadas ?

Cuando enlazas dos o más ordenadores entre si, tienes que prepararte para ciertas preguntas. ¿Cómo se puede mantener la información personal de forma privada? ¿Cómo se puede proteger el sistema de programas o personas con intenciones maliciosas? ¿Cómo se controla el acceso al sistema y al uso de los recursos compartidos? ¿Cómo se puede asegurar uno de que un usuario no acapare todos los recursos de la red? La respuesta más corta es middleware. No hay nada específico en un sistema de redes distribuidas que nos puedan contestar a estas preguntas. Los protocolos emergentes para las redes centralizadas están diseñadas para facilitar a los desarrolladores la creación de aplicaciones, y facilitar las comunicaciones entre ordenadores.
La técnica que prevalece entre los ingenieros de computadores para proteger los datos, es la encriptación. Las encriptación de datos es su codificación para que solo alguien que tenga la clave y contraseñas exactas, puedan decodificar los datos e interpretarlos. Irónicamente, un hacker puede crear un sistema de red distribuida con el propósito de desencriptar o atacar un sistema o información protegida. Debido a que las técnicas de encriptación bastante complicadas, llevaría muchos años para un solo ordenador romper un código. Con un sistema formado por muchos ordenadores, un hacker podría reducir el tiempo para descifrar unos datos encriptados.
Por otra parte, algunos hacker utilizan lo que se conoce como ordenadores zombie para realizar ataques de denegación de servicio o intrusiones en otros sistemas. Estos ordenadores zombies, son de alguna manera redes centralizadas dispersas por Internet, y sin el conocimiento de los dueños de los ordenadores.
Es difícil proteger un sistema grande de todas los riesgos que esto supone, particularmente si el sistema está basado en estándares abiertos. Todo ordenador en un sistema distribuido debe tener un software específico para conectar e interactuar con el sistema como un “todo” – los ordenadores no saben hacerlo por si mismos. Si el sistema de software es propietario, puede ser más complicado, que no imposible, para un hacker acceder al sistema.
En muchas redes centralizadas, solo algunos usuarios están autorizados para acceder a todas las posibilidades de la red. De otro modo, el nodo de control se vería inundado con procesos de peticiones y la red podría quedar bloqueada. Es también importante limitar el acceso por motivos de seguridad. Por esta razón, muchos sistemas tienen protocolos de autorización y autenticación. Estos protocolos limitan los accesos a cierto número de usuarios, dando diferentes niveles a grupos para realizar ciertas tareas en la red.
Como se ha dicho, el middleware y el nodo de control en una red centralizada son responsables de mantener el sistema funcionando de un modo correcto. Juntos, controlan cuanto acceso tiene cada ordenador a los recursos de la red y viceversa. Mientras que es importante no dejar que un ordenador domine la red, es igual de importante no dejar que las aplicaciones de red consuman todos los recursos de cualquier ordenador. Si el propio le quita los recursos a los usuarios, no es un sistema eficiente.

Como Funcionan Los Recursos Compartidos?

Varias compañías y organizaciones están trabajando juntas para crear un grupo de protocolos estandarizados para hacer más fácil la agrupación de ordenadores en todos los entornos. Actualmente es posible crear redes distribuidas como se ha explicado, y de hecho existen unas cuentas, pero lo que falta de momento es un acercamiento de mutuo acuerdo entre las distintas corporaciones. Esto significa que dos redes distribuidas puede que no sean compatibles entre si, porque cada una está trabajando con sus propios protocolos y herramientas.
En general, un sistema de computación distribuida, necesita:
• Al menos un ordenador, usualmente un servidor, el cual administra todas las tareas del sistema. Mucha gente hace referencia a este tipo de ordenador como nodo de control. Otras aplicaciones y servidores Web – tanto físicas como virtuales – proveen de servicios específicos al sistema.
• Una red de ordenadores con un software especial para convertirla en una red distribuida. Estos ordenadores funcionan como punto de intermediación entre el usuario y los recursos del sistema, para darle acceso a las distintas aplicaciones. Puede ser ordenadores con el mismo sistema operativo, llamado sistema homogéneo, o un grupo de equipos funcionando con todo tipo de OS que podemos imaginar, llamado sistema heterogéneo.
• Un red de este tipo, puede ser desde un sistema completamente cableado entre si, donde cada ordenador conecta con el sistema mediante cables físicos, hasta un sistema abierto donde los ordenadores se conectan entre si a través de Internet.


• Una colección de software de ordenadores llamado “middleware”. El propósito de este software es permitir a diferentes ordenadores, funcionar con un proceso o aplicación en toda la red de máquinas. El middleware, es de alguna manera el motor del sistema de computación distribuida. Si esto, la comunicación por todo el sistema sería imposible. Como todo el software en general, no hay un formato único para middleware.
Como se ha dicho, si el middleware es el motor para una de estas redes distribuidas, el nodo de control es el núcleo. Este nodo prioriza y organiza las tareas por toda la red. El trabajo del nodo de control es determinar qué recursos podrán ser accesibles para cada tarea. También debe monitorizar el sistema para asegurarse de que no se sobrecargue. Es también importante cada usuario conectado a la red, no experimente cortes de servicio o un bajo rendimiento. Para ello, un buen sistema de computación distribuida, debería “ocultar” recursos compartidos que no se están utilizando, para delegar rendimiento a las que si se usan, y sin impactar a la red en general.
La potencia de una red distribuida es ilimitada, siempre que todos se pongan de acuerdo en las aplicaciones y herramientas a utilizar. Esto es porque sin un formato estándar y desarrolladores informáticos adecuados, uno de estos sistemas puede tener problemas para funcionar con ciertos programas. Aunque es posible hacer diferentes versiones de la misma aplicación para sistemas distintos, lleva mucho tiempo y muchos programadores informáticos no quieren hacer el trabajo dos veces. Por esto es tan importante crear unas normas estándar para que los desarrolladores se centren en un solo formato mientras crean sus aplicaciones.

Como Funciona?

Para empezar, pongamos en algunas situaciones. Un científico estudiando proteínas se conecta a un ordenador y usa una red entera de ordenadores para analizar datos. Un hombre de negocios accede a la intranet de su compañía por medio de una PDA, para predecir un futuro negocio en potencia. Un oficial de la armada accede y coordina recursos informáticos en tres redes militares diferentes para formular una estrategia de combate. Todos estos escenarios tienen una cosa en común: se basan en un concepto llamado computación distribuida.
En su modo más básico, la computación distribuida es una red de ordenadores donde los recursos informáticos son compartidos con todos los otros ordenadores en el sistema. La potencia de procesamiento, la memoria y el almacenamiento de datos, son recursos de la comunidad donde los usuarios autorizados pueden entrar y realizar ciertas tareas. Una red distribuida puede ser tan simple como una colección de equipos similares funcionando con el mismo sistema operativo, o tan complejo como una red interconexionada de sistemas, formada por cualquier plataforma informática que te puedas imaginar.
La computación distribuida no es algo nuevo. Con esta tecnología, diferentes ordenadores dentro de una red comparten uno o más recursos. En uno de estos sistemas considerado ideal, todos los recursos son compartidos, convirtiendo una red de ordenadores en un potente superordenador. Con el interfaz adecuado, acceder a uno de estos sistemas no es muy diferente de que acceder a los recursos de una máquina local. Todo ordenador autorizado tendrá acceso a una potencia de procesamiento enorme, y una gran capacidad de almacenamiento.
Aunque el concepto no es nuevo, todavía no está del todo perfeccionado. Científicos informáticos, programadores e ingenieros todavía están trabajando en crear, establecer e implementar estándares y protocolos. Actualmente, muchos sistemas de computación distribuida dependen de software y herramientas propietarias. Una vez que la gente se ponga de acuerdo sobre un grupo de protocolos y normas fiables, será más fácil y eficiente para las organizaciones, adoptar el modelo de computación distribuida ideal.
Estructura de una computación distribuida
Estos sistemas trabajan con el principio de los recursos combinados. Poniendo una analogía como ejemplo, digamos que tú y algunos amigos decidís ir de camping. Tienes una tienda de campaña muy grande, por lo que decides compartirlo con los otros. Uno de tus amigos se ofrece para traer la comida, y otro pone su furgoneta para hacer el viaje. Una vez en marcha, todos compartís conocimientos y experiencias para que el viaje sea ameno y divertido. Si hubieras hecho el viaje por tu cuenta, hubieras necesitado más tiempo para juntar todos los recursos necesitados, y posiblemente te hubiera costado mucho más.
Un sistema de computación distribuida usa el mismo concepto. Se comparte toda la carga a través de múltiples ordenadores para completar tareas de forma más eficiente y rápida. Antes de continuar recordemos cuales son los recursos de un ordenador:
• La unidad de procesador central: La conocerás por CPU, y realiza operaciones matemáticas y direcciona los datos a diferentes localizaciones de memoria. Puede haber más de una CPU en un equipo.
• Memoria: En general, es un tipo de almacenamiento electrónico temporal. Mantiene datos relevantes a mano para el microprocesador. Sin la memoria, el microprocesador tendría que buscar y recuperar datos de un dispositivo de almacenamiento más permanente, como el disco duro.
• Almacenamiento: En términos de computación distribuida, se refiere a los dispositivos de almacenamiento permanentes, como son los discos duros o bases de datos.
Normalmente, un ordenador solo puede operar dentro de los límites de sus propios recursos. Hay un límite máximo para que pueda completar una operación o cuanta información puede almacenar. La mayoría de los ordenadores son actualizables, lo cual significa que se puede añadir más potencia y capacidad a un solo equipo, pero eso sigue siendo un aumento incremental de rendimiento.
Los sistemas de computación distribuida enlazan los recursos de red todos juntos, de una forma tal, que permite a un solo ordenador heredar la potencia del resto de ordenadores en el sistema. Para un solo usuario, esto le supone un gran avance en cualquier trabajo que esté haciendo, sea del tipo que sea. A continuación, veremos varios de los términos que se suelen usar cuando hablamos de computación distribuida

Origenes

La imagen del científico resolviendo problemas armado de tiza y pizarra ha quedado muy atrás; ya no se entiende la ciencia sin la ayuda de los ordenadores. Los científicos e investigadores afrontan cada día mayores retos que precisan de la potencia de cálculo de enormes supercomutadoras. Pero a pesar de que la Ley de Moore sigue vigente y los procesadores doblan su potencia cada 18 meses, los ordenadores no son capaces de absorber la demanda de almacenamiento y proceso de datos que genera la investigación en la actualidad.
La solución se ha encontrado en distribuir la tarea entre multitud de ordenadores conectados, aprovechando la gran cantidad de tiempo en que éstos no se utilizan o no se exprime toda su capacidad. Es lo que se conoce como computación distribuida que, gracias a Internet, consigue que cualquier usuario con conexión pueda ceder tiempo y espacio de su PC para ayudar, por ejemplo, en la lucha contra el Sida o en la búsqueda de inteligencia extraterrestre. Los datos se dividen en pequeños paquetes que se envían a los voluntarios, y se devuelven tras ser analizados por su ordenador.
Desde que se conectaron entre sí las primeras computadoras, a principios de los 70, nació la idea de aprovechar los recursos de las CPU (procesadores) infrautilizadas. Ya en Arpanet, red predecesora de Internet, programas como Creeper y Reaper-ran experimentaban con la computación distribuida. Pero fue en 1973, en el Centro de Investigación Xerox de Palo Alto, cuando se creó la primera red Ethernet en la que se introdujo un 'gusano' (un pequeño programa) que recorría las máquinas utilizando recursos inactivos.
Desde entonces se sucedieron los experimentos centrados en la descentralización de los trabajos aprovechando redes de ordenadores que resuelven varios problemas al mismo tiempo:
• Potencia de cálculo: ninguna supercomputadora es capaz de competir con varios miles de máquinas (de todos los tamaños) conectadas a una red.
• Tiempo: las investigaciones que requieren del análisis de una ingente cantidad de datos (genoma humano ) se aceleran con proyectos de computación distribuida.
• Almacenamiento: de la misma forma, el volumen de datos generados por algunos proyectos (como las señales de radio procedentes del espacio que analiza SETI@home) se puede distribuir entre los discos duros de millones de internautas.
• Dinero: No todas las empresas pueden permitirse una supercomputadora o una red propia para afrontar grandes retos . Una red distribuida que emplee recursos no utilizados reduce drásticamente el coste de grandes proyectos.
• Colaboración: entre países, organismos o grupos de investigadores situados en distintos puntos del planeta para trabajar en un proyecto común.