TinyURL

Enter a long URL to make tiny:

martedì 8 luglio 2008

GRID COMPUTING - breve introduzione

Con il termine Grid Computing si intende un'infrastruttura hardware e software distribuita su vasta scala, ideata per la condivisione di risorse, applicazioni innovative e risorse di calcolo, eterogenee, che possono essere appartenenti ad enti diversi distanti tra loro. Questa tecnologia è nata e si è sviluppata principalmente per affrontare quei problemi di calcolo scientifici ed ingegneristici che sarebbero inaffrontabili con l'ausilio di un unico calcolatore, per quanto potente. Non sempre si può avere a disposizione uno o più supercomputer in ogni Istituto, Università o laboratorio, ed inoltre si può dare la possibilità a molti di sfruttare risorse di calcolo distribuite avendo a disposizione solo un accesso a tali risorse senza l'impegno dell'installazione e della manutenzione di esse.


Infrastruttura

La Grid è un sistema che:

  • Integra e coordina risorse ed utenze non sempre appartenenti allo stesso ambito, cioè diverse istituzioni che vengono raggruppate sotto organizzazioni virtuali (VO, Virtual Organization), stabilendo un insieme di permessi e di regole di condivisione garantite da procedure di autenticazione e autorizzazione.
  • Gestisce le risorse in modo trasparente, ovvero gli utenti possono accedere alle risorse remote come se fossero locali, è il sistema che si preoccupa di localizzare le risorse e predisporne l'interazione.
  • Garantisce servizi di performance, sicurezza, faul tollerance, disponibilità e tempi di risposta.
  • E' una tecnologia disponibile ovunque, è infatti permesso agli utenti autorizzati di aprire sessioni in qualsiasi macchina, anziché obbligarli a utilizzare una macchina specifica, grazie all'utilizzo di interfacce e protocolli standard, facilitandone la definizione dei servizi. (ad esempio con un User Interface Live CD)


Tipologie di applicazioni

  • Supercalcolo distribuito: ad esempio una simulazione accurata di un fenomeno richiede una risoluzione spazio temporale molto grande e quindi la possibilità di utilizzare più supercomputer o addirittura cluster (insieme di computer solitamente omogenei),garantisce di superare le limitazioni esistenti.
  • High throughput computing: ovvero la possibilità di sfruttare le macchine quando sono inutilizzate (idle). Un software usato nelle griglie che utilizza questa politica è Condor.
  • On Demand computing: vengono rese disponibili risorse (sia hardware che software) di calcolo che per il loro saltuario utilizzo non sarebbe conveniente avere sempre a disposizione. Per queste applicazioni sono richiesti livelli di flessibilità e complessità notevoli nella gestione dell'allocazione di risorse, gestione delle code.
  • Data intensive computing: applicazioni il cui scopo è la gestione di enormi quantità di dati distribuiti geograficamente (nell'ordine dei Terabyte al giorno). Le sfide di queste applicazioni sono legate alle problematiche di scheduling ed alla gestione di flussi di dati numerosi e complessi.
  • Calcolo Collaborativi: applicazioni che hanno lo scopo di facilitare e favorire la comunicazione e le collaborazioni tra gli utilizzatori, che in qualche modo appartengono allo stesso spazio (o dominio) virtuale.

Servizi Offerti

  • Sicurezza: deve essere garantita facendo in modo di stabilire con certezza l'identità degli utenti che possono accedere e con quali privilegi possono utilizzare le risorse, mediante l'utilizzo dei meccanismi di autenticazione che sfruttano l'uso di certificati digitali rilasciati dalla Certification Authority (CA).
  • Continuità: sistema in grado di garantire agli utenti le prestazioni promesse con continuità, senza interruzioni e garantendo soprattutto di non avere perdita di dati.
  • Consistenza: tecnologia basata su protocolli ed interfacce standard.

Nessun commento:

Posta un commento