Data Center

Il Green Data Center (GDC) dell’Università di Pisa è una struttura di ultima generazione situata a San Piero a Grado (Pisa). Con i suoi 104 rack è il più grande Data Center universitario d’Italia, oltre ad essere l’unico ad aver ottenuto la classificazione “A” da parte di AgID.  

Cuore delle infrastrutture informatiche a supporto delle attività di didattica e di ricerca dell’Università di Pisa, il Data Center pisano mette a disposizione dei ricercatori dell’Ateneo risorse in grado di competere alla pari con le più importanti istituzioni di ricerca europee. Nello specifico.  

Il Centro di Calcolo è dotato delle più recenti tecnologie disponibili per impianti di raffreddamento, alimentazione e distribuzione.  Un’infrastruttura di nuova generazione che può su circa 700 nodi per un totale di circa 30K cores di calcolo e più di 100 acceleratori (GPU) dedicati al Calcolo ad Alte prestazioni e alla ricerca in Intelligenza Artificiale. 

La sala macchine

La sala macchine è progettata per un efficiente raffreddamento mediante confinamento ad isola calda.

Attualmente nel Data Center sono complessivamente a disposizione del calcolo scientifico circa 700 nodi di calcolo per un totale di 25K cores di calcolo , 200TB di RAM e circa 100 GPU di varie generazioni.

I sistemi di calcolo scientifico a disposizione includono :

  • servers multiprocessore con elevata quantità di memoria RAM( High Memory Nodes);
  • clusters di calcolo HPC medio piccoli ( 16-32 nodi ) con connessione ad alta velocità e bassa latenza ( Infiniband/Omnipath);
  • servers mono/multi GPU ( tra cui 4 Nvidia DGX /A100 e H100);
  • servers manycores con processore ARM di nuova generazione.

Si aggiungono una infrastruttura di virtualizzazione basata su tecnologia VMware ed una basata su tecnologia Microsoft che garantiscono la possibilità di ottenere risorse computazionali in modo semplice e veloce ( in parte con modalità self-service).

I sistemi di calcolo sono collegati ad una infrastruttura di storage di ultima generazione composta da storage AllFlash attraverso una rete di interconnessione ad alta velocità ( 25-400 Gb/s).

La rete

Il Data Center possiede una connettività interna ed esterna ad alta velocità ed elevata affidabilità.

È presente una connessione con topologia spine-leaf da 100Gb/s intra-datacenter e inter-datacenter. Le connessioni sono ridondate sia a livello fisico (fibre ottiche) sia ai livelli superiori (apparati di rete) per ottenere No Single Point of Failure.

La rete di interconnessione si basa sulla commutazione Ethernet di ultima generazione 25-400 Gb/s e Infiniband / Omnipath per i servizi HPC. Il DataCenter è collegato alla rete universitaria con una rete in fibra da 200 Gb/s e alla rete GARR con un collegamento da 100 Gb/s.

Sistema di alimentazione e raffreddamento

Il sistema di alimentazione consiste in due linee indipendenti (rete e gruppo elettrogeno) con doppio UPS. L’accoppiamento di queste tecnologie consente di ottenere un basso PUE: nell’arco di 3 anni si è registrato un PUE di 1,2 (per ogni KW assorbito per il calcolo utile si sono resi necessari solo 200W aggiuntivi per il raffreddamento) quando molti data center hanno un PUE di 2 (per ogni KW utile al calcolo ne serve un altro per garantire il raffreddamento).

Torna in cima