Si dice che l’HPC5, il nuovo supercalcolatore di Eni, sia l’infrastruttura di supercalcolo non governativa più potente al mondo, è così?
Il dato di performance di HPC5 è certificato da una classifica riconosciuta internazionalmente, chiamata top500 e consultabile sul web, che elenca i 500 supercalcolatori più veloci al mondo. Questa classifica viene aggiornata due volte all’anno, a novembre e a giugno, per cui attualmente HPC5 ancora non compare, ma la sua dimensione è tale per cui nel momento in cui eseguiremo l’applicazione utilizzata come benchmark di riferimento la prestazione misurata si attesterà verosimilmente attorno alla quinta o sesta posizione. E’ chiaro quindi che HPC5 non sarà il più veloce in assoluto, ma il punto è che comunque al momento i 10 supercalcolatori al vertice della top500 appartengono a istituti di ricerca e/o agenzie governative e quindi non sono pensati per applicazioni industriali che, ad esempio, hanno esigenze molto più stringenti in termini di continuità delle operazioni con conseguenti impatti a livello architetturale e infrastrutturale.
E perché una compagnia energetica dovrebbe essere interessata a una simile mole di dati?
La disponibilità di simili potenze di calcolo è fondamentale per sostenere l’attività di una compagnia come Eni, che in questo momento si trova ad affrontare la sfida delle energie del futuro. Sfide che devono essere progettate e che richiedono il supporto di nuove tecnologie da sottoporre a simulazioni per poter predire la loro efficienza ed efficacia su scala industriale. Al tempo stesso, abbiamo bisogno di continuare a sviluppare le energie convenzionali, per dare tempo alla crescita delle nuove energie. Per fare questo dobbiamo guardare alla geologia, ovvero dare uno sguardo al passato, sfruttando l’enorme mole di dati che acquisiamo sul campo per l’investigazione del sottosuolo. In questo caso i supercalcolatori sono fondamentali per estrarre informazioni, ovvero immagini tridimensionali del sottosuolo, a partire da questi dataset, che, oggigiorno stanno assumendo dimensioni gigantesche: parliamo ormai di Petabyte di dati. Sia l’analisi del passato sia la predizione del futuro non sono mai scevre di incertezze; quindi più dati possiamo analizzare, più riusciamo ad utilizzare algoritmi accurati ma costosi, più riusciamo a fare simulazioni per analizzare scenari differenti, e più riusciamo a ridurre l’incertezza e mitigare i rischi. Motivo per cui la potenza di calcolo di un supercalcolatore come HPC5 è fondamentale.
Fondamentale per dati geofisici e prospezioni sismiche ma anche per quanto riguarda lo studio delle rinnovabili (modellazione molecolare dei sistemi fotoattivi), le modellazioni fluidodinamiche (Iswec, PB3) e lo sviluppo della fusione magnetica. Ci può raccontare questo cambiamento?
Basta pensare alla fusione nucleare, una fonte di energia in linea di principio inesauribile e pulita, per comprendere che ci troviamo di fronte a sfide tecnologiche veramente complesse. Temperature vicine a quelle della superficie solare, campi magnetici intensissimi, materiali sollecitati a livello atomico fino all’estremo: condizioni mai sperimentate sulla terra, condizioni costosissime da ricreare e riprodurre in laboratorio. E’ chiaro quindi che, conoscendo la fisica e quindi i modelli matematici che descrivono questi processi, diventa fondamentale avere gli strumenti per poter fare gli esperimenti in modo virtuale. La complessità è comunque notevole, perchè i modelli si basano su equazioni molto complicate e costose da risolvere e le dimensioni delle simulazioni sono in scala reale, perciò la disponibilità di consistenti risorse di supercalcolo è fondamentale. Lo stesso vale per tutte le simulazioni relative alla progettazione di nuovi materiali e alla simulazione della fluidodinamica. A tutto ciò si aggiunge il fatto che dobbiamo valutare un’enorme quantità di scenari differenti per arrivare a identificare soluzioni effettivamente applicabili su scala industriale. Le domande a cui dobbiamo ancora rispondere sono innumerevoli, tantissime le incognite, e quindi lo sviluppo di queste nuove tecnologie dell’energia passa necessariamente attraverso i supercalcolatori.
Processare tutti questi dati richiederà molta energia. Come avete risolto questo aspetto?
Nell’ambito della strategia Eni per il supercalcolo, cominciata nel 2013, all’efficienza energetica e alle prestazioni in termini di velocità di calcolo è sempre stata data la stessa rilevanza. In concreto, questo si è tradotto anzitutto nella costruzione del Green Data Center, la casa che ospita i nostri supercalcolatori assieme a tutta l’infrastruttura informatica della compagnia, avendo come obiettivo la massima efficienza. Un data center infatti richiede energia non solo per alimentare i computer ma anche per smaltire il calore che producono, e quest’ultima componente nei casi estremi può essere preponderante rispetto alla prima. Nel caso del Green Data Center, il progetto dell’intero sistema è stato basato sull’idea di poter raffreddare i calcolatori senza dover raffreddare l’aria, ovvero evitando il più possibile l’uso di condizionatori. La combinazione tra la posizione geografica del Green Data Center (situato a Ferrera Erbognone, nella campagna pavese) e la finestra di temperatura tra 18 e 28 gradi consentita per l’aria di raffreddamento si è rivelata vincente. Per il 92% del tempo su base annua, infatti, l’aria a temperatura ambiente della campagna pavese rientra in questa finestra e ci permette così di smaltire il calore senza usare i condizionatori. Il risultato finale in termini di efficienza è di tutto rispetto, confrontabile con i migliori data center mondiali.
Non sarà solo una questione di location, però…
Non solo, ovviamente. Fin dagli esordi si è lavorato sulla ricerca di architetture di calcolo che fossero il meno energivore possibili. In questo ambito, l’innovazione introdotta da Eni sin dal 2013 con HPC1, il primo sistema di High Performance Computing installato al Green Data Center, è stata quella di equipaggiare i nodi del supercalcolatore (che con HPC1 erano 1300, con HPC5 sono 1800) con schede grafiche, le stesse normalmente utilizzate nelle consolle dei videogame, utilizzate non come processori grafici per il rendering video, bensì come acceleratori di calcolo. La sfida si è giocata sul campo dello sviluppo del software, in quanto utilizzare le schede grafiche per il calcolo richiede di saperle programmare in modo opportuno. In questo, la partnership con Cineca, il centro di supercalcolo di Bologna, e i suoi sviluppatori di codice si è rivelata vincente. Il risultato è che, oltre ad avere ottenuto supercalcolatori al vertice delle classifiche mondiali sia in termini di performance sia in termini di efficienza, tutti i programmi che vengono eseguiti sui supercalcolatori Eni sono 100% made in Italy.