Evoluția primului centru HPC din cercetarea românească

High Performance Computing este o „rara avis“ în presa autohtonă, care se „arată lumii“ doar în... contexte speciale. Cea mai recentă apariție a avut loc în urmă cu un an, odată cu lansarea programului EuroHPC. Alocarea de 486 de milioane de euro și întârzierea cu care România s-a raliat inițiativei CE au stârnit interesul mass-media. Însă nu pentru mult timp. Cu toate acestea, „subiectul“ HPC este, de mai bine de un deceniu, o realitate curentă în cercetarea românească. În comparație cu realizările altor țări, e prematur, probabil, să vorbim de o istorie a calculului de înaltă performanță în România. Dar există deja precursori, unul dintre pionierii domeniului fiind Institutul de Științe Spațiale. Întinsă pe durata a 20 de ani, poveste interesantă a proiectului HPC am aflat-o de la directorul institutului, dr. Sorin Zgură, promotorul acestei inițiative.
Când și cum a început „povestea“ clusterului de calcul de înaltă performanță la Institutul de Științe Spațiale?
Începuturile sale datează din 1999, deși concretizarea sa, în forma cea mai apropiată de ceea ce este acum centrul de date ISS, a survenit abia în 2005. La sfârșitul anilor 90 mă aflam în SUA la Brookhaven National Laboratory (BNL), unde mi-am făcut doctoratul în co-tutelă cu Facultatea de Fizică a Universității București. Acolo m-am întâlnit cu un alt român, Răzvan Popescu, care a lucrat 20 de ani în Statele Unite și a fost la un moment dat și directorul tehnic al proiectului ELI-NP. Răzvan realizase atunci design-ul centrului de date al BNL, care pe atunci era unul dintre cele mai mari, și m-a dus să-l vizitez. Când am văzut rândurile acelea cu zeci de rack-uri și sute de servere primul meu gând a fost: „Vreau să fac și eu așa ceva la mine la ISS!“. Când m-am intos în țară începuseră să apăra și în institut primele proiecte internaționale de cercetare științifică și cu ajutorul lor am făcut prima achiziție importantă a ISS pe zona de computing – un rack. Ne-a costat destul de mult, pentru că nu prea se aduceau în țară, la începutul anilor 2000, astfel de echipamente, și a mai durat vreo jumătate de an până când am reușit să cumpărăm și primul server. Așa am pornit la drum – cu un rack și un server care avea un singur procesor. Acum avem câte mii de procesoare și am trecut cu mult de 1 Petabyte capacitate de stocare.
Era o premieră un astfel de proiect în România, la acel moment?
ISS a fost atunci, la începutul anilor 2000, cam singurul institut CDI din țară cu o astfel de inițiativă. Ulterior au venit la noi și alte institute de cercetare care voiau să își facă propriile centre de date, cum a fost, de exemplu, IFIN-HH, care acum deține Data Centere puternice.
Probleme „secundare“
Cum s-a derulat mai departe firul „povestii“?
Un timp totul a fost bine și frumos și ne-am tot dezvoltat, însă, după o perioadă, ne-am confruntat cu problema legăturii cu exteriorul. Încercam pe atunci să ne racordăm la infrastructura de calcul distribut a celor de la CERN (European Organization for Nuclear Research). Dar cum să o faci, când România avea o „ieșire“ de 622 Mb, o capacitate total insuficientă pentru ce ne trebuia nouă: abia puteai să intri pe o pagină Web, darămite să transferi date... Printr-un concurs de împrejurări, câțiva dintre cercetătorii români care lucrau la CERN au ridicat această problemă președintelui ANCS de la acea vreme, dl. Anton Anton. Care a fost foarte prompt și tranșant: „Dati-mi pe cineva care înțelege problema și știe care este soluția!“ Și „petiționarii“ de la CERN m-au nominalizat pe mine. Așa am ajuns eu să fiu consilier în cadrul Autorității Naționale pentru Cercetare Științifică, unde am fondat și condus începând cu 2005 grupul de lucru pentru elaborarea strategiei naționale GRID. În perioada aceea, 2005-2008, s-a pus la punct strategia națională RoEduNet 2 (Romanian Education Network, rețeaua natională a educației și cercetării din România) și s-a făcut trecerea la conexiuni mari cu exteriorul, cu capacități de ordinul 10 GB. Dar lucrul cel mai important este că s-a realizat un backbone național, care integra foarte multe bucle de mare viteză, unele chiar de 100 GB, cum era, de exemplu, cea între București și Iași.
Care a fost „secretul“ din spatele acestui rezultat, remarcabil pentru acea vreme, având în vedere că RoEduNet livra servicii internet pentru Bulgaria și Turcia pe domeniul educațional?
Nu a fost un secret, ci o soluție care s-a dovedit bună nu doar pe moment, ci și pe termen lung: s-a încheiat un acord de colaborare între Ministerul Educației Naționale și Cercetării (MENC), Ministerul Transporturilor, ANCS, RoEduNet, CFR SA și Telecomunicații CFR SA. Rețeaua de fibră optică de peste 4.000 de kilometri era a CFR-ului, operatorul ei era Telecomunicații CFR, iar MENC, din postura de ordonator principal de credite, a finanțat achiziția de echipamente. Însă și aici am ales cu grijă: unitățile DWDM (Dense Wavelength Division Multiplexing-n.r.) au fost achiziționate special cu câte două cartele de cuplare: una pentru RoEduNet, cealaltă pentru Telecomunicații CFR, astfel încât aceștia să poată avea proprii săi clienți. În plus, am insistat ca, prin acest acord, să ne fie pusă la dispoziție capacitate și nu trafic, astfel încât să nu fim limitați ca volum. Am fost la originea ideii acestui parteneriat și mă bucur, pentru că rezultatul reprezintă un câștig real pentru instituțiile de cercetare și universitățile din România. Lucrurile au evoluat în bine și în această direcție prin dezvoltările instituționale, RoEduNet devenind parte din infrastructura GEANT (Gigabit European Advanced Network), iar în 2007 a fost dat în funcțiune nodul POP GEANT București, care conectează țările din Sud-Estul Europei la infrastructura GEANT.
Proiectele internaționale susțin centrul
Să ne întoarcem însă la evoluția clusterului HPC al institutului…
Ne-am dezvoltat continuu prin intermediul finanțărilor obținute în cadrul proiectelor naționale și internaționale de cercetare științifică la care participăm. Am continuat să dezvoltăm colaborarea cu CERN: proiectele derulate cu institutul de la Geneva, unde livrăm capacitate de stocare și procesare, ne asigură mentenanța și upgrade-ul centrului ISS. La CERN suntem implicați în prezent în două colaborări importante – ALICE (A Large Ion Collider Experiment) și în cadrul rețelei Worldwide LHC Computing, o rețea globală de colaborare la care participă 170 de centre de calcul din 42 de țări și în cadrul căreia România participă prin intermediul ISS. Avem însă colaborări cu mai multe organizații științifice internaționale, cum este, de exemplu, cea cu Pierre Auger Observatory, cel mai mare observator de astrofizică din lume, amplasat în Argentina. Un alt partener foarte important pentru ISS este Agenția Spațială Europeană (ESA), unde participăm activ la diverse experimente și misiuni. Ne pregătim acum pentru proiectul EUCLID, a cărei lansare este preconizată pentru 2022 și care va fi cea mai mare misiune spațială europeană de până acum, cu scopul de a caracteriza materia și energia întunecată, și în cadrul căreia centrul ISS va deveni nod central de stocare și de analiză. De asemenea, am început pregătirile pentru misiunea spațială LISA (Laser Interferometer Space Antenna), a cărei lansare este programată pentru 2034. În cadrul acestui proiect, contribuția ISS va fi atât pe parte științifică, dar și prin realizarea unui sistem CAS (Constellation Acquisition Sensor). LISA va fi primul observator spațial de unde gravitaționale, alcătuit din trei sateliți poziționați astfel încât să alcătuiască un triunghi echilateral cu latura de 2.5 milioane de kilometri, care vor urma Pămantul în orbita sa în jurul Soarelui, iar sistemul CAS pe care-l va realiza ISS va avea rolul de verificare a alinierii celor trei sateliți. Centrul HPC de la ISS va funcționa și ca Data Operational Center în cadrul misiunii, însă până atunci vom realiza cu ajutorul infrastructurii HPC simulări de interacții și de proprietăți fizice și mecanice ale sistemelor care vor fi trimise în spațiu.
O abordare pragmatică
Cum va accelera dezvoltarea centrului HPC participarea la proiectele ESA de amploare?
În cazul proiectului EUCLID, urmează să înceapă primele achiziții de servere. Însă, dacă ne raportăm la misiunea LISA, ar fi o risipă de bani să investim acum în echipamente pentru a realiza un centru de date operațional care va trebui să fie funcțional peste 15 ani. Tehnologia evoluează foarte rapid și mai mult ca sigur va fi perimată până în 2034. De aceea ne concentrăm în principal pe pregătirea oamenilor, pentru că resursa umană este cea mai importantă pentru noi: la ISS, ca și la centrul CERN din Geneva, partea de computing este realizată de către fizicieni, nu de IT-iști, pentru că fizicienii sunt cei care creează, dezvoltă și adaptează continuu soluțiile software în funcție de experimentele pe care le fac. De aceea, nu ne hazardăm să achiziționăm echipamente ultraperformante, pe care mai apoi să le subutilizăm, ci alegem să investim în oameni. Este o abordare pragmatică pe care ISS-ul a avut-o dintotdeauna și pe care am preluat-o și eu de la predecesorul meu, dr. Dumitru Hașegan, care a fost directorul institutului din 1990 pană în 2011. Fără oameni care să aibă competențele și experiența necesare, un echipament HPC ultraperformant este inutil și reprezintă o pierdere financiară.

Parerea ta conteaza:

