Atunci când particulele se ciocnesc în interiorul celui mai mare accelerator de particule, Large Hadron Collider (LHC), milioane de senzori ce înregistrează întregul proces generează aproximativ 1 petabyte de date pe secundă (un petabyte este echivalentul a un milion de gigabytes).
Această cantitate de date este mult prea mare chiar şi pentru grila de calcul şi facilităţile de stocare ale Organizaţiei Europene pentru Cercetare Nucleară (CERN) din întreaga lume.
LHC este cel mai mare accelerator de particule din lume, ciocnind particulele între ele la o viteză de 99.999% din cea a luminii. Datele sunt măsurate la patru puncte aflate de-a lungul a 27 de kilometri. Aceste puncte de măsurare, cunoscute sub denumirile de ATLAS, LHCb, CMS şi ALICE, deţin fiecare datele propriilor experimente şi propriile lor colectoare de date ce au milioane de senzori.
Fiecare dintre acestea are un număr mare de calculatoare ce filtrează informaţiile utile pentru a le păstra doar pe cele necesare. Este imposibil de a păstra toate datele generate de către un experiment, însă nici nu este nevoie de toată această informaţie, aşa că majoritatea datelor sunt şterse. Ceea ce rămâne este trimis cu ajutorul unei reţele de fibră optică către un calculator central.
Nu toate experimentele produc acelaşi volum de date filtrate. ATLAS produce aproximativ 320 Mb de date filtrate pe secundă, urmat de CMS cu 220 Mb pe secundă. Datele provenite de la ALICE se ridică la o valoare de 100 Mb pe secundă, iar LHCb produce aproximativ 50 Mb pe secundă. Acestea sunt cantităţile de date primite în momentul ciocnirii protonilor în LHC, dar acceleratorul are două moduri de funcţionare, susţine Jean-Michel Jouanigot. Al doilea mod de coliziune utilizează ioni, care sunt particule mult mai grele. În urma acestui procedeu, o cantitate mult mai mare de date este produsă şi păstrată ca urmare a celor patru experimente, aproximativ 1.25 Gb pe secundă în total.
După procesul de filtrare, CERN stochează în fiecare an aproximativ 25 de petabytes de date. CERN stochează datele atât pe benzi, cât şi pe discuri: calculatorul central are o capacitate brută de 45.3 petabytes şi 53.728 discuri. Majoritatea datelor sunt stocate pe benzi, acest lucru reducând cu mult cantitatea de energie electrică folosită.
Pentru a analiza toate aceste date este necesar echivalentul a 100.000 dintre cele mai rapide procesoare, dar calculatorul central al CERN poate oferi doar 20% din capacitatea de calcul. Restul datelor sunt trimise către centrele de calcul din întreaga lume, folosind Worldwide LHC Computing Grid (WLCG).
Sistemul de procesare a datelor rulează fără probleme încă de la început, spre deosebire de acceleratorul în sine, care, dupa prima pornire, a avut probleme din cauza unei suduri proaste în sistemul de răcire cu heliu.
Sursa: IDG
Niciun comentariu:
Trimiteți un comentariu