Ta del av allt innehåll på Aktuell Hållbarhet
Starta din prenumeration

Prenumerera

Fredag07.08.2020

Kontakt

Annonsera

Meny

Starta din prenumeration

Prenumerera

Sök

Klimat

CERN måste bli grönare

Publicerad: 9 November 2009, 09:43

Partikelforskning är nästa område för grönifiering. CERN står på tur och de är efter Intel med blåslampa.


Kärnforskningsinsitutet CERN i Schweiz har kört in i väggen. De har stött på en magisk gräns som inte kan passeras och det är inte ljushastigheten jag talar om utan gränsen på 2,9 megawatt inmatade effekt i datorhallen. Sedan CERN började sin verksamhet har behovet av datakraft ökat tusenfalt eller mer, men de har problemet att de inte har kylning och kraft för mer än 2,9 MW inmatad effekt.

CERN ITs stora 2,9-megawattare

Nu kommer partikelkrossen LHC snart i drift och då kommer datamängderna att bli monstruösa. Egentligen blir det allt för mycket data för att CERN ska kunna göra alla beräkningarna själva. Allt som sker hos CERN är mellanlagring på disk och band samt kalibrering, dvs att man bestämmer exakt var i tiden och i rummet i detektorn en partikel detekterades, på pikosekunden och mikrometern när, och märker datapaketen med detta. Själva beräkningen sker sedan ute på cirka 140 universitet över hela världen.

Trots att Atlas-detektorn i LHC kommer att få uppleva att protonpaketen möter varandra 40 miljoner gånger per sekund, med potentiellt 20 krockar vid varje möte, och dataflödet blir cirka en petabyte per sekund, alltså mer än hela Europas teletrafik tillsammans, räknar man ändå inte med att kunna får reda på om man har sett en Higgs-boson, alltså beviset för att teorin om varför saker och ting väger något, förrän efter 2-3 år. Det kommer inte att ske i rådata från Atlas-detektorn utan vid noggrann beskådan och simulering av noggrant filtrerade och beräknade partikelspår, vid något av de universitet som är med i beräkningsmolnet LHC Grid Service.

Alla är med och betalar och alla vill sänka kostnaderna.

Som tur är, är partikelspårberäkningar utmärkt lämpat för massivt parallella beräkningar. En ”händelse” kan tankas in i en processor och där går den i 6-8 timmar utan att behöva kommunicera med någon annan process. Nästa händelse kan omedelbart tankas in i nästa processor och så där kan man hålla på mycket effektivt och tanka ett helt High Performance Cluster fullt.

I vilket fall som helst så behövs det ständiga effektiviseringar i datorparken för att man ska kunna hänga med i de ständigt ökande dataflödena och ändå hålla sin 2,9 MW tillåtna effekt. Sedan 2006 har Intel lyckats pressa ned effektåtgången för Atom-processorn med cirka 90 % och priset per krets med cirka 65%. Xeonprocessorn har ökat 9 gånger i effektivitet sedan 2005, vilket kan räknas om som 18% energibesparing för hela serverparken (om man skulle ha bytt). Vill man bara behålla prestanda kan man klara sig med niondelen så många servrar och spara cirka 92% av inmatad effekt.

Intel menar att man för hela Frankrikes del skulle kunna spara en hel del på att byta ut alla landets Intelbaserade servrar mot apparater med Xeon 5570.

>> 91% minskning i antalet servrar, cirka 22.000 stycken (Intels siffra)
>> 870 MEuro besparing i TCO
>> 22.881 kvadratmeter platsbesparing (4 stycken Notre Dame-katedraler
>> 196 MW sparad effekt
>> 646 miljoner kilo CO2 mindre

Det är sånt här som CERN jagar hela tiden. Men det räcker inte med detta. Det måste in flera kärnor i processorerna för att man ska kunna vinna ännu mer energi. När det gäller att knäcka problem med partikelbanor kan man aldrig få nog av processorkraft. CERN Openlab studerar hela tiden om det finns nyare, effektivare processormodeller och just nu ligger tonvikten på Xeon 5500-processorer. Det hela provas med ett progra som försöker simulera partikelspår i detektorerna Alice och LHc anpassade för multitrådad körning på Intels x86-arkitektur.

Man provade 5500-processorernas SMT- och turbolägen. SMT-läget visade sig öka prestanda med mellan 15 och 20%. Man visade också att den nya lågspänningsvarianten Nehalem är 36% effektivare än den förra Xeon-processorn i 5400-serien utrustad med DDR2-minne. För att få samma prestanda med servrar från förra generationen hade man behövt 720 maskiner till vilket hade kostat mer och dragit mera ström. Baserat på ett medelpris på energi i Europa om 0,15 Euro/kWh torde energibesparingen inbringa 850.000 Euro över tre år. Ubnder våren 2010 ska CERN ta fler än 2000 dubbelprocessorservrar i drift för att möta beräkningskraven från de fyra detektorerna i LHC.

Egentligen menade CERN-folket att det var bra att LHC stannade som den gjorde vid stora smällen i början av året, för nu har man fått en chans att bygga upp en betydligt effektivare datormiljö än man hade då.

Men sanningen är att CERN Openlab aldrig blir nöjda. De kommer att fortsätta fråga och fråga och stöta på Intel och AMD och kräva effektivare maskiner.

Läs mer om Openlab: http://proj-openlab-datagrid-public.web.cern.ch/proj-openlab-datagrid-public

Jörgen Städje

Dela artikeln:


Håll dig uppdaterad med vårt nyhetsbrev

Genom att skicka in mina uppgifter godkänner jag Bonnier Business Media AB:s (BBM) allmänna villkor. Jag har även tagit del av BBM:s personuppgiftspolicy.