De LHC zal de natuurkunde revolutioneren. Kan het ook een revolutie teweegbrengen op internet?

Pin
Send
Share
Send

We weten al dat de Large Hadron Collider (LHC) het grootste en duurste natuurkundig experiment is dat de mensheid ooit heeft uitgevoerd. Botsende relativistische deeltjes bij energieën die voorheen ondenkbaar waren (tot de 14 TeV-markering tegen het einde van het decennium) zullen miljoenen deeltjes genereren (bekend en nog te ontdekken), die moeten worden gevolgd en gekenmerkt door enorme deeltjesdetectoren. Dit historische experiment vereist een enorme inspanning voor het verzamelen en opslaan van gegevens, waarbij de regels voor gegevensverwerking worden herschreven. Elke vijf seconden genereren LHC-botsingen het equivalent van een dvd-waarde aan gegevens, dat wil zeggen een gegevensproductiesnelheid van één gigabyte per seconde. Om dit in perspectief te plaatsen: een gemiddelde computer met een zeer goede verbinding kan mogelijk gegevens downloaden met een snelheid van één of twee megabytes per seconde (als je geluk hebt! Ik krijg 500 kilobytes / seconde). Daarom hebben LHC-ingenieurs een nieuw soort gegevensverwerkingsmethode ontworpen die kan worden opgeslagen en gedistribueerd petabytes (miljoen gigabytes) van gegevens aan LHC-medewerkers wereldwijd (zonder oud en grijs te worden terwijl ze wachten op een download).

In 1990 heeft de Europese Organisatie voor Nucleair Onderzoek (CERN) een revolutie teweeggebracht in de manier waarop we leven. Het voorgaande jaar schreef Tim Berners-Lee, een CERN-fysicus, een voorstel voor elektronisch informatiebeheer. Hij bracht het idee naar voren dat informatie gemakkelijk via internet kon worden overgedragen met behulp van iets dat 'hypertekst' wordt genoemd. Naarmate de tijd verstreek, legden Berners-Lee en medewerker Robert Cailliau, een systeemingenieur die ook bij CERN werkte, een enkel informatienetwerk samen om CERN-wetenschappers te helpen samenwerken en informatie van hun pc's te delen zonder deze te hoeven opslaan op omslachtige opslagapparaten. Hypertext stelde gebruikers in staat om te bladeren en tekst te delen via webpagina's met hyperlinks. Berners-Lee maakte vervolgens een browser-editor en realiseerde zich al snel dat deze nieuwe vorm van communicatie door een groot aantal mensen kon worden gedeeld. In mei 1990 noemden de CERN-wetenschappers dit nieuwe samenwerkingsnetwerk de World Wide Web. CERN was zelfs verantwoordelijk voor 's werelds eerste website: http://info.cern.ch/ en een vroeg voorbeeld van hoe deze site eruitzag, is te vinden via de World Wide Web Consortium-website.

CERN is dus geen onbekende in het beheren van gegevens via internet, maar de gloednieuwe LHC vereist een speciale behandeling. Zoals benadrukt door David Bader, uitvoerend directeur van high-performance computing bij het Georgia Institute of Technology, is de huidige bandbreedte die door het internet is toegestaan ​​een enorm knelpunt, waardoor andere vormen van gegevensuitwisseling wenselijker worden. 'Als ik kijk naar de LHC en wat deze voor de toekomst doet, is het enige dat het web niet heeft kunnen doen, een fenomenale schat aan gegevens beheren, ”Zei hij, wat betekent dat het gemakkelijker is om grote datasets op terabyte harde schijven op te slaan en ze vervolgens naar de medewerkers te sturen. Hoewel CERN het gezamenlijke karakter van het delen van gegevens op het World Wide Web had aangepakt, zullen de gegevens die de LHC zal genereren, de kleine bandbreedtes die momenteel beschikbaar zijn, gemakkelijk overbelasten.

Daarom is het LHC Computing Grid ontworpen. Het raster verwerkt de enorme productie van LHC-datasets in lagen, de eerste (Niveau 0) bevindt zich op het terrein van CERN nabij Genève, Zwitserland. Niveau 0 bestaat uit een enorm parallel computernetwerk met 100.000 geavanceerde CPU's die zijn ingesteld om de onbewerkte gegevens (1 en 0 seconden binaire code) die door de LHC zijn gepompt onmiddellijk op te slaan en te beheren. Op dit punt is het vermeldenswaard dat niet alle deeltjesbotsingen door de sensoren worden gedetecteerd, maar dat slechts een zeer kleine fractie kan worden opgevangen. Hoewel slechts een relatief klein aantal deeltjes kan worden gedetecteerd, vertaalt dit zich nog steeds in een enorme output.

Tier 0 beheert delen van de gegevens die worden uitgevoerd door deze via speciale glasvezellijnen van 10 gigabit per seconde naar 11 te blazen Niveau 1 sites in Noord-Amerika, Azië en Europa. Dit stelt medewerkers zoals de Relativistic Heavy Ion Collider (RHIC) van het Brookhaven National Laboratory in New York in staat om gegevens van het ALICE-experiment te analyseren, waarbij de resultaten van de LHC-loodionbotsingen worden vergeleken met hun eigen botsingsresultaten van zware ionen.

Vanaf de internationale Tier 1-computers worden datasets verpakt en naar 140 verzonden Niveau 2 computernetwerken bij universiteiten, laboratoria en particuliere bedrijven over de hele wereld. Op dit punt hebben wetenschappers toegang tot de datasets om de conversie van de ruwe binaire code naar bruikbare informatie over deeltjesenergieën en -trajecten uit te voeren.

Het tiersysteem is allemaal goed en wel, maar het zou niet werken zonder een zeer efficiënt type software genaamd 'middleware'. Bij het proberen toegang te krijgen tot gegevens, wil de gebruiker mogelijk informatie die is verspreid over de petabytes aan gegevens op verschillende servers in verschillende formaten. Een open source middlewareplatform genaamd Globus heeft de enorme verantwoordelijkheid om de vereiste informatie naadloos te verzamelen alsof die informatie al in de computer van de onderzoeker zit.

Het is deze combinatie van het tiersysteem, snelle verbinding en ingenieuze software die buiten het LHC-project kan worden uitgebreid. In een wereld waar alles 'on demand' wordt, kan dit soort technologie het internet maken transparant aan de eindgebruiker. Er zou direct toegang zijn tot alles, van gegevens die zijn verkregen door experimenten aan de andere kant van de planeet, tot het bekijken van high-definition films zonder te wachten op de voortgangsbalk voor downloaden. Net zoals Berners-Lee's uitvinding van HTML, kan het LHC Computing Grid een revolutie teweegbrengen in de manier waarop we internet gebruiken.

Bronnen: Scientific American, CERN

Pin
Send
Share
Send