Quantensprünge mit StorNext
StorNext unterstützt die Teilchenforschung im CERN
Bei der Erforschung der Ursprünge unseres Universums kann die Verwaltung der extrem großen Datenmengen schnell galaktische Ausmaße annehmen. Nach umfassenden Recherchen und Tests entschied man sich im CERN, dem führenden Teilchenphysiklabor der Welt, für das Datenmanagement mit StorNext. Das Resultat: ein System, das den Zugriff auf große Datenmengen und deren gemeinsame Nutzung in einer HPC-Umgebung ermöglicht.
Milliarden Datenbit pro Sekunde
Eines der am Schweizer CERN, der Europäischen Organisation für Kernforschung, durchgeführten Experimente ist ALICE (A Large Ion Collider Experiment). An diesem Projekt, in dem Teilchen beschleunigt und zur Kollision gebracht werden, um daraus Rückschlüsse über den Aufbau der Materie zu ziehen, sind mehr als 1.000 Physiker, Ingenieure und Techniker aus 30 Ländern beteiligt. Gemeinsam versuchen sie, eines der ältesten Geheimnisse der physikalischen Grundlagenforschung zu lüften: den Ursprung der Materie.
Mithilfe von Detektoren sammelt ALICE immense Mengen an Daten, die durch die Teilchenkollisionen generiert werden. Pierre Vande Vyvre, Projektleiter für Datenerfassung bei ALICE, wurde mit dem Entwurf eines Datenmanagement-Systems beauftragt, das eine absolut verlässliche Erfassung, Auswahl, Übermittlung, Speicherung und Verarbeitung der Milliarden Datenbit, die jede Sekunde generiert werden, gewährleistet.
Zusätzlich verkompliziert wurde die Situation dadurch, dass der Standort des ALICE-Experiments drei Kilometer vom Hauptrechenzentrum des CERN entfernt ist, wo die Daten auf Massenspeichersystemen vorgehalten werden, und das vorhandene Linux-Dateisystem keine rasche und unkomplizierte knotenübergreifende Nutzung der Daten erlaubte.
Vorteil: Schnelle, effektive Datenerfassung
Das CERN-Team prüfte unterschiedliche Optionen für ein Cluster-Dateisystem (CFS). Die wichtigsten Anforderungen an das CFS waren maximale Performance hinsichtlich aggregierter Bandbreite, Hardware-Ausstattung mit minimalem Stellflächenbedarf (aufgrund des relativ kleinen ALICE Data Acquisition-Raums), skalierbare Verwaltung der Client-Anzahl (bis zu 100 Benutzerknoten) und vor allem Unabhängigkeit des CFS von der zugrunde liegenden Hardware.
Nach mehrwöchigen Tests entschied sich das Team für StorNext. In der ersten Phase wurden ein Server, ein Client und ein Disk-Array implementiert. Mittlerweile besteht das System aus 180 Fibre Channel 4G-Ports und 75 transienten Datenspeicher-Arrays. 105 Knoten greifen via Fibre Channel auf die Daten zu. Zusätzlich umfasst die ALICE-Speicherarchitektur 90 StorNext Distributed LAN-Clients, die über IP auf die Daten zugreifen.
Zu den größten Stärken von StorNext gehört die Affinität. Mithilfe dieser Funktion kann das Team Daten gezielt auf bestimmte Primärspeicherplatten lenken und so sicherstellen, dass alle Rechner zu jedem Zeitpunkt mit maximaler Performance arbeiten.
„StorNext bietet gemeinsame Workflowprozesse mit Hochgeschwindigkeit und eine großangelegte mehrstufige Speicherarchitektur, wie sie von ALICE benötigt werden“, so Vande Vyvre.