ebook img

Commissioning of the ALICE High-Level Trigger PDF

178 Pages·2013·6.65 MB·English
by  
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview Commissioning of the ALICE High-Level Trigger

Commissioning of the ALICE High-Level Trigger Dissertation zur Erlangung des Doktorgrades der Naturwissenschaften vorgelegt beim Fachbereich Physik 9 1 3 der Johann Wolfgang Goethe-Universit¨at - 2 1 0 2 in Frankfurt am Main - S I S E H2 1 T0 N-/2 0 R1 E/ C31 von Jochen Th¨ader aus Heidelberg Frankfurt 2012 (D30) vom Fachbreich Physik der Johann Wolfgang Goethe-Universit¨at als Dissertation angenommen. Dekan : Prof. Dr. Michael Huth Gutachter : Prof. Dr. Harald Appelsh¨auser Prof. Dr. Volker Lindenstruth Datum der Disputation : 31.10.2012 Quand tu veux construire un bateau, ne commence pas par rassembler du bois, couper des planches et distribuer du travail, mais reveille au sein des hommes le desir de la mer grande et large. Citation attribu´ee a Antoine de Saint-Exup´ery Durch Menschen bewegen sich Ideen fort, w¨ahrend sie in Kunstwerken erstarren und schließlich zuru¨ckbleiben. Joseph Beuys Abstract A new era in experimental nuclear physics has begun with the start-up of the Large Hadron Collider at CERN and its dedicated heavy-ion detector system ALICE. Measuring the highest energy density ever produced in nucleus-nucleus collisions, the detector has been designed to study the properties of the created hot and dense medium, assumed to be a Quark-Gluon Plasma. Comprised of 18 high granularity sub-detectors, ALICE delivers data from a few million electronic channels of proton-proton and heavy-ion collisions. The produced data volume can reach up to 26GByte/s for central Pb–Pb collisions at design luminosity of L = 1027cm−2s−1, challenging not only the data storage, but also the physics analysis. A High-Level Trigger (HLT) has been built and commissioned to reduce that amount of data to a storable value prior to archiving with the means of data filtering and compression without the loss of physics information. Implemented as a large high performance compute cluster, the HLT is able to perform a full reconstruction of all events at the time of data-taking, which allows to trigger, based on the information of a complete event. Rare physics probes, with high transverse momentum, can be identified and selected to enhance the overall physics reach of the experiment. The commissioning of the HLT is at the center of this thesis. Being deeply embedded in the ALICE data path and, therefore, interfacing all other ALICE subsystems, this commissioning imposed not only a major challenge, but also a massive coordination effort, which was completed with the first proton-proton collisions reconstructed by the HLT. Furthermore, this thesis is completed with the study and implementation of on-line high transverse momentum triggers. Zusammenfassung Ein existenzieller Wesenszug des Menschen ist die Neugier auf das Unbekannte und das Neue. Deshalb versuchen von je her von Forscher und Wissenschaftler die R¨atsel des Universums zu ergru¨nden und die Welt, so wie wir sie heute kennen, zu erkl¨aren. Wir glauben heute ein ziemlich umfangreiches Verst¨andis daru¨ber zu besitzen, wie sich die Erde und das Universum in den letzten 14 Milliarden Jahren entwickelt haben. Jedoch gibt es immer noch große weiße Flecken auf der Landkarte der Forschung und Wissenschaftler aller Disziplinen versuchen diese zu erforschen. Zwei große Fragen, die sich Physiker stellen befinden sich an den entgegengesetzten Enden der Beobachtungsskala: Was ist das Innerste der Materie? - und Wie hat sich das Universum nach dem Urknall entwickelt? Beide werden parallel in der Hochenergie- Teilchen- und Kernphysik mit der Hilfe von Teilchenbeschleunigern untersucht. Der gr¨oßte und energiereichste, und damit der st¨arkste Teilchenbeschleuniger, der je gebaut wurde, ist der Large Hadron Collider (LHC) am CERN in Genf (Schweiz). Mit dem Start des LHCs hat eine neue A¨ra in der Hochenergiephysik begonnen. Vier Mehrzweckgroßexperimente sind in der Lage, Proton-Proton-Kollisionen bei nie gemes- senen Schwerpunktenergien bis zu 14TeV zu untersuchen. Damit erm¨oglicht er nicht nur die Suche nach dem Higgs Boson, sondern auch die nach neuer Physik außerhalb des bekannten Standard Modells der Teilchenphysik, sowie die Untersuchung der Struktur der Nukleonen. Daru¨ber hinaus ist der LHC auch in der Lage, Schwerionen bis hin zu Blei zu beschleunigen und miteinander kollidieren zu lassen. Dabei werden eine Energiedichte und Temperatur erzeugt, die Mikrosekunden nach dem Urknall, kurz nach dem elektro- schwachen Phasenu¨bergang, existierten. In diesem ausgedehnten Feuerball wird Materie transformiert und neue Materie erzeugt. Dieser Zustand von stark gekoppelter Materie wird von mehreren LHC Experimenten untersucht. Auf Grund der ¨außerst kurzen Lebenszeit dieses Materiezustands kann er nicht direkt beobachtet werden. Die Messung der Teilchen, die vom Medium emittiert wurden, erlaubt es, Ru¨ckschlu¨sse auf die ErzeugungunddasVerhaltendieserextremenFormvonMateriezuziehen.InKollisionen von Bleikernen werden am LHC die h¨ochsten Energiedichten gemessen, die jemals in Schwerionenkollisionen erzeugt wurden. A Large Ion Collider Experiment (ALICE), in dessen Kontext diese Arbeit entstand, ist eines der vier großen LHC Experimente. Es wurde entworfen und gebaut, um haupts¨achlich Kollisionen von Schwerionen zu erforschen, ist aber auch in der Lage Proton-Proton (pp)-Kollisionen zu untersuchen. ALICE kombiniert verschiedene mo- dernste Detektortechnologien in einem Experiment, um unterschiedliche Aspekte des in Schwerionenkollisionen erzeugten, stark gekoppelten, Mediums zu studieren. Um die enorme Anzahl von produzierten Teilchen zu bew¨altigen und zu unterscheiden, haben die einzelnen Detektoren und deren Datenauslese eine hohe Aufl¨osung. Dies resultiert in Datenraten bis zu 26GByte/s und die dadurch erzeugten Datenmengen bilden eine Herausforderung fu¨r die Datenverarbeitung und Datenanalyse. Da solche Datenraten und Datenmengen nicht einfach gespeichert werden k¨onnen, ist ein Auswahlmechanismus notwendig, vor allem auch deshalb, weil viele interessante ii Prozesse relativ selten auftreten und sie von einer großen Anzahl an Hintergrunder- eignissen u¨berdeckt werden. Aus diesem Grund wurde der ALICE High-Level Trigger (HLT) konzipiert und gebaut, um schon w¨ahrend der Datennahme die ausgelesenen Ereignisse online zu rekonstruieren oder komprimieren und die seltenen Prozesse zu selektieren, bevor die ausgelesenen Daten gespeichert werden. Indem damit die Anzahl der relevanten, gespeicherten Ereignisse erh¨oht wird, steigert sich die Leistungsf¨ahigkeit und Ausbeute der einzelnen Datenanalysen. Nach Jahren der Planung und Entwicklung startete die Inbetriebnahme von ALICE und ihren Sub-Systemen im Jahr 2006 und dauerte an bis 2010 - als die ersten Protonen √ mit einer Schwerpunktenergie von s = 7TeV kollidierten. Der Hauptteil dieser Arbeit beschreibt die Inbetriebnahme des in den ALICE-Datenpfad eingebetteten HLTs. Ein weiterer Teil erl¨autert die Anwendung des HLTs als Trigger fu¨r Teilchen mit hohem Transversalimplus p . t Der HLT wurde als H¨ochstleistungsrechnerverbund, ein sogenannter H¨ochstleistungs- cluster, geplant und konstruiert. Die Inbetriebnahme des HLTs umfaßte somit eine weite Spanne von Aufgaben, die in Beziehung zu der Clusterinfrastruktur, insbesondere der Hard- und Software, stehen. Zus¨atzlich mußten auch das Daten-Transport-Framework und die Rekonstruktions- und Analyse-Frameworks in Betrieb genommen werden. Da der HLT ein integraler Bestandteil des Datenpfads in ALICE ist, verfu¨gt es u¨ber Schnittstellen, sogenannte Interfaces, zu fast jedem Sub-System, das an der Da- tenaufnahme beteiligt ist. Das korrekte Funktionieren dieser Schnittstellen ist ¨außerst wichtig um einen reibungsfreien Ablauf der Datenaufnahme zu garantieren. Eines der Schlu¨sselthemen der Inbetriebnahme war die Bereitstellung der Informationen von rekonstruierten Ereignissen, welche sowohl die rekonstruierten Ereignisse an sich als auch Histogramme zur Datenqualit¨at beinhalten. Tatsache ist, dass eine Inbetriebnahme eines solch komplexen Systems kein grad- liniger Prozess ist, der aber eine klar vorgegebene Richtung ben¨otigt. W¨ahrend des Inbetriebnahmeverfahrens mußten die Entwurfsu¨berlegungen auf Grund neuer Entwick- lungen im HLT auch im Gesamtsystem ALICE angepaßt werden. Zudem mussten neue Anwendungen entwickelt und gebaut werden um den gewonnenen Erfahrungen gerecht zu werden. Die Verwendung von leading-edge-Technologien, wie die neueste und innova- tivste Computerhardware, Netzwerk Technologie, sowie Grafikkarten (GPUs) fu¨gte noch eine weitere Ebene der Komplexit¨at hinzu. All dies fu¨hrte zu einem herausfordernden Inbetriebnahmeverfahren, das fast t¨aglich zu wichtigen Entscheidungen daru¨ber fu¨hrte, wie man weiter fortzusetzen habe. Diese Arbeit motiviert nicht nur die Notwendigkeit fu¨r einen ALICE HLT, sondern beschreibt auch dessen erfolgreiche Entwicklung, Umsetzung und Inbetriebnahme. ALI- CE wurde konzipiert, um im ungu¨nstigsten Fall eine Multiplizit¨atsdichte von geladenen Teilchen von dN /dη = 8000 bei einer Ausleserate von 200Hz mit zentralen Pb–Pb- ch Kollisionen zu bew¨altigen. Im Falle von pp-Kollisionen betrug die geplante Ausleserate 1kHz. Die Gr¨oße der einzelnen Ereignisse wird von der Datengr¨oße des wichtigsten Spur- detektorsderZeitprojektionskammer(Time Projection Chamber (TPC)),dominiert.Die Ereignisgr¨oße der TPC ist fast linear abh¨angig von der Anzahl der geladenen Teilchen im Driftvolumen. Mit einer langen Driftzeit von 94µs ist sie daru¨ber hinaus anf¨allig fu¨r jegliche Art von Pile-up, das heißt multiple Ereignisse innerhalb des Driftvolumens. Im ungu¨nstigsten Fall werden fu¨r zentrale Pb–Pb-Kollisionen bei dN /dη = 8000 ch

Description:
collisions at design luminosity of 多 = 1027cm-2s-1, challenging not only the Deshalb versuchen von je her von Forscher und Wissenschaftler die Rätsel . betriebnahme eines Höchstleistungsclusters, das Design und die .. computer hardware, network, and graphics cards, added yet another layer
See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.