TY - THES A1 - Duy, Nguyen Le T1 - Hydrological processes in the Vietnamese Mekong Delta BT - Insights from stable water isotopes and monitoring data analysis BT - Erkenntnisse aus stabilen Wasserisotopen und Überwachungsdatenanalyse N2 - Understanding hydrological processes is of fundamental importance for the Vietnamese national food security and the livelihood of the population in the Vietnamese Mekong Delta (VMD). As a consequence of sparse data in this region, however, hydrologic processes, such as the controlling processes of precipitation, the interaction between surface and groundwater, and groundwater dynamics, have not been thoroughly studied. The lack of this knowledge may negatively impact the long-term strategic planning for sustainable groundwater resources management and may result in insufficient groundwater recharge and freshwater scarcity. It is essential to develop useful methods for a better understanding of hydrological processes in such data-sparse regions. The goal of this dissertation is to advance methodologies that can improve the understanding of fundamental hydrological processes in the VMD, based on the analyses of stable water isotopes and monitoring data. The thesis mainly focuses on the controlling processes of precipitation, the mechanism of surface–groundwater interaction, and the groundwater dynamics. These processes have not been fully addressed in the VMD so far. The thesis is based on statistical analyses of the isotopic data of Global Network of Isotopes in Precipitation (GNIP), of meteorological and hydrological data from Vietnamese agencies, and of the stable water isotopes and monitoring data collected as part of this work. First, the controlling processes of precipitation were quantified by the combination of trajectory analysis, multi-factor linear regression, and relative importance analysis (hereafter, a model‐based statistical approach). The validity of this approach is confirmed by similar, but mainly qualitative results obtained in other studies. The total variation in precipitation isotopes (δ18O and δ2H) can be better explained by multiple linear regression (up to 80%) than single-factor linear regression (30%). The relative importance analysis indicates that atmospheric moisture regimes control precipitation isotopes rather than local climatic conditions. The most crucial factor is the upstream rainfall along the trajectories of air mass movement. However, the influences of regional and local climatic factors vary in importance over the seasons. The developed model‐based statistical approach is a robust tool for the interpretation of precipitation isotopes and could also be applied to understand the controlling processes of precipitation in other regions. Second, the concept of the two-component lumped-parameter model (LPM) in conjunction with stable water isotopes was applied to examine the surface–groundwater interaction in the VMD. A calibration framework was also set up to evaluate the behaviour, parameter identifiability, and uncertainties of two-component LPMs. The modelling results provided insights on the subsurface flow conditions, the recharge contributions, and the spatial variation of groundwater transit time. The subsurface flow conditions at the study site can be best represented by the linear-piston flow distribution. The contributions of the recharge sources change with distance to the river. The mean transit time (mTT) of riverbank infiltration increases with the length of the horizontal flow path and the decreasing gradient between river and groundwater. River water infiltrates horizontally mainly via the highly permeable aquifer, resulting in short mTTs (<40 weeks) for locations close to the river (<200 m). The vertical infiltration from precipitation takes place primarily via a low‐permeable overlying aquitard, resulting in considerably longer mTTs (>80 weeks). Notably, the transit time of precipitation infiltration is independent of the distance to the river. All these results are hydrologically plausible and could be quantified by the presented method for the first time. This study indicates that the highly complex mechanism of surface–groundwater interaction at riverbank infiltration systems can be conceptualized by exploiting two‐component LPMs. It is illustrated that the model concept can be used as a tool to investigate the hydrological functioning of mixing processes and the flow path of multiple water components in riverbank infiltration systems. Lastly, a suite of time series analysis approaches was applied to examine the groundwater dynamics in the VMD. The assessment was focused on the time-variant trends of groundwater levels (GWLs), the groundwater memory effect (representing the time that an aquifer holds water), and the hydraulic response between surface water and multi-layer alluvial aquifers. The analysis indicates that the aquifers act as low-pass filters to reduce the high‐frequency signals in the GWL variations, and limit the recharge to the deep groundwater. The groundwater abstraction has exceeded groundwater recharge between 1997 and 2017, leading to the decline of groundwater levels (0.01-0.55 m/year) in all considered aquifers in the VMD. The memory effect varies according to the geographical location, being shorter in shallow aquifers and flood-prone areas and longer in deep aquifers and coastal regions. Groundwater depth, season, and location primarily control the variation of the response time between the river and alluvial aquifers. These findings are important contributions to the hydrogeological literature of a little-known groundwater system in an alluvial setting. It is suggested that time series analysis can be used as an efficient tool to understand groundwater systems where resources are insufficient to develop a physical-based groundwater model. This doctoral thesis demonstrates that important aspects of hydrological processes can be understood by statistical analysis of stable water isotope and monitoring data. The approaches developed in this thesis can be easily transferred to regions in similar tropical environments, particularly those in alluvial settings. The results of the thesis can be used as a baseline for future isotope-based studies and contribute to the hydrogeological literature of little-known groundwater systems in the VMD. N2 - Ein fundiertes Verständnis der hydrologischen Prozesse im vietnamesischen Mekong Delta (VMD) ist von grundlegender Bedeutung für den Lebensunterhalt der Bevölkerung im Mekong Delta, und darüber hinaus auch für die nationale Ernährungssicherheit. Aufgrund des Fehlens einer belastbaren Datenbasis konnten bislang eine Reihe von wichtigen hydrologischen Prozessen nur unzureichend untersucht und quantifiziert werden. Dazu zählen unter anderem die Analyse des Ursprungs des Niederschlages im Delta, die Interaktion zwischen Oberflächen- und Grundwasser, sowie die Grundwasserdynamik. Diese Lücken im Wissensstand verhindern eine solide datenbasierte Wasserwirtschaftsplanung, was unter Berücksichtigung der derzeitigen Trends mittelfristig zu weiter fallenden Grundwasserständen und Wasserknappheit führen wird. Daher ist es von großer Bedeutung, Methoden und Werkzeuge zu entwickeln, die auch unter der bestehenden Datenknappheit belastbare quantitative Ergebnisse für eine nachhaltige Wasserbewirtschaftung liefern können. Das Ziel dieser Dissertation ist es, solche Methoden zu entwickeln und zu testen, um grundlegende hydrologische Prozesse im VMD besser verstehen und quantifizieren zu können. Hierzu werden die existierenden Messdaten sowie im Rahmen dieser Arbeit gesammelte Daten zum Gehalt an stabilen Wasserisotopen verwendet. Mit Hilfe dieser Daten wurden folgende Prozesse untersucht: 1. Der Ursprung und die Fraktionierung des Niederschlages im VMD. 2. Die Interaktion zwischen Oberflächen- und Grundwasser mit einem besonderen Fokus auf die ufernahen Gebiete. 3. Die großflächige Dynamik in den verschiedenen Grundwasserleitern der letzten Jahrzehnte. Die Prozesse, die den Ursprung und die Verteilung des Niederschlagsbestimmen, wurden mittels einer Kombination aus Isotopendaten, Trajektorienanalyse, multifaktorieller Regression, und relativer Wichtigkeitsanalyse untersucht. Diese Kombination ist nachfolgend „modelbasierter statistischer Ansatz“ betitelt. Hierbei wurde festgestellt, dass die Varianz im Isotopengehalt des Niederschlags (δ18O and δ2H) mit der multifaktoriellen Regression zu 80% erklärt werden konnte, was im Vergleich zu einer einfachen Regression mit 30% erklärter Varianz eine deutliche Verbesserung darstellt. Die Wichtigkeitsanalyse ergab zudem, dass großskalige atmosphärische Feuchtigkeitsverteilungen einen weitaus größeren Einfluss auf die Isotopenverteilung im Niederschlag haben, als lokale klimatische Bedingungen im VMD. Der hierbei wichtigste Faktor ist die Regenmenge entlang der Trajektorien der Luftmassenbewegungen. Die Wichtigkeit der Faktoren variiert jedoch saisonal zwischen Regen- und Trockenzeit. Der in dieser Dissertation entwickelte modelbasierte statistische Ansatz ist ein robustes Werkzeug zur Analyse und Interpretation der Isotopenverteilung im Niederschlag, der auch auf ähnliche Fragestellungen in andere Regionen übertragbar ist. Im zweiten Teil der Dissertation wurden Zweikomponentenmodelle (LPM) in Verbindung mit Isotopenmessungen im Niederschlag, Oberflächen- und Grundwasser verwendet, um die Interaktion zwischen Oberflächen- und Grundwasser qualitativ und quantitativ zu beschreiben. Verschiedene Modellansätze wurden hierbei in einem automatischen Kalibrieransatz getestet, und deren Unsicherheit bestimmt. Hierbei hat sich das lineare Kolbenfließmodell (linear piston flow model) als das am besten geeignetste herausgestellt. Die Modellierungsergebnisse ermöglichten daraufhin eine modellbasierte Abschätzung der Grundwasserschwankungen und -flüsse, der Grundwasserneubildung und der räumlichen Variabilität der Grundwasserlaufzeiten. Hierbei zeigte sich, dass Grundwasserneubildung und deren Quellen räumlich variabel ist, und sich mit zunehmender Entfernung vom Fluss die Neubildung von primär Uferinfiltration hin zu Neubildung durch Niederschläge ändert. Analog dazu erhöhen sich die Grundwasserlaufzeiten mit der Länge der horizontalen Fließwege (= Entfernung vom Vorfluter) und mit sinkendem Gradienten zwischen Grundwasserstand und Wasserstand im Fluss. Flusswasser infiltriert über das Flussufer in den wasserleitenden Aquifer, mit mittleren Transferzeiten (mTT) von < 40 Wochen für Bereiche mit weniger als 200 m Entfernung zum Fluss. In größeren Entfernungen findet die Neubildung im Wesentlichen durch Versickerung von Regenwaser statt. Da der betrachtete holozäne Grundwasserleiter mit einer schwerdurchlässigen Deckschicht überlagert ist, liegen die mTT in diesen Bereichen mit > 80 Wochen wesentlich höher. Es konnte mit dieser Studie gezeigt werden, dass die komplexe Interaktion zwischen Grund- und Oberflächenwasser mittels eines konzeptionellen Modells in Verbindung mit aus Wasserproben bestimmten Isotopendaten konzeptionalisiert und quantifiziert werden kann. Der Ansatz empfiehlt sich daher als Werkzeug für die Untersuchung der Mischungsprozesse der Ufer- und Regenwasserinfiltration, sowie der Fließwege des Grundwassers in ähnlichen Gebieten. Im letzten Teil der Dissertation wurden Trends in den Grundwasserständen im gesamtem VMD untersucht. Hierzu wurde eine Reihe von Methoden zur Zeitreihenanalyse angewandt. Der Fokus der Untersuchungen lag auf zeitvariablen Trends in den Grundwasserständen, der Wasserspeicherdauer (memory effect), und der hydraulischen Reaktionszeit zwischen dem Oberflächenwasser und den verschiedenen Aquiferen im VMD. Die Analyse ergab, dass die verschiedenen Schichten von Aquiferen und Aquitarden wie ein Tiefpassfilter auf die hydraulischen Signale des Oberflächenwassers wirken, was wiederum die Grundwasserneubildung in den tieferen Aquiferen stark reduziert. Die Zeitreihenanalyse ergab, dass die Entnahmemengen an Grundwasser insbesondere in den tieferen, stark genutzten Aquiferen die Neubildung im gesamten Analysezeitraum 1997 – 2017 überschritten hat. Dies führte zu Absenkung des Grundwasserspiegels von 0.01 – 0.55 m pro Jahr in den verschiedenen Aquiferen des VMD. Die Speicherdauer variiert zwischen den verschiedenen Regionen und Aquiferen des VMD. In den flacheren Aquiferen und in der Region mit tiefen Überflutungen während der Hochwassersaison sind die Speicherdauern kürzer, während sie in den tieferen Aquiferen und in den küstennahen Regionen wesentlich länger sind. Die Reaktionszeit variiert ebenfalls im Raum, wobei die wichtigsten Einflussfaktoren der Abstand des Grundwasserspiegels zur Oberfläche, die Saison und die Lage, hier besonders die Entfernung zum Fluss oder der Küste, sind. Diese qualitativen wie quantitativen Ergebnisse fügen wichtige und wesentlich Erkenntnisse zum Wissensstand über das Grundwasser im VMD hinzu. Die verwendeten Methoden empfehlen sich darüber hinaus für die Analyse von Grundwasserdynamiken in alluvialen Aquifersystemen im Generellen, wenn Daten und Ressourcen für ein physisches numerisches Grundwassermodell fehlen. Die vorliegende Dissertation zeigt, dass wichtige hydrologische Prozesse auch über statistische Analysen von Mess- und Isotopendaten quantitativ analysiert werden können. Die Ergebnisse stellen eine Basisanalyse der Grundwasserdynamik und der sie beeinflussenden Prozesse im VMD dar, und sollten in weiteren Studien ausgebaut werden. Die Analyse der Isotopendaten liefert darüber hinaus die Basislinie für hydrologische Analysen mit stabilen Isotopen im VMD und aufgrund der ähnlichen klimatischen und geografischen Lage auch für weite Teile Südostasiens. Die entwickelten Methodenkombinationen können aufgrund ihrer generellen Natur auch problemlos auf andere tropische Regionen, insbesondere solche mit alluvialen Aquiferen, übertragen werden. T2 - Hydrologische Prozesse im Mekong Delta KW - Vietnamese Mekong Delta KW - stable isotopes KW - data analysis KW - hydrological processes KW - Mekong Delta KW - Datenanalyse KW - hydrologische Prozesse KW - stabile Isotope Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-602607 ER - TY - THES A1 - Antonelli, Andrea T1 - Accurate waveform models for gravitational-wave astrophysics: synergetic approaches from analytical relativity N2 - Gravitational-wave (GW) astrophysics is a field in full blossom. Since the landmark detection of GWs from a binary black hole on September 14th 2015, fifty-two compact-object binaries have been reported by the LIGO-Virgo collaboration. Such events carry astrophysical and cosmological information ranging from an understanding of how black holes and neutron stars are formed, what neutron stars are composed of, how the Universe expands, and allow testing general relativity in the highly-dynamical strong-field regime. It is the goal of GW astrophysics to extract such information as accurately as possible. Yet, this is only possible if the tools and technology used to detect and analyze GWs are advanced enough. A key aspect of GW searches are waveform models, which encapsulate our best predictions for the gravitational radiation under a certain set of parameters, and that need to be cross-correlated with data to extract GW signals. Waveforms must be very accurate to avoid missing important physics in the data, which might be the key to answer the fundamental questions of GW astrophysics. The continuous improvements of the current LIGO-Virgo detectors, the development of next-generation ground-based detectors such as the Einstein Telescope or the Cosmic Explorer, as well as the development of the Laser Interferometer Space Antenna (LISA), demand accurate waveform models. While available models are enough to capture the low spins, comparable-mass binaries routinely detected in LIGO-Virgo searches, those for sources from both current and next-generation ground-based and spaceborne detectors must be accurate enough to detect binaries with large spins and asymmetry in the masses. Moreover, the thousands of sources that we expect to detect with future detectors demand accurate waveforms to mitigate biases in the estimation of signals’ parameters due to the presence of a foreground of many sources that overlap in the frequency band. This is recognized as one of the biggest challenges for the analysis of future-detectors’ data, since biases might hinder the extraction of important astrophysical and cosmological information from future detectors’ data. In the first part of this thesis, we discuss how to improve waveform models for binaries with high spins and asymmetry in the masses. In the second, we present the first generic metrics that have been proposed to predict biases in the presence of a foreground of many overlapping signals in GW data. For the first task, we will focus on several classes of analytical techniques. Current models for LIGO and Virgo studies are based on the post-Newtonian (PN, weak-field, small velocities) approximation that is most natural for the bound orbits that are routinely detected in GW searches. However, two other approximations have risen in prominence, the post-Minkowskian (PM, weak- field only) approximation natural for unbound (scattering) orbits and the small-mass-ratio (SMR) approximation typical of binaries in which the mass of one body is much bigger than the other. These are most appropriate to binaries with high asymmetry in the masses that challenge current waveform models. Moreover, they allow one to “cover” regions of the parameter space of coalescing binaries, thereby improving the interpolation (and faithfulness) of waveform models. The analytical approximations to the relativistic two-body problem can synergically be included within the effective-one-body (EOB) formalism, in which the two-body information from each approximation can be recast into an effective problem of a mass orbiting a deformed Schwarzschild (or Kerr) black hole. The hope is that the resultant models can cover both the low-spin comparable-mass binaries that are routinely detected, and the ones that challenge current models. The first part of this thesis is dedicated to a study about how to best incorporate information from the PN, PM, SMR and EOB approaches in a synergistic way. We also discuss how accurate the resulting waveforms are, as compared against numerical-relativity (NR) simulations. We begin by comparing PM models, whether alone or recast in the EOB framework, against PN models and NR simulations. We will show that PM information has the potential to improve currently-employed models for LIGO and Virgo, especially if recast within the EOB formalism. This is very important, as the PM approximation comes with a host of new computational techniques from particle physics to exploit. Then, we show how a combination of PM and SMR approximations can be employed to access previously-unknown PN orders, deriving the third subleading PN dynamics for spin-orbit and (aligned) spin1-spin2 couplings. Such new results can then be included in the EOB models currently used in GW searches and parameter estimation studies, thereby improving them when the binaries have high spins. Finally, we build an EOB model for quasi-circular nonspinning binaries based on the SMR approximation (rather than the PN one as usually done). We show how this is done in detail without incurring in the divergences that had affected previous attempts, and compare the resultant model against NR simulations. We find that the SMR approximation is an excellent approximation for all (quasi-circular nonspinning) binaries, including both the equal-mass binaries that are routinely detected in GW searches and the ones with highly asymmetric masses. In particular, the SMR-based models compare much better than the PN models, suggesting that SMR-informed EOB models might be the key to model binaries in the future. In the second task of this thesis, we work within the linear-signal ap- proximation and describe generic metrics to predict inference biases on the parameters of a GW source of interest in the presence of confusion noise from unfitted foregrounds and from residuals of other signals that have been incorrectly fitted out. We illustrate the formalism with simple (yet realistic) LISA sources, and demonstrate its validity against Monte-Carlo simulations. The metrics we describe pave the way for more realistic studies to quantify the biases with future ground-based and spaceborne detectors. N2 - Wenn zwei kompakte Objekte wie Schwarze Löcher oder Neutronensterne kollidieren, wird der Raum und die Zeit um sie herum stark gekrümmt. Der effekt sind Störungen der Raumzeit, sogenannte Gravitationswellen, die sich im gesamten Universum ausbreiten. Mit den leistungsstarken und präzisen Netzwerken von Detektoren und der Arbeit vieler Wissenschaftler rund um den Globus kann man Gravitationswellen auf der Erde messen. Gravitationswellen tragen Informationen über das System, das sie erzeugt hat. Insbesondere kann man erfahren, wie sich die kompakten Objekte gebildet haben und woraus sie bestehen. Daraus lässt sich ableiten, wie sich das Universum ausdehnt, und man kann die Allgemeine Relativitätstheorie in Regionen mit starker Gravitation testen. Um diese Informationen zu extrahieren, werden genaue Modelle benötigt. Modelle können entweder numerisch durch Lösen der berühmten Einstein-Gleichungen oder analytisch durch Annäherung an deren Lösungen gewonnen werden. In meiner Arbeit haben wir den zweiten Ansatz verfolgt, um sehr genaue Vorhersagen für die Signale zu erhalten, die bei kommenden Beobachtungen durch Gravitationswellendetektoren verwendet werden können. KW - gravitational waves KW - Gravitationswellen KW - general relativity KW - allgemeine Relativitätstheorie KW - data analysis KW - Datenanalyse Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-576671 ER - TY - THES A1 - Giuri, Chiara T1 - VERITAS Dark Matter search in dwarf spheroidal galaxies: an extended analysis T1 - VERITAS-Suche nach dunkler Materie in sphäroidischen Zwerggalaxien: eine erweiterte Analyse” N2 - In the last century, several astronomical measurements have supported that a significant percentage (about 22%) of the total mass of the Universe, on galactic and extragalactic scales, is composed of a mysterious ”dark” matter (DM). DM does not interact with the electromagnetic force; in other words it does not reflect, absorb or emit light. It is possible that DM particles are weakly interacting massive particles (WIMPs) that can annihilate (or decay) into Standard Model (SM) particles, and modern very- high-energy (VHE; > 100 GeV) instruments such as imaging atmospheric Cherenkov telescopes (IACTs) can play an important role in constraining the main properties of such DM particles, by detecting these products. One of the most privileged targets where to look for DM signal are dwarf spheroidal galaxies (dSphs), as they are expected to be high DM-dominated objects with a clean, gas-free environment. Some dSphs could be considered as extended sources, considering the angular resolution of IACTs; their angu- lar resolution is adequate to detect extended emission from dSphs. For this reason, we performed an extended-source analysis, by taking into account in the unbinned maximum likelihood estimation both the energy and the angular extension dependency of observed events. The goal was to set more constrained upper limits on the velocity-averaged cross-section annihilation of WIMPs with VERITAS data. VERITAS is an array of four IACTs, able to detect γ-ray photons ranging between 100 GeV and 30 TeV. The results of this extended analysis were compared against the traditional spectral analysis. We found that a 2D analysis may lead to more constrained results, depending on the DM mass, channel, and source. Moreover, in this thesis, the results of a multi-instrument project are presented too. Its goal was to combine already published 20 dSphs data from five different experiments, such as Fermi-LAT, MAGIC, H.E.S.S., VERITAS and HAWC, in order to set upper limits on the WIMP annihilation cross-section in the widest mass range ever reported. N2 - Im letzten Jahrhundert haben verschiedene mehrere astronomische Messungen gezeigt, dass ein erheblicher Prozentsatz (etwa 22 %) der Gesamtmasse des Universums auf galaktischer und extragalaktischer Ebene aus einer geheimnisvollen ”dunklen” Materie (DM) besteht. DM interagiert nicht mit der elektromagnetischen Kraft und reflektiert, absorbiert oder emittiert daher kein Licht. Es ist möglich, dass es sich bei DM-Teilchen um schwach wechselwirkende massive Teilchen (engl. weakly interacting massive particles, WIMPs) handelt, die in Teilchen des Standardmodells (SM) annihilieren (oder zerfallen) können. Indem sie diese Produkte nachweisen, können moderne Detektoren für sehr hoch energetische (engl. very-high-energy, VHE; 100 GeV) Gammastrahlung, wie zum Beispiel bildgebende atmosphärische Cherenkov-Teleskope (engl. imaging atmospheric Cherenkov telescopes, IACTs), eine wichtige Rolle bei der Bestimmung der Haupteigenschaften solcher DM-Teilchen spielen. Eines der am besten geeignetsten Ziele für die Suche nach DM-Signalen sind sphäroidische Zwerggalaxien (engl. dwarf spheroidal galaxies, dSphs), da diese stark DM-dominierte Objekte mit einer gasfreien Umgebung sind. Die Winkelauflösung von IACTs ist ausreichend, um ausgedehnte Emission von dSphs zu entdecken. Aus diesem Grund haben wir eine Analyse dieser Quellen durchgeführt, indem wir in der unbinned Maximum-Likelihood-Schätzung sowohl die Energie als auch die Abhängigkeit der Winkelausdehnung der beobachteten Gammastrahlung berücksichtigt haben. Das Ziel war es, mit Hilfe der VERITAS-Daten genauere Obergrenzen für den geschwindigkeitsgemittelten Annihilationsquerschnitt von WIMPs zu bestimmen. VERITAS ist eine Anordnung von vier IACTs, die Gammastrahlen im Bereich von 100 GeV bis 30 TeV detektieren können. Die Ergebnisse dieser erweiterten Analyse wurden mit der traditionellen Spektralanalyse verglichen. Es zeigte sich, dass je nach DM-Masse, Kanal und Quelle eine 2D-Analyse zu aussagekräftigeren Ergebnissen führen kann. Darüber hinaus werden in dieser Arbeit auch die Ergebnisse eines Multi-Instrumenten-Projekts vorgestellt. Das Ziel war es, die bereits veröffentlichte 20 dSphs-Datensätze von Fermi-LAT, MAGIC, H.E.S.S., VERITAS und HAWC zu kombinieren, um obere Grenzwerte für den WIMP-Annihilationsquerschnitt im breitesten jemals veröffentlichten Massenbereich zu bestimmen. KW - Dark Matter KW - data analysis KW - Cherenkov telescopes KW - dwarf spheroidal galaxies KW - Dunkle Materie KW - Datenanalyse KW - Cherenkov-Teleskope KW - sphäroidische Zwerggalaxien Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-575869 ER - TY - THES A1 - Goswami, Bedartha T1 - Uncertainties in climate data analysis T1 - Unsicherheiten in der Analyse von Klimadaten BT - Perspectives on working with measurement errors and other unknowns BT - Über Möglichkeiten der Arbeit mit Meßfehlern und anderen Unbekannten N2 - Scientific inquiry requires that we formulate not only what we know, but also what we do not know and by how much. In climate data analysis, this involves an accurate specification of measured quantities and a consequent analysis that consciously propagates the measurement errors at each step. The dissertation presents a thorough analytical method to quantify errors of measurement inherent in paleoclimate data. An additional focus are the uncertainties in assessing the coupling between different factors that influence the global mean temperature (GMT). Paleoclimate studies critically rely on `proxy variables' that record climatic signals in natural archives. However, such proxy records inherently involve uncertainties in determining the age of the signal. We present a generic Bayesian approach to analytically determine the proxy record along with its associated uncertainty, resulting in a time-ordered sequence of correlated probability distributions rather than a precise time series. We further develop a recurrence based method to detect dynamical events from the proxy probability distributions. The methods are validated with synthetic examples and demonstrated with real-world proxy records. The proxy estimation step reveals the interrelations between proxy variability and uncertainty. The recurrence analysis of the East Asian Summer Monsoon during the last 9000 years confirms the well-known `dry' events at 8200 and 4400 BP, plus an additional significantly dry event at 6900 BP. We also analyze the network of dependencies surrounding GMT. We find an intricate, directed network with multiple links between the different factors at multiple time delays. We further uncover a significant feedback from the GMT to the El Niño Southern Oscillation at quasi-biennial timescales. The analysis highlights the need of a more nuanced formulation of influences between different climatic factors, as well as the limitations in trying to estimate such dependencies. N2 - Wissenschaftliche Untersuchungen setzen nicht nur eine Formulierung des gegenwärtigen Kenntnisstandes mitsamt ihrer Unsicherheiten voraus, sondern ebenso eine Eingrenzung des Unbekannten. Bezogen auf die Analyse von Klimadaten beinhaltet dies eine präzise Spezifikation gemessener Größen sowie eine durchgängige Berücksichtigung ihrer Messunsicherheiten in allen Schritten der Analyse. Diese Dissertation präsentiert eine analytische Methode zur Quantifizierung der in Paläoklimadaten inhärenten Messunsicherheiten. Ein weiterer Schwerpunkt liegt auf der Untersuchung von Unsicherheiten in der Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die globale Durchschnittstemperatur (GMT global mean temperature) beeinflussen. Die Paläoklimaforschung beruht in kritischem Maße auf der Analyse von Proxydaten welche die Klimaentwicklung dokumentieren. Allerdings sind Proxydaten mit inhärenten Datierungsunsicherheiten behaftet. Basierend auf einem generischen Bayes’schen Ansatz wird in dieser Dissertation eine analytische Methode vorgestellt um aus den zeitlich unsicheren Proxydaten zeitlich präzise Folgen korrelierter Wahrscheinlichkeitsverteilungen zu erhalten. Von diesen Verteilungen werden Proxyzeitreihen zusammen mit ihren Unsicherheiten berechnet. Weiterhin wird eine rekurrenzbasierte Methode zur Analyse von Proxydaten entwickelt welche anhand dieser Wahrscheinlichkeitsverteilungen plötzliche Änderungen in der Dynamik des Systems ermittelt. Beide Methoden werden mit Hilfe synthetischer Beispieldaten validiert und mit realen Proxydaten demonstriert. Diese statistische Analyse von Proxydaten deckt unteranderem die Beziehungen zwischen der Variabilität der Daten und zugehöriger Unsicherheiten der Proxyzeitreihen auf. Die Re- kurrenzanalyse des Ostasiatischen Sommermonsuns bestätigt die bekannten Trockenzeiten der letzten 9.000 Jahre um 8.200 bzw. 4.400 Jahre vor unserer Zeit und deckt eine zusätzliche Trockenzeit um etwa 6.900 Jahre vor unserer Zeit auf. Die Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die GMT beeinflussen lässt sich als ein verworrenes, gerichtetes Netzwerk mit multiplen Links, welche zu verschiedenen Zeitskalen gehören, darstellen. Speziell ergibt sich eine signifikante Wechselwirkung zwischen der GMT und dem ENSO-Phänomen (El Niño-Southern Oscillation) auf einer quasi-zweijährigen Zeitskala. Einerseits beleuchtet diese Analyse die Notwendigkeit Einflüsse verschiedener Klimafaktoren auf die GMT nuancierter zu formulieren, andererseits werden die Grenzen der Quantifizierung dieser Einflüsse aufgezeigt. KW - data analysis KW - Bayesian estimation KW - Bayessche Schätzer KW - Datenanalyse Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78312 ER - TY - THES A1 - Mayer, Michael T1 - Pulsar wind nebulae at high energies BT - a diverse population and exceptional twins BT - eine vielfältige Population und außergewöhnliche Zwillinge N2 - Pulsar wind nebulae (PWNe) are the most abundant TeV gamma-ray emitters in the Milky Way. The radiative emission of these objects is powered by fast-rotating pulsars, which donate parts of their rotational energy into winds of relativistic particles. This thesis presents an in-depth study of the detected population of PWNe at high energies. To outline general trends regarding their evolutionary behaviour, a time-dependent model is introduced and compared to the available data. In particular, this work presents two exceptional PWNe which protrude from the rest of the population, namely the Crab Nebula and N 157B. Both objects are driven by pulsars with extremely high rotational energy loss rates. Accordingly, they are often referred to as energetic twins. Modelling the non-thermal multi-wavelength emission of N157B gives access to specific properties of this object, like the magnetic field inside the nebula. Comparing the derived parameters to those of the Crab Nebula reveals large intrinsic differences between the two PWNe. Possible origins of these differences are discussed in context of the resembling pulsars. Compared to the TeV gamma-ray regime, the number of detected PWNe is much smaller in the MeV-GeV gamma-ray range. In the latter range, the Crab Nebula stands out by the recent detection of gamma-ray flares. In general, the measured flux enhancements on short time scales of days to weeks were not expected in the theoretical understanding of PWNe. In this thesis, the variability of the Crab Nebula is analysed using data from the Fermi Large Area Telescope (Fermi-LAT). For the presented analysis, a new gamma-ray reconstruction method is used, providing a higher sensitivity and a lower energy threshold compared to previous analyses. The derived gamma-ray light curve of the Crab Nebula is investigated for flares and periodicity. The detected flares are analysed regarding their energy spectra, and their variety and commonalities are discussed. In addition, a dedicated analysis of the flare which occurred in March 2013 is performed. The derived short-term variability time scale is roughly 6h, implying a small region inside the Crab Nebula to be responsible for the enigmatic flares. The most promising theories explaining the origins of the flux eruptions and gamma-ray variability are discussed in detail. In the technical part of this work, a new analysis framework is presented. The introduced software, called gammalib/ctools, is currently being developed for the future CTA observa- tory. The analysis framework is extensively tested using data from the H. E. S. S. experiment. To conduct proper data analysis in the likelihood framework of gammalib/ctools, a model describing the distribution of background events in H.E.S.S. data is presented. The software provides the infrastructure to combine data from several instruments in one analysis. To study the gamma-ray emitting PWN population, data from Fermi-LAT and H. E. S. S. are combined in the likelihood framework of gammalib/ctools. In particular, the spectral peak, which usually lies in the overlap energy regime between these two instruments, is determined with the presented analysis framework. The derived measurements are compared to the predictions from the time-dependent model. The combined analysis supports the conclusion of a diverse population of gamma-ray emitting PWNe. N2 - Pulsarwindnebel (PWN) sind im Bereich der TeV Gammastrahlung die am häufigsten vorkommende Quellklasse. Die vorliegende Arbeit präsentiert eine detaillierte Studie der Population von gammastrahlungsemittierenden PWNn. Um ihre Entwicklung zu untersuchen, wird ein zeitabhängiges Modell vorgestellt und mit Messdaten verglichen. Der Fokus dieser Arbeit liegt des Weiteren auf zwei außergewöhnlichen PWNn, die aus der übrigen Population hervorstechen: der Krebsnebel und N 157B. Diese beiden PWN werden von Pulsaren mit ähnlich hohen Rotationsenergieverlustraten gespeist. Daher werden die beiden Pulsare auch oft als “energetische Zwillinge” bezeichnet. Im Rahmen dieser Arbeit wird die Breitbandemission von N 157B modelliert. Dies ermöglicht es, spezielle Eigenschaften dieses PWNs abzuschätzen. Diese sind im Vergleich zum Krebsnebel sehr unterschiedlich, obwohl sich die jeweiligen Energiequellen stark ähneln. Es werden verschiedene Möglichkeiten für die unterschiedliche Erscheinung dieser beiden Quellen diskutiert. Auf Grund kürzlich gemessener MeV Gammastrahlungsausbrüche wird die Einzigartigkeit des Krebsnebels in diesem Energiebereich verdeutlicht. Die auf Zeitskalen von Tagen bis Wochen variierende Helligkeit ist nach dem gegenwärtigen Verständnis von PWNn unerwartet. In dieser Arbeit wird die zeitliche Variabilität des Krebsnebels mit Daten vom Fermi Large Area Telescope (Fermi-LAT) analysiert. Die vorgestellte Datenanalyse basiert auf einer neuen Rekonstruktionsmethode von Gammastrahlen, welche zu einer höheren Empfindlichkeit und einer niedrigeren Energieschwelle führt. Die Lichtkurve des Krebsnebels in Gammastrahlung wird auf Periodizität und Variabilität untersucht. Des Weiteren werden die nachgewiesenen Strahlungsausbrüche hinsichtlich ihrer Energiespektren ausgewertet und miteinander auf Gemeinsamkeiten und Unterschiede verglichen. Zusätzlich wird eine detaillierte Analyse der starken Flusserhöhung vom März 2013 vorgestellt. Die hierbei bestimmte Kurzzeitvariabilität von ca. sechs Stunden lässt vermuten, dass eine sehr kleine Region innerhalb des Krebsnebels für die Strahlungsausbrüche verantwortlich ist. Die vielversprechendsten Theorien zu diesem Phänomen werden vorgestellt und diskutiert. Im technischen Teil dieser Arbeit wird eine neue Analyseumgebung vorgestellt, die derzeit für das zukünftige CTA Observatorium entwickelt wird. Diese Software wird intensiven Analysetests mit Daten des H.E.S.S. Experiments unterzogen. Für die angemessene Durchführung von H.E.S.S. Datenanalysen wird ein Modell vorgestellt, das die Verteilung der Untergrundereignisse in H. E. S. S. Daten beschreibt. Des Weiteren erlaubt die Analyseumgebung die Kombination von Daten mehrerer Instrumente. Diese einzigartige Option wird genutzt, um die beschriebene PWN Population genauer zu studieren. Zu diesem Zweck werden Daten von Fermi-LAT und H. E. S. S. gemeinsam analysiert. Von besonderem Interesse ist hierbei das spektrale Maximum von PWN, welches meist im energetischen Überlappbereich der beiden Instrumente liegt. Die Ergebnisse der gemeinsamen Analyse werden mit dem zeitabhängigen Modell für PWN verglichen. Die daraus gewonnenen Resultate verdeutlichen unter anderem die breite Vielfalt von PWNn. T2 - Pulsarwindnebel bei hohen Energien KW - Crab Nebula KW - N157B KW - gammalib/ctools KW - gamma-ray astronomy KW - data analysis KW - Gammastrahlungsastronomie KW - Fermi-LAT KW - H.E.S.S. KW - Statistische Datenanalyse KW - Krebsnebel KW - N157B KW - Pulsarwindnebel Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-71504 ER - TY - THES A1 - Balzer, Arnim T1 - Crab flare observations with H.E.S.S. phase II T1 - Crab Flare Observations with H.E.S.S. Phase II N2 - The H.E.S.S. array is a third generation Imaging Atmospheric Cherenkov Telescope (IACT) array. It is located in the Khomas Highland in Namibia, and measures very high energy (VHE) gamma-rays. In Phase I, the array started data taking in 2004 with its four identical 13 m telescopes. Since then, H.E.S.S. has emerged as the most successful IACT experiment to date. Among the almost 150 sources of VHE gamma-ray radiation found so far, even the oldest detection, the Crab Nebula, keeps surprising the scientific community with unexplained phenomena such as the recently discovered very energetic flares of high energy gamma-ray radiation. During its most recent flare, which was detected by the Fermi satellite in March 2013, the Crab Nebula was simultaneously observed with the H.E.S.S. array for six nights. The results of the observations will be discussed in detail during the course of this work. During the nights of the flare, the new 24 m × 32 m H.E.S.S. II telescope was still being commissioned, but participated in the data taking for one night. To be able to reconstruct and analyze the data of the H.E.S.S. Phase II array, the algorithms and software used by the H.E.S.S. Phase I array had to be adapted. The most prominent advanced shower reconstruction technique developed by de Naurois and Rolland, the template-based model analysis, compares real shower images taken by the Cherenkov telescope cameras with shower templates obtained using a semi-analytical model. To find the best fitting image, and, therefore, the relevant parameters that describe the air shower best, a pixel-wise log-likelihood fit is done. The adaptation of this advanced shower reconstruction technique to the heterogeneous H.E.S.S. Phase II array for stereo events (i.e. air showers seen by at least two telescopes of any kind), its performance using MonteCarlo simulations as well as its application to real data will be described. N2 - Das H.E.S.S. Experiment misst sehr hochenergetische Gammastrahlung im Khomas Hochland von Namibia. Es ist ein sogenanntes abbildendes atmosphärisches Cherenkov-Teleskopsystem welches in der 1. Phase, die im Jahr 2004 mit der Datennahme begann, aus vier identischen 13 m Spiegelteleskopen bestand. Seitdem hat sich H.E.S.S. als das erfolgreichstes Experiment in der bodengebundenen Gammastrahlungsastronomie etabliert. Selbst die älteste der mittlerweile fast 150 entdeckten Quellen von sehr hochenergetischer Gammastrahlung, der Krebsnebel, fasziniert immernoch Wissenschaftler mit neuen bisher unbekannten und unerwarteten Phänomenen. Ein Beispiel dafür sind die vor kurzem entdeckten sehr energiereichen Ausbrüche von hochenergetischer Gammastrahlung. Bei dem letzten deratigen Ausbruch des Krebsnebels im März 2013 hat das H.E.S.S. Experiment für sechs Nächte simultan mit dem Fermi-Satelliten, welcher den Ausbruch entdeckte, Daten genommen. Die Analyse der Daten, deren Ergebnis und deren Interpretation werden im Detail in dieser Arbeit vorgestellt. Während dieser Beobachtungen befand sich ein neues 24 m × 32 m großes Spiegelteleskop, das H.E.S.S. II- Teleskop, noch in seiner Inbetriebnahme, trotzdem hat es für eine dieser sechs Nächte an der Datennahme des gesamten Teleskopsystems teilgenommen. Um die Daten rekonstruieren und analysieren zu können, mussten die für die 1. Phase des Experiments entwickelten Algorithmen und die Software des H.E.S.S.- Experiments angepasst werden. Die fortschrittlichste Schauerrekonstruktionsmethode, welche von de Naurois und Rolland entwickelt wurde, basiert auf dem Vergleich von echten Schauerbildern, die mit Hilfe der Cherenkov-Kameras der einzelnen Teleskope aufgenommen wurden, mit Schauerschablonen die mit Hilfe eines semianalytischen Modells erzeugt wurden. Das am besten passende Bild und damit auch alle relevanten Schauerparameter, wird mit Hilfe einer pixelweisen Loglikelihood-Anpassung ermittelt. Die nötigen Änderungen um Multiteleskopereignisse, welche vom heterogenen H.E.S.S. Phase II Detektor gemessen wurden, mit Hilfe dieser fortschrittlichen Schauerrekonstruktionsmethode analysieren zu können, sowie die resultierenden Ergebnisse von MonteCarlo-Simulationen, als auch die Anwendung auf echte Daten, werden im Rahmen dieser Arbeit präsentiert. KW - Gammastrahlungsastronomie KW - Rekonstruktionsmethoden KW - Datenanalyse KW - Krebsnebel KW - gamma-ray astronomy KW - reconstruction methods KW - data analysis KW - Crab Nebula Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72545 ER - TY - THES A1 - Holler, Markus T1 - Photon reconstruction for the H.E.S.S. 28 m telescope and analysis of Crab Nebula and galactic centre observations T1 - Photonrekonstruktion für das 28 m H.E.S.S. Teleskop und Analyse von Beobachtungen des Krebsnebels und des galaktischen Zentrums N2 - In the presented thesis, the most advanced photon reconstruction technique of ground-based γ-ray astronomy is adapted to the H.E.S.S. 28 m telescope. The method is based on a semi-analytical model of electromagnetic particle showers in the atmosphere. The properties of cosmic γ-rays are reconstructed by comparing the camera image of the telescope with the Cherenkov emission that is expected from the shower model. To suppress the dominant background from charged cosmic rays, events are selected based on several criteria. The performance of the analysis is evaluated with simulated events. The method is then applied to two sources that are known to emit γ-rays. The first of these is the Crab Nebula, the standard candle of ground-based γ-ray astronomy. The results of this source confirm the expected performance of the reconstruction method, where the much lower energy threshold compared to H.E.S.S. I is of particular importance. A second analysis is performed on the region around the Galactic Centre. The analysis results emphasise the capabilities of the new telescope to measure γ-rays in an energy range that is interesting for both theoretical and experimental astrophysics. The presented analysis features the lowest energy threshold that has ever been reached in ground-based γ-ray astronomy, opening a new window to the precise measurement of the physical properties of time-variable sources at energies of several tens of GeV. N2 - In der vorliegenden Dissertation wird die zur Zeit sensitivste Methode zur Photonrekonstruktion in der bodengebundenen Gammastrahlungsastronomie an das 28 m H.E.S.S. Teleskop angepasst. Die Analyse basiert auf einem semi-analytischen Modell von elektromagnetischen Teilchenschauern in der Erdatmosphäre. Die Rekonstruktion erfolgt durch den Vergleich des Bildes der Teleskopkamera mit der Tscherenkow-Emission, die mittels des Schauermodells berechnet wurde. Zur Verringerung des dominanten Untergrundes, der hauptsächlich durch Teilchen der geladenen kosmischen Strahlung hervorgerufen wird, werden Ereignisse anhand bestimmter Kriterien ausgewählt. Die Leistungsfähigkeit der Analyse wird unter Verwendung simulierter Ereignisse evaluiert. Die Methode wird anschließend auf zwei Gammastrahlungsquellen angewendet. Zuerst wird der Krebsnebel analysiert, die Standardkerze der bodengebundenen Gammastrahlungsastronomie. Die Resultate der Analyse des Krebsnebels bestätigen die bereits zuvor erwartete Leistungsfähigkeit der Rekonstruktionsmethode, wobei hier insbesondere die im Vergleich zu H.E.S.S. I stark verringerte Energieschwelle hervorzuheben ist. Als Zweites werden Beobachtungen der Region um das galaktische Zentrum ausgewertet. Die Analyseergebnisse dieser Daten unterstreichen die Fähigkeiten des neuen Teleskops zur Messung kosmischer Gammastrahlung in einem für die theoretische und experimentelle Astrophysik interessanten Energiebereich. Die vorgestellte Analyse besitzt die niedrigste Energieschwelle, die in der bodengebundenen Gammastrahlungsastronomie je erreicht wurde. Sie ermöglicht damit präzise Messungen der physikalischen Eigenschaften von zeitabhängigen Quellen im Energiebereich von 10 bis 100 GeV. KW - Gammastrahlungsastronomie KW - Rekonstruktionsmethoden KW - Datenanalyse KW - Krebsnebel KW - galaktisches Zentrum KW - gamma-ray astronomy KW - reconstruction methods KW - data analysis KW - Crab Nebula KW - galactic centre Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72099 ER - TY - THES A1 - Thomas, Björn Daniel T1 - Analysis and management of low flows in small catchments of Brandenburg, Germany T1 - Analyse und Management von Niedrigwasserabflüssen in kleinen Flusseinzugsgebieten Brandenburgs N2 - Water management and environmental protection is vulnerable to extreme low flows during streamflow droughts. During the last decades, in most rivers of Central Europe summer runoff and low flows have decreased. Discharge projections agree that future decrease in runoff is likely for catchments in Brandenburg, Germany. Depending on the first-order controls on low flows, different adaption measures are expected to be appropriate. Small catchments were analyzed because they are expected to be more vulnerable to a changing climate than larger rivers. They are mainly headwater catchments with smaller ground water storage. Local characteristics are more important at this scale and can increase vulnerability. This thesis mutually evaluates potential adaption measures to sustain minimum runoff in small catchments of Brandenburg, Germany, and similarities of these catchments regarding low flows. The following guiding questions are addressed: (i) Which first-order controls on low flows and related time scales exist? (ii) Which are the differences between small catchments regarding low flow vulnerability? (iii) Which adaption measures to sustain minimum runoff in small catchments of Brandenburg are appropriate considering regional low flow patterns? Potential adaption measures to sustain minimum runoff during periods of low flows can be classified into three categories: (i) increase of groundwater recharge and subsequent baseflow by land use change, land management and artificial ground water recharge, (ii) increase of water storage with regulated outflow by reservoirs, lakes and wetland water management and (iii) regional low flow patterns have to be considered during planning of measures with multiple purposes (urban water management, waste water recycling and inter-basin water transfer). The question remained whether water management of areas with shallow groundwater tables can efficiently sustain minimum runoff. Exemplary, water management scenarios of a ditch irrigated area were evaluated using the model Hydrus-2D. Increasing antecedent water levels and stopping ditch irrigation during periods of low flows increased fluxes from the pasture to the stream, but storage was depleted faster during the summer months due to higher evapotranspiration. Fluxes from this approx. 1 km long pasture with an area of approx. 13 ha ranged from 0.3 to 0.7 l\s depending on scenario. This demonstrates that numerous of such small decentralized measures are necessary to sustain minimum runoff in meso-scale catchments. Differences in the low flow risk of catchments and meteorological low flow predictors were analyzed. A principal component analysis was applied on daily discharge of 37 catchments between 1991 and 2006. Flows decreased more in Southeast Brandenburg according to meteorological forcing. Low flow risk was highest in a region east of Berlin because of intersection of a more continental climate and the specific geohydrology. In these catchments, flows decreased faster during summer and the low flow period was prolonged. A non-linear support vector machine regression was applied to iteratively select meteorological predictors for annual 30-day minimum runoff in 16 catchments between 1965 and 2006. The potential evapotranspiration sum of the previous 48 months was the most important predictor (r²=0.28). The potential evapotranspiration of the previous 3 months and the precipitation of the previous 3 months and last year increased model performance (r²=0.49, including all four predictors). Model performance was higher for catchments with low yield and more damped runoff. In catchments with high low flow risk, explanatory power of long term potential evapotranspiration was high. Catchments with a high low flow risk as well as catchments with a considerable decrease in flows in southeast Brandenburg have the highest demand for adaption. Measures increasing groundwater recharge are to be preferred. Catchments with high low flow risk showed relatively deep and decreasing groundwater heads allowing increased groundwater recharge at recharge areas with higher altitude away from the streams. Low flows are expected to stay low or decrease even further because long term potential evapotranspiration was the most important low flow predictor and is projected to increase during climate change. Differences in low flow risk and runoff dynamics between catchments have to be considered for management and planning of measures which do not only have the task to sustain minimum runoff. N2 - Sowohl Gewässermanagement als auch die Gewässerökologie können durch extreme Niedrigwasserereignisse stark betroffen sein. In den letzten Jahrzehnten haben sowohl der Abfluss während der Sommermonate als auch die Niedrigwasserabflüsse in den meisten Flüssen Zentraleuropas abgenommen. Projektionen des zukünftigen Abflusses lassen einen weiteren Rückgang der Abflüsse aus Einzugsgebieten Brandenburgs erwarten. Anpassungsmaßnahmen zur Stützung von Niedrigwasserabflüssen müssen den hydrologischen Prozessen gerecht werden. In dieser Arbeit werden Kopfeinzugsgebiete mit kleineren Grundwasserspeichern betrachtet, weil sie anfälliger gegenüber dem Klimawandel erscheinen als größere. Lokale Gegebenheiten können darüber hinaus ihre Vulnerabilität erhöhen. In dieser Arbeit werden Ergebnisse über die ähnlichkeit von kleinen Einzugsgebieten verwendet, um geeignete Anpassungsmaßnahmen zur Stützung von Niedrigwasserabflüssen herauszuarbeiten. Folgende Leitfragen werden bearbeitet: (i) Was sind die maßgeblichen Prozesse und Zeitskalen, die zu Niedrigwasserabflüssen führen? (ii) Wie unterscheiden sich die Einzugsgebiete bezüglich ihrer Vulnerabilität? (iii) Was sind geeignete Anpassungsmaßnahmen unter Berücksichtigung der vorherrschenden Prozesse und ihrer räumlichen Muster? Mögliche Anpassungsmaßnahmen können in drei Kategorien unterteilt werden: (i) Landnutzungsänderungen, änderungen der Feldbewirtschaftung und künstliche Grundwasseranreicherung führen zur Erhöhung der Grundwasserneubildung und somit des Basisabflusses. (ii) Talsperren, Seen, Teiche und ein entsprechendes Wassermanagement in Feuchtgebieten eignen sich zur Wasserspeicherung und regulierten Wasserabgabe. (iii) Maßnahmen bei deren Planung Wissen über Niedrigwasserabflüsse einfließen muss, aber die Stützung von Niedrigwasserabflüssen nicht die einzige Aufgabe ist (Siedlungswassermanagement, Abwassermanagement und Wasserüberleitungen zwischen Einzugsgebieten). Darüber hinaus wurde die Effektivität ufernaher Grundwasseranreicherung durch bestehende Bewässerungsgräben explizit an einem Standort unter Verwendung des Models Hydrus-2D quantifiziert. Hohe Wasserstände in den Gräben und das Unterbrechen der Wassereinleitung führten zu einer Niedrigwasseraufhöhung. Im Sommer wurde der Wasserspeicher wegen der Verdunstung schneller verbraucht. Je nach Szenario betrug die Niedrigwasseraufhöhung, die von der ca. 1 km langen und 13 ha großen Fläche ausging, zwischen 0.3 und 0.7 l/s. Eine Vielzahl solcher dezentraler Maßnahmen wären für eine deutliche Stützung der Niedrigwasserabflüsse in mesoskaligen Einzugsgebieten notwendig. Das Niedrigwasserrisiko sowie meteorologische Niedrigwasserprädiktoren wurden vergleichend analysiert. Der tägliche Abfluss aus 37 Einzugsgebieten zwischen 1991 und 2006 wurde mittels einer Hauptkomponentenanalyse ausgewertet. Der Abfluss in Südost Brandenburg ging klimabedingt stärker zurück. Das Niedrigwasserrisiko war in der Region östlich Berlins als Folge des kontinentaleren Klimas und der lokalen geohydrologischen Verhältnisse am größten. Diese Einzugsgebiete zeigten einen relativ schnellen Abflussrückgang während der Sommermonate und eine längere Niedrigwasserperiode. Darüber hinaus wurde eine nichtlineare Support Vektor Machine Regression zur iterativen Bestimmung der meteorologischen Prädiktoren für den jährlichen Niedrigwasserabfluss im 30-Tage Mittel in 16 Einzugsgebieten zwischen 1965 und 2006 durchgeführt. Die potentielle Verdunstungshöhe der vorhergegangenen 48 Monate war der wichtigste Prädiktor (r²=0.28). Die potentielle Verdunstungshöhe der vorhergegangenen 3 Monate sowie die Niederschlagshöhe der vorhergegangenen 3 Monate und des letzten Jahres verbesserten die Modellgüte zusätzlich (r²=0.49, für alle vier Prädiktoren). Die Modellgüte war höher in Einzugsgebieten mit geringer Abflussspende und gedämpftem Abflussverhalten. In Einzugsgebieten mit hohem Niedrigwasserrisiko war die potentielle Langzeitverdunstung wichtiger, um Niedrigwasserabflüsse zu erklären. In Einzugsgebieten mit hohem Niedrigwasserrisiko östlich von Berlin und deutlichem Abflussrückgang im Südosten Brandenburgs besteht der höchste Anpassungsbedarf. Maßnahmen zur Erhöhung der Grundwasserneubildung sollten bevorzugt werden. Einzugsgebiete mit hohem Niedrigwasserrisiko haben verhältnismäßig tiefe Grundwasserstände, was eine Erhöhung der Grundwasserneubildung in den höher gelegenen Neubildungsgebieten möglich und sinnvoll macht. Es ist davon auszugehen, dass Niedrigwasserabflüsse weiterhin niedrig bleiben oder sogar weiter fallen werden, da die potentielle Langzeitverdunstung der wichtigste Prädiktor war und Klimamodelle einen weiteren Anstieg dieser projizieren. Des Weiteren sind die Ergebnisse dieser Arbeit wichtig für die integrierte Planung von Maßnahmen, die nicht ausschließlich die Stützung von Niedrigwasserabflüssen zur Aufgabe haben. KW - regionale Hydrologie KW - Niedrigwasser KW - Einzugsgebietsklassifizierung KW - multivariate Statistik KW - Datenanalyse KW - landscape hydrology KW - low flow KW - catchment classification KW - multivariate statistics KW - data analysis Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69247 ER - TY - THES A1 - Ohme, Frank T1 - Bridging the gap between post-Newtonian theory and numerical relativity in gravitational-wave data analysis T1 - Die Verbindung von post-Newtonscher Theorie und Numerischer Relativitätstheorie in der Gravitationswellenanalyse N2 - One of the most exciting predictions of Einstein's theory of gravitation that have not yet been proven experimentally by a direct detection are gravitational waves. These are tiny distortions of the spacetime itself, and a world-wide effort to directly measure them for the first time with a network of large-scale laser interferometers is currently ongoing and expected to provide positive results within this decade. One potential source of measurable gravitational waves is the inspiral and merger of two compact objects, such as binary black holes. Successfully finding their signature in the noise-dominated data of the detectors crucially relies on accurate predictions of what we are looking for. In this thesis, we present a detailed study of how the most complete waveform templates can be constructed by combining the results from (A) analytical expansions within the post-Newtonian framework and (B) numerical simulations of the full relativistic dynamics. We analyze various strategies to construct complete hybrid waveforms that consist of a post-Newtonian inspiral part matched to numerical-relativity data. We elaborate on exsisting approaches for nonspinning systems by extending the accessible parameter space and introducing an alternative scheme based in the Fourier domain. Our methods can now be readily applied to multiple spherical-harmonic modes and precessing systems. In addition to that, we analyze in detail the accuracy of hybrid waveforms with the goal to quantify how numerous sources of error in the approximation techniques affect the application of such templates in real gravitational-wave searches. This is of major importance for the future construction of improved models, but also for the correct interpretation of gravitational-wave observations that are made utilizing any complete waveform family. In particular, we comprehensively discuss how long the numerical-relativity contribution to the signal has to be in order to make the resulting hybrids accurate enough, and for currently feasible simulation lengths we assess the physics one can potentially do with template-based searches. N2 - Eine der aufregendsten Vorhersagen aus Einsteins Gravitationstheorie, die bisher noch nicht direkt durch ein Experiment nachgewiesen werden konnten, sind Gravitationswellen. Dies sind winzige Verzerrungen der Raumzeit selbst, und es wird erwartet, dass das aktuelle Netzwerk von groß angelegten Laserinterferometern im kommenden Jahrzehnt die erste direkte Gravitationswellenmessung realisieren kann. Eine potentielle Quelle von messbaren Gravitationswellen ist das Einspiralen und Verschmelzen zweier kompakter Objekte, wie z.B. ein Binärsystem von Schwarzen Löchern. Die erfolgreiche Identifizierung ihrer charakteristischen Signatur im Rausch-dominierten Datenstrom der Detektoren hängt allerdings entscheidend von genauen Vorhersagen ab, was wir eigentlich suchen. In dieser Arbeit wird detailliert untersucht, wie die komplettesten Wellenformenmodelle konstruiert werden können, indem die Ergebnisse von (A) analytischen Entwicklungen im post-Newtonschen Verfahren und (B) numerische Simulationen der voll-relativistischen Bewegungen verknüpft werden. Es werden verschiedene Verfahren zur Erstellung solcher "hybriden Wellenformen", bei denen der post-Newtonsche Teil mit numerischen Daten vervollständigt wird, analysiert. Existierende Strategien für nicht-rotierende Systeme werden vertieft und der beschriebene Parameterraum erweitert. Des Weiteren wird eine Alternative im Fourierraum eingeführt. Die entwickelten Methoden können nun auf multiple sphärisch-harmonische Moden und präzedierende Systeme angewandt werden. Zusätzlich wird die Genauigkeit der hybriden Wellenformen mit dem Ziel analysiert, den Einfluss verschiedener Fehlerquellen in den Näherungstechniken zu quantifizieren und die resultierenden Einschränkungen bei realen Anwendungen abzuschätzen. Dies ist von größter Bedeutung für die zukünftige Entwicklung von verbesserten Modellen, aber auch für die korrekte Interpretation von Gravitationswellenbeobachtungen, die auf Grundlage solcher Familien von Wellenformen gemacht worden sind. Insbesondere wird diskutiert, wie lang der numerische Anteil des Signals sein muss, um die Hybride genau genug konstruieren zu können. Für die aktuell umsetzbaren Simulationslängen wird die Physik eingeschätzt, die mit Hilfe von Modell-basierten Suchen potentiell untersucht werden kann. KW - Schwarze Löcher KW - Gravitationswellen KW - Numerische Relativitätstheorie KW - Datenanalyse KW - Post-Newton KW - black holes KW - gravitational waves KW - numerical relativity KW - data analysis KW - post-Newton Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60346 ER - TY - THES A1 - Bergner, André T1 - Synchronization in complex systems with multiple time scales T1 - Synchronisation in komplexen Systemen mit mehreren Zeitskalen N2 - In the present work synchronization phenomena in complex dynamical systems exhibiting multiple time scales have been analyzed. Multiple time scales can be active in different manners. Three different systems have been analyzed with different methods from data analysis. The first system studied is a large heterogenous network of bursting neurons, that is a system with two predominant time scales, the fast firing of action potentials (spikes) and the burst of repetitive spikes followed by a quiescent phase. This system has been integrated numerically and analyzed with methods based on recurrence in phase space. An interesting result are the different transitions to synchrony found in the two distinct time scales. Moreover, an anomalous synchronization effect can be observed in the fast time scale, i.e. there is range of the coupling strength where desynchronization occurs. The second system analyzed, numerically as well as experimentally, is a pair of coupled CO₂ lasers in a chaotic bursting regime. This system is interesting due to its similarity with epidemic models. We explain the bursts by different time scales generated from unstable periodic orbits embedded in the chaotic attractor and perform a synchronization analysis of these different orbits utilizing the continuous wavelet transform. We find a diverse route to synchrony of these different observed time scales. The last system studied is a small network motif of limit cycle oscillators. Precisely, we have studied a hub motif, which serves as elementary building block for scale-free networks, a type of network found in many real world applications. These hubs are of special importance for communication and information transfer in complex networks. Here, a detailed study on the mechanism of synchronization in oscillatory networks with a broad frequency distribution has been carried out. In particular, we find a remote synchronization of nodes in the network which are not directly coupled. We also explain the responsible mechanism and its limitations and constraints. Further we derive an analytic expression for it and show that information transmission in pure phase oscillators, such as the Kuramoto type, is limited. In addition to the numerical and analytic analysis an experiment consisting of electrical circuits has been designed. The obtained results confirm the former findings. N2 - In der vorliegenden Arbeit wurden Synchronisationsphänomene in komplexen Systemen mit mehreren Zeitskalen untersucht. Es gibt mehrere Möglichkeiten wie diese verschiedenen Zeitskalen vorkommen können. Drei verschiedene Systeme, jedes mit einer anderen Art von zeitlicher Multiskalität, wurden mit unterschiedlichen Methoden der Datenanalyse untersucht. Das erste untersuchte System ist ein ausgedehntes heterogenes Netzwerk von Neuronen mit zwei dominanten Zeitskalen, zum einen die schnelle Folge von Aktionspotenzialen und zum anderen einer abwechselnden Folge von einer Phase von Aktionspotenzialen und einer Ruhephase. Dieses System wurde numerisch integriert und mit Methoden der Phasenraumrekurrenz untersucht. Ein interessantes Ergebnis ist der unterschiedliche Übergang zur Synchronisation der Neuronen auf den beiden verschiedenen Zeitskalen. Des weiteren kann auf der schnellen Zeitskala eine anomale Synchronisation beobachtet werden, d.h. es gibt einen Bereich der Kopplungsstärke in dem es zu einer Desynchronisation kommt. Als zweites wurde, sowohl numerisch als auch experimentell, ein System von gekoppelten CO₂ Lasern untersucht, welche in einem chaotischen bursting Modus arbeiten. Dieses System ist auch durch seine Äquivalenz zu Epidemiemodellen interessant. Wir erklären die Bursts durch unterschiedliche Zeitskalen, welche durch in den chaotischen Attraktor eingebettete instabile periodische Orbits generiert werden. Wir führen eine Synchronisationsanalyse mit Hilfe der kontinuierlichen Wavelettransformation durch und finden einen unterschiedlichen Übergang zur Synchronisation auf den unterschiedlichen Zeitskalen. Das dritte analysierte System ist ein Netzwerkmotiv von Grenzzyklusoszillatoren. Genauer handelt es sich um ein Nabenmotiv, welches einen elementaren Grundbaustein von skalenfreien Netzwerken darstellt, das sind Netzwerke die eine bedeutende Rolle in vielen realen Anwendungen spielen. Diese Naben sind von besonderer Bedeutung für die Kommunikation und den Informationstransport in komplexen Netzwerken. Hierbei wurde eine detaillierte Untersuchung des Synchronisationsmechanismus in oszillatorischen Netzwerken mit einer breiten Frequenzverteilung durchgeführt. Insbesondere beobachten wir eine Fernsynchronisation von Netzwerkknoten, die nur indirekt über andere Oszillatoren miteinander gekoppelt sind. Wir erklären den zu Grunde liegenden Mechanismus und zeigen dessen Grenzen und Bedingungen auf. Des weiteren leiten wir einen analytischen Ausdruck für den Mechanismus her und zeigen, dass eine Informationsübertragung in reinen Phasenoszillatoren, wie beispielsweise vom Kuramototyp, eingeschränkt ist. Diese Ergebnisse konnten wir durch Experimente mit elektrischen Schaltkreisen bestätigen. KW - Komplexe Systeme KW - Synchronisation KW - Nichtlineare Dynamik KW - Datenanalyse KW - complex systems KW - synchronization KW - nonlinear dynamics KW - data analysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53407 ER - TY - THES A1 - Gholami Ghadikolaei, Iraj T1 - Data analysis of continuous gravitational waves T1 - Daten Analyse der kontinuierlichen Gravitationswellen N2 - This thesis describes two main projects; the first one is the optimization of a hierarchical search strategy to search for unknown pulsars. This project is divided into two parts; the first part (and the main part) is the semi-coherent hierarchical optimization strategy. The second part is a coherent hierarchical optimization strategy which can be used in a project like Einstein@Home. In both strategies we have found that the 3-stages search is the optimum strategy to search for unknown pulsars. For the second project we have developed a computer software for a coherent Multi-IFO (Interferometer Observatory) search. To validate our software, we have worked on simulated data as well as hardware injected signals of pulsars in the fourth LIGO science run (S4). While with the current sensitivity of our detectors we do not expect to detect any true Gravitational Wave signals in our data, we can still set upper limits on the strength of the gravitational waves signals. These upper limits, in fact, tell us how weak a signal strength we would detect. We have also used our software to set upper limits on the signal strength of known isolated pulsars using LIGO fifth science run (S5) data. N2 - Diese Dissertation besteht aus zwei Projekten: Im ersten Projekt wird die Optimierung einer hierarchischen Strategie zum Auffinden von 'unbekannten' Pulsaren beschrieben. Der erste Teil besteht dabei aus einer semi-kohärenten und der zweite Teil aus einer kohärenten Optimierungsstrategie, wie sie in Projekten wie Einstein@Home verwendet werden kann. In beiden Ansätzen erwies sich eine 3-Stufensuche als optimale Suchstrategie für 'unbekannte' Pulsare. Für das zweite Projekt entwickelten wir eine Software für eine kohärente Multi-IFO (Interferometer Observatory) Suche. Zum Validieren der Software verwendeten wir sowohl simulierte Daten als auch Hardware induzierte Signale von Pulsaren aus dem vierten 'LIGO Science run' (S4). Wir erwarten nicht, mit der aktuellen Empfindlichkeit unserer Detektoren echte GW- Signale aufzunehmen, können jedoch obere Grenzen für die Stärke der Gravitationswellen-Signale bestimmen. Diese oberen Grenzen geben uns an, wie schwach ein gerade noch detektierbares Signal werden kann. Ferner benutzten wir die Software um eine obere Grenze für bekannte, isolierte Pulsare zu bestimmen, wobei wir Daten aus dem fünften 'LIGO Science run (S5) verwendeten. KW - Daten Analyse KW - Gravitationswellen KW - Upper Limit KW - Gravitational Wave KW - data analysis KW - Upper Limit Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18800 ER - TY - THES A1 - Thiel, Marco T1 - Recurrences : exploiting naturally occurring analogues N2 - In der vorliegenden Arbeit wird die Wiederkehr im Phasenraum ausgenutzt. Dabei werden drei Hauptresultate besprochen. 1. Die Wiederkehr erlaubt die Vorhersagbarkeit des Systems zu quantifizieren. 2. Die Wiederkehr enthaelt (unter bestimmten Voraussetzungen) sämtliche relevante Information über die Dynamik im Phasenraum 3. Die Wiederkehr erlaubt die Erzeugung dynamischer Ersatzdaten. N2 - Recurrence plots, a rather promising tool of data analysis, have been introduced by Eckman et al. in 1987. They visualise recurrences in phase space and give an overview about the system's dynamics. Two features have made the method rather popular. Firstly they are rather simple to compute and secondly they are putatively easy to interpret. However, the straightforward interpretation of recurrence plots for some systems yields rather surprising results. For example indications of low dimensional chaos have been reported for stock marked data, based on recurrence plots. In this work we exploit recurrences or ``naturally occurring analogues'' as they were termed by E. Lorenz, to obtain three key results. One of which is that the most striking structures which are found in recurrence plots are hinged to the correlation entropy and the correlation dimension of the underlying system. Even though an eventual embedding changes the structures in recurrence plots considerably these dynamical invariants can be estimated independently of the special parameters used for the computation. The second key result is that the attractor can be reconstructed from the recurrence plot. This means that it contains all topological information of the system under question in the limit of long time series. The graphical representation of the recurrences can also help to develop new algorithms and exploit specific structures. This feature has helped to obtain the third key result of this study. Based on recurrences to points which have the same ``recurrence structure'', it is possible to generate surrogates of the system which capture all relevant dynamical characteristics, such as entropies, dimensions and characteristic frequencies of the system. These so generated surrogates are shadowed by a trajectory of the system which starts at different initial conditions than the time series in question. They can be used then to test for complex synchronisation. T2 - Recurrences : exploiting naturally occurring analogues KW - Wiederkehrdiagramme KW - Rekurrenzen KW - Datenanalyse KW - Surrogates KW - recurrence plots KW - recurrences KW - data analysis KW - surrogates Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001633 ER -