TY - THES A1 - Zajnulina, Marina T1 - Optical frequency comb generation in optical fibres T1 - Generierung von optischen Frequenzkämmen in optischen Fasern N2 - Optical frequency combs (OFC) constitute an array of phase-correlated equidistant spectral lines with nearly equal intensities over a broad spectral range. The adaptations of combs generated in mode-locked lasers proved to be highly efficient for the calibration of high-resolution (resolving power > 50000) astronomical spectrographs. The observation of different galaxy structures or the studies of the Milky Way are done using instruments in the low- and medium resolution range. To such instruments belong, for instance, the Multi Unit Spectroscopic Explorer (MUSE) being developed for the Very Large Telescope (VLT) of the European Southern Observatory (ESO) and the 4-metre Multi-Object Spectroscopic Telescope (4MOST) being in development for the ESO VISTA 4.1 m Telescope. The existing adaptations of OFC from mode-locked lasers are not resolvable by these instruments. Within this work, a fibre-based approach for generation of OFC specifically in the low- and medium resolution range is studied numerically. This approach consists of three optical fibres that are fed by two equally intense continuous-wave (CW) lasers. The first fibre is a conventional single-mode fibre, the second one is a suitably pumped amplifying Erbium-doped fibre with anomalous dispersion, and the third one is a low-dispersion highly nonlinear optical fibre. The evolution of a frequency comb in this system is governed by the following processes: as the two initial CW-laser waves with different frequencies propagate through the first fibre, they generate an initial comb via a cascade of four-wave mixing processes. The frequency components of the comb are phase-correlated with the original laser lines and have a frequency spacing that is equal to the initial laser frequency separation (LFS), i.e. the difference in the laser frequencies. In the time domain, a train of pre-compressed pulses with widths of a few pico-seconds arises out of the initial bichromatic deeply-modulated cosine-wave. These pulses undergo strong compression in the subsequent amplifying Erbium-doped fibre: sub-100 fs pulses with broad OFC spectra are formed. In the following low-dispersion highly nonlinear fibre, the OFC experience a further broadening and the intensity of the comb lines are fairly equalised. This approach was mathematically modelled by means of a Generalised Nonlinear Schrödinger Equation (GNLS) that contains terms describing the nonlinear optical Kerr effect, the delayed Raman response, the pulse self-steepening, and the linear optical losses as well as the wavelength-dependent Erbium gain profile for the second fibre. The initial condition equation being a deeply-modulated cosine-wave mimics the radiation of the two initial CW lasers. The numerical studies are performed with the help of Matlab scripts that were specifically developed for the integration of the GNLS and the initial condition according to the proposed approach for the OFC generation. The scripts are based on the Fourth-Order Runge-Kutta in the Interaction Picture Method (RK4IP) in combination with the local error method. This work includes the studies and results on the length optimisation of the first and the second fibre depending on different values of the group-velocity dispersion of the first fibre. Such length optimisation studies are necessary because the OFC have the biggest possible broadband and exhibit a low level of noise exactly at the optimum lengths. Further, the optical pulse build-up in the first and the second fibre was studied by means of the numerical technique called Soliton Radiation Beat Analysis (SRBA). It was shown that a common soliton crystal state is formed in the first fibre for low laser input powers. The soliton crystal continuously dissolves into separated optical solitons as the input power increases. The pulse formation in the second fibre is critically dependent on the features of the pulses formed in the first fibre. I showed that, for low input powers, an adiabatic soliton compression delivering low-noise OFC occurs in the second fibre. At high input powers, the pulses in the first fibre have more complicated structures which leads to the pulse break-up in the second fibre with a subsequent degradation of the OFC noise performance. The pulse intensity noise studies that were performed within the framework of this thesis allow making statements about the noise performance of an OFC. They showed that the intensity noise of the whole system decreases with the increasing value of LFS. N2 - Optische Frequenzkämme (OFK) stellen ein diskretes optisches Spektrum mit phasenkorrelierten Linien dar, die gleichen spektralen Abstand voneinander haben und fast gleiche Intensität über einen größeren Spektralbereich aufweisen. In modengelockten Lasern generierte Kämme haben sich als höchst effizient für die Kalibrierung von hochauflösenden (Auflösungsvermögen > 50000) astronomischen Spektrografen erwiesen. Die astronomische Beobachtung von verschiedenen Galaxie-Strukturen oder die Studien der Milchstraße werden jedoch mit Hilfe von nieder- bis mittelauflösenden Instrumenten gemacht. Zu solchen Instrumenten gehören zum Beispiel der Multi-Spectroscopic-Exproler (MUSE), der gerade für das Very-Large-Telescope (VLT) der Europäischen Südsternwarte (ESO) entwickelt wird, und das 4-metre-Multi-Object-Spectroscopic-Telescope (4MOST), das sich in der Entwicklung für das ESO-VISTA-4,1m-Teleskop befindet. Die existierenden Anpassungen von OFK von modengelockten Lasern sind für solche Instrumente nicht auflösbar. Im Rahmen dieser Arbeit wird ein faserbasierter Ansatz für die Generierung von OFK für den Bereich der nieder- bis mittelauflösenden Instrumente numerisch studiert. Die experimentelle Umsetzung dieses Ansatzes besteht aus drei optischen Fasern, in die das Strahlungsfeld von zwei Dauerstrichlasern mit gleicher Intensität eingespeist wird. Die erste Faser ist eine konventionelle Monomodefaser, die zweite ist eine Erbium-dotierte Verstärkerfaser mit negativer Dispersion, die dritte ist eine hoch nichtlineare Faser mit niedriger Dispersion. Die Entwicklung eines OFKs in diesem System geschieht auf folgende Art und Weise: als die Laserwellen mit verschiedenen Frequenzen sich durch die erste Faser ausbreiten, erzeugen sie einen Anfangskamm durch einen Kaskadenprozess der Vier-Wellen-Mischung (VWM). Die neu entstandenen Frequenzkomponenten des Kamms sind frequenzkorreliert und haben einen spektralen Abstand, der der Laserfrequenzseparation (LFS) gleicht. Dies entspricht dem Entstehen von einem Zug von prä-komprimierten optischen Impulsen mit Impulsbreiten von einigen Pikosekunden. Diese Impulse werden strakt komprimiert in der nachfolgenden Erbium-dotierten Faser: es entstehen Sub-100-Femtosekunden-Impulse mit breiten OFK-Spektren. In der anschließenden hochnichtlinearen Faser wird das Kamm-Spektrum weiter verbreitet, während seine Frequenzlinien in ihren Intensitäten ausgeglichen werden. Dieser Ansatz wurde mathematisch mit Hilfe einer Verallgemeinerten Nichtlinearen Schrödinger Gleichung (VNSG) modelliert, die die Terme für den nichtlinearen optischen Kerr-Effekt, den Raman-Effekt, die Impuls-Selbstaufsteilung, die optischen Verluste und das wellenlängenabhängigen Erbium-Verstärkungsprofil für die zweite Faser enthält. Die Gleichung der Anfangsbedingung von der Form einer bichromatischen tief durchmodulierten Kosinus-Welle repräsentiert das Strahlungsfeld zweier Dauerstrichlaser. Die numerischen Studien sind mit Hilfe von Matlab-Skripten durchgeführt, die speziell für die numerische Integration der VNSG mit der bichromatischen Kosinus-Welle als Anfangsbedingung entworfen worden sind. Diese Skripte basieren auf dem numerischen Verfahren Fourth-Order Runge-Kutta in the Interaction Picture Method, das mit der Methode der Auswertung von lokalen numerischen Fehlern kombiniert wurde. Diese Arbeit enthält die Studien und Resultate der Optimierung der Längen der ersten und der zweiten Faser in Abhängigkeit von der Gruppengeschwindigkeitsdispersion der ersten Faser. Solche Optimierungsstudien sind notwendig, da genau an solche optimierten Längen weisen die Frequenzkämme die größte Bandbreite auf sowie das niedrigste Rauschniveau. Des Weiteren wurde der Aufbau von optischen Impulsen in der ersten und der zweiten Faser des Ansatzes mittels der numerischen Technik Soliton Radiation Beat Analysis analysiert. Es wurde gezeigt, dass für niedrige Eingangsleistungen ein kollektiver Solitonenkristall in der ersten Faser generiert wird, der sich mit steigender Eingangsleistung in freie optische Solitonen auflöst. Was die zweite Faser betrifft, so wurde gezeigt, dass der Aufbau und Ausbreitung von optischen Impulsen in dieser Faser kritisch von den Eigenschaften der Impulse abhängt, die in der ersten Faser aufgebaut wurden. So findet adiabatische Solitonenkompression in der zweiten Faser statt, falls die Eingangsleistung niedrig ist und die Form der Impulse in der ersten Faser relativ einfach. Für höhere Eingangsleistungen ist der Aufbau und somit die Dynamik der Impulse in der ersten Faser komplizierter. Solche Impulse zerfallen dann in der zweiten Faser, was zum Erhöhen des Intensitätsrauschens führt. Die Studien des Intensitätsrauschens der optischen Impulse, die im Rahmen dieser Arbeit durchgeführt wurden, erlauben die Aussagen über das Rauschverhalten der OFK. Diese Studien haben gezeigt, dass das Intensitätsrauschen des Gesamtsystems (d.h. aller drei Fasern) mit steigender LFS nachlässt. KW - optical frequency combs KW - spectrograph calibration KW - generalised nonlinear Schrödinger equation KW - four-wave mixing KW - optical solitons KW - optische Frequenzkämme KW - Kalibrierung von Spektrografen KW - verallgemeinerte nichlineare Schrödinger Gleichung KW - Vier-Wellen-Mischung KW - optische Solitonen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88776 ER - TY - THES A1 - Cattania, Camilla T1 - Improvement of aftershock models based on Coulomb stress changes and rate-and-state dependent friction T1 - Verbesserte Nachbebenmodelle durch Berücksichtigung von Coulombspannungsänderungen und Rate-State abhängiger Reibung N2 - Earthquake clustering has proven the most useful tool to forecast changes in seismicity rates in the short and medium term (hours to months), and efforts are currently being made to extend the scope of such models to operational earthquake forecasting. The overarching goal of the research presented in this thesis is to improve physics-based earthquake forecasts, with a focus on aftershock sequences. Physical models of triggered seismicity are based on the redistribution of stresses in the crust, coupled with the rate-and-state constitutive law proposed by Dieterich to calculate changes in seismicity rate. This type of models are known as Coulomb- rate and-state (CRS) models. In spite of the success of the Coulomb hypothesis, CRS models typically performed poorly in comparison to statistical ones, and they have been underepresented in the operational forecasting context. In this thesis, I address some of these issues, and in particular these questions: (1) How can we realistically model the uncertainties and heterogeneity of the mainshock stress field? (2) What is the effect of time dependent stresses in the postseismic phase on seismicity? I focus on two case studies from different tectonic settings: the Mw 9.0 Tohoku megathrust and the Mw 6.0 Parkfield strike slip earthquake. I study aleatoric uncertainties using a Monte Carlo method. I find that the existence of multiple receiver faults is the most important source of intrinsic stress heterogeneity, and CRS models perform better when this variability is taken into account. Epistemic uncertainties inherited from the slip models also have a significant impact on the forecast, and I find that an ensemble model based on several slip distributions outperforms most individual models. I address the role of postseismic stresses due to aseismic slip on the mainshock fault (afterslip) and to the redistribution of stresses by previous aftershocks (secondary triggering). I find that modeling secondary triggering improves model performance. The effect of afterslip is less clear, and difficult to assess for near-fault aftershocks due to the large uncertainties of the afterslip models. Off-fault events, on the other hand, are less sensitive to the details of the slip distribution: I find that following the Tohoku earthquake, afterslip promotes seismicity in the Fukushima region. To evaluate the performance of the improved CRS models in a pseudo-operational context, I submitted them for independent testing to a collaborative experiment carried out by CSEP for the 2010-2012 Canterbury sequence. Preliminary results indicate that physical models generally perform well compared to statistical ones, suggesting that CRS models may have a role to play in the future of operational forecasting. To facilitate efforts in this direction, and to enable future studies of earthquake triggering by time dependent processes, I have made the code open source. In the final part of this thesis I summarize the capabilities of the program and outline technical aspects regarding performance and parallelization strategies. N2 - Die örtliche und zeitlich Häufung von Erdbeben ist geeignet, um Änderungen in Seismizitätsraten auf kurzen bis mittleren Zeitskalen (Stunden bis Monate) zu prognostizieren. Kürzlich wurden vermehrt Anstrengungen unternommen, den Umfang solcher Modelle auf Operationelle Erdbebenvorhersage auszudehnen, welche die Veröffentlichung von Erdbebenwahrscheinlichkeiten beinhaltet mit dem Ziel, die Bevölkerung besser auf mögliche Erdbeben vorzubereiten. Das vorrangige Ziel dieser Dissertation ist die Verbesserung von kurz- und mittelfristiger Erdbebenprognose basierend auf physikalischen Modellen. Ich konzentriere mich hier auf Nachbebensequenzen. Physikalische Modelle, die getriggerte Seimizität erklären, basieren auf der Umverteilung von Spannungen in der Erdkruste. Berechnung der Coulomb Spannung können kombiniert werden mit dem konstituivem Gesetz von Dieterich, welches die Berechnung von Änderungen in der Seismizitätsrate ermöglicht. Diese Modelle sind als Coulomb-Rate-and-State (CRS) Modelle bekannt. Trotz der erfolgreichen Überprüfung der Coulomb-Hypothese, schneiden CRS-Modelle im Vergleich mit statistischen Modellen schlecht ab, und wurden deshalb bisher kaum im Kontext operationeller Erdbenbenvorhersage genutzt. In dieser Arbeit, gehe ich auf einige der auftretenden Probleme ein. Im Besonderen wende ich mich den folgenden Fragen zu: (1) Wie können wir die Unsicherheiten und die Heterogenität des Spannungsfeldes infolge des Hauptbebens realistisch modellieren? (2)Welche Auswirkungen haben zeitlich variable Spannungsänderungen in der postseismischen Phase? Ich konzentriere mich hierbei auf zwei Beispiele in unterschiedlichen tektonischen Regionen: die Aufschiebung des Mw9.0 Tohoku Erdbeben und die Blattverschiebung des Mw6.0 Parkfield Erdbeben. Ich untersuche aleotorische Unsicherheiten der Coulomb-Spannung durch Variabilität in der Orientierung der betroffenen Bruchflächen und durch Spannungsgradienten innerhalb von Modellzellen. Ich zeige, dass die Existenz der unterschiedlichen Bruchflächen die bedeutenste Quelle für intrinsiche Spannungheterogenität ist und das CRS-Modelle deutlich besser abschneiden, wenn diese Variabilität berücksichtigt wird. Die epistemischen Unsicherheiten aufgrund von unterschiedlichen Ergebnissen von Inversionen von Daten für die Verschiebung entlang der Bruchfläche haben ebenso erhebliche Auswirkungen auf die Vorhersage. Ich gehe dann auf die Rolle von postseismischen Spannung ein, insbesondere auf zwei Prozesse: aseismische Verschiebung entlang der Störungsfläche des Hauptbebens (Afterslip) und die Veränderung von Spannungen durch vorhergehende Nachbeben (sekundäres Triggern). Ich demonstriere, dass das Modellieren von sekundärem Triggern die Modellvorhersage in beiden Fallbeispielen verbessert. Die Einbeziehung von Afterslip verbessert die Qualität der Vorhersage nur für die Nachbebensequenz des Parkfield Erdbebens. Dagegen kann ich nachweisen, dass Afterslip infolge des Tohoku Bebens eine höhere Seismizität auf Abschiebungsflächen im Hangenden begünstigt. Die dargestellten Verbesserungen des CRS-Modells sind sehr vielversprechend im Kontext operationeller Erdbebenvorhersage, verlangen aber nach weiterer Überprüfung. Ich stelle die vorläufigen Ergebnisse eines gemeinschaftlichen Tests für die Erdbebenfolge von Canterbury 2010-2012 vor, welcher von CSEP durchgeführt wurde. Die physikalischen Modelle schneiden hier im Vergleich mit statistischen Modellen gut ab. Daher scheint eine Anwendung von CSR-Modellen, die Unsicherheiten und sekundäres Triggering berücksichtigen, in zukünftigen operationellen Erdbebenvorhersagen empfehlenswert. Um die Bemühungen in dieser Richtung zu unterstützen und weitere Studien zum Triggern von Erdbeben durch zeitabhängige Prozesse zu ermöglichen, habe ich meinen Open Source Code öffentlich zugänglich gemacht. Im letzen Teil dieser Arbeit fasse ich die Leistungsfähigkeit des Programms zusammen und skizziere die technischen Aspekte bezüglich der Effiziens und der Parallelisierung des Programmes. KW - earthquake forecasting KW - earthquake interaction KW - Coulomb stress KW - rate-state friction KW - Erdbebenvorhersage KW - Coulombspannung KW - Erdbebenwechselwirkung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87097 ER - TY - THES A1 - Feld, Christian T1 - Crustal structure of the Eratosthenes Seamount, Cyprus and S. Turkey from an amphibian wide-angle seismic profile T1 - Die Krustenstruktur von dem Eratosthenes Seeberg, Zypern und der Süd-Türkei anhand eines amphibischen seismischen Weitwinkel Profils N2 - In March 2010, the project CoCoCo (incipient COntinent-COntinent COllision) recorded a 650 km long amphibian N-S wide-angle seismic profile, extending from the Eratosthenes Seamount (ESM) across Cyprus and southern Turkey to the Anatolian plateau. The aim of the project is to reveal the impact of the transition from subduction to continent-continent collision of the African plate with the Cyprus-Anatolian plate. A visual quality check, frequency analysis and filtering were applied to the seismic data and reveal a good data quality. Subsequent first break picking, finite-differences ray tracing and inversion of the offshore wide-angle data leads to a first-arrival tomographic model. This model reveals (1) P-wave velocities lower than 6.5 km/s in the crust, (2) a variable crustal thickness of about 28 - 37 km and (3) an upper crustal reflection at 5 km depth beneath the ESM. Two land shots on Turkey, also recorded on Cyprus, airgun shots south of Cyprus and geological and previous seismic investigations provide the information to derive a layered velocity model beneath the Anatolian plateau and for the ophiolite complex on Cyprus. The analysis of the reflections provides evidence for a north-dipping plate subducting beneath Cyprus. The main features of this layered velocity model are (1) an upper and lower crust with large lateral changes of the velocity structure and thickness, (2) a Moho depth of about 38 - 45 km beneath the Anatolian plateau, (3) a shallow north-dipping subducting plate below Cyprus with an increasing dip and (4) a typical ophiolite sequence on Cyprus with a total thickness of about 12 km. The offshore-onshore seismic data complete and improve the information about the velocity structure beneath Cyprus and the deeper part of the offshore tomographic model. Thus, the wide-angle seismic data provide detailed insights into the 2-D geometry and velocity structures of the uplifted and overriding Cyprus-Anatolian plate. Subsequent gravity modelling confirms and extends the crustal P-wave velocity model. The deeper part of the subducting plate is constrained by the gravity data and has a dip angle of ~ 28°. Finally, an integrated analysis of the geophysical and geological information allows a comprehensive interpretation of the crustal structure related to the collision process. N2 - Im März 2010 wurden im Rahmen des "CoCoCo"-Projektes ein 650km langes amphibisches, seismisches Weitwinkel Profil aufgenommen. Dieses erstreckte sich von dem Eratosthenes Seeberg (ESM) über Zypern und der Süd-Türkei bis zum anatolischen Plateau. Das Hauptziel des Projektes ist es, den Einfluss zu untersuchen, der von dem Übergang eines Subduktion Prozesses hin zu einer Kontinent-Kontinent Kollision der afrikanischen Platte mit der zyprisch-anatolischen Platte hervorgerufen wird. Die seismischen Daten wurden einer visuelle Qualitätsüberprüfung, Frequenz-Analyse und Filterung unterzogen und zeigten eine gute Qualität. Das darauf folgende Picken der Ersteinstätze, eine Finite-Differenzen Raytracing und eine Inversion der offshore Weitwinkel Daten, führte zu einem Laufzeit Tomographie Model. Das Modell zeigt (1) P-Wellengeschwindigkeiten kleiner als 6.5 km/s in der Kruste, (2) eine variable Krustenmächtigkeit von 28 - 37 km und (3) eine obere Krustenreflektion in 5 km Tiefe unter dem ESM. Zwei Landschüsse in der Türkei, ebenfalls aufgenommen auf Zypern, Luftkanonen-Schüsse südlich von Zypern und vorausgegangene geologische und seismische Untersuchungen lieferten die Grundlage, um ein geschichtetes Geschwindigkeitsmodell für das anatolische Plateau und für den Ophiolith-Komplex auf Zypern abzuleiten. Die Analyse der Reflexionen liefert den Beweis für eine nach Norden einfallende Platte welche unter Zypern subduziert. Die Hauptkennzeichen dieses geschichteten Geschwindigkeitsmodelles sind (1) eine obere und untere Kruste mit starken lateral Änderungen in Geschwindigkeit und Mächtigkeit, (2) eine Mohotiefe in 38 - 45 km unter dem anatolischen Plateau, (3) eine flach nach Norden einfallende Platte unter Zypern mit ansteigendem Einfallwinkel und (4) eine typische Ophiolith Sequenz auf Zypern mit einer Gesamtmächtigkeit von 12 km. Die seismischen offshore / onshore Daten komplettieren und verbessern die bisherigen Kenntnisse über die Geschwindigkeitsstruktur unter Zypern und des tieferen Bereiches der offshore Tomographie. Damit liefert die Weitwinkel Seismik detaillierte Einblicke in die 2-D Geometrie und die Geschwindigkeitsstrukturen der angehobenen und überlagerten zyprisch-anatolischen Platte. Die darauf folgende Gravimetrie Modellierung bestätigt und erweitert das P-Wellen Krusten-Geschwindigkeits Modell. Der tiefere Teil der subduzierten Platte, welche einen Einfallswinkel von ~ 28° hat, wurde durch die Gravimetrie Daten belegt. Letztlich erlaubt eine ganzheitliche Analyse von geophysikalischen und geologischen Informationen die umfassende Interpretation der Krustenstruktur welche in Verbindung mit dem Kollisions Prozess steht. KW - incipient continent-continent collision KW - crustal structure of the Eratosthenes Seamount KW - controlled source wide angle seismic KW - crustal structure of south central Turkey KW - Cyprus arc KW - aktive Weitewinkel-Seismik KW - Krustenstruktur des Eratosthenes Seeberges KW - beginnende Kontinent-Kontinent Kollision KW - Krustenstruktur der Süd-Türkei KW - Zypernbogen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73479 ER - TY - THES A1 - Thater, Sabine T1 - The interplay between supermassive black holes and their host galaxies T1 - Das Zusammenspiel zwischen supermassereichen Schwarzen Löchern und ihren Muttergalaxien N2 - Supermassive black holes reside in the hearts of almost all massive galaxies. Their evolutionary path seems to be strongly linked to the evolution of their host galaxies, as implied by several empirical relations between the black hole mass (M BH ) and different host galaxy properties. The physical driver of this co-evolution is, however, still not understood. More mass measurements over homogeneous samples and a detailed understanding of systematic uncertainties are required to fathom the origin of the scaling relations. In this thesis, I present the mass estimations of supermassive black holes in the nuclei of one late-type and thirteen early-type galaxies. Our SMASHING sample extends from the intermediate to the massive galaxy mass regime and was selected to fill in gaps in number of galaxies along the scaling relations. All galaxies were observed at high spatial resolution, making use of the adaptive-optics mode of integral field unit (IFU) instruments on state-of-the-art telescopes (SINFONI, NIFS, MUSE). I extracted the stellar kinematics from these observations and constructed dynamical Jeans and Schwarzschild models to estimate the mass of the central black holes robustly. My new mass estimates increase the number of early-type galaxies with measured black hole masses by 15%. The seven measured galaxies with nuclear light deficits (’cores’) augment the sample of cored galaxies with measured black holes by 40%. Next to determining massive black hole masses, evaluating the accuracy of black hole masses is crucial for understanding the intrinsic scatter of the black hole- host galaxy scaling relations. I tested various sources of systematic uncertainty on my derived mass estimates. The M BH estimate of the single late-type galaxy of the sample yielded an upper limit, which I could constrain very robustly. I tested the effects of dust, mass-to-light ratio (M/L) variation, and dark matter on my measured M BH . Based on these tests, the typically assumed constant M/L ratio can be an adequate assumption to account for the small amounts of dark matter in the center of that galaxy. I also tested the effect of a variable M/L variation on the M BH measurement on a second galaxy. By considering stellar M/L variations in the dynamical modeling, the measured M BH decreased by 30%. In the future, this test should be performed on additional galaxies to learn how an as constant assumed M/L flaws the estimated black hole masses. Based on our upper limit mass measurement, I confirm previous suggestions that resolving the predicted BH sphere-of-influence is not a strict condition to measure black hole masses. Instead, it is only a rough guide for the detection of the black hole if high-quality, and high signal-to-noise IFU data are used for the measurement. About half of our sample consists of massive early-type galaxies which show nuclear surface brightness cores and signs of triaxiality. While these types of galaxies are typically modeled with axisymmetric modeling methods, the effects on M BH are not well studied yet. The massive galaxies of our presented galaxy sample are well suited to test the effect of different stellar dynamical models on the measured black hole mass in evidently triaxial galaxies. I have compared spherical Jeans and axisymmetric Schwarzschild models and will add triaxial Schwarzschild models to this comparison in the future. The constructed Jeans and Schwarzschild models mostly disagree with each other and cannot reproduce many of the triaxial features of the galaxies (e.g., nuclear sub-components, prolate rotation). The consequence of the axisymmetric-triaxial assumption on the accuracy of M BH and its impact on the black hole - host galaxy relation needs to be carefully examined in the future. In the sample of galaxies with published M BH , we find measurements based on different dynamical tracers, requiring different observations, assumptions, and methods. Crucially, different tracers do not always give consistent results. I have used two independent tracers (cold molecular gas and stars) to estimate M BH in a regular galaxy of our sample. While the two estimates are consistent within their errors, the stellar-based measurement is twice as high as the gas-based. Similar trends have also been found in the literature. Therefore, a rigorous test of the systematics associated with the different modeling methods is required in the future. I caution to take the effects of different tracers (and methods) into account when discussing the scaling relations. I conclude this thesis by comparing my galaxy sample with the compilation of galaxies with measured black holes from the literature, also adding six SMASHING galaxies, which were published outside of this thesis. None of the SMASHING galaxies deviates significantly from the literature measurements. Their inclusion to the published early-type galaxies causes a change towards a shallower slope for the M BH - effective velocity dispersion relation, which is mainly driven by the massive galaxies of our sample. More unbiased and homogenous measurements are needed in the future to determine the shape of the relation and understand its physical origin. N2 - Supermassereiche schwarze Löcher befinden sich in den Herzen von fast allen massiven Galaxien. Ihr evolutionärer Werdegang scheint stark mit dem Wachstum ihrer Muttergalaxien in Verbindung zu stehen, wie mehrere empirische Beziehungen zwischen der Masse der schwarzen Löcher (M BH ) und verschiedenen Eigenschaften der Muttergalaxien andeuten. Der physikalische Ursprung dieser Koevolution ist jedoch immer noch nicht verstanden. Weitere Massenmessungen über homogene Galaxienproben und ein detailliertes Verständnis der systematischen Unsicherheiten sind erforderlich, um den Ursprung dieser Skalierungsbeziehungen zu ergründen. In dieser Arbeit präsentiere ich die Massenabschätzungen von Supermassereichen Schwarzen Löchern der Zentren einer Spiral- und dreizehn elliptischer und linsenförmiger Galaxien. Meine SMASHING-Probe erstreckt sich vom mittleren bis zum hohen Galaxienmassenbereich und wurde ausgewählt, um Lücken entlang der Skalierungsbeziehungen zu schließen. Alle Galaxien wurden mit hoher räumlicher Auflösung beobachtet, wobei der adaptivoptische Modus von Integralfeldspektrographen (IFU) modernster Teleskope (SINFONI, NIFS, MUSE) verwendet wurde. Aus diesen Beobachtungen habe ich die Sternenkinematik extrahiert und dynamische Jeans- und Schwarzschildmodelle konstruiert, um die Masse der zentralen Schwarzen Löcher robust zu bestimmen. Meine neuen Massenschätzungen erhöhen die Anzahl elliptischer Galaxien mit vermessenen Schwarzen Löchern um 15%. Die sieben vermessenen Galaxien mit inneren Lichtdefiziten ("Cores") ergänzen die Probe der Core-Galaxien mit gemessenen schwarzen Löchern um 40%. Neben der Bestimmung ist die Beurteilung der Genauigkeit von Schwarzlochmassen entscheidend für das Verständnis der intrinsischen Streuung der Beziehungen zwischen schwarzem Loch und Muttergalaxie. Ich habe meine abgeleiteten Massenabschätzungen auf verschiedene systematische Fehlerquellen getestet. Dabei habe ich Bezug genommen auf die Auswirkungen von Staub, Variation des Masse-Licht-Verhältnisses (M/L), Dunkler Materie, verschiedener dynamischer Modelle und verschiedener dynamischer Tracer. Die Ergebnisse präsentiere ich in dieser Arbeit. Ich schließe diese Arbeit, indem ich meine Galaxienprobe mit der den in der Forschungsliteratur zusammengestellten Galaxien mit bereits vermessenen Schwarzen Löchern vergleiche und auch sechs SMASHING-Galaxien hinzufüge, die außerhalb dieser Arbeit veröffentlicht wurden. Keine der SMASHING-Galaxien weicht signifikant von den veröffentlichten Messungen ab. Eine gemeinsame Analyse meiner Messungen und der veröffentlichten elliptischen Galaxien ergibt eine Abflachung der Steigung für die M BH - effektive Geschwindigkeitsdispersionsbeziehung, die hauptsächlich von den massiven Galaxien meiner Probe bewirkt wird. In Zukunft sind unvoreingenommene und homogenere Messungen erforderlich, um die Form der Skalierungsbeziehung zu bestimmen und ihren physikalischen Ursprung zu verstehen. KW - supermassive black holes KW - galaxy evolution KW - stellar kinematics KW - galaxy dynamics KW - integral field spectroscopy KW - supermassereiche Schwarze Löcher KW - Galaxienentwicklung KW - stellare Kinematik KW - Galaxiendynamik KW - Integralfieldspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437570 ER - TY - THES A1 - Valliappan, Senthamizh Pavai T1 - Solar Activity Reconstruction from Historical Observations of Sunspots T1 - Rekonstruktion der Sonnenaktivität aus historischen Beobachtungen von Sonnenflecken N2 - The solar activity and its consequences affect space weather and Earth’s climate. The solar activity exhibits a cyclic behaviour with a period of about 11 years. The solar cycle properties are governed by the dynamo taking place in the interior of the Sun, and they are distinctive. Extending the knowledge about solar cycle properties into the past is essential for understanding the solar dynamo and forecasting space weather. It can be acquired through the analysis of historical sunspot drawings. Sunspots are the dark areas, which are associated with strong magnetic fields, on the solar surface. Sunspots are the oldest and longest available observed features of solar activity. One of the longest available records of sunspot drawings is the collection by Samuel Heinrich Schwabe during 1825–1867. The sunspot sizes measured from digitized Schwabe drawings are not to scale and need to be converted into physical sunspot areas. We employed a statistical approach assuming that the area distribution of sunspots was the same in the 19th century as it was in the 20th century. Umbral areas for about 130 000 sunspots observed by Schwabe were obtained. The annually averaged sunspot areas correlate reasonably well with the sunspot number. Tilt angles and polarity separations of sunspot groups were calculated assuming them to be bipolar. There is, of course, no polarity information in the observations. We derived an average tilt angle by attempting to exclude unipolar groups with a minimum separation of the two surmised polarities and an outlier rejection method, which follows the evolution of each group and detects the moment, when it turns unipolar as it decays. As a result, the tilt angles, although displaying considerable natural scatter, are on average 5.85° ± 0.25°, with the leading polarity located closer to the equator, in good agreement with tilt angles obtained from 20th century data sets. Sources of uncertainties in the tilt angle determination are discussed and need to be addressed whenever different data sets are combined. Digital images of observations printed in the books Rosa Ursina and Prodromus pro sole mobili by Christoph Scheiner, as well as the drawings from Scheiner’s letters to Marcus Welser, are analyzed to obtain information on the positions and sizes of sunspots that appeared before the Maunder minimum. In most cases, the given orientation of the ecliptic is used to set up the heliographic coordinate system for the drawings. Positions and sizes are measured manually displaying the drawings on a computer screen. Very early drawings have no indication of the solar orientation. A rotational matching using common spots of adjacent days is used in some cases, while in other cases, the assumption that images were aligned with a zenith–horizon coordinate system appeared to be the most likely. In total, 8167 sunspots were measured. A distribution of sunspot latitudes versus time (butterfly diagram) is obtained for Scheiner’s observations. The observations of 1611 are very inaccurate, but the drawings of 1612 have at least an indication of the solar orientation, while the remaining part of the spot positions from 1618–1631 have good to very good accuracy. We also computed 697 tilt angles of apparent bipolar sunspot groups, which were observed in the period 1618–1631. We find that the average tilt angle of nearly 4° does not significantly differ from the 20th century values. The solar cycle properties seem to be related to the tilt angles of sunspot groups, and it is an important parameter in the surface flux transport models. The tilt angles of bipolar sunspot groups from various historical sets of solar drawings including from Schwabe and Scheiner are analyzed. Data by Scheiner, Hevelius, Staudacher, Zucconi, Schwabe, and Spörer deliver a series of average tilt angles spanning a period of 270 years, in addition to previously found values for 20th-century data obtained by other authors. We find that the average tilt angles before the Maunder minimum were not significantly different from modern values. However, the average tilt angles of a period 50 years after the Maunder minimum, namely for cycles 0 and 1, were much lower and near zero. The typical tilt angles before the Maunder minimum suggest that abnormally low tilt angles were not responsible for driving the solar cycle into a grand minimum. With the Schwabe (1826–1867) and Spörer (1866–1880) sunspot data, the butterfly diagram of sunspot groups extends back till 1826. A recently developed method, which separates the wings of the butterfly diagram based on the long gaps present in sunspot group occurrences at different latitudinal bands, is used to separate the wings of the butterfly diagram. The cycle-to-cycle variation in the start (F), end (L), and highest (H) latitudes of the wings with respect to the strength of the wings are analyzed. On the whole, the wings of the stronger cycles tend to start at higher latitudes and have a greater extent. The time spans of the wings and the time difference between the wings in the northern hemisphere display a quasi-periodicity of 5–6 cycles. The average wing overlap is zero in the southern hemisphere, whereas it is 2–3 months in the north. A marginally significant oscillation of about 10 solar cycles is found in the asymmetry of the L latitudes. This latest, extended database of butterfly wings provides new observational constraints, regarding the spatio-temporal distribution of sunspot occurrences over the solar cycle, to solar dynamo models. N2 - Die Sonnenaktivität und ihre Folgen beeinflussen das Weltraumwetter und das Klima. Sie zeigt ein zyklisches Verhalten mit einer Periode von etwa 11 Jahren. Die Eigenschaften des Sonnenzyklus werden durch den magnetischen Dynamo bestimmt, der im Innern der Sonne Wärmeenergie über Bewegungsenergie in magnetische Energie umwandelt. Unser Wissen über den Sonnenzyklus in der Vergangenheit zu verbessern ist wichtig für das Verständnis des Sonnendynamos und die Vorhersage des Weltraumwetters. Durch die Auswertung historischer Sonnenfleckenzeichnungen können wir diese Kenntnisse erweitern. Sonnenflecken sind die dunklen Bereiche auf der Sonnenoberfläche, die mit starken Magnetfeldern verbunden sind. Sonnenflecken sind das am längsten beobachtete Phänomen der Sonnenaktivität. Eine der umfangreichsten Beobachtungsreihen von Sonnenflecken ist die Sammlung von Samuel Heinrich Schwabe aus den Jahren 1825–1867. Die in den Zeichnungen eingetragenen Sonnenflecken sind jedoch nicht maßstäblich. In der vorliegenden Arbeit wurde ein Verfahren entwickelt, mit dem die Fleckendaten des 19. Jahrhunderts unter der Annahme rekonstruiert werden können, dass deren Größnverteilung identisch zu der heutigen ist. Insgesamt konnten wir Positionen und Flächen von etwa 130 000 Sonnenflecken aus Schwabes Archiv bestimmen. Die Jahresmittel der Flächen korrelieren gut mit der so genannten Sonnenfleckenrelativzahl, einer Größe, die aus der Anzahl der Fleckengruppen und der Gesamtzahl der Flecken konstruiert wird und üblicherweise als Standardmaß für die Sonnenaktivität verwendet wird. Fleckengruppen sind zumeist bipolar mit einer magnetisch positiven und einer magnetisch negativen Teilgruppe. Der Neigungswinkel dieser Gruppen gegen den Sonnenäquator wurde ebenfalls bestimmt. Ihr Mittelwert von 5.85° ± 0.25° stimmt gut mit Werten aus dem 20. Jahrhundert überein. Zusätzlich wurden Digitalsierte Beobachtungen von Christoph Scheiner aus dem 17. Jahrhundert analysiert, um Informationen über die Zeit vor dem Maunder-Minimum, einer Periode äußerst geringer Sonnenaktivität, zu erlangen. Bei den frühesten Beobachtungen gibt es keinen Hinweis auf die Ausrichtung des Sonnenbildes. Durch die Nutzung der Sonnenrotation über zwei oder mehr Tage können wir jedoch die Ausrichtungen fixieren. Insgesamt wurden 8167 Sonnenflecken vermessen. Darüberhinaus wurden auch 697 Neigungswinkel von bipolaren Gruppen aus den Jahren 1618–1631 berechnet. Der durchschnittliche Neigungswinkel von fast 4° unterscheidet sich nicht signifikant von den Werten im 20. Jahrhundert. Die Neigungswinkel der Sonnenfleckengruppen scheinen Einfluss auf den Dynamo zu haben. Es wurden in der vorliegenden Arbeit noch weitere Neigungen bipolarer Sonnenfleckengruppen aus verschiedenen historischen Beobachtungsreihen aus 270 Jahren bestimmt, insgesamt von den Beobachtern Scheiner, Hevelius, Staudacher, Zucconi, Schwabe und Spörer. Die durchschnittlichen Neigungswinkel vor dem Maunder-Minimum unterschieden sich nicht wesentlich von modernen Werten, außer etwa 50 Jahren nach dem Maunder-Minimum, als die mittlere Neigung nahe Null war. Da die typischen Neigungswinkel vor dem Maunder-Minimum sich jedoch nicht wesentlich von modernen Werten unterscheiden, legt dies nahe, dass die ungewöhnlich niedrige Werte nicht für das Eintreten der Sonne in eine solche Minimums-Periode verantwortlich waren. Mit den Sonnenfleckendaten von Schwabe (1826–1867) und Spörer (1866–1880) reicht das so genannte Schmetterlingsdiagramm von Sonnenfleckengruppen bis 1826 zurück. Eine kürzlich entwickelte Methode, die Nord- und Südhälften des Schmetterlingsdiagramms zu trennen, zeigte Zyklus-zu-Zyklus-Variationen in der Start-, End-, und höchsten Breite der Teilflächen. Die “Schmetterlingsflächen” der stärkeren Zyklen tendieren dazu, in höheren Breiten zu starten und eine größere Ausdehnung zu haben. Nord- und Südhemisphäre der Sonne zeigen einen neu beginnenden Zyklus zu leicht unterschiedlichen Zeiten. Der Phasenunterschied schwankt langsam mit einer Quasiperiode von 5–6 Zyklen. Die oben erwähnten Resultate zeigen, wie hilfreich historische langzeit Analysen sind, um die Parameter des Sonnendynamos zu bestimmen und so Rückschlüsse auf die ihm zugrunde liegenden Prozesse ziehen zu können. KW - solar activity KW - sunspot group tilt angle KW - cycle-averaged tilt angle KW - history and philosophy of astronomy KW - Sonnenaktivität KW - Neigungswinkel Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413600 ER - TY - THES A1 - Seyberth, Karl T1 - Test einer neuen Methode zur Synthetisierung hydrathaltiger Sedimentproben und Charakterisierung des Hydrathabitus anhand seismischer Messungen T1 - Test of a new method for the synthesis of hydrate bearing sediment samples and characterization of the hydrate habitus based on seismic measurements N2 - Methanhydrate sind besonders in Verbindung mit den steigenden Weltmarktpreisen für Öl und Gas in den vergangenen Jahren mehr und mehr in den Fokus der Energiewirtschaft geraten, was zu einer starken Zunahme der angewandten Forschungsprojekte auf diesem Gebiet führte. Da Methanhydrat nur unter hohem Druck und niedrigen Temperaturen stabil ist, ist die Gewinnung natürlicher Proben für Laboruntersuchungen technisch sehr aufwendig und vor allem teuer. Zur Charakterisierung der Eigenschaften hydratführender Reservoire ist man häufig auf die Herstellung synthetischer Proben angewiesen. Die Eigenschaften der synthetisierten Proben sind dabei abhängig von der Herstellungsmethode und man ist noch immer auf der Suche nach Verfahren, mit denen sich möglichst „naturnahe“ Proben mit vertretbarem Aufwand erzeugen lassen. In der vorliegenden Arbeit wurde eine neue, relativ schnell durchführbare Methode getestet, die im Porenraum von Sedimenten schwimmende bzw. gefügestützende Hydrate bildet, wie sie in der Natur vorkommen. Gleichzeitig erzeugt sie eine gleichmäßige Verteilung des Hydrats über die Probe und bietet gute Kontrolle über den Hydratgehalt. Sie funktioniert wie folgt: Eine mit einer KCl-Lösung gesättigte Sedimentprobe wird zu einem bestimmten Teil ausgefroren und das übrige Wasser mit Methan verdrängt. Durch Anlegen eines Methandrucks im Stabilitätsbereich wird das Eis zu Methanhydrat umgesetzt. Im Anschluss wird die Probe erneut mit einer KCl-Lösung gesättigt. Anhand seismischer Messungen konnte bestätigt werden, dass Hydrat mit dem gewünschten Hydrathabitus erzeugt wurde. Des Weiteren wurde gezeigt, dass die eishaltigen Proben aufgrund ähnlicher physikalischer Eigenschaften bereits vor der Umsetzung des Eises zu Methanhydrat als Näherung für Proben mit Porenraumhydrat verwendet werden können. N2 - Due to the rising world market prices for oil and gas, the energy industry pays more and more attention to methane hydrates. This leads to a strong augmentation of applied research projects in this field of studies. As methane hydrates are only stable under large pressure and low temperatures, the recovery of samples is technically very complex and expensive. Hence, for the characterization of the properties of hydrate bearing reservoirs, usually synthetic samples are used. The properties of these synthesized samples depend on the production method and scientists are still searching for procedures that allow the synthesization of close to nature samples at a justifiable effort. In this paper, a relatively quickly performable new method was tested that produces hydrates floating in the pore space respectively grain supporting hydrates. These are the most common types of gas hydrates in natural environments. Furthermore the method forms a uniform distribution across the sample and allows a good control over the hydrate content. It works as follows: A sediment sample saturated with a KCl-solution is frozen until a certain ice content is reached and the remaining brine is pushed out with methane. Then the ice is converted into methane hydrate by the installation of methane pressure in the stability field. In the end the methane is replaced by a KCl-solution again. With the help of seismic measurements it could be proven that the hydrate showed the desired properties. Besides that it was shown that yet before the transformation of ice to methane hydrate one can use the ice-containing samples as an approximation for the hydrate-bearing samples. Both show similar physical properties. KW - Methanhydrat KW - methane hydrate KW - synthetic hydrate samples KW - synthetische Hydratproben KW - seismische Messungen KW - seismic measurements KW - Hydrathabitus KW - hydrate habitus Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-81247 ER - TY - THES A1 - Otto, Katharina Alexandra T1 - Mass wasting and the Coriolis effect on asteroid Vesta T1 - Massenbewegungen und der Corioliseffekt auf dem Asteroiden Vesta N2 - This work investigates the influence of the Coriolis force on mass motion related to the Rheasilvia impact basin on asteroid (4) Vesta's southern hemisphere. The giant basin is 500km in diameter, with a centre which nearly coincides with the rotation axis of Vesta. The Rheasilvia basin partially overlaps an earlier, similarly large impact basin, Veneneia. Mass motion within and in the vicinity of the Rheasilvia basin includes slumping and landslides, which, primarily due to their small linear extents, have not been noticeably affected by the Coriolis force. However, a series of ridges related to the basin exhibit significant curvature, which may record the effect of the Coriolis force on the mass motion which generated them. In this thesis 32 of these curved ridges, in three geologically distinct regions, were examined. The mass motion velocities from which the ridge curvatures may have resulted during the crater modification stage were investigated. Velocity profiles were derived by fitting inertial circles along the curved ridges and considering both the current and past rotation states of Vesta. An iterative, statistical approach was used, whereby the radii of inertial circles were obtained through repeated fitting to triplets of points across the ridges. The most frequently found radius for each central point was then used for velocity derivation at that point. The results of the velocity analysis are strongly supportive of a Coriolis force origin for the curved ridges. Derived velocities (29.6 ± 24.6 m/s) generally agree well with previously published predictions from numerical simulations of mass motion during the impact process. Topographical features such as local slope gradient and mass deposition regions on the curved ridges also independently agree with regions in which the calculated mass motion accelerates or decelerates. Sections of constant acceleration, deceleration and constant velocity are found, showing that mass motion is being governed by varying conditions of topography, regolith structure and friction. Estimates of material properties such as the effective viscosities (1.9-9.0·10⁶ Pa·s) and coefficients of friction (0.02-0.81) are derived from the velocity profile information in these sections. From measured accelerations of mass motions on the crater wall, it is also shown that the crater walls must have been locally steeper at the time of the mass motion. Together with these novel insights into the state and behaviour of material moving during the modification stage of Rheasilvia's formation, this work represents the first time that the Coriolis Effect on mass motions during crater formation has been shown to result in diagnostic features preserved until today. N2 - In dieser Arbeit wurden Massenbewegungen im Rheasilvia-Einschlagsbecken der Südhemisphäre des Asteroiden (4) Vesta untersucht. Die Besonderheiten des Beckens sind seine Größe von 500km Durchmesser, die Lage des Zentrums, welche nahezu mit der Rotationsachse Vestas übereinstimmt und die Überlagerung mit dem ähnlich großen Einschlagsbecken Venenia. Die meisten Massenbewegungen, wie Hangrutschungen oder Lawinen, sind aufgrund ihrer relativ kleinen Bewegungsdistanzen nicht sichtbar von der Corioliskraft beeinflusst worden. Jedoch weist die Krümmung von einigen radialen Bergrücken darauf hin, dass diese durch Massenbewegungen im Modifikationsprozess des Rheasilvia-Einschlags entstanden sein könnten. Danach wurden sie durch die Corioliskraft während der Bewegung in Richtung Kraterboden abgelenkt. In dieser Arbeit wurden 32 gekrümmte Bergrücken untersucht, um herauszufinden, ob diese durch die Corioliskraft beeinflusst wurden. Dazu wurden mehrere Inertialkreise an die gekrümmten Bergrücken angepasst und mit Hilfe der Kenntnisse über Form und Rotation von Vesta Geschwindigkeitsprofile der Massenbewegungen erstellt. Zur Bestimmung der Geschwindigkeit an einem Punkt wurde eine interaktive und statistische Methode entwickelt, die automatisiert an jeden Punkt auf dem gekrümmten Bergrücken mehrere Interialkreise anpasste. Der am häufigsten vorkommende Intertialradius eines Punktes wurde folglich benutzt um die Geschwindigkeit an diesem Punkt zu bestimmen. Das Ergebnis der Geschwindigkeitsanalyse bekräftigt die Corioliskraft als Ursache für die Krümmung der Bergrücken. Die Geschwindigkeiten (29.6 ± 24.6 m/s) stimmen nicht nur mit zuvor numerisch simulierten Geschwindigkeiten des Rheasilvia-Beckens überein, sondern topographische Eigenschaften, wie die Hangneigung und Massenablagerungen, sind ebenfalls mit den resultierenden Beschleunigungen und Verlangsamungen im Einklang. Abschnitte mit konstanter Beschleunigung, Verlangsamung und Geschwindigkeit zeigen, dass die Massenbewegungen in heterogenem Regolith mit unterschiedlicher Topographie und Reibung stattgefunden haben müssen. Außerdem konnten Materialeigenschaften wie die effektive Viskosität (1.9-9.0·10⁶ Pa·s) und der effektive Reibungskoeffizient (0.02-0.81) des Materials abgeschätzt werden. Die gemessenen Beschleunigungen an der Kraterwand weisen darauf hin, dass der Hangwinkel zur Zeit der Massenbewegungen steiler gewesen sein muss als gegenwärtig beobachtet werden kann. Diese Arbeit lieferte neue Einsichten in das Verhalten von Material während des Rheasilvia-Einschlags. Zum ersten Mal konnte so gezeigt werden, dass der Coriolis-Effekt einen Einfluss auf die Massenbewegungen während eines Einschlagsprozesses haben kann und dass die erzeugten Krümmungen bis heute beobachtbar sind. KW - Coriolis effect KW - Vesta KW - mass wasting KW - asteroids KW - Dawn mission KW - impact cratering KW - impact simulation KW - modification stage KW - material properties KW - mass-wasting velocities KW - viscosity KW - coefficient of friction KW - acoustic fluidization KW - Rheasilvia KW - Veneneia KW - curved radial ridges KW - Coriolis Effekt KW - Vesta KW - Massenbewegungen KW - Asteroiden KW - Dawn-Mission KW - Einschlagskrater KW - Einschlagssimulation KW - Modifikationsphase KW - Materialeigenschaften KW - Massenbewegungsgeschwindigkeiten KW - Viskosität KW - Reibungskoeffizient KW - akustische Fluidisierung KW - Rheasilvia KW - Veneneia KW - gekrümmte radiale Bergrücken Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87390 ER - TY - THES A1 - Mulyukova, Elvira T1 - Stability of the large low shear velocity provinces T1 - Stabilität der basalen Melange im untersten Erdmantel BT - numerical modeling of thermochemical mantle convection BT - numerische Modellierung thermochemischer Mantelkonvektion N2 - We study segregation of the subducted oceanic crust (OC) at the core mantle boundary and its ability to accumulate and form large thermochemical piles (such as the seismically observed Large Low Shear Velocity Provinces - LLSVPs). Our high-resolution numerical simulations suggest that the longevity of LLSVPs for up to three billion years, and possibly longer, can be ensured by a balance in the rate of segregation of high-density OC-material to the CMB, and the rate of its entrainment away from the CMB by mantle upwellings. For a range of parameters tested in this study, a large-scale compositional anomaly forms at the CMB, similar in shape and size to the LLSVPs. Neutrally buoyant thermochemical piles formed by mechanical stirring - where thermally induced negative density anomaly is balanced by the presence of a fraction of dense anomalous material - best resemble the geometry of LLSVPs. Such neutrally buoyant piles tend to emerge and survive for at least 3Gyr in simulations with quite different parameters. We conclude that for a plausible range of values of density anomaly of OC material in the lower mantle - it is likely that it segregates to the CMB, gets mechanically mixed with the ambient material, and forms neutrally buoyant large scale compositional anomalies similar in shape to the LLSVPs. We have developed an efficient FEM code with dynamically adaptive time and space resolution, and marker-in-cell methodology. This enabled us to model thermochemical mantle convection at realistically high convective vigor, strong thermally induced viscosity variations, and long term evolution of compositional fields. N2 - Es wird allgemein akzeptiert, dass Mantelkonvektion - das langsame Fließen der Mantelgesteine, das mutmaßlich ein wichtiger Antrieb der Plattentektonik ist - von Dichteunterschieden verursacht wird, die thermischen aber auch chemischen Ursprungs sind. Es fehlen aber Kenntnisse über die thermochemischen Prozesse im Erdinneren, vor allem wegen Schwierigkeiten bei der Beobachtung. Eines der zuverlässigsten Resultate von tomographischen Beobachtungen ist die Existenz von zwei Haufen einer basalen Melange (BAM, LLSVP auf Englisch), die sich auf gegenüber liegenden Seiten in 3000 km Tiefe am Boden des Mantels unter Afrika bzw dem Pazifik befinden. Die niedrige Scherwellengeschwindigkeit in der BAM scheint eine thermischen (heiß) sowie einen chemischen (Material mit hoher Dichte) Ursprung zu haben. Aufgrund von plattentektonischen Rekonstruktionen wird angenommen dass die BAM langlebig und stabil sind, und dass sie von überwiegend von ihren Rändern hochquellenden Manteldiapiren beprobt werden. Die Hauptfrage meiner Doktorarbeit ist, wie solche großen chemischen Speicher wie die BAM sich bilden und über hunderte von Millionen Jahren überleben können, ohne dass sie von der Mantelkonvektion zerstört werden. Was sind die physikalischen Eigenschaften des BAM-Materials, z.B. Dichte, die dazu beitragen? Ich benutze numerische Modellierung um zu erforschen, wie sich eine dichte Bodenschicht bildet und wie die Mantelkonvektion Material daraus mitnimmt. Mein Ziel ist, die langfristige thermochemische Entwicklung des Erdmantels zu verstehen, insbesondere die Rolle der Dichteheterogeintäten Viskosität im untersten Mantel. KW - earth's mantle KW - thermochemical mantle convection KW - numerical modeling KW - Erdmantel KW - thermochemischer Mantelkonvektion KW - numerische Modellierung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82228 ER - TY - THES A1 - Künstler, Andreas T1 - Spot evolution on the red giant star XX Triangulum T1 - Entwicklung von Sternflecken auf dem roten Riesenstern XX Triangulum N2 - Spots on stellar surfaces are thought to be stellar analogues of sunspots. Thus, starspots are direct manifestations of strong magnetic fields. Their decay rate is directly related to the magnetic diffusivity, which itself is a key quantity for the deduction of an activity cycle length. So far, no single starspot decay has been observed, and thus no stellar activity cycle was inferred from its corresponding turbulent diffusivity. We investigate the evolution of starspots on the rapidly-rotating K0 giant XX Triangulum. Continuous high-resolution and phase-resolved spectroscopy was obtained with the robotic 1.2-m STELLA telescope on Tenerife over a timespan of six years. With our line-profile inversion code iMap we reconstruct a total of 36 consecutive Doppler maps. To quantify starspot area decay and growth, we match the observed images with simplified spot models based on a Monte-Carlo approach. It is shown that the surface of XX Tri is covered with large high-latitude and even polar spots and with occasional small equatorial spots. Just over the course of six years, we see a systematically changing spot distribution with various time scales and morphology such as spot fragmentation and spot merging as well as spot decay and formation. For the first time, a starspot decay rate on another star than the Sun is determined. From our spot-decay analysis we determine an average linear decay rate of D = -0.067±0.006 Gm^2/day. From this decay rate, we infer a turbulent diffusivity of η_τ = (6.3±0.5) x 10^14 cm^2/s and consequently predict an activity cycle of 26±6 years. The obtained cycle length matches very well with photometric observations. Our time-series of Doppler maps further enables to investigate the differential rotation of XX Tri. We therefore applied a cross-correlation analysis. We detect a weak solar-like differential rotation with a surface shear of α = 0.016±0.003. This value agrees with similar studies of other RS CVn stars. Furthermore, we found evidence for active longitudes and flip-flops. Whereas the more active longitude is located in phase towards the (unseen) companion star, the weaker active longitude is located at the opposite stellar hemisphere. From their periodic appearance, we infer a flip-flop cycle of ~2 years. Both activity phenomena are common on late-type binary stars. Last but not least we redetermine several astrophysical properties of XX Tri and its binary system, as large datasets of photometric and spectroscopic observations are available since its last determination in 1999. Additionally, we compare the rotational spot-modulation from photometric and spectroscopic studies. N2 - Sternflecken gelten als stellare Analoga zu Sonnenflecken. Somit sind Sternflecken direkte Erscheinungsformen starker Magnetfelder. Ihre Zerfallsrate ist direkt mit der magnetischen Diffusivität verknüpft, welche selbst ein Maß für die Länge eines Aktivitätszyklus ist. Bislang konnte noch kein Zerfall eines einzelnen Sternflecks beobachtet werden und somit konnte noch kein stellarer Aktivitätszyklus mittels einer aus dem Fleckenzerfall abgeleiteten Diffusivität bestimmt werden. Wir untersuchen die Entwicklung von Sternflecken auf dem schnell rotierenden K0 Riesenstern XX Triangulum. Über einen Zeitraum von sechs Jahren wurden durchgängig hochauflösende Spektren mit dem 1.2-m STELLA Teleskop auf Teneriffa aufgenommen. Mit unserem Inversionscode für Linienprofile (iMap) werden insgesamt 36 Dopplerkarten der Sternoberfläche rekonstruiert. Um sowohl den Zerfall als auch die Entstehung von Sternflecken zu bestimmen, werden die rekonstruierten Dopplerkarten mit vereinfachten Fleckenmodellen mittels einer Monte-Carlo-Methode abgebildet. Es zeigt sich, dass die Oberfläche von XX Tri mit großen Flecken auf hohen und sogar polaren Breiten bedeckt ist sowie gelegentlichen kleineren Flecken nahe des Äquators. Gerade in der Zeitspanne von sechs Jahren sehen wir eine systematische Veränderung der Fleckenverteilung auf unterschiedlichen Zeitskalen und mit unterschiedlicher Morphologie, wie Fleckenaufspaltung und Fleckenvereinigung sowie Fleckenzerfall und Fleckenentstehung. Zum ersten Mal wird die Zerfallsrate eines Sternflecks auf einem anderen Stern als der Sonne bestimmt. Von unserer Fleckenzerfallsanalyse bestimmen wir eine mittlere lineare Zerfallsrate von D = -0.067±0.006 Gm^2/d. Von dieser Zerfallsrate leiten wir eine turbulente Diffusivität von η_τ = (6.3±0.5) x 10^14 cm^2/s ab, und schließen daraus einen Aktivitätszyklus von 26±6 Jahren. Diese Zykluslänge stimmt gut mit photometrischen Beobachtungen überein. Unsere Dopplerkarten ermöglichen zusätzlich die Untersuchung der differentiellen Rotation auf XX Tri, wofür eine Kreuzkorrelationsmethode angewandt wird. Wir detektieren eine schwache sonnenähnliche differentielle Rotation mit einer Oberflächenscherung von α = 0.016±0.003. Dieser Wert stimmt mit vergleichbaren Untersuchungen anderer RS CVn-Sterne überein. Zudem haben wir Anzeichen für aktive Longituden und Flip-Flops gefunden. Während sich die aktivere Longitude in Phase zu dem (nicht sichtbaren) Begleitstern befindet, liegt die schwächere aktive Longitude auf der gegenüberliegenden Hemisphäre. Aus ihrem periodischen Auftreten schließen wir auf einen Flip-Flop-Zyklus von ungefähr zwei Jahren. Beide Aktivitätserscheinungen sind häufig auf Doppelsternen späten Spektraltyps zu finden. Zu guter Letzt bestimmen wir die astrophysikalischen Eigenschaften von XX Tri neu, da seit der letzten Bestimmung im Jahre 1999 große neue Datensätze unterschiedlicher Beobachtungen vorhanden sind. Zusätzlich vergleichen wir die periodische Fleckenmodulation aus photometrischen und spektroskopischen Analysen. KW - stellar physics KW - stellar activity KW - Doppler imaging KW - Sternphysik KW - Sternaktivität KW - Doppler Imaging Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-84008 ER - TY - THES A1 - Reiter, Karsten T1 - Crustal stress variability across spatial scales - examples from Canada, Northern Switzerland and a South African gold mine T1 - Die Variabilität der krustalen Spannungen auf räumlichen unterschiedlichen Skalen – Beispiele von Kanada, der Nordschweiz und einer Südafrikanischen Goldmine N2 - The quantitative descriptions of the state of stress in the Earth’s crust, and spatial-temporal stress changes are of great importance in terms of scientific questions as well as applied geotechnical issues. Human activities in the underground (boreholes, tunnels, caverns, reservoir management, etc.) have a large impact on the stress state. It is important to assess, whether these activities may lead to (unpredictable) hazards, such as induced seismicity. Equally important is the understanding of the in situ stress state in the Earth’s crust, as it allows the determination of safe well paths, already during well planning. The same goes for the optimal configuration of the injection- and production wells, where stimulation for artificial fluid path ways is necessary. The here presented cumulative dissertation consists of four separate manuscripts, which are already published, submitted or will be submitted for peer review within the next weeks. The main focus is on the investigation of the possible usage of geothermal energy in the province Alberta (Canada). A 3-D geomechanical–numerical model was designed to quantify the contemporary 3-D stress tensor in the upper crust. For the calibration of the regional model, 321 stress orientation data and 2714 stress magnitude data were collected, whereby the size and diversity of the database is unique. A calibration scheme was developed, where the model is calibrated versus the in situ stress data stepwise for each data type and gradually optimized using statistically test methods. The optimum displacement on the model boundaries can be determined by bivariate linear regression, based on only three model runs with varying deformation ratio. The best-fit model is able to predict most of the in situ stress data quite well. Thus, the model can provide the full stress tensor along any chosen virtual well paths. This can be used to optimize the orientation of horizontal wells, which e.g. can be used for reservoir stimulation. The model confirms regional deviations from the average stress orientation trend, such as in the region of the Peace River Arch and the Bow Island Arch. In the context of data compilation for the Alberta stress model, the Canadian database of the World Stress Map (WSM) could be expanded by including 514 new data records. This publication of an update of the Canadian stress map after ~20 years with a specific focus on Alberta shows, that the maximum horizontal stress (SHmax) is oriented southwest to northeast over large areas in Northern America. The SHmax orientation in Alberta is very homogeneous, with an average of about 47°. In order to calculate the average SHmax orientation on a regular grid as well as to estimate the wave-length of stress orientation, an existing algorithm has been improved and is applied to the Canadian data. The newly introduced quasi interquartile range on the circle (QIROC) improves the variance estimation of periodic data, as it is less susceptible to its outliers. Another geomechanical–numerical model was built to estimate the 3D stress tensor in the target area ”Nördlich Lägern” in Northern Switzerland. This location, with Opalinus clay as a host rock, is a potential repository site for high-level radioactive waste. The performed modelling aims to investigate the sensitivity of the stress tensor on tectonic shortening, topography, faults and variable rock properties within the Mesozoic sedimentary stack, according to the required stability needed for a suitable radioactive waste disposal site. The majority of the tectonic stresses caused by the far-field shortening from the South are admitted by the competent rock units in the footwall and hanging wall of the argillaceous target horizon, the Upper Malm and Upper Muschelkalk. Thus, the differential stress within the host rock remains relatively low. East-west striking faults release stresses driven by tectonic shortening. The purely gravitational influence by the topography is low; higher SHmax magnitudes below topographical depression and lower values below hills are mainly observed near the surface. A complete calibration of the model is not possible, as no stress magnitude data are available for calibration, yet. The collection of this data will begin in 2015; subsequently they will be used to adjust the geomechanical–numerical model again. The third geomechanical–numerical model investigates the stress variation in an ultra-deep gold mine in South Africa. This reservoir model is spatially one order of magnitude smaller than the previous local model from Northern Switzerland. Here, the primary focus is to investigate the hypothesis that the Mw 1.9 earthquake on 27 December 2007 was induced by stress changes due to the mining process. The Coulomb failure stress change (DeltaCFS) was used to analyse the stress change. It confirmed that the seismic event was induced by static stress transfer due to the mining progress. The rock was brought closer to failure on the derived rupture plane by stress changes of up to 1.5–15MPa, in dependence of the DeltaCFS analysis type. A forward modelling of a generic excavation scheme reveals that with decreasing distance to the dyke the DeltaCFS values increase significantly. Hence, even small changes in the mining progress can have a significant impact on the seismic hazard risk, i.e. the change of the occurrence probability to induce a seismic event of economic concern. N2 - Die quantitative Beschreibung des Spannungszustandes in der Erdkruste sowie dessen räumlichzeitliche Änderung ist von großer Bedeutung für wissenschaftliche Fragestellungen, sowie für industrielle Anwendung im geotechnischen Bereich. Bei jedem Eingriff des Menschen in den Untergrund (Bohrungen, Tunnel, Kavernen, Reservoirmanagement etc.) wird der Spannungszustand verändert. Entscheidend ist dabei, ob davon möglicherweise (unvorhersehbare) Gefahren, wie zum Beispiel induzierte Seismizität ausgehen können. Genauso wichtig ist auch ein Verständnis des ungestörten Spannungszustandes in der Erdkruste, um zum Beispiel sichere Bohrlochpfade bereits in der Planungsphase zu bestimmen. Selbiges gilt für eine optimale Konfiguration von Injektions- und Produktionsbohrung, wenn künstliche Fluidwegsamkeiten stimuliert werden müssen. Die vorliegende kumulative Dissertation besteht aus vier Manuskripten, welche teilweise bereits publiziert sind. Fokus der beiden ersten Publikationen ist die potentielle Nutzung von Geothermie in der Provinz Alberta (Kanada). Dafür wurde ein 3-D-geomechanisch-numerisches Modell erstellt, das den kompletten gegenwärtigen 3-D-Spannungstensor in der oberen Erdkruste quantifiziert. Für die Kalibrierung des regionalen Modells wurde ein Datensatz von 321 Spannungsorientierungen und 2714 Spannungsmagnituden zusammengetragen, dessen Größe und Diversität einmalig ist. Aufgrund der vorhandenen Datenbasis wurde ein Kalibrierungsschema entwickelt, bei dem das Modell statistisch abgesichert an jedem einzelnen vorhandenen Datentyp schrittweise getestet und optimiert wird. Das optimale Verhältnis der Randbedingungen des Modells kann dabei durch bivariate lineare Regression, auf der Basis von nur drei Modellläufen bestimmt werden. Das Best-fit-Modell kann den Großteil der in situ Spannungsdaten sehr gut reproduzieren. So kann das Modell den 3-D-Spannungstensor entlang beliebiger virtueller Bohrlochpfade liefern, die zum Beispiel für die Planung der optimalen Orientierung horizontaler Stimulationsbohrungen genutzt werden können. Das Modell bestätigt regionale Abweichungen der Spannungsorientierung vom generellen Trend, wie z.B. in der Region des Peace River Bogens und des Bow Island Bogen. Im Zusammenhang mit der Erstellung des Alberta-Spannungsmodells wurde die Datenbank der Weltspannungskarte (WSM) in der Region Kanada um 514 neue Datensätzen erweitert und alle bestehenden Datensätze überprüft. Dies ermöglichte es nach ca. 20 Jahren, eine aktualisierte Spannungskarte für Kanada mit einem vertiefenden Fokus auf die Provinz Alberta zu publizieren. Die maximale horizontale Spannung (SHmax) in weiten Teilen Nordamerikas ist Südwest nach Nordost orientiert. Die SHmax Orientierung in Alberta ist sehr homogen, im Mittel etwa 47°. Zur Berechnung der mittleren SHmax–Orientierung auf einem regelmäßigen Gitter und zur Ableitung des Spannungsmusters dieser Orientierung wurde ein existierender Algorithmus verbessert und auf den kanadischen Datensatz angewendet. Dabei wurde der Quasi Interquartilsabstand am Kreis (QIROC) neu eingeführt, um die Varianz eines periodischen Datensatzes besser abschätzen zu können. Der modifizierte Algorithmus ist weniger anfällig gegenüber Ausreißern in periodischen Datensätzen, als der Vorgänger. Ein weiteres geomechanisch-numerisches Modell zur kontinuierlichen Beschreibung des 3-D-Spannungstensors wurde für das Gebiet „Nördlich Lägern” in der Nordschweiz erstellt. Diese Region ist ein potentieller Endlagerstandort für hochradioaktiven Abfall, eingelagert im Wirtsgestein Opalinuston. Der Fokus des Modells ist es, die Sensitivität des Spannungsfeldes von tektonischem Schub, Topographie, Störungen und den variablen Gesteinseigenschaften im mesozoischen Sedimentstapel auf den Spannungstensor zu untersuchen. Der Hauptanteil der tektonischen Spannungen, verursacht durch den Fernfeldschub von Süden, wird vor allem durch die mechanisch kompetenten Schichten im Liegenden und Hangenden des tonigen Zielhorizontes, dem Oberen Malm und dem Oberen Muschelkalk aufgenommen. Dadurch bleiben die Differenzspannungen in den tonigen Formationen relativ gering. Ost-West streichende Störungen bauen zudem Spannungen des Fernfeldes ab. Der rein gravitative Einfluss der Topographie ist gering; höhere SHmax–Magnituden unterhalb topographischer Depressionen und geringere Werte unter Anhöhen sind vor allem oberflächennah zu beobachten. Eine Kalibrierung des Modells ist nicht abschließend möglich, da im Untersuchungsgebiet keine Spannungsmagnituden zur Verfügung stehen. Diese werden erst in der nächsten Etappe der Endlagersuche, die in 2015 beginnen wird erhoben, sodass das Modell dann gegebenenfalls angepasst werden muss. Das dritte geomechanisch-numerische Modell eines Abschnitts einer tiefliegenden Goldmine in Südafrika ist räumlich gesehen nochmals eine Größenordnung kleiner als das vorherige lokale Modell in der Nordschweiz. Es wurde die Hypothese untersucht, ob das Mw 1.9 Erdbeben am 27. Dezember 2007 durch den Abbau verursacht wurde. Die Analyse der durch die Abbautätigkeit umgelagerten Spannungen unter Nutzung der Spannungsänderung des Coulomb Versagenskriteriums (DeltaCFS) zeigt klar, dass das seismische Ereignis induziert wurde. Das Gestein wurde entlang der Bruchfläche um 1.5 bis 15MPa dem Versagen näher gebracht, je nachdem welche DeltaCFS Analysemethode angewendet wird und unter Berücksichtigung der Unsicherheiten in der Orientierung der Herdflächenlösung sowie der Modellparameter. Eine Vorwärtsmodellierung eines generischen Abbauprozesses zeigt exponentiell steigende DeltaCFS–Werte mit abnehmender Distanz des Abbaus zu dem magmatischen Aufstiegskanal, in dem das Beben stattfand. Folglich haben geringe Änderungen des Abbauprozesses entscheidenden Einfluss auf die Eintretenswahrscheinlichkeit eines seismischen Ereignisses. KW - stress pattern KW - tectonic stress KW - circular statistics KW - 3D geomechanical numerical model KW - crustal stress KW - tektonische Spannungen KW - Spannungsmuster KW - krustale Spannungen KW - zirkulare Statistik KW - 3D geomechanisch-nummerische Modellierung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76762 ER - TY - THES A1 - Zubaidah, Teti T1 - Spatio-temporal characteristics of the geomagnetic field over the Lombok Island, the Lesser Sunda Islands region BT - new geological, tectonic, and seismo-electromagnetic insights along the Sunda-Banda Arcs transition T2 - Scientific Technical Report N2 - The Lombok Island is part of the Lesser Sunda Islands (LSI) region – Indonesia, situated along the Sunda-Banda Arcs transition. It lies between zones characterized by the highest intensity geomagnetic anomalies of this region, remarkable as one of the eight most important features provided on the 1st edition of World Digital Magnetic Anomaly Map. The seismicity of this region during the last years is high, while the geological and tectonic structures of this region are still not known in detail. Some local magnetic surveys have been conducted previously during 2004–2005. However, due to the lower accuracy of the used equipment and a limited number of stations, the qualities of the previous measurements are questionable for more interpretations. Thus a more detailed study to better characterize the geomagnetic anomaly -spatially and temporally- over this region and to deeply explore the related regional geology, tectonic and seismicity is needed. The intriguing geomagnetic anomalies over this island region vis-à-vis the socio-cultural situations lead to a study with a special aim to contribute to the assessment of the potential of natural hazards (earthquakes) as well as a new natural resource of energy (geothermal potential). This study is intended to discuss several crucial questions, including: i. The real values and the general pattern of magnetic anomalies over the island, as well as their relation to the regional one. ii. Any temporal changes of regional anomalies over the recent time. iii. The relationships between the anomalies and the geology and tectonic of this region, especially new insights that can be gained from the geomagnetic observations. iv. The relationships between the anomalies and the high seismicity of this region, especially some possible links between their variations to the earthquake occurrence. First, all available geomagnetic data of this region and results of the previous measurements are evaluated. The new geomagnetic surveys carried out in 2006 and 2007/2008 are then presented in detail, followed by the general description of data processing and data quality evaluation. The new results show the general pattern of contiguous negative-positive anomalies, revealing an active arc related subduction region. They agree with earlier results obtained by satellite, aeromagnetic, and marine platforms; and provide a much more detailed picture of the strong anomalies on this island. The temporal characteristics of regional anomalies show a decreasing strength of the dipolar structure, where decreasing of the field intensities is faster than the regional secular variations as defined by the global model (the 10th generation of IGRF). However, some exceptions (increasing of anomalies) have to be noted and further analyzed for several locations. Thereafter, simultaneous magnetic anomalies and gravity models are generated and interpreted in detail. Three profiles are investigated, providing new insights into the tectonics and geological evolution of the Lombok Island. Geological structure of this island can be divided as two main parts with different consecutive ages: an old part (from late Oligocene to late Miocene) in the South and a younger one (from Pliocene to Holocene) in the North. A new subduction in the back arc region (the Flores Thrust zone) is considered mature and active, showing a tendency of progressive subduction during 2005–2008. Geothermal potential in the northern part of this island can be mapped in more detail using these geomagnetic regional survey data. The earlier estimates of reservoir depth can be confirmed further to a depth of about 800 m. Evaluation of temporal changes of the anomalies gives some possible explanations related to the evolution of the back arc region, large stress accumulations over the LSI region, a specific electrical characteristic of the crust of the Lombok Island region, and a structural discontinuity over this island. Based on the results, several possible advanced studies involving geomagnetic data and anomaly investigations over the Lombok Island region can be suggested for the future: i. Monitoring the subduction activity of the back arc region (the Flores Thrust zone) and the accumulated stress over the LSI, that could contribute to middle term hazard assessment with a special attention to the earthquake occurrence in this region. Continuous geomagnetic field measurements from a geomagnetic observatory which can be established in the northern part of the Lombok Island and systematic measurements at several repeat stations can be useful in this regards. ii. Investigating the specific electrical characteristic (high conductivity) of the crust, that is probably related to some aquifer layers or metal mineralization. It needs other complementary geophysical methods, such as magnetotelluric (MT) or preferably DC resistivity measurements. iii. Determining the existence of an active structural fault over the Lombok Island, that could be related to long term hazard assessment over the LSI region. This needs an extension of geomagnetic investigations over the neighbouring islands (the Bali Island in the West and the Sumbawa Island in the East; probably also the Sumba and the Flores islands). This seems possible because the regional magnetic lineations might be used to delineate some structural discontinuities, based on the modelling of contrasts in crustal magnetizations. KW - geomagnetic KW - tectonic KW - seismo-electromagnetic KW - Lombok Y1 - 2010 U6 - https://doi.org/10.2312/GFZ.b103-10079 VL - STR10 IS - 07 PB - Deutsches GeoForschungsZentrum GFZ CY - Potsdam ER - TY - THES A1 - Hendriyana, Andri T1 - Detection and Kirchhoff-type migration of seismic events by use of a new characteristic function T1 - Detektion und Kirchhoff-Migration seismischer Ereignisse durch Verwendung einer neuen charakteristischen Funktion N2 - The classical method of seismic event localization is based on the picking of body wave arrivals, ray tracing and inversion of travel time data. Travel time picks with small uncertainties are required to produce reliable and accurate results with this kind of source localization. Hence recordings, with a low Signal-to-Noise Ratio (SNR) cannot be used in a travel time based inversion. Low SNR can be related with weak signals from distant and/or low magnitude sources as well as with a high level of ambient noise. Diffraction stacking is considered as an alternative seismic event localization method that enables also the processing of low SNR recordings by mean of stacking the amplitudes of seismograms along a travel time function. The location of seismic event and its origin time are determined based on the highest stacked amplitudes (coherency) of the image function. The method promotes an automatic processing since it does not need travel time picks as input data. However, applying diffraction stacking may require longer computation times if only limited computer resources are used. Furthermore, a simple diffraction stacking of recorded amplitudes could possibly fail to locate the seismic sources if the focal mechanism leads to complex radiation patterns which typically holds for both natural and induced seismicity. In my PhD project, I have developed a new work flow for the localization of seismic events which is based on a diffraction stacking approach. A parallelized code was implemented for the calculation of travel time tables and for the determination of an image function to reduce computation time. In order to address the effects from complex source radiation patterns, I also suggest to compute diffraction stacking from a characteristic function (CF) instead of stacking the original wave form data. A new CF, which is called in the following mAIC (modified from Akaike Information Criterion) is proposed. I demonstrate that, the performance of the mAIC does not depend on the chosen length of the analyzed time window and that both P- and S-wave onsets can be detected accurately. To avoid cross-talk between P- and S-waves due to inaccurate velocity models, I separate the P- and S-waves from the mAIC function by making use of polarization attributes. Then, eventually the final image function is represented by the largest eigenvalue as a result of the covariance analysis between P- and S-image functions. Before applying diffraction stacking, I also apply seismogram denoising by using Otsu thresholding in the time-frequency domain. Results from synthetic experiments show that the proposed diffraction stacking provides reliable results even from seismograms with low SNR=1. Tests with different presentations of the synthetic seismograms (displacement, velocity, and acceleration) shown that, acceleration seismograms deliver better results in case of high SNR, whereas displacement seismograms provide more accurate results in case of low SNR recordings. In another test, different measures (maximum amplitude, other statistical parameters) were used to determine the source location in the final image function. I found that the statistical approach is the preferred method particularly for low SNR. The work flow of my diffraction stacking method was finally applied to local earthquake data from Sumatra, Indonesia. Recordings from a temporary network of 42 stations deployed for 9 months around the Tarutung pull-apart Basin were analyzed. The seismic event locations resulting from the diffraction stacking method align along a segment of the Sumatran Fault. A more complex distribution of seismicity is imaged within and around the Tarutung Basin. Two lineaments striking N-S were found in the middle of the Tarutung Basin which support independent results from structural geology. These features are interpreted as opening fractures due to local extension. A cluster of seismic events repeatedly occurred in short time which might be related to fluid drainage since two hot springs are observed at the surface near to this cluster. N2 - Klassische seismologische Verfahren zur Lokalisierung seismischer Ereignisse basieren auf der Bestimmung der Ankunftszeiten von Raumwellenphasen, der Berechnung von Strahlwegen in Untergrundmodellen sowie der Inversion der Laufzeitdaten. Um mit dieser Methode zuverlässige und genaue Lokalisierungsergebnisse zu erhalten, werden Laufzeitdaten mit kleinen Unsicherheiten benötigt. Folgerichtig müssen Seismogramme mit sehr geringen Signal-zu-Rausch Verhältnissen (S/N) häufig verworfen werden. Geringe S/N können einerseits durch schwache Signale am Empfänger, z.B. wegen großer Entfernungen zur Quelle und/oder bei Quellen mit kleiner Magnitude, und andererseits durch einen hohen Rauschpegel verursacht werden. Eine alternative Methode zur Herdlokalisierung ist die sogenannte Diffraktions-Stapel-ung. Hierbei werden die Amplituden der aufgezeichneten Wellenformen entlang von vorhergesagten Laufzeitfunktionen aufgestapelt. Durch konstruktive Aufsummation können auch Signale von Seismogrammen mit geringem S/N zur Lokalisierung beitragen. Als Teil des Verfahrens wird eine sogenannte Image-Funktion berechnet, deren maximale Amplitude (Kohärenz) mit dem Ort und der Zeit des Bebenherdes verknüpft ist. Die Methodik ist für eine Implementation von automatisierten Überwachungssystemen geeignet. Von Nachteil ist der relative hohe Rechenaufwand. Außerdem müssen bei der Diffraktions-Stapelung die komplizierten Abstrahlcharakteristika im Quellbereich und deren Auswirkungen auf die Signale an verschiedenen Empfängern im Unterschied zur Laufzeit-Inversion mit berücksichtigt werden. In meiner Arbeit habe ich eine neue Methodik zur Lokalisierung von Bebenherden unter Verwendung einer Diffraktions-Stapelung entwickelt. Zunächst werden Laufzeiten (Green’s Funktionen) für potentielle Herdlokationen mit Hilfe eines parallelisierten Algorithmus berechnet. Eine erste Vorbearbeitung der Seismogramme mit der Otsu-Threshold-ing Methode im Zeit-Frequenz-Bereich dient zur Unterdrückung von nicht-stationären Rauschanteilen. Anschliessend wird eine neu entwickelte charakteristische Funktion (CF) berechnet, um P- und S-Welleneinsätze in den gefilterten Daten noch stärker hervorzuheben. Die vorgeschlagene CF basiert auf einer modifizierten Version des Akaike Kriteriums. Die neue CF liefert stabile Resultate, die im Unterschied zum klassischen Akaike-Kriterium nicht von der subjektiv festzulegenden Länge des Analysefensters abhängig sind. Die Verwendung der CF ist darüber hinaus entscheidend, um den unerwünschten Einfluss der Abstrahlcharakteristik auf die gemessenen Amplituden bei der Diffraktions-Stapelung zu eliminieren. Eine finale Image-Funktion wird mit Hilfe einer Kovarianzmatrix-Analyse von P- und S- Image-Funktionen bestimmt, um daraus schließlich die Herdlokation zu ermitteln. Das neue Verfahren wird an Hand von synthetischen Daten getestet. Zuverlässige und genaue Resultate konnten selbst bei sehr geringen S/N von 1 erzielt werden. Tests mit verschiedenen Seismogramm-Varianten (Verschiebung, Geschwindigkeit, Beschleunigung) ergaben, dass bei hohem S/N Beschleunigungs-Seismogramme und bei sehr niedrigen S/N Verschiebungs-Seismogramme die besten Ergebnisse lieferten. Schliesslich wurde das Verfahren auf Daten aus einer Lokalbebenuntersuchung auf Sumatra (Indonesien) angewendet. Über einen Zeitraum von 9 Monaten wurde mit einem Netzwerk aus 42 Stationen die Seismizität im Bereich des Tarutung-Beckens an der Sumatra-Störung (SF) erfasst. Die Methode bildete hierbei ein lineares Segment der SF ab. Im Tarutung-Becken wurde eine komplexere Bebenverteilung abgeleitet. Ein Vergleich mit strukturgeologischen Daten liefert Rückschlüsse auf das tektonische und geothermische Regime im Untersuchungsgebiet. KW - time-series analysis KW - inverse theory KW - earthquake source observations KW - seismicity and tectonics KW - wave scattering and diffraction KW - body waves KW - computational seismology KW - Zeitreihenanalyse KW - Inversions-Theorie KW - Beobachtung von Erdbebenquellen KW - Seismizität und Tektonik KW - Wellenbrechung und Diffraktion KW - Raumwellen KW - computergestützte Seismologie Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398879 ER - TY - THES A1 - Breitling, Frank T1 - Propagation of energetic electrons in the solar corona observed with LOFAR T1 - Ausbreitung energiereicher Elektronen in der Sonnenkorona beobachtet mit LOFAR N2 - This work reports about new high-resolution imaging and spectroscopic observations of solar type III radio bursts at low radio frequencies in the range from 30 to 80 MHz. Solar type III radio bursts are understood as result of the beam-plasma interaction of electron beams in the corona. The Sun provides a unique opportunity to study these plasma processes of an active star. Its activity appears in eruptive events like flares, coronal mass ejections and radio bursts which are all accompanied by enhanced radio emission. Therefore solar radio emission carries important information about plasma processes associated with the Sun’s activity. Moreover, the Sun’s atmosphere is a unique plasma laboratory with plasma processes under conditions not found in terrestrial laboratories. Because of the Sun’s proximity to Earth, it can be studied in greater detail than any other star but new knowledge about the Sun can be transfer to them. This “solar stellar connection” is important for the understanding of processes on other stars. The novel radio interferometer LOFAR provides imaging and spectroscopic capabilities to study these processes at low frequencies. Here it was used for solar observations. LOFAR, the characteristics of its solar data and the processing and analysis of the latter with the Solar Imaging Pipeline and Solar Data Center are described. The Solar Imaging Pipeline is the central software that allows using LOFAR for solar observations. So its development was necessary for the analysis of solar LOFAR data and realized here. Moreover a new density model with heat conduction and Alfvén waves was developed that provides the distance of radio bursts to the Sun from dynamic radio spectra. Its application to the dynamic spectrum of a type III burst observed on March 16, 2016 by LOFAR shows a nonuniform radial propagation velocity of the radio emission. The analysis of an imaging observation of type III bursts on June 23, 2012 resolves a burst as bright, compact region localized in the corona propagating in radial direction along magnetic field lines with an average velocity of 0.23c. A nonuniform propagation velocity is revealed. A new beam model is presented that explains the nonuniform motion of the radio source as a propagation effect of an electron ensemble with a spread velocity distribution and rules out a monoenergetic electron distribution. The coronal electron number density is derived in the region from 1.5 to 2.5 R☉ and fitted with the newly developed density model. It determines the plasma density for the interplanetary space between Sun and Earth. The values correspond to a 1.25- and 5-fold Newkirk model for harmonic and fundamental emission, respectively. In comparison to data from other radio instruments the LOFAR data shows a high sensitivity and resolution in space, time and frequency. The new results from LOFAR’s high resolution imaging spectroscopy are consistent with current theories of solar type III radio bursts and demonstrate its capability to track fast moving radio sources in the corona. LOFAR solar data is found to be a valuable source for solar radio physics and opens a new window for studying plasma processes associated with highly energetic electrons in the solar corona. N2 - Diese Arbeit befasst sich mit neuen hochaufgelösten abbildenden und spektroskopischen Beobachtungen von solaren Typ III Radiobursts bei niedrigen Frequenzen im Bereich von 30 bis 80 MHz. Solare Typ III Radiobursts werden auf die Beam-Plasmawechselwirkung von Elektronenstrahlen in der Korona zurückgeführt. Die Sonne stellt eine einzigartige Möglichkeit dar, diese Plasmaprozesse eines aktiven Sterns zu untersuchen. Die Aktivität zeigt sich in eruptiven Ereignissen wie Flares, koronalen Massenauswürfen und Radiobursts, die jeweils von erhöhter Radiostrahlung begleitet werden. Daher trägt solare Radioemission wichtige Informationen über Plasmaprozesse, die mit Sonnenaktivität in Verbindung stehen. Darüber hinaus ist die Sonne auch ein einzigartiges Plasmalabor mit Plasmaprozessen unter Bedingungen die man nicht in irdischen Laboren findet. Aufgrund ihres vergleichsweise geringen Abstands kann man die Sonne wesentlich genauer beobachten als andere Sterne, aber neue Erkenntnisse von ihr auf andere Sterne übertragen. Diese “Solare-Stellare Verbindung” ist wichtig um Prozesse auf anderen Sternen zu verstehen. Das neue Radiointerferometer LOFAR bietet abbildende und spektroskopische Möglichkeiten, um diese Prozesse bei niedrigen Frequenzen zu untersuchen und wurde hier für Sonnenbeobachtungen genutzt. LOFAR, die Besonderheiten seiner Sonnendaten sowie das Verarbeiten und Analysieren dieser Daten mit der Solar Imaging Pipeline und dem Solar Data Center werden beschrieben. Die Solar Imaging Pipeline ist die zentrale Software, die die Nutzung von LOFAR für Sonnenbeobachtungen ermöglicht. Daher war deren Entwicklung für die Analyse von Sonnendaten notwendig und ist im Rahmen dieser Arbeit erfolgt. Außerdem wurde ein neues Dichtemodell mit Wärmeleitung und Alfvén-Wellen entwickelt, welches die Bestimmung der Entfernung von Radiobursts zur Sonne mittels dynamischer Spektren ermöglicht. Die Anwendung auf dynamische Spektren eines LOFAR Typ III Bursts am 16. März 2016 zeigt eine radiale, ungleichförmige Ausbreitungsgeschwindigkeit der Radioemission. Die Analyse einer abbildenden Beobachtung von Typ III Bursts am 23. Juni 2012 zeigt den Burst als helle, kompakte Region in der Korona die sich in radiale Richtung entlang magnetischer Feldlinien mit einer durchschnittlichen Geschwindigkeit von 0.23c (c, Lichtgeschwindigkeit) bewegt. Die Geschwindigkeit ist nicht gleichförmig. Ein neues Beammodell wird vorgestellt, dass diese ungleichförmige Geschwindigkeit als Ausbreitungseffekt eines Elektronenensemble mit einer ausgedehnten Geschwindigkeitsverteilung erklärt und eine monoenergetische Elektronenverteilung ausschließt. Die koronale Elektronenzahldichte wird in der Region von 1.5 bis 2.5 R☉ ermittelt und ein Fit mit dem neuen Dichtemodell durchgeführt. Dadurch ist die Plasmadichte im ganzen interplanetaren Raum zwischen Sonne und Erde bestimmt. Die Werte entsprechen jeweils einem 1.25- und 5-fachen Newkirk Modell im Fall von fundamentaler und harmonischer Emission. Im Vergleich zu Daten von anderen Radioinstrumenten haben LOFAR-Daten eine hohe Empfindlichkeit und Auflösung in Raum, Zeit und Frequenz. Die neuen Ergebnisse von LOFARs hochauflösender, abbildender Spektroskopie stimmen mit derzeitigen Theorien von solaren Typ III Radiobursts überein und zeigen die Möglichkeit, schnell bewegliche Radioquellen in der Korona zu verfolgen. LOFAR Sonnendaten wurden als wertvolle Quelle für solare Radiophysik erkannt und öffnen eine neues Fenster zur Untersuchung von Plasmaprozessen hochenergetischer Elektronen in der Korona. KW - sun KW - type III KW - radio burst KW - LOFAR KW - plasma physics KW - Sonne KW - Typ III KW - Radioburst KW - Plasmaphysik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396893 ER - TY - THES A1 - Ziegler, Moritz O. T1 - The 3D in-situ stress field and its changes in geothermal reservoirs T1 - Das 3D in-situ Spannungsfeld und seine Änderungen in Geothermiereservoiren N2 - Information on the contemporary in-situ stress state of the earth’s crust is essential for geotechnical applications and physics-based seismic hazard assessment. Yet, stress data records for a data point are incomplete and their availability is usually not dense enough to allow conclusive statements. This demands a thorough examination of the in-situ stress field which is achieved by 3D geomechanicalnumerical models. However, the models spatial resolution is limited and the resulting local stress state is subject to large uncertainties that confine the significance of the findings. In addition, temporal variations of the in-situ stress field are naturally or anthropogenically induced. In my thesis I address these challenges in three manuscripts that investigate (1) the current crustal stress field orientation, (2) the 3D geomechanical-numerical modelling of the in-situ stress state, and (3) the phenomenon of injection induced temporal stress tensor rotations. In the first manuscript I present the first comprehensive stress data compilation of Iceland with 495 data records. Therefore, I analysed image logs from 57 boreholes in Iceland for indicators of the orientation of the maximum horizontal stress component. The study is the first stress survey from different kinds of stress indicators in a geologically very young and tectonically active area of an onshore spreading ridge. It reveals a distinct stress field with a depth independent stress orientation even very close to the spreading centre. In the second manuscript I present a calibrated 3D geomechanical-numerical modelling approach of the in-situ stress state of the Bavarian Molasse Basin that investigates the regional (70x70x10km³) and local (10x10x10km³) stress state. To link these two models I develop a multi-stage modelling approach that provides a reliable and efficient method to derive from the larger scale model initial and boundary conditions for the smaller scale model. Furthermore, I quantify the uncertainties in the models results which are inherent to geomechanical-numerical modelling in general and the multi-stage approach in particular. I show that the significance of the models results is mainly reduced due to the uncertainties in the material properties and the low number of available stress magnitude data records for calibration. In the third manuscript I investigate the phenomenon of injection induced temporal stress tensor rotation and its controlling factors. I conduct a sensitivity study with a 3D generic thermo-hydro-mechanical model. I show that the key control factors for the stress tensor rotation are the permeability as the decisive factor, the injection rate, and the initial differential stress. In particular for enhanced geothermal systems with a low permeability large rotations of the stress tensor are indicated. According to these findings the estimation of the initial differential stress in a reservoir is possible provided the permeability is known and the angle of stress rotation is observed. I propose that the stress tensor rotations can be a key factor in terms of the potential for induced seismicity on pre-existing faults due to the reorientation of the stress field that changes the optimal orientation of faults. N2 - Kenntnis des derzeitigen in-situ Spannungszustandes der Erdkruste ist essenziell für geotechnische Anwendungen und seismische Gefährdungsabschätzungen, welche auf physikalischen Beobachtungen basieren. Jedoch sind die Spannungsinformationen jedes Datenpunktes unvollständig und die Menge an vorhandenen Datenpunkten ist normalerweise nicht groß genug, um schlüssige Ergebnisse zu erzielen. Daher ist eine eingehende Untersuchung des in-situ Spannungsfeldes, welche durch 3D geomechanisch-numerische Modellierung geleistet wird, erforderlich. Jedoch ist die räumliche Auflösung der Modelle begrenzt und der resultierende Spannungszustand ist großen Unsicherheiten unterworfen, welche die Aussagekraft der Ergebnisse beschränken. Zusätzlich gibt es zeitliche Änderungen des Spannungsfeldes, welche durch natürliche Prozesse bedingt oder menschengemacht sind. In meiner Dissertation behandle ich diese Herausforderungen in drei Manuskripten, welche (1) die Orientierung des derzeitigen Spannungszustandes, (2) die 3D geomechanisch-numerische Modellierung des in-situ Spannungszustandes und (3) das Phänomen injektionsinduzierter zeitlicher Rotationen des Spannungstensors zum Thema haben. In dem ersten Manuskript präsentiere ich die erste umfassende Spannungsdatensammlung von Island mit insgesamt 495 Einträgen. Dafür habe ich Bilddatenlogs aus 57 Bohrlöchern in Island auf Indikatoren der maximalen horizontalen Spannungsorientierung hin untersucht. Diese Studie ist die erste ganzheitliche Spannungsuntersuchung, welche sich auf verschiedene Indikatoren der Spannungsorientierung stützt und in einem geologisch sehr jungen und tektonisch aktiven Gebiet auf einem Mittelozeanischen Rücken an Land liegt. Es zeigt sich, dass selbst sehr nahe an der Plattengrenze eine tiefenunabhängige, eindeutige Spannungsorientierung existiert. In dem zweiten Manuskript präsentiere ich einen kalibrierten 3D geomechanisch-numerischen Modellierungsansatz des in-situ Spannungszustandes des bayrischen Molassebeckens welches den regionalen (70x70x10km³) und den lokalen (10x10x10km³) Spannungszustand untersucht. Um diese zwei Modelle zu verbinden, habe ich ein mehrstufigen Modellansatz entworfen, welcher eine zuverlässige und effiziente Methode darstellt um Randbedingungen und Initialbedingungen für das kleinere Modell aus dem größeren Modell abzuleiten. Des Weiteren quantifiziere ich die Unsicherheiten in den Modellergebnissen, welche im Allgemeinen durch geomechanisch-numerische Modellierung und im Speziellen durch den Mehrstufenansatz entstehen. Ich zeige, dass die Signifikanz der Modellergebnisse hauptsächlich durch die Unsicherheiten in den Materialeigenschaften sowie der geringen Anzahl vorhandener Spannungsmagnitudendaten zur Kalibrierung reduziert wird. In dem dritten Manuskript untersuche ich das Phänomen injektionsinduzierter zeitlicher Rotationen des Spannungstensors und deren kontrollierende Parameter. Ich führe eine Sensitivitätsanalyse mit einem generischen 3D thermo-hydro-mechanischen Modell durch. Darin zeige ich, dass die Schlüsselparameter, welche die Rotationen des Spannungstensors kontrollieren, die Permeabilität des Reservoirgesteins als der entscheidende Faktor, die Injektionsrate und die initiale Differenzspannung sind. Insbesondere für geothermische Systeme nach dem Hot-Dry-Rock-Verfahren mit einer geringen Permeabilität weisen die Ergebnisse auf große Rotationen des Spannungstensors hin. Gemäß diesen Ergebnissen kann die initiale Differenzspannung in einem Reservoir abgeschätzt werden, sollte die Permeabilität bekannt sein und der Winkel der Spannungsrotation beobachtet werden. Ich schlage vor, dass Spannungsrotationen ein Schlüsselfaktor in Bezug auf das Potenzial für induzierte Seismizität sind, welche auf prä-existierenden Störungen entsteht, die durch die Reorientierung des Spannungsfeldes optimal orientiert werden. KW - stress KW - stress changes KW - induced seismicity KW - geothermal KW - geomechanical modelling KW - Spannung KW - Spannungsänderungen KW - induzierte Seismizität KW - Geothermie KW - geomechanische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403838 ER - TY - THES A1 - Fournier, Yori T1 - Dynamics of the rise of magnetic flux tubes in stellar interiors BT - a numerical study of compressible non-axisymmetric flux tubes N2 - In sonnenähnlichen Sternen erhält ein Dynamo-Mechanismus die Magnetfelder. Der Babcock-Leighton-Dynamo beruht auf einem solchen Mechanismus und erfordert insbesondere die Existenz von magnetischen Flussröhren. Man nimmt an, dass magnetische Flussröhren am Boden der Konvetionszone entstehen und durch Auftrieb bis zur Oberfläche steigen. Es wird ein spezielles Dynamomodell vorgeschlagen, in dem der Verzögerungseffekt durch das Aufsteigen der Flussröhren berücksichtigt wird. Die vorliegende Dissertation beschäftigt sich mit der Anwendbarkeit des Babcock-Leighton-Dynamos auf andere Sterne. Zu diesem Zweck versuchen wir, die Aufstiegszeiten von magnetischen Flussröhren mit Hilfe von kompressiblen MHD-Simulationen in spärischen Kugelschalen mit Dichteschichtung zu bestimmen und einzugrenzen. Derartige Simulationen sind allerdings nur in einem unrealistischen Parameterbereich möglich. Deshalb ist eine Skalierungsrelation nötig, die die Ergebnisse auf realistische physikalische Regimes überträgt. Wir erweitern frühere Arbeiten zu Skalierungsrelationen in 2D und leiten ein allgemeines Skalierungsgesetz ab, das für 2D- und 3D-Flussröhren gültig ist. In einem umfangreichen Satz von numerischen Simulationen zeigen wir, dass die abgeleitete Skalierungsrelation auch im vollständig nichtlinearen Fall gilt. Wir haben damit ein Gesetz für die Aufstiegszeit von magnetischen Flussröhren gefunden, dass in jedem sonnenähnlichen Stern Gültigkeit hat. Schließlich implementieren wir dieses Gesetz in einem Dynamomodell mit Verzögerungsterm. Die Simulationen eines solchen verzögerten Flussröhren/Babcock-Leighton-Dynamos auf der Basis der Meanfield-Formulierung führten auf ein neues Dynamo-Regime, das nur bei Anwesenheit der Verzögerung existiert. Die erforderlichen Verzögerungen sind von der Gröÿenordnung der Zykluslänge, die resultierenden Magnetfelder sind schwächer als die Äquipartitions-Feldstärke. Dieses neue Regime zeigt, dass auch bei sehr langen Aufstiegszeiten der Flussröhren/Babcock-Leighton-Dynamo noch nichtzerfallende Lösungen liefern und daher auf ein breites Spektrum von Sternen anwendbar sein kann. N2 - Solar-like stars maintain their magnetic fields thanks to a dynamo mechanism. The Babcock-Leighton dynamo is one possible dynamo that has the particularity to require magnetic flux tubes. Magnetic flux tubes are assumed to form at the bottom of the convective zone and rise buoyantly to the surface. A delayed dynamo model has been suggested, where the delay accounts for the rise time of the magnetic flux tubes; a time, that has been ignored by former studies. The present thesis aims to study the applicability of the flux tube/Babcock-Leighton dynamo to other stars. To do so, we attempt to constrain the rise time of magnetic flux tubes thanks to the first fully compressible MHD simulations of rising magnetic flux tubes in stratified rotating spherical shells. Such simulations are limited to an unrealistic parameter space, therefore, a scaling relation is required to scale the results to realistic physical regimes. We extended earlier works on 2D scaling relations and derived a general scaling law valid for both 2D and 3D. We then carried out two large series of numerical experiments and verified that the scaling law we have derived indeed applies to the fully non-linear case. It allowed us to extract a constraint for the rise time of magnetic flux tubes that is valid for any solar-like star. We finally introduced this constraint to a delayed dynamo model. By carrying out simulations of a mean-field, delayed, flux tube/Babcock-Leighton dynamo, we were able to identify a new dynamo regime resulting from the delay. This regime requires delays about an entire cycle and exhibits subequipartition magnetic activity. Revealing this new regime shows that even for long delays the flux tube/Babcock-Leighton dynamo can still deliver non-decaying solutions and remains a good candidate for a wide range of solar-like stars. KW - astrophysics KW - stellar physics KW - magnetohydrodynamics (MHD) KW - numerical experiments KW - magnetic flux tubes KW - dynamo theory Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394533 ER - TY - THES A1 - Lontsi, Agostiny Marrios T1 - 1D shallow sedimentary subsurface imaging using ambient noise and active seismic data T1 - 1D Bildgebung oberflächennaher Sedimente mit Hilfe von Daten der allgemeinen, seismischen Bodenunruhe und Daten der aktiven Seismik N2 - The Earth’s shallow subsurface with sedimentary cover acts as a waveguide to any incoming wavefield. Within the framework of my thesis, I focused on the characterization of this shallow subsurface within tens to few hundreds of meters of sediment cover. I imaged the seismic 1D shear wave velocity (and possibly the 1D compressional wave velocity). This information is not only required for any seismic risk assessment, geotechnical engineering or microzonation activities, but also for exploration and global seismology where site effects are often neglected in seismic waveform modeling. First, the conventional frequency-wavenumber (f - k) technique is used to derive the dispersion characteristic of the propagating surface waves recorded using distinct arrays of seismometers in 1D and 2D configurations. Further, the cross-correlation technique is applied to seismic array data to estimate the Green’s function between receivers pairs combination assuming one is the source and the other the receiver. With the consideration of a 1D media, the estimated cross-correlation Green’s functions are sorted with interstation distance in a virtual 1D active seismic experiment. The f - k technique is then used to estimate the dispersion curves. This integrated analysis is important for the interpretation of a large bandwidth of the phase velocity dispersion curves and therefore improving the resolution of the estimated 1D Vs profile. Second, the new theoretical approach based on the Diffuse Field Assumption (DFA) is used for the interpretation of the observed microtremors H/V spectral ratio. The theory is further extended in this research work to include not only the interpretation of the H/V measured at the surface, but also the H/V measured at depths and in marine environments. A modeling and inversion of synthetic H/V spectral ratio curves on simple predefined geological structures shows an almost perfect recovery of the model parameters (mainly Vs and to a lesser extent Vp). These results are obtained after information from a receiver at depth has been considered in the inversion. Finally, the Rayleigh wave phase velocity information, estimated from array data, and the H/V(z, f) spectral ratio, estimated from a single station data, are combined and inverted for the velocity profile information. Obtained results indicate an improved depth resolution in comparison to estimations using the phase velocity dispersion curves only. The overall estimated sediment thickness is comparable to estimations obtained by inverting the full micortremor H/V spectral ratio. N2 - Oberflächennahe Sedimente wirken oft als Verstärker für einfallende seismische Wellenfelder. Im Rahmen meiner Doktorarbeit konzentriere ich mich auf die Eigenschaften des oberflächennahen Untergrundes von einigen zehn bis zu hundert Metern Sedimentabdeckung. Dabei leite ich Tiefenprofile (1D) der seismische Scherwellengeschwindigkeit (Vs) und wenn möglich auch der Kompressionswellengeschwindigkeit (Vp) aus seismischen Daten ab. Diese Informationen sind nicht nur für jede Erdbebenrisikobewertung, Geotechnik- oder Mikrozonierungsaktivität erforderlich, sondern sind auch für die seismische Erkundung und globale Seismologie von Bedeutung, da Standorteffekte in seismischen Wellenformmodellierungen oft vernachlässigt werden. Zuerst wird die herkömmliche Frequenz-Wellenzahl (f - k) Technik verwendet, um die Dispersionskurven der Phasengeschwindigkeit von Oberflächenwellen abzuleiten. Die zugrundeliegenden Daten stammen von Seismometerarrays in unterschiedlichen 1D- und 2D-Konfigurationen. In einem weiteren Schritt wird die Green’s Funktion zwischen verschiedenen Empfängerpaaren aus den Daten des seismischen Arrays geschätzt. Dabei wird die Kreuzkorrelationstechnik verwendet. In einem virtuellen 1D Experiment der aktiven Seismik werden die abgeleiteten Green’s Funktionen der Interstationsdistanz nach geordnet. Dann wird die f-k Technik verwendet um wiederum Dispersionskurven abzuleiten. Dieser integrierte Ansatz ermöglicht die Analyse einer grösseren Bandbreite für die Dispersionskurven und daher eine verbesserte Auflösung des 1D Tiefenprofils der Scherwellengeschwindigkeit (Vs). In einem zweiten Schritt wird ein neuer Ansatz, basierend auf der diffusen Wellenfeldannahme (engl., Diffuse Field Assumption, DFA), zur Interpretation beobachteter horizontal zu vertikalen Spektralamplitudenverhältnissen (H/V-Spektralverhältnisse), die aus allgemeiner Bodenunruhe abgeleited wurden,genutzt. Diese Theorie wurde im Rahmen der vorliegenden Arbeit erweitert, um nicht nur an der Oberfläche gemessene H/V- Spektralverhältnisse interpretieren zu können sondern auch Messungen in der Tiefe (Bohrloch) und in mariner Umgebung (Ozeanboden). Eine Modellierung und Inversion von synthetischen HV- Spektralverhältnissen für vordefinierte, einfache geologische Strukturen zeigt eine nahezu perfekte Identifikation/Rekonstruktion der Modellparameter (im wesentlichen Vs und in geringerem Maße Vp), wenn die zusätzliche Information von HV- Spektralverhältnissen eines Empfängers in der Tiefe bei der Inversion berücksichtigt wird. Letztlich wurden (i) Phasengeschwindigkeiten von Rayleighwellen, die aus einem Arraydatensatz geschätzt wurden, mit (ii) H/V-Spektralverhältnissen einer Einzelstation kombiniert invertiert, um Tiefen-profile seismischer Geschwindigkeiten (Vs, Vp) zu bestimmen. Die Ergebnisse deuten daraufhin, dass sich mit einer kombinierte Inversion seismische Geschwindigkeiten bis in größere Tiefen bestimmen lassen, verglichen mit der Inversion von nur Phasengeschwindigkeiten allein. Die geschätzte Gesamtmächtigkeit von Oberflächensedimenten aufgrund der kombinierten Inversion ist vergleichbar mit der, abgleitet von nur H/V-Spektralverhältnissen. KW - active seismic KW - passive seismic KW - virtual active seismic KW - dispersion curves KW - inversion KW - Vs profiles KW - inverse theory KW - interferometry KW - site effects KW - aktive Seismik KW - passive Seismik KW - virtuelle aktive Seismik KW - Dispersionskurven KW - Inversion KW - Vs Profile KW - Inversionstheorie KW - Interferometrie KW - Standorteffekte Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103807 ER - TY - THES A1 - Guidi, Giovanni T1 - Connecting simulations and observations in galaxy formation studies T1 - Verknüpfung von Simulationen und Beobachtungen bei der Untersuchung der Galaxienenstehung N2 - Observational and computational extragalactic astrophysics are two fields of research that study a similar subject from different perspectives. Observational extragalactic astrophysics aims, by recovering the spectral energy distribution of galaxies at different wavelengths, to reliably measure their properties at different cosmic times and in a large variety of environments. Analyzing the light collected by the instruments, observers try to disentangle the different processes occurring in galaxies at the scales of galactic physics, as well as the effect of larger scale processes such as mergers and accretion, in order to obtain a consistent picture of galaxy formation and evolution. On the other hand, hydrodynamical simulations of galaxy formation in cosmological context are able to follow the evolution of a galaxy along cosmic time, taking into account both external processes such as mergers, interactions and accretion, and internal mechanisms such as feedback from Supernovae and Active Galactic Nuclei. Due to the great advances in both fields of research, we have nowadays available spectral and photometric information for a large number of galaxies in the Universe at different cosmic times, which has in turn provided important knowledge about the evolution of the Universe; at the same time, we are able to realistically simulate galaxy formation and evolution in large volumes of the Universe, taking into account the most relevant physical processes occurring in galaxies. As these two approaches are intrinsically different in their methodology and in the information they provide, the connection between simulations and observations is still not fully established, although simulations are often used in galaxies' studies to interpret observations and assess the effect of the different processes acting on galaxies on the observable properties, and simulators usually test the physical recipes implemented in their hydrodynamical codes through the comparison with observations. In this dissertation we aim to better connect the observational and computational approaches in the study of galaxy formation and evolution, using the methods and results of one field to test and validate the methods and results of the other. In a first work we study the biases and systematics in the derivation of the galaxy properties in observations. We post-process hydrodynamical cosmological simulations of galaxy formation to calculate the galaxies' Spectral Energy Distributions (SEDs) using different approaches, including radiative transfer techniques. Comparing the direct results of the simulations with the quantities obtained applying observational techniques to these synthetic SEDs, we are able to make an analysis of the biases intrinsic in the observational algorithms, and quantify their accuracy in recovering the galaxies' properties, as well as estimating the uncertainties affecting a comparison between simulations and observations when different approaches to obtain the observables are followed. Our results show that for some quantities such as the stellar ages, metallicities and gas oxygen abundances large differences can appear, depending on the technique applied in the derivation. In a second work we compare a set of fifteen galaxies similar in mass to the Milky Way and with a quiet merger history in the recent past (hence expected to have properties close to spiral galaxies), simulated in a cosmological context, with data from the Sloan Digital Sky Survey (SDSS). We use techniques to obtain the observables as similar as possible to the ones applied in SDSS, with the aim of making an unbiased comparison between our set of hydrodynamical simulations and SDSS observations. We quantify the differences in the physical properties when these are obtained directly from the simulations without post-processing, or mimicking the SDSS observational techniques. We fit linear relations between the values derived directly from the simulations and following SDSS observational procedures, which in most of the cases have relatively high correlation, that can be easily used to more reliably compare simulations with SDSS data. When mimicking SDSS techniques, these simulated galaxies are photometrically similar to galaxies in the SDSS blue sequence/green valley, but have in general older ages, lower SFRs and metallicities compared to the majority of the spirals in the observational dataset. In a third work, we post-process hydrodynamical simulations of galaxies with radiative transfer techniques, to generate synthetic data that mimic the properties of the CALIFA Integral Field Spectroscopy (IFS) survey. We reproduce the main characteristics of the CALIFA observations in terms of field of view and spaxel physical size, data format, point spread functions and detector noise. This 3-dimensional dataset is suited to be analyzed by the same algorithms applied to the CALIFA dataset, and can be used as a tool to test the ability of the observational algorithms in recovering the properties of the CALIFA galaxies. To this purpose, we also generate the resolved maps of the simulations' properties, calculated directly from the hydrodynamical snapshots, or from the simulated spectra prior to the addition of the noise. Our work shows that a reliable connection between the models and the data is of crucial importance both to judge the output of galaxy formation codes and to accurately test the observational algorithms used in the analysis of galaxy surveys' data. A correct interpretation of observations will be particularly important in the future, in light of the several ongoing and planned large galaxy surveys that will provide the community with large datasets of properties of galaxies (often spatially-resolved) at different cosmic times, allowing to study galaxy formation physics at a higher level of detail than ever before. We have shown that neglecting the observational biases in the comparison between simulations and an observational dataset may move the simulations to different regions in the planes of the observables, strongly affecting the assessment of the correctness of the sub-resolution physical models implemented in galaxy formation codes, as well as the interpretation of given observational results using simulations. N2 - Beobachtende und computergestütze extragalaktische Astrophysik sind zwei Forschugnsbereiche welche ein ähnliches Gebiet in unterschiedlichen Perspektiven untersuchen. Beobachtende extragalaktische Astrophysik hat das Ziel verlässlich die Eigenschaften bei verschiedenen kosmischen Zeiten und bei einer großen Vielzahl von Umgebungen, durch das Betrachten der spektralen Energieverteilung der Galaxien, zu vermessen. Auf der anderen Seite sind hydrodynamische Simulationen im kosmologischen Kontext in der Lage die Entstehung und zeitliche Entwicklung einer Galaxie zu verfolgen, in dem unterschiedliche physikalische Prozesse einbezogen werden. Aufgrund der großen Fortschritte beider Forschungsbereiche sind heutzutage große Datenbanken mit Spektren und photometrische Informationen für eine große Menge von Galaxien bei verschiedenen kosmischen Zeiten verfügbar. Zur gleichen Zeit sind wir in der Lage die Entstehung und Entwicklung von Galaxien realistisch zu simulieren, unter Berücksichtigung der wichtigsten physikalischen Prozesse. Da diese Ansätze grundlegend verschieden sind, ist die Verbindung von Simulationen und Beobachtungen nicht komplett hergestellt, obwohl Simulationen oft zur Interpretation von Beobachtungen genutzt werden und Simulationen durch den Vergleich mit Beobachtungen getestet werden. Das Ziel dieser Dissertation ist die bessere Verknüpfung von Simulationen und Beobachtungen durch die Verwendung der Methoden und Ergebnisse der einen Methode, zur Validierung der anderen und umgekehrt. In einer ersten Arbeit untersuchen wir die systematischen Effekte bei der Vermessung der Eigenschaften von Galaxien in Beobachtungen. Indem wir direkt Simulationen mit syntetischen Daten vergleichen, ist es uns möglich die systematischen Effekte der Beobachtungsalgorithmen zu untersuchen und ihre Genauigkeit bei der Untersuchung der Eigenschaften der Galaxien zu bestimmen. Unsere Ergebnisse ziegen, dass für einige Messgrößen große Unterschiede auftreten können. In einer zweiten Arbeit vergleichen wir 15 simulierte Spiralgalaxien mit ähnlicher Masse wie der Milchstraße mit Daten vom Sloan Digital Sky Survey (SDSS). Dabei verwenden wir die gleichen Methoden, welche bei SDSS verwendet werden, um möglischest unvoreingenommen zwischen hydrodynamischen Simulationen und SDSS Daten zu vergleichen. Wenn wir die Beobachtungsmethoden von SDSS nachahmen, sind die simulierten Galaxien den SDSS Galaxien der blauen Sequenz in der Photometrie ähnlich, aber haben generell höheres Alter, geringere Sternentstehungsrate und Metalizität. In einer dritten Arbeit bearbeiten wir hydrodynamische Simulationen von Galaxien mit Strahlungstransportalgorithmen um synthetische Daten des CALIFA Integralfeldspektroskopie Surveys (IFS) zu erzeugen. Wir reproduzieren die Hauptcharakteristika der CALIFA-Beobachtungen in Bezug auf Sichtfeld, Spaxelgröße, Datenformat, Punktspreizfunktion und Detektorrauschen. Dieser dreidimensionale Datensatz is geeignet, um mit den selben Techniken analysiert zu werden, wie die CALIFA-Daten und können als Mittel genutzt werden, um die Genauigkeit der Beobachtungsalgorithmen zu testen. Zu diesem Zweck erzeugen wir räumlich aufgelöste Eigenschaften der Simulationen, welche direkt von den Aufnahmen der hydrodynamischen Simulationen oder synthetischen Spektren ohne Rauschen berechnet werden. Unsere Arbeit zeigt, dass die verlässliche Verknüpfung von Modellen und Daten von entscheidender Wichtigkeit ist ist, um die Ergebnisse der Galaxieformationssimulationen zu beurteilen und akurat die Beobachtungsalgorithmen zu testen, welche bei der Analyse der Galaxiesurveydaten benutzt werden. Eine korrekte Interpretation der Beobachtungen wird im Hinblick auf die vielen fortlaufenden und geplanten Galaxiesurveys, welche den Wissenschaftern große Datenmengen der Eigenschaften der Galaxien bei unterschiedlichen Zeiten zur Verfügung stellen werden, besonders wichtig in der Zukunft, da dies eine genauere Untersuchung der Physik der Galaxieformationen auf einem Niveau, höher als je zuvor, ermöglichen wird. Außerdem haben wir gezeigt, dass bei dem Vergleichen zwischen Beobachtungen und Simulationen der Bias der Beobachtungen nicht vernachlässigbar ist und die Beurteilung der Korrekturen der physikalischen Modelle, welche in en Galaxieformationscodes implementiert ist, stark beeinflusst, als auch die Interpretation der gegebenen Ergebnisse der Beobachtungen bei Verwendung von Simulationen. KW - galaxy formation KW - galaxy evolution KW - cosmological simulations KW - numerical techniques KW - mock observations KW - Entstehung von Galaxien KW - Entwicklung von Galaxien KW - kosmologische Simulationen KW - numerische Methoden KW - synthetische Beobachtungen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396876 ER - TY - THES A1 - Ata, Metin T1 - Phase-space reconstructions of cosmic velocities and the cosmic web T1 - Phasenraumrekonstruktionen kosmischer Geschwindigkeiten und des kosmischen Netzes BT - structure formation models - galaxy bias models - galaxy redshift surveys - inference analysis N2 - In the current paradigm of cosmology, the formation of large-scale structures is mainly driven by non-radiating dark matter, making up the dominant part of the matter budget of the Universe. Cosmological observations however, rely on the detection of luminous galaxies, which are biased tracers of the underlying dark matter. In this thesis I present cosmological reconstructions of both, the dark matter density field that forms the cosmic web, and cosmic velocities, for which both aspects of my work are delved into, the theoretical formalism and the results of its applications to cosmological simulations and also to a galaxy redshift survey.The foundation of our method is relying on a statistical approach, in which a given galaxy catalogue is interpreted as a biased realization of the underlying dark matter density field. The inference is computationally performed on a mesh grid by sampling from a probability density function, which describes the joint posterior distribution of matter density and the three dimensional velocity field. The statistical background of our method is described in Chapter ”Implementation of argo”, where the introduction in sampling methods is given, paying special attention to Markov Chain Monte-Carlo techniques. In Chapter ”Phase-Space Reconstructions with N-body Simulations”, I introduce and implement a novel biasing scheme to relate the galaxy number density to the underlying dark matter, which I decompose into a deterministic part, described by a non-linear and scale-dependent analytic expression, and a stochastic part, by presenting a negative binomial (NB) likelihood function that models deviations from Poissonity. Both bias components had already been studied theoretically, but were so far never tested in a reconstruction algorithm. I test these new contributions againstN-body simulations to quantify improvements and show that, compared to state-of-the-art methods, the stochastic bias is inevitable at wave numbers of k≥0.15h Mpc^−1 in the power spectrum in order to obtain unbiased results from the reconstructions. In the second part of Chapter ”Phase-Space Reconstructions with N-body Simulations” I describe and validate our approach to infer the three dimensional cosmic velocity field jointly with the dark matter density. I use linear perturbation theory for the large-scale bulk flows and a dispersion term to model virialized galaxy motions, showing that our method is accurately recovering the real-space positions of the redshift-space distorted galaxies. I analyze the results with the isotropic and also the two-dimensional power spectrum.Finally, in Chapter ”Phase-space Reconstructions with Galaxy Redshift Surveys”, I show how I combine all findings and results and apply the method to the CMASS (for Constant (stellar) Mass) galaxy catalogue of the Baryon Oscillation Spectroscopic Survey (BOSS). I describe how our method is accounting for the observational selection effects inside our reconstruction algorithm. Also, I demonstrate that the renormalization of the prior distribution function is mandatory to account for higher order contributions in the structure formation model, and finally a redshift-dependent bias factor is theoretically motivated and implemented into our method. The various refinements yield unbiased results of the dark matter until scales of k≤0.2 h Mpc^−1in the power spectrum and isotropize the galaxy catalogue down to distances of r∼20h^−1 Mpc in the correlation function. We further test the results of our cosmic velocity field reconstruction by comparing them to a synthetic mock galaxy catalogue, finding a strong correlation between the mock and the reconstructed velocities. The applications of both, the density field without redshift-space distortions, and the velocity reconstructions, are very broad and can be used for improved analyses of the baryonic acoustic oscillations, environmental studies of the cosmic web, the kinematic Sunyaev-Zel’dovic or integrated Sachs-Wolfe effect. N2 - In der gegenwärtigen Anschauung der Kosmologie wird die Bildung von großräumigen Strukturen vor allem durch nicht strahlende, Dunkle Materie beeinflusst, die den überwiegenden Teil des Materieanteils des Universums ausmacht. Kosmologische Beobachtungen beruhen jedoch auf dem Nachweis von leuchtenden Galaxien, die gebiaste Indikatoren (biased tracer) der darunterliegenden Dunklen Materie sind. In dieser Arbeit präsentiere ich Rekonstruktionen des kosmischen Netzes der Dunklen Materie und kosmischer Geschwindigkeitsfelder. Beide Aspekte meiner Arbeit, der theoretische Formalismus und die Ergebnisse der Anwendungen sowohl auf kosmologische Simulationen als auch auf Galaxie-Rotverschiebungssurveys, weden detaiiert aufgeführt. Die Grundlage dieser Methode beruht auf einem statistischen Ansatz, bei dem ein gegebener Galaxienkatalog als eine Realisierung des darunter liegenden Dunklen Materiedichtefeldes interpretiert wird. Unsere Rekonstruktionen werden rechnerisch auf einem Gitter durch das Sampling einer Wahrscheinlichkeitsdichtefunktion durchgeführt, die die gemeinsame a posteriori Wahrscheinlichkeit der Materiedichte und des dreidimensionalen Geschwindigkeitsfeldes beschreibt. Der statistische Hintergrund unserer Methode ist im Kapitel "Implantation of argo" beschrieben, wobei die Einführung in die Samplingmethoden unter besonderer Berücksichtigung der Markov-Kette-Monte-Carlo-Technik erfolgt. Im Kapitel "Phase-Space Reconstructions with N-body Simulations" stelle ich ein neuartiges Biasmodell vor, welches die Galaxienanzahldichte mit der darunter liegenden Dunklen Materiedichte verknüpft. Diesen zerlege ich in einen deterministischen, nicht linearen und skalenabhängigen analytischen Teil und einen stochastischen Teil. Das letztere beschreibe ich durch einen Negativ-Binomial-Likelihood Ausdruck, welches die Abweichungen von Poissonität modelliert. Beide Biaskomponenten wurden bereits theoretisch untersucht, aber bisher noch nie in einem Rekonstruktionsalgorithmus getestet. Ich evaluiere diese neuen Beiträge mit $N$-Körper-Simulationen, um die Verbesserungen zu beurteilen und um zu zeigen, dass der stochastische Bias im Leistungsspektrum bei Wellenzahlen von k < 0.15 h Mpc^- 1 unabdingbar ist. Im zweiten Teil des Kapitels "Phase-Space Reconstructions with N-body Simulations" beschreibe und validiere ich unseren Ansatz, das kosmische Geschwindigkeitsfeld gemeinsam mit der Dunklen Materiedichte zu rekonstruieren. Ich verwende lineare Störungstheorie für die großräumigen Potentialströme und einen Dispersionsterm, um virialisierte Galaxiebewegungen zu modellieren. Die Ergebnisse zeigen, dass unsere Methode die Rotverschiebungsverzerrungen der Positionen der Galaxien genau beschreibt. Ich analysiere die Ergebnisse sowohl mit dem anisotropen Leistungsspektrum, als auch mit dem zweidimensionalen Leistungsspektrum. Schließlich zeige ich im Kapitel "Phase-space Reconstructions with Galaxy Redshift Surveys", wie ich alle Ergebnisse kombiniere und die Methode auf den CMASS (für Constant (stellar) Mass) Galaxienkatalog anwende. Ich beschreibe, wie unsere Methode die Selektionseffekte der Beobachtungen innerhalb des Rekonstruktionsalgorithmus berücksichtigt. Weiterhin demonstriere ich, dass die Renormalisierung der a priori Verteilung zwingend erforderlich ist, um die Beiträge höherer Ordnung im Strukturbildungsmodell zu berücksichtigen. Außerdem wird ein rotverschiebungsabhängiger Bias-Faktor theoretisch motiviert und in unseren Algorithmus implementiert. Unsere Rekonstruktionen, welche diese verschiedenen Verfeinerungen beinhaten, führen zu robusten Ergebnissen hinsichtlich des Feldes der Dunklen Materie bis zu Skalen von k <0.2 Mpc^-1 im Leistungsspektrum. Außerdem werden Anisotropien in dem rekonstruierten Galaxienkatalog bis zu Abständen von r~20 h^-1 Mpc in der Korrelationsfunktion zu einem hohen Grad überwunden. Wir testen die Ergebnisse unserer kosmischen Geschwindigkeitsrekonstruktion, indem wir sie mit einem synthetischen Mock-Galaxienkatalog vergleichen und bestätigen eine starke Korrelation zwischen den Mock- und den rekonstruierten Geschwindigkeiten. Die Anwendungen sowohl des Dichtefeldes ohne Rotverschiebungsverzerrungen als auch der Geschwindigkeitsrekonstruktionen sind sehr vielfältig und können für verbesserte Analysen der baryonischen akustischen Oszillationen, Umgebungsstudien des kosmischen Netzes, des kinematischen Sunjajew-Seldowitsch-Effekts oder des integrierten Sachs-Wolfe-Effekts verwendet werden. KW - large-scale structure formation KW - großräumige Strukturen KW - Kosmologie KW - Theorie KW - cosmology KW - theory Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403565 ER - TY - THES A1 - Dey, Saptarshi T1 - Tectonic and climatic control on the evolution of the Himalayan mountain front T1 - Tektonische und klimatische Kontrolle über die Entwicklung der Himalaya-Gebirgsfront BT - a case study from the Kangra intermontane basin and the Dhauladhar range in the Northwestern Himalaya N2 - Variations in the distribution of mass within an orogen may lead to transient sediment storage, which in turn might affect the state of stress and the level of fault activity. Distinguishing between different forcing mechanisms causing variations of sediment flux and tectonic activity, is therefore one of the most challenging tasks in understanding the spatiotemporal evolution of active mountain belts. The Himalayan mountain belt is one of the most significant Cenozoic collisional mountain belt, formed due to collision between northward-bound Indian Plate and the Eurasian Plate during the last 55-50 Ma. Ongoing convergence of these two tectonic plates is accommodated by faulting and folding within the Himalayan arc-shaped orogen and the continued lateral and vertical growth of the Tibetan Plateau and mountain belts adjacent to the plateau as well as regions farther north. Growth of the Himalayan orogen is manifested by the development of successive south-vergent thrust systems. These thrust systems divide the orogen into different morphotectonic domains. From north to south these thrusts are the Main Central Thrust (MCT), the Main Boundary Thrust (MBT) and the Main Frontal Thrust (MFT). The growing topography interacts with moisture-bearing monsoonal winds, which results in pronounced gradients in rainfall, weathering, erosion and sediment transport toward the foreland and beyond. However, a fraction of this sediment is trapped and transiently stored within the intermontane valleys or ‘dun’s within the lower-elevation foothills of the range. Improved understanding of the spatiotemporal evolution of these sediment archives could provide a unique opportunity to decipher the triggers of variations in sediment production, delivery and storage in an actively deforming mountain belt and support efforts to test linkages between sediment volumes in intermontane basins and changes in the shallow crustal stress field. As sediment redistribution in mountain belts on timescales of 102-104 years can effect cultural characteristics and infrastructure in the intermontane valleys and may even impact the seismotectonics of a mountain belt, there is a heightened interest in understanding sediment-routing processes and causal relationships between tectonism, climate and topography. It is here at the intersection between tectonic processes and superposed climatic and sedimentary processes in the Himalayan orogenic wedge, where my investigation is focused on. The study area is the intermontane Kangra Basin in the northwestern Sub-Himalaya, because the characteristics of the different Himalayan morphotectonic provinces are well developed, the area is part of a region strongly influenced by monsoonal forcing, and the existence of numerous fluvial terraces provides excellent strain markers to assess deformation processes within the Himalayan orogenic wedge. In addition, being located in front of the Dhauladhar Range the region is characterized by pronounced gradients in past and present-day erosion and sediment processes associated with repeatedly changing climatic conditions. In light of these conditions I analysed climate-driven late Pleistocene-Holocene sediment cycles in this tectonically active region, which may be responsible for triggering the tectonic re-organization within the Himalayan orogenic wedge, leading to out-of-sequence thrusting, at least since early Holocene. The Kangra Basin is bounded by the MBT and the Sub-Himalayan Jwalamukhi Thrust (JMT) in the north and south, respectively and transiently stores sediments derived from the Dhauladhar Range. The Basin contains ~200-m-thick conglomerates reflecting two distinct aggradation phases; following aggradation, several fluvial terraces were sculpted into these fan deposits. 10Be CRN surface exposure dating of these terrace levels provides an age of 53.4±3.2 ka for the highest-preserved terrace (AF1); subsequently, this surface was incised until ~15 ka, when the second fan (AF2) began to form. AF2 fan aggradation was superseded by episodic Holocene incision, creating at least four terrace levels. We find a correlation between variations in sediment transport and ∂18O records from regions affected by the Indian Summer Monsoon (ISM). During strengthened ISMs sand post-LGM glacial retreat, aggradation occurred in the Kangra Basin, likely due to high sediment flux, whereas periods of a weakened ISM coupled with lower sediment supply coincided with renewed re-incision. However, the evolution of fluvial terraces along Sub-Himalayan streams in the Kangra sector is also forced by tectonic processes. Back-tilted, folded terraces clearly document tectonic activity of the JMT. Offset of one of the terrace levels indicates a shortening rate of 5.6±0.8 to 7.5±1.0 mm.a-1 over the last ~10 ka. Importantly, my study reveals that late Pleistocene/Holocene out-of-sequence thrusting accommodates 40-60% of the total 14±2 mm.a-1 shortening partitioned throughout the Sub-Himalaya. Importantly, the JMT records shortening at a lower rate over longer timescales hints towards out-of-sequence activity within the Sub-Himalaya. Re-activation of the JMT could be related to changes in the tectonic stress field caused by large-scale sediment removal from the basin. I speculate that the deformation processes of the Sub-Himalaya behave according to the predictions of critical wedge model and assume the following: While >200m of sediment aggradation would trigger foreland-ward propagation of the deformation front, re-incision and removal of most of the stored sediments (nearly 80-85% of the optimum basin-fill) would again create a sub-critical condition of the wedge taper and trigger the retreat of the deformation front. While tectonism is responsible for the longer-term processes of erosion associated with steepening hillslopes, sediment cycles in this environment are mainly the result of climatic forcing. My new 10Be cosmogenic nuclide exposure dates and a synopsis of previous studies show the late Pleistocene to Holocene alluvial fills and fluvial terraces studied here record periodic fluctuations of sediment supply and transport capacity on timescales of 1000-100000 years. To further evaluate the potential influence of climate change on these fluctuations, I compared the timing of aggradation and incision phases recorded within remnant alluvial fans and terraces with continental climate archives such as speleothems in neighboring regions affected by monsoonal precipitation. Together with previously published OSL ages yielding the timing of aggradation, I find a correlation between variations in sediment transport with oxygen-isotope records from regions affected by the Indian Summer Monsoon (ISM). Accordingly, during periods of increased monsoon intensity (transitions from dry and cold to wet and warm periods – MIS4 to MIS3 and MIS2 to MIS1) (MIS=marine isotope stage) and post-Last Glacial Maximum glacial retreat, aggradation occurred in the Kangra Basin, likely due to high sediment flux. Conversely, periods of weakened monsoon intensity or lower sediment supply coincide with re-incision of the existing basin-fill. Finally, my study entails part of a low-temperature thermochronology study to assess the youngest exhumation history of the Dhauladhar Range. Zircon helium (ZHe) ages and existing low-temperature data sets (ZHe, apatite fission track (AFT)) across this range, together with 3D thermokinematic modeling (PECUBE) reveals constraints on exhumation and activity of the range-bounding Main Boundary Thrust (MBT) since at least mid-Miocene time. The modeling results indicate mean slip rates on the MBT-fault ramp of ~2 – 3 mm.a-1 since its activation. This has lead to the growth of the >5-km-high frontal Dhauladhar Range and continuous deep-seated exhumation and erosion. The obtained results also provide interesting constraints of deformation patterns and their variation along strike. The results point towards the absence of the time-transient ‘mid-crustal ramp’ in the basal decollement and duplexing of the Lesser Himalayan sequence, unlike the nearby regions or even the central Nepal domain. A fraction of convergence (~10-15%) is accommodated along the deep-seated MBT-ramp, most likely merging into the MHT. This finding is crucial for a rigorous assessment of the overall level of tectonic activity in the Himalayan morphotectonic provinces as it contradicts recently-published geodetic shortening estimates. In these studies, it has been proposed that the total Himalayan shortening in the NW Himalaya is accommodated within the Sub-Himalaya whereas no tectonic activity is assigned to the MBT. N2 - Die sich verändernde Massenverteilung in einem Gebirge kann zu einer variierenden Sedimentablagerung führen, welche in Folge die Spannungszustände und Verwerfungsaktivitäten beeinflusst. Eine der herausforderndsten Aufgaben im Verständnis der Evolution aktiver Gebirge wie dem Himalaja, ist die Unterscheidung der verschiedenen treibenden Mechanismen wie der Variation im Sedimentfluss und der tektonischen Aktivitäten in Raum und Zeit. Der Himalaja ist einer der bedeutendsten känozoischen Gebirgszüge, der durch die Kollision zwischen der nordwärts wandernden indischen Platte und der eurasischen Kontinentalplatte vor 55-50 Ma entstand. Die anhaltende Konvergenz der beiden tektonischen Platten wird durch Verwerfungen und Auffaltungen innerhalb des bogenförmigen Gebirges aufgenommen, aber auch durch das fortwährende laterale und vertikale Wachstum des Tibetischen Plateaus, der angegliederten Gebirgszüge und den Gebirgsregionen weiter nördlich. Das Gebirgswachstum zeigt sich durch die Entwicklung von aufeinanderfolgenden in südlicher Richtung verkippten Verwerfungssystemen. Von Norden nach Süden unterteilen die Hauptstörungen Main Central Thrust (MCT), Main Boundary Thrust (MBT) und Main Frontal Thrust (MFT) den Himalaja in verschiedene morphotektonische Bereiche. Die anwachsende Topographie interagiert mit den feuchten Monsunwinden was zu einem ausgeprägten Regen-, Verwitterung-, Erosion- und Sedimenttransportgradienten zum Vorland hin und darüber hinaus führt. In den intermontanen Tälern, der tiefgelegenen Ausläufern des Himalajas ist ein Teil dieser Sedimente eingeschlossen und vorübergehend gelagert. Das verbesserte Verständnis über die Entwicklung dieser Sedimentarchive bietet eine einmalige Möglichkeit die Auslöser der veränderlichen Sedimentproduktion, -anlieferung und -lagerung in einem sich aktiv deformierenden Gebirge über Raum und Zeit zu entschlüsseln und unterstützt dabei die Anstrengungen eine Verbindung zwischen Sedimentvolumen in intermontanen Becken und den Veränderungen des Spannungszustandes in geringfügiger Krustentiefe zu untersuchen. Die Sedimentumverteilung in Gebirgen kann, über einen Zeitraum von 102-104 Jahren, kulturelle Eigenheiten, die Infrastruktur in den intermontanen Tälern und sogar die Seismotektonik eines Gebirgsgürtels, beeinflussen. Es besteht ein verstärktes Interesse die Prozesse über die Sedimentführung und den kausalen Zusammenhang zwischen Tektonik, Klima und Topographie zu verstehen. An dieser Schnittstelle zwischen den tektonischen Prozessen und den überlagernden klimatischen und sedimentären Prozessen im Gebirgskeil setzten meine Untersuchungen an. Das Untersuchungsgebiet umfasst das intermontane Kangra-Becken im nordwestlichen Sub-Himalaja, da hier die Eigenschaften der verschiedenen morphotektonischen Gebieten des Himalajas gut ausgeprägt sind. Dieses Gebiet gehört zu einer Region, die stark durch den Monsun geprägt wird. Zahlreiche Flussterrassen bieten hervorragende Markierungen für die Beurteilung der Deformationsprozesse innerhalb des Himalajischen Gebirgskeils. Durch ihre Situation direkt vor der Dhauladhar-Kette ist die Region sowohl früher als auch heute durch ausgeprägte Erosionsgradienten und Sedimentprozessen charakterisiert, die den wiederholend wechselnden Klimabedingungen zugeordnet werden können. Angesichts dieser Bedingungen untersuchte ich in dieser tektonisch aktiven Region, klimatisch gesteuerte jungpleistozäne-holozäne Sedimentzyklen, welche sich möglicherweise als Auslöser für die tektonische Umorganisation innerhalb himalajischen Gebirgskeils verantwortlich zeichnen und zumindest seit dem frühen Holozän zu out-of-sequence Aufschiebungen führen. Das Kangra-Becken ist durch die MBT und den Jwalamukhi Thrust (JMT) im Sub-Himalaja nach Norden und Süden begrenzt und lagert vorübergehend aus der Dhauladhar-Kette angelieferte Sedimente. Im Becken sind ~200-m dicke Konglomerate abgelagert, welche zwei ausgeprägte Aggradationsphasen wiederspiegeln. Nachfolgend auf die Aggradationsphasen wurden mehrere Flussterrassen in die Schuttfächerablagerungen eingeschnitten. Die Datierung der Terrassenoberflächen mittels kosmogener 10Beryllium Nuklide ergab für die höchste erhaltene Terrasse ein Alter von 53.4±3.2 ka (AF1). Diese Oberfläche wurde daraufhin bis ~15 ka fortwährend eingeschnitten, bis sich ein zweiter Schuttfächer (AF2) zu bilden begann. Die Aufschüttung des AF2 wurde durch episodische holozäne Einschneidungen verdrängt, wobei sich mindestens vier Terrassenebenen bildeten. Wir haben eine Korrelation zwischen dem variierenden Sedimenttransport und ∂18O Aufzeichnungen aus Regionen, die vom indischen Sommermonsun (ISM) betroffen sind, gefunden. Die Aggradation fand wohl durch einen erhöhten Sedimentfluss während verstärkten Phasen des ISM und der Enteisung nach dem letzteiszeitlichen Maximum statt, wobei Perioden eines geschwächten ISM mit einem tieferen Sedimentzufluss verbunden sind und auch mit erneuten Einschneidungen zusammentreffen. Die Evolution fluvialer Terrassen entlang von sub-himaljischen Flüssen im Kangra-Sektor wurde auch durch tektonische Prozesse erzwungen. Rückwärts gekippte und gefaltete Terrassen dokumentieren deutlich die tektonische Aktivität der JMT. Der Versatz einer der Terrassenebenen weist auf eine Verkürzungsrate von 5.6±0.8 bis 7.5±1.0 mm.a-1 über die letzten ~10 ka hin. Darüber hinaus zeigt meine Studie, dass jungpleistozäne/holozäne out-of-sequence Aufschiebungen 40-60 % der gesamten 14.2±2 mm.a-1 Verkürzung aufgeteilt über den ganzen Sub-Himalaja hinweg aufnehmen. Die Aufzeichnungen an der JMT dokumentieren niedrigere Verkürzungsraten über längere Zeiträume, was auf out-of-sequence Aktivität im Sub-Himalaja hindeutet. Die erneute Aktivierung der JMT kann mit Veränderungen im tektonischen Spannungsfeld durch großflächigen Sedimenttransport aus dem Becken in Verbindung gebracht werden. Ich spekuliere daher darauf, dass die Deformationsprozesse im Sub-Himalaja sich entsprechend der Voraussagen des Modelles der kritischen Keilform verhalten und treffe folgende Annahmen: >200 m Sedimentaggradation würde eine gegen das Vorland gerichtete Ausbreitung der Deformationsfront, eine Wiedereinschneidung und die Beseitigung der meisten gelagerten Sedimente (beinahe 80-85 % der optimalen Beckenfüllung) auslösen. Daraus folgten wiederum sub-kritische Bedingungen der kritischen Keilformtheorie und der Rückzug der Deformationsfront würde somit ausgelöst. Während Erosionsproszesse und die damit verbundene Versteilung der Hänge über einen längeren Zeitraum der Tektonik zuzuschreiben sind, sind Sedimentzyklen in diesem Umfeld hauptsächlich das Resultat aus klimatischen Zwängen. Meine neuen Oberflächenexpositionsdaten aus kosmogenen Nukliden 10Be und die Zusammenstellung bisheriger Studien jungpleistozäner bis holozäner Flussterrassen und sowie alluviale Verfüllungen zeigen periodische Fluktuationen in der Sedimentanlieferung und der Transportkapazität in einem Zeitraum von 10³ bis 10⁵ Jahren. Um den möglichen Einfluss des Klimawandels auf diese Fluktuationen zu bewerten, habe ich den in den Schuttfächern und Terrassen aufgezeichneten zeitlichen Ablauf der Aggradations- und Einschneidungsphasen mit kontinentalen Klimaarchiven wie z. B. Speläotheme (stalagmiten) aus Monsun beeinflussten Nachbarregionen verglichen. Zusammen mit bisherigen publizierten OSL Altern, welche den Zeitpunkt der Aggradation anzeigen, finde ich eine Korrelation zwischen Variationen des Sedimenttransportes durch Sauerstoff-Isotopen Aufzeichnungen aus den von ISM betroffenen Gebieten. Dementsprechend kam es im Kangra-Becken während Zeiten der verstärkten Monsunintensität (Wechsel von trockenen, kalten und feuchten, warmen Perioden – MIS4 bis MIS3 und MIS2 bis MIS1) (MIS = marines Isotopenstadium) und der Enteisung des letzteiszeitlichen Maximums wahrscheinlich durch erhöhten Sedimentfluss zur Aggradation. Im Gegenzug stimmen schwache Perioden der Monsunintensität oder niedrigeren Sedimentlieferung mit der Wiedereinschneidung der bestehenden Becken überein. Zum Schluss enthält meine Studie einen Teil einer Tieftemperatur-Thermochronologie Studie, welche die jüngste Exhumationsgeschichte der Dhauladhar-Kette beurteilt. Zirkon-Helium (ZHe) Alter und publizierte Tieftemperatur-Daten (ZHe, Apatit-Spaltspuren (AFT)) dieses Höhenzuges belegen zusammen mit einer 3D thermokinematischen Modellierung (PECUBE) die Einschränkungen der Exhumation und der an die Gebirgskette gebundene MBT-Aktivität mindestens seit dem mittleren Miozän. Die Resultate der Modellierung deuten auf mittlere Gleitraten auf der MBT-Überschiebungsrampe von ~2–3 mm/yr seit ihrer Aktivierung hin. Dies führte zum Wachstum der >5-km hohen Front der Dhauladhar-Kette und einer kontinuierlichen, tiefsitzenden Exhumation und Erosion. Die erzielten Ergebnisse zeigen die Einschränkungen der Deformationsmuster und ihrer Variation entlang des Streichens. Die Resultate deuten auf eine Abwesenheit einer über die zeit-veränderlichen Rampe des basalen Abscherhorizontes in der mittleren Krustentiefe und einer Duplexbildung des Niederen Himalajas hin, dies im Gegensatz zu den nahegelegenen Gebieten oder sogar zu Zentralnepal. Ein Bruchteil der Konvergenz (~10-15%) wird entlang der tiefsitzenden MBT-Rampe aufgenommen, die aller Wahrscheinlichkeit nach in die MHT übergeht. Diese Erkenntnis ist maßgeblich für eine gründliche Beurteilung der Gesamtgröße der tektonischen Aktivitäten in den morphotektonischen Provinzen des Himalajas, da sie kürzlich publizierten geodätischen Schätzungen von Verkürzungsraten widerspricht. In jenen Studien wurde vorgeschlagen, dass die gesamte Verkürzung des Gebirges im nordwestlichen Himalaja innerhalb des Sub-Himalajas aufgenommen wird, wobei der MBT keine tektonische Aktivität zugeschrieben werden wird. KW - tectonic geomorphology KW - cosmogenic radionuclide-based dating KW - neotectonics KW - tektonische Geomorphologie KW - kosmogene Radionuklid-basierte Datierung KW - Neotektonik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103390 ER - TY - THES A1 - Willner, Sven N. T1 - Global economic response to flood damages under climate change T1 - Global-ökonomische Reaktion auf klimabedingte Überschwemmungsschäden N2 - Climate change affects societies across the globe in various ways. In addition to gradual changes in temperature and other climatic variables, global warming is likely to increase intensity and frequency of extreme weather events. Beyond biophysical impacts, these also directly affect societal and economic activity. Additionally, indirect effects can occur; spatially, economic losses can spread along global supply-chains; temporally, climate impacts can change the economic development trajectory of countries. This thesis first examines how climate change alters river flood risk and its local socio-economic implications. Then, it studies the global economic response to river floods in particular, and to climate change in general. Changes in high-end river flood risk are calculated for the next three decades on a global scale with high spatial resolution. In order to account for uncertainties, this assessment makes use of an ensemble of climate and hydrological models as well as a river routing model, that is found to perform well regarding peak river discharge. The results show an increase in high-end flood risk in many parts of the world, which require profound adaptation efforts. This pressure to adapt is measured as the enhancement in protection level necessary to stay at historical high-end risk. In developing countries as well as in industrialized regions, a high pressure to adapt is observed - the former to increase low protection levels, the latter to maintain the low risk levels perceived in the past. Further in this thesis, the global agent-based dynamic supply-chain model acclimate is developed. It models the cascading of indirect losses in the global supply network. As an anomaly model its agents - firms and consumers - maximize their profit locally to respond optimally to local perturbations. Incorporating quantities as well as prices on a daily basis, it is suitable to dynamically resolve the impacts of unanticipated climate extremes. The model is further complemented by a static measure, which captures the inter-dependencies between sectors across regions that are only connected indirectly. These higher-order dependencies are shown to be important for a comprehensive assessment of loss-propagation and overall costs of local disasters. In order to study the economic response to river floods, the acclimate model is driven by flood simulations. Within the next two decades, the increase in direct losses can only partially be compensated by market adjustments, and total losses are projected to increase by 17% without further adaptation efforts. The US and the EU are both shown to receive indirect losses from China, which is strongly affected directly. However, recent trends in the trade relations leave the EU in a better position to compensate for these losses. Finally, this thesis takes a broader perspective when determining the investment response to the climate change damages employing the integrated assessment model DICE. On an optimal economic development path, the increase in damages is anticipated as emissions and consequently temperatures increase. This leads to a significant devaluation of investment returns and the income losses from climate damages almost double. Overall, the results highlight the need to adapt to extreme weather events - local physical adaptation measures have to be combined with regional and global policy measures to prepare the global supply-chain network to climate change. N2 - Der Klimawandel betrifft Gesellschaften weltweit auf verschiedenste Weise. Neben graduellen Veränderungen der Temperatur und anderer klimatischer Variablen werden wahrscheinlich auch die Intensität und die Häufigkeit von Extremwetterereignissen zunehmen. Diese beeinflussen neben ihren bio-physikalischen Auswirkungen auch unmittelbar die gesellschaftliche und wirtschaftliche Aktivität. Zusätzlich können indirekte Effekte auftreten: Die räumliche Dimension umfasst die Ausbreitung wirtschaftlicher Schäden entlang globaler Versorgungsketten, zeitlich betrachtet können Klimaauswirkungen die wirtschaftlichen Entwicklungspfade von Ländern prägen. Die vorliegende Dissertation widmet sich zunächst der Frage, wie sich (Fluss-)Hochwasserrisiken und ihre gesellschaftlichen sowie wirtschaftlichen Implikationen durch den Klimawandel verändern. Weiterhin wird die Reaktionsdynamik des globalen ökonomischen Systems auf Klimawandel im Allgemeinen und auf Überschwemmungsereignisse an Flüssen im Speziellen untersucht. So werden die Risiken von schweren Fluss-Überschwemmungen für die nächsten drei Jahrzehnte global mit hoher räumlicher Auflösung berechnet. Zur Berücksichtigung von Unsicherheiten wird dabei auf ein Ensemble von Klima- und hydrologischen Modellen zurückgegriffen. Dabei werden die hydrologischen Modelle mit einem Flussverteilungsmodel, das die verbesserte Abbildung von Extrempegelständen an Flüssen ermöglicht, kombiniert. Die Berechnungen zeigen einen Anstieg des Überschwemmungsrisikos für weite Teile der Erde. Der damit einhergehende Anpassungsdruck wird in dieser Studie als Anpassung des Schutzniveaus berechnet, die notwendig ist, um das bestehende Überschwemmungsrisiko beizubehalten. Ein hoher Anpassungsdruck besteht dabei sowohl in Entwicklungs- als auch in Industriestaaten. Während in Ersteren oft erst adäquate Hochwasserschutzmaßnahmen ergriffen werden müssen, müssen Letztere oft ihr aktuelles Schutzniveau ausbauen. Weiterhin wird in der vorliegenden Arbeit das globale, agenten-basierte und dynamische Modell acclimate entwickelt, welches Kaskaden von indirekten ökonomischen Schäden im globalen Versorgungsnetzwerk modelliert. Acclimate ist als Anomalienmodell angelegt, dessen Agenten - Firmen und Konsumenten - durch Profitmaximierung versuchen, optimal auf lokale Störungen zu reagieren. Da das Modell sowohl Warenströme als auch die zugehörigen Preise nach Tagen aufgelöst abbildet, ist es besonders gut geeignet, die kurzfristigen ökonomischen Auswirkungen unvorhergesehener Klimaextreme zu beschreiben. Das dynamische Modell wird ergänzt durch ein neues statisches Maß, das die Abhängigkeiten zwischen regionalen Sektoren beschreibt. Dabei werden nicht nur die direkten Handelsverbindungen betrachtet, sondern auch solche höherer Ordnung. Es zeigt sich, dass diese für eine umfassende Abschätzung der Schadenskaskaden und damit der Gesamtkosten lokaler Extremereignisse nicht vernachlässigt werden dürfen. Zur Untersuchung der ökonomischen Reaktionsdynamik auf Hochwasserereignisse wird das acclimate-Modell für Simulationen von Flussüberschwemmungen angewandt. Bis zum Jahr 2035 wird dabei ein Anstieg des direkten Schadens prognostiziert. Dieser kann nur teilweise durch Marktmechanismen ausgeglichen werden, so dass die Gesamtschäden weltweit um 17% zunehmen - sofern keine zusätzlichen Anpassungsmaßnahmen getroffen werden. Für die USA und die EU zeigt sich, dass diese durch ihre Handelsverbindungen insbesondere zu China indirekt betroffen sind, da China starke direkte Flussüberflutungen zu erwarten hat. Die Entwicklungen der globalen Handelsbeziehungen in den letzten Jahren versetzen die EU jedoch in die Lage einen zunehmenden Teil dieser Verluste auszugleichen. In einem weiter gefassten Ansatz wird schlussendlich die Änderung des Investitionsverhaltens aufgrund der Schäden durch Klimawandel unter Zuhilfenahme des ökonomischen Wachstumsmodells DICE untersucht. Es lässt sich festhalten, dass auf einem optimalen ökonomischen Entwicklungspfad die Zunahme der Schäden bereits antizipiert wird, wenn Emissionen und dem darauf folgend die Temperatur ansteigen. Dies führt zu einer signifikanten Abwertung von Kapitalerträgen, was die direkten Verluste durch Klimaschäden nahezu verdoppelt. Insgesamt unterstreichen die Ergebnisse dieser Arbeit die Notwendigkeit der Anpassung an klimabedingte Extremwetterereignisse. Dazu müssen lokale, physikalische Anpassungsmaßnahmen durch regionale und globale Politikinstrumente ergänzt werden, um das globale Versorgungsnetzwerk adäquat auf den Klimawandel vorzubereiten. KW - climate change KW - river floods KW - higher-order effects KW - economic network KW - climate impacts KW - Klimawandel KW - Überschwemmungen KW - Wirtschaftsnetzwerk Y1 - 2018 ER - TY - THES A1 - Weckmann, Ute T1 - Die elektrische Leitfähigkeit von fossilen Störungszonen und Mobile Belts T1 - The electrical conductivity of fossil shear zones and mobile belts N2 - In der vorliegenden Arbeit werden verschiedene Experimente zur Untersuchung der elektrischen Leitfähigkeit von Sutur- und Kollisionszonen im Zusammenhang diskutiert, um die Möglichkeiten, die die moderne Magnetotellurik (MT) für das Abbilden fossiler tektonischer Systeme bietet, aufzuzeigen. Aus den neuen hochauflösenden Abbildern der elektrischen Leitfähigkeit können potentielle Gemeinsamkeiten verschiedener tektonischer Einheiten abgeleitet werden. Innerhalb der letzten Dekade haben sich durch die Weiterentwicklung der Messgeräte und der Auswerte- und Interpretationsmethoden völlig neue Perspektiven für die geodynamische Tiefensondierung ergeben. Dies wird an meinen Forschungsarbeiten deutlich, die ich im Rahmen von Projekten selbst eingeworben und am Deutschen GeoForschungsZentrum Potsdam durchgeführt habe. In Tabelle A habe ich die in dieser Arbeit berücksichtigten Experimente aufgeführt, die in den letzten Jahren entweder als Array- oder als Profilmessungen durchgeführt wurden. Für derart große Feldexperimente benötigt man ein Team von WissenschaftlerInnen, StudentInnen und technischem Personal. Das bedeutet aber auch, dass von mir betreute StudentInnen und DoktorandInnen Teilaspekte dieser Experimente in Form von Diplom-, Bachelor- und Mastersarbeiten oder Promotionsschriften verarbeitet haben. Bei anschließender Veröffentlichung der Arbeiten habe ich als Co-Autor mitgewirkt. Die beiliegenden Veröffentlichungen enthalten eine Einführung in die Methode der Magnetotellurik und gegebenenfalls die Beschreibung neu entwickelter Methoden. Eine allgemeine Darstellung der theoretischen Grundlagen der Magnetotellurik findet man zum Beispiel in Chave & Jones (2012); Simpson & Bahr (2005); Kaufman & Keller (1981); Nabighian (1987); Weaver (1994). Die Arbeit beinhaltet zudem ein Glossar, in dem einige Begriffe und Abkürzungen erklärt werden. Ich habe mich entschieden, Begriffe, für die es keine adäquate deutsche Übersetzung gibt oder die im Deutschen eine andere oder missverständliche Bedeutung bekommen, auf Englisch in der Arbeit zu belassen. Sie sind durch eine kursive Schreibweise gekennzeichnet. N2 - In this habilitation thesis, I present and discuss different experiments to study the electrical conductivity of fossil shear zones, suture and continental collision zones, particularly in view of the possibilities offered by modern magnetotellurics (MT). With new high-resolution images of the electrical conductivity, properties of different tectonic units, environments and their evolution can be derived and compared. Within the past decade, advanced data acquisition systems together with novel analysis and interpretation methods have fostered burgeoning and completely new perspectives for electromagnetic depth sounding. This is impressively reflected in my research and proposed projects which were performed at the German Research Centre for Geosciences. The overview table contains research projects and field experiments that were carried out in recent years either with an array or a profile station layout. For conducting such large field experiments, a team of scientists, students and technicians is necessary; however, this also means that parts of this research has been done by (doctoral) students supervised by myself within the framework of their PhD, Diploma, Bachelor or Masters projects. In this case I have co-authored resulting publications. Some of the publications and the introductory chapters of this thesis include an introduction to the Magnetotelluric method and describe own methodological development work. A general theoretical background of MT can be found for example in Chave et al. (2012); Simpson et al. (2005); Kaufman et al. (1981); Nabighian (1987); Weaver (1994). The work also includes a glossary of some terms and abbreviations relevant for this thesis. The thesis is written in German, although the publications are in English. I have decided to keep English terms for which there is no adequate German translation or which have a different or ambiguous meaning in German. They are indicated by italic script. KW - Magnetotellurik KW - Störungszonen KW - elektrische Leitfähigkeit KW - Mobile Belts KW - electrical conductivity KW - Magnetotellurics KW - continental collision zones KW - suture zones Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88820 ER - TY - THES A1 - Kütter, Sissy T1 - Magnetotelluric measurements across the southern Barberton Greenstone Belt, South Africa T1 - Magnetotellurische Messungen am südlichen Barberton Grünsteingürtel, Südafrika N2 - Der Barberton Grünsteingürtel (BGB) in Südafrika gehört zu den wenigen Regionen mit noch gut erhaltener Archaischer Kruste. Seit Jahrhunderten wurde der BGB eingehend untersucht und seine geologischen und tektonischen Strukturen detailliert kartiert. Über die tiefere Struktur des BGB ist hingegen wenig bekannt. Zahlreiche Evolutionsmodelle, die auf Altersbestimmungsdaten und strukturellen Informationen beruhen wurden über die Jahre aufgestellt. Diese Theorien sind zumeist widersprüchlich. Sie konzentrieren sich im Wesentlichen auf die Frage, ob plattentektonische Prozesse bereits bei der Entwicklung der frühen Erde eine Rolle spielten oder ob vertikale Tektonik, angetrieben durch die im Archaikum höheren Temperaturen, die Bildung der heutigen Kontinente bestimmt hat. Um neue Erkenntnisse über die interne Struktur und Entwicklungsgeschichte des BGB zu erhalten, wurden im Rahmen der Deutsch-Südafrikanischen Forschungsinitiative Inkaba yeAfrica magnetotellurische (MT) Messungen durchgeführt. Entlang von sechs Profilen, die den gesamten südlichen Teil des BGB’s überdecken, wurden nahezu 200 MT-Stationen installiert. Tektonische Strukturen wie z. B. (fossile) Verwerfungszonen können erhöhte Leitfähigigkeiten haben, wenn sich leitfähige Mineralisationen innerhalb der Scherzonen gebildet haben. Durch die Abbildung der elektrischen Leitfähigkeitsverteilung des Untergrundes mit Hilfe von MT Messungen kann der Verlauf tektonischer Strukturen nachvollzogen werden, woraus Schlüsse über möglicherweise abgelaufene tektonische Prozesse gezogen werden können. Der gesamte MT Datensatz weist starke Störeinflüsse durch künstliche elektromagnetische Signale auf, die bspw. von Stromleitungen und elektrischen Zäunen stammen. Insbesondere langperiodische Daten (>1 s) sind davon betroffen, die für die Auflösung tieferer Strukturen notwendig sind. Die Anwendung etablierter Ansätze wie Verschiebungsfiltern und der Remote Reference-Methode, führte zu Verbesserungen vorrangig für Perioden < 1 s. Der langperiodische Bereich ist durch impulsartige Störsignale in den magnetischen und dazugehörigen Stufen in den elektrischen Feldkomponenten geprägt. Im Rahmen dieser Arbeit wurde ein neuartiger Zeitbereichs-Filter entwickelt, welcher auf einer abgewandelten Form des Wiener Filters beruht und diese Art von Störsignalen aus den Daten entfernt. Durch den Vergleich der Datenvarianz einer lokalen Station mit der einer Referenzstation können gestörte Zeitsegmente identifiziert werden. Anschließend wird ein Wiener-Filter-Algorithmus angewendet, um für diese Segmente mithilfe der Referenzdaten physikalisch sinnvolle Zeitreihen zu berechnen, mit denen die Daten der lokalen Station ersetzt werden. Während impulsartige Störsignale in den magnetischen Datenkanälen relativ einfach erfasst werden können, ist die Detektion von Versätzen in den elektrischen Zeitreihen je nach Versatzhöhe problematischer. Um dieses Problem zu umgehen, habe ich einen Algorithmus entwickelt, bei dem die Zeitreihen differenziert, gefiltert und im letzten Schritt integriert werden. In einer zweiten von mir entwickelten Filtermethode werden die Störsignale durch den Vergleich des kurzzeitigen und des langzeitigen Datenmittelwerts ausfindig gemacht. Bei diesem Filter werden die Störsignale aus den Zeitreihen entfernt und durch eine lineare Interpolation ersetzt. Durch die beiden Filtermethoden wurde eine deutliche Verbesserung der Datenqualität bis zu 10 und teilweise 100 s erreicht. Zur Interpretation des MT-Datensatzes wurden 2D und 3D Inversionen durchgeführt. Die so erhaltenen elektrischen Leitfähigkeitsmodelle zeigen eine gute Übereinstimmung mit den kartierten, geologischen Strukturen. Die Gesteine des BGB weisen in den Modellen hohe Widerstände auf und sind deutlich von leitfähigen benachbarten geologischen Strukturen abgegrenzt. Verwerfungszonen korrelieren mit leitfähigen Strukturen, die sich bis in eine Tiefe von 5 bis 10 km erstrecken. Eine Fortsetzung der Verwerfungszonen über die südliche Grenze des BGB wird in den 2D-Ergebnissen angedeutet. Insgesamt zeigen die Inversionsmodelle, dass vermutlich sowohl plattentektonische als auch vertikaltektonische Prozesse bei der Entstehung des BGB eine wichtige Rolle spielten. N2 - The Barberton Greenstone Belt (BGB) in the northwestern part of South Africa belongs to the few well-preserved remnants of Archean crust. Over the last centuries, the BGB has been intensively studied at surface with detailed mapping of its surfacial geological units and tectonic features. Nevertheless, the deeper structure of the BGB remains poorly understood. Various tectonic evolution models have been developed based on geo-chronological and structural data. These theories are highly controversial and centre on the question whether plate tectonics - as geoscientists understand them today - was already evolving on the Early Earth or whether vertical mass movements driven by the higher temperature of the Earth in Archean times governed continent development. To get a step closer to answering the questions regarding the internal structure and formation of the BGB, magnetotelluric (MT) field experiments were conducted as part of the German-South African research initiative Inkaba yeAfrica. Five-component MT data (three magnetic and two electric channels) were collected at ~200 sites aligned along six profiles crossing the southern part of the BGB. Tectonic features like (fossil) faults and shear zones are often mineralized and therefore can have high electrical conductivities. Hence, by obtaining an image of the conductivity distribution of the subsurface from MT measurements can provide useful information on tectonic processes. Unfortunately, the BGB MT data set is heavily affected by man-made electromagnetic noise caused, e.g. by powerlines and electric fences. Aperiodic spikes in the magnetic and corresponding offsets in the electric field components impair the data quality particularly at periods >1 s which are required to image deep electrical structures. Application of common methods for noise reduction like delay filtering and remote reference processing, only worked well for periods <1 s. Within the framework of this thesis two new filtering approaches were developed to handle the severe noise in long period data and obtain reliable processing results. The first algorithm is based on the Wiener filter in combination with a spike detection algorithm. Comparison of data variances of a local site with those of a reference site allows the identification of disturbed time series windows for each recorded channel at the local site. Using the data of the reference site, a Wiener filter algorithm is applied to predict physically meaningful data to replace the disturbed windows. While spikes in the magnetic channels are easily recognized and replaced, steps in the electric channels are more difficult to detect depending on their offset. Therefore, I have implemented a novel approach based on time series differentiation, noise removal and subsequent integration to overcome this obstacle. A second filtering approach where spikes and steps in the time series are identified using a comparison of the short and long time average of the data was also implemented as part of my thesis. For this filtering approach the noise in the form of spikes and offsets in the data is treated by an interpolation of the affected data samples. The new developments resulted in a substantial data improvement and allowed to gain one to two decades of data (up to 10 or 100 s). The re-processed MT data were used to image the electrical conductivity distribution of the BGB by 2D and 3D inversion. Inversion models are in good agreement with the surface geology delineating the highly resistive rocks of the BGB from surrounding more conductive geological units. Fault zones appear as conductive structures and can be traced to depths of 5 to 10 km. 2D models suggest a continuation of the faults further south across the boundary of the BGB. Based on the shallow tectonic structures (fault system) within the BGB compared to deeply rooted resistive batholiths in the area, tectonic models including both vertical mass transport and in parts present-day style plate tectonics seem to be most likely for the evolution of the BGB. KW - Magnetotellurik KW - magnetotellurics KW - Zeitreihenanalyse KW - time series analysis KW - Datenfilter KW - data filtering KW - Paläotektonik KW - early earth tectonics Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-83198 ER - TY - THES A1 - Muldashev, Iskander T1 - Modeling of the great earthquake seismic cycles T1 - Modellierung der seismischen Zyklen von Mega-Erdbeben N2 - The timing and location of the two largest earthquakes of the 21st century (Sumatra, 2004 and Tohoku 2011, events) greatly surprised the scientific community, indicating that the deformation processes that precede and follow great megathrust earthquakes remain enigmatic. During these phases before and after the earthquake a combination of multi-scale complex processes are acting simultaneously: Stresses built up by long-term tectonic motions are modified by sudden jerky deformations during earthquakes, before being restored by multiple ensuing relaxation processes. This thesis details a cross-scale thermomechanical model developed with the aim of simulating the entire subduction process from earthquake (1 minute) to million years’ time scale, excluding only rupture propagation. The model employs elasticity, non-linear transient viscous rheology, and rate-and-state friction. It generates spontaneous earthquake sequences, and, by using an adaptive time-step algorithm, recreates the deformation process as observed naturally over single and multiple seismic cycles. The model is thoroughly tested by comparing results to those from known high- resolution solutions of generic modeling setups widely used in modeling of rupture propagation. It is demonstrated, that while not modeling rupture propagation explicitly, the modeling procedure correctly recognizes the appearance of instability (earthquake) and correctly simulates the cumulative slip at a fault during great earthquake by means of a quasi-dynamic approximation. A set of 2D models is used to study the effects of non-linear transient rheology on the postseismic processes following great earthquakes. Our models predict that the viscosity in the mantle wedge drops by 3 to 4 orders of magnitude during a great earthquake with magnitude above 9. This drop in viscosity results in spatial scales and timings of the relaxation processes following the earthquakes that are significantly different to previous estimates. These models replicate centuries long seismic cycles exhibited by the greatest earthquakes (like the Great Chile 1960 Earthquake) and are consistent with the major features of postseismic surface displacements recorded after the Great Tohoku Earthquake. The 2D models are also applied to study key factors controlling maximum magnitudes of earthquakes in subduction zones. Even though methods of instrumentally observing earthquakes at subduction zones have rapidly improved in recent decades, the characteristic recurrence interval of giant earthquakes (Mw>8.5) is much larger than the currently available observational record and therefore the necessary conditions for giant earthquakes are not clear. Statistical studies have recognized the importance of the slab shape and its surface roughness, state of the strain of the upper plate and thickness of sediments filling the trenches. In this thesis we attempt to explain these observations and to identify key controlling parameters. We test a set of 2D models representing great earthquake seismic cycles at known subduction zones with various known geometries, megathrust friction coefficients, and convergence rates implemented. We found that low-angle subduction (large effect) and thick sediments in the subduction channel (smaller effect) are the fundamental necessary conditions for generating giant earthquakes, while the change of subduction velocity from 10 to 3.5 cm/yr has a lower effect. Modeling results also suggest that having thick sediments in the subduction channel causes low static friction, resulting in neutral or slightly compressive deformation in the overriding plate for low-angle subduction zones. These modeling results agree well with observations for the largest earthquakes. The model predicts the largest possible earthquakes for subduction zones of given dipping angles. The predicted maximum magnitudes exactly threshold magnitudes of all known giant earthquakes of 20th and 21st centuries. The clear limitation of most of the models developed in the thesis is their 2D nature. Development of 3D models with comparable resolution and complexity will require significant advances in numerical techniques. Nevertheless, we conducted a series of low-resolution 3D models to study the interaction between two large asperities at a subduction interface separated by an aseismic gap of varying width. The novelty of the model is that it considers behavior of the asperities during multiple seismic cycles. As expected, models show that an aseismic gap with a narrow width could not prevent rupture propagation from one asperity to another, and that rupture always crosses the entire model. When the gap becomes too wide, asperities do not interact anymore and rupture independently. However, an interesting mode of interaction was observed in the model with an intermediate width of the aseismic gap: In this model the asperities began to stably rupture in anti-phase following multiple seismic cycles. These 3D modeling results, while insightful, must be considered preliminary because of the limitations in resolution. The technique developed in this thesis for cross-scale modeling of seismic cycles can be used to study the effects of multiple seismic cycles on the long-term deformation of the upper plate. The technique can be also extended to the case of continental transform faults and for the advanced 3D modeling of specific subduction zones. This will require further development of numerical techniques and adaptation of the existing advanced highly scalable parallel codes like LAMEM and ASPECT. N2 - Zeitpunkt und Ort der zwei größten Erdbeben des 21. Jahrhunderts (Sumatra 2004 und Tohoku 2011) überraschten die wissenschaftliche Gemeinschaft, da sie darauf hindeuten, dass die einem Megathrust-Erdbeben vorangehenden und folgenden Deformationsprozesse weiterhin rästelhaft bleiben. Ein Problem ist die komplexe Art der Subduktionsprozesse auf unterschiedlichen Skalen. Spannungen werden durch langzeitliche, tektonische Bewegungen aufgebaut, von plötzlicher, ruckartiger Deformation während Erdbeben modifiziert und anschließend durch verschiedene Entspannungsprozesse wiederhergestellt. In dieser Arbeit wird ein skalen-übergreifendes thermomechanisches Modell entwickelt mit dem Ziel den vollständigen Subduktionsprozess von kleiner Skala (Minuten, z.B. Erdbeben) bis zu Millionen Jahren zu simulieren. Dabei bleibt nur das dynamische Prozess der unberücksichtigt. Das Modell nutzt Elastizität, nicht-lineare transient viskose Rheologie und „rate-and-state“ Reibungsgesetz. Es erzeugt spontane Erdbeben-Sequenzen und stellt durch das Nutzen eines adaptiven Zeitschritt Algorithmus den Deformationsprozess nach, wie er in der Natur während einzelner und mehrerer seismischer Zyklen beobachtet wird. Anhand der 2D-Modell Reihe werden die Effekte der nicht-linearen transient (viskosen) Rheologie auf postseismische Prozesse nach großen Erdbeben untersucht. Die Modelle sagen eine Verringerung der Mantelkeil-Viskosität um 3 bis 4 Größenordnungen während der großen Erdbeben (Mw > 9) vorher. Im Gegensatz zur momentanen Meinung, ergeben sich andere räumliche und zeitliche Verteilungen des Entspannungsprozesses nach großen Erdbeben. Jahrhunderte lange seismische Zyklen, wie zum Beispiel das große Erdbeben in Chile 1960, werden reproduziert und stimmen mit den Hauptmerkmalen der postseismischen Oberflächenverschiebungen überein, die nach dem großen Tohoku Erdbeben aufgezeichnet wurden. Mithilfe der 2D-Modelle werden außerdem Schlüsselfaktoren untersucht, die die maximale Magnitude von Erdbeben bestimmen. Obwohl die instrumentellen Methoden zur Beobachtung von Erdbeben in Subduktionszonen in den letzten Jahrzehnten stetig verbessert wurden, kann das Auftreten der größten Erdbeben (Mw > 8.5) und die dafür vorrauszusetzenden Bedingungen nicht genau bestimmt werden, da die charackeristische Zeit für ein Wiederauftreten deutlich größer als der Beobachtungszeitraum ist. Wir versuchen in dieser Arbeit diese Beobachtungen zu erklären und die kontrollierenden Schlüsselfaktoren zu bestimmen. Eine 2D-Modell Reihe mit großen, seismischen Erdbebenzyklen untersucht unterschiedliche Geometrien von Subduktionszonen sowie Reibungskoeffizieten an der Subduktions Platten-Grenzoberfläche und Konvergenzraten. Subduktion mit geringem Winkel (großer Effekt) und mächtige Sedimente im Subduktionskanal (kleiner Effekt) sind grundlegend notwendige Bedingungen für riesige Erdbeben, während eine Änderung des Reibungsparameters nur geringe Auswirkungen hat. Die Modellierungsergebnisse sind in viiÜbereinstimmung mit den Beobachtungen von den größten Erdbeben. Die maximale vohergesagte Magnituden liegen an der oberen Grenze alle historische Beben der 20. und 21. Jahrhunderden. Die größte Einschränkung der entwickelten Modelle ist ihre 2-dimensionale Natur. Um die Interaktion zwischen zwei großen Unebenheiten („asperities“) auf der Subduktions Platten-Grenzoberfläche, die von einer aseismischen Lücke („gap“) voneinander getrennt sind, zu untersuchen, wurde eine 3D-Modell Reihe mit geringer Auflösung durchgeführt. Neu an diesem Modell ist, dass das Verhalten der Unebenheiten während mehrerer seismischer Zyklen berücksichtigt wird. Wie erwartet zeigt das Modell, dass eine schmale, aseismische Lücke ein Propagieren von Brüchen von einer Unebenheit zur nächsten nicht verhindern kann und diese Brüche das gesamte Modell durchkreuzen. Wird die Lücke zu groß interagieren die Unebenheiten nicht mehr miteinander und brechen unabhängig voneinander. Allerdings wurde in dem Modell mit mittlerer Breite der aseismischen Lücke eine interessante Art von Interaktion beobachtet: Nach einigen seismischen Zyklen beginnen die Unebenheiten kontinuerlich und zwar in Gegen-Phasen zu brechen. Diese Ergebnisse sind andeutend, aber können aufgrund der geringen Auflösung des Models nur als vorläufig angesehen werden und erfordern weitere Bestätigung mit hoch-auflösenden Modellen. KW - earthquake modeling KW - seismic cycle modeling KW - subduction KW - numerical modeling KW - Erdbeben Modellierung KW - Modellierung des seismischen Zyklus KW - Subduktion KW - numerische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398926 ER -