TY - THES A1 - Zajnulina, Marina T1 - Optical frequency comb generation in optical fibres T1 - Generierung von optischen Frequenzkämmen in optischen Fasern N2 - Optical frequency combs (OFC) constitute an array of phase-correlated equidistant spectral lines with nearly equal intensities over a broad spectral range. The adaptations of combs generated in mode-locked lasers proved to be highly efficient for the calibration of high-resolution (resolving power > 50000) astronomical spectrographs. The observation of different galaxy structures or the studies of the Milky Way are done using instruments in the low- and medium resolution range. To such instruments belong, for instance, the Multi Unit Spectroscopic Explorer (MUSE) being developed for the Very Large Telescope (VLT) of the European Southern Observatory (ESO) and the 4-metre Multi-Object Spectroscopic Telescope (4MOST) being in development for the ESO VISTA 4.1 m Telescope. The existing adaptations of OFC from mode-locked lasers are not resolvable by these instruments. Within this work, a fibre-based approach for generation of OFC specifically in the low- and medium resolution range is studied numerically. This approach consists of three optical fibres that are fed by two equally intense continuous-wave (CW) lasers. The first fibre is a conventional single-mode fibre, the second one is a suitably pumped amplifying Erbium-doped fibre with anomalous dispersion, and the third one is a low-dispersion highly nonlinear optical fibre. The evolution of a frequency comb in this system is governed by the following processes: as the two initial CW-laser waves with different frequencies propagate through the first fibre, they generate an initial comb via a cascade of four-wave mixing processes. The frequency components of the comb are phase-correlated with the original laser lines and have a frequency spacing that is equal to the initial laser frequency separation (LFS), i.e. the difference in the laser frequencies. In the time domain, a train of pre-compressed pulses with widths of a few pico-seconds arises out of the initial bichromatic deeply-modulated cosine-wave. These pulses undergo strong compression in the subsequent amplifying Erbium-doped fibre: sub-100 fs pulses with broad OFC spectra are formed. In the following low-dispersion highly nonlinear fibre, the OFC experience a further broadening and the intensity of the comb lines are fairly equalised. This approach was mathematically modelled by means of a Generalised Nonlinear Schrödinger Equation (GNLS) that contains terms describing the nonlinear optical Kerr effect, the delayed Raman response, the pulse self-steepening, and the linear optical losses as well as the wavelength-dependent Erbium gain profile for the second fibre. The initial condition equation being a deeply-modulated cosine-wave mimics the radiation of the two initial CW lasers. The numerical studies are performed with the help of Matlab scripts that were specifically developed for the integration of the GNLS and the initial condition according to the proposed approach for the OFC generation. The scripts are based on the Fourth-Order Runge-Kutta in the Interaction Picture Method (RK4IP) in combination with the local error method. This work includes the studies and results on the length optimisation of the first and the second fibre depending on different values of the group-velocity dispersion of the first fibre. Such length optimisation studies are necessary because the OFC have the biggest possible broadband and exhibit a low level of noise exactly at the optimum lengths. Further, the optical pulse build-up in the first and the second fibre was studied by means of the numerical technique called Soliton Radiation Beat Analysis (SRBA). It was shown that a common soliton crystal state is formed in the first fibre for low laser input powers. The soliton crystal continuously dissolves into separated optical solitons as the input power increases. The pulse formation in the second fibre is critically dependent on the features of the pulses formed in the first fibre. I showed that, for low input powers, an adiabatic soliton compression delivering low-noise OFC occurs in the second fibre. At high input powers, the pulses in the first fibre have more complicated structures which leads to the pulse break-up in the second fibre with a subsequent degradation of the OFC noise performance. The pulse intensity noise studies that were performed within the framework of this thesis allow making statements about the noise performance of an OFC. They showed that the intensity noise of the whole system decreases with the increasing value of LFS. N2 - Optische Frequenzkämme (OFK) stellen ein diskretes optisches Spektrum mit phasenkorrelierten Linien dar, die gleichen spektralen Abstand voneinander haben und fast gleiche Intensität über einen größeren Spektralbereich aufweisen. In modengelockten Lasern generierte Kämme haben sich als höchst effizient für die Kalibrierung von hochauflösenden (Auflösungsvermögen > 50000) astronomischen Spektrografen erwiesen. Die astronomische Beobachtung von verschiedenen Galaxie-Strukturen oder die Studien der Milchstraße werden jedoch mit Hilfe von nieder- bis mittelauflösenden Instrumenten gemacht. Zu solchen Instrumenten gehören zum Beispiel der Multi-Spectroscopic-Exproler (MUSE), der gerade für das Very-Large-Telescope (VLT) der Europäischen Südsternwarte (ESO) entwickelt wird, und das 4-metre-Multi-Object-Spectroscopic-Telescope (4MOST), das sich in der Entwicklung für das ESO-VISTA-4,1m-Teleskop befindet. Die existierenden Anpassungen von OFK von modengelockten Lasern sind für solche Instrumente nicht auflösbar. Im Rahmen dieser Arbeit wird ein faserbasierter Ansatz für die Generierung von OFK für den Bereich der nieder- bis mittelauflösenden Instrumente numerisch studiert. Die experimentelle Umsetzung dieses Ansatzes besteht aus drei optischen Fasern, in die das Strahlungsfeld von zwei Dauerstrichlasern mit gleicher Intensität eingespeist wird. Die erste Faser ist eine konventionelle Monomodefaser, die zweite ist eine Erbium-dotierte Verstärkerfaser mit negativer Dispersion, die dritte ist eine hoch nichtlineare Faser mit niedriger Dispersion. Die Entwicklung eines OFKs in diesem System geschieht auf folgende Art und Weise: als die Laserwellen mit verschiedenen Frequenzen sich durch die erste Faser ausbreiten, erzeugen sie einen Anfangskamm durch einen Kaskadenprozess der Vier-Wellen-Mischung (VWM). Die neu entstandenen Frequenzkomponenten des Kamms sind frequenzkorreliert und haben einen spektralen Abstand, der der Laserfrequenzseparation (LFS) gleicht. Dies entspricht dem Entstehen von einem Zug von prä-komprimierten optischen Impulsen mit Impulsbreiten von einigen Pikosekunden. Diese Impulse werden strakt komprimiert in der nachfolgenden Erbium-dotierten Faser: es entstehen Sub-100-Femtosekunden-Impulse mit breiten OFK-Spektren. In der anschließenden hochnichtlinearen Faser wird das Kamm-Spektrum weiter verbreitet, während seine Frequenzlinien in ihren Intensitäten ausgeglichen werden. Dieser Ansatz wurde mathematisch mit Hilfe einer Verallgemeinerten Nichtlinearen Schrödinger Gleichung (VNSG) modelliert, die die Terme für den nichtlinearen optischen Kerr-Effekt, den Raman-Effekt, die Impuls-Selbstaufsteilung, die optischen Verluste und das wellenlängenabhängigen Erbium-Verstärkungsprofil für die zweite Faser enthält. Die Gleichung der Anfangsbedingung von der Form einer bichromatischen tief durchmodulierten Kosinus-Welle repräsentiert das Strahlungsfeld zweier Dauerstrichlaser. Die numerischen Studien sind mit Hilfe von Matlab-Skripten durchgeführt, die speziell für die numerische Integration der VNSG mit der bichromatischen Kosinus-Welle als Anfangsbedingung entworfen worden sind. Diese Skripte basieren auf dem numerischen Verfahren Fourth-Order Runge-Kutta in the Interaction Picture Method, das mit der Methode der Auswertung von lokalen numerischen Fehlern kombiniert wurde. Diese Arbeit enthält die Studien und Resultate der Optimierung der Längen der ersten und der zweiten Faser in Abhängigkeit von der Gruppengeschwindigkeitsdispersion der ersten Faser. Solche Optimierungsstudien sind notwendig, da genau an solche optimierten Längen weisen die Frequenzkämme die größte Bandbreite auf sowie das niedrigste Rauschniveau. Des Weiteren wurde der Aufbau von optischen Impulsen in der ersten und der zweiten Faser des Ansatzes mittels der numerischen Technik Soliton Radiation Beat Analysis analysiert. Es wurde gezeigt, dass für niedrige Eingangsleistungen ein kollektiver Solitonenkristall in der ersten Faser generiert wird, der sich mit steigender Eingangsleistung in freie optische Solitonen auflöst. Was die zweite Faser betrifft, so wurde gezeigt, dass der Aufbau und Ausbreitung von optischen Impulsen in dieser Faser kritisch von den Eigenschaften der Impulse abhängt, die in der ersten Faser aufgebaut wurden. So findet adiabatische Solitonenkompression in der zweiten Faser statt, falls die Eingangsleistung niedrig ist und die Form der Impulse in der ersten Faser relativ einfach. Für höhere Eingangsleistungen ist der Aufbau und somit die Dynamik der Impulse in der ersten Faser komplizierter. Solche Impulse zerfallen dann in der zweiten Faser, was zum Erhöhen des Intensitätsrauschens führt. Die Studien des Intensitätsrauschens der optischen Impulse, die im Rahmen dieser Arbeit durchgeführt wurden, erlauben die Aussagen über das Rauschverhalten der OFK. Diese Studien haben gezeigt, dass das Intensitätsrauschen des Gesamtsystems (d.h. aller drei Fasern) mit steigender LFS nachlässt. KW - optical frequency combs KW - spectrograph calibration KW - generalised nonlinear Schrödinger equation KW - four-wave mixing KW - optical solitons KW - optische Frequenzkämme KW - Kalibrierung von Spektrografen KW - verallgemeinerte nichlineare Schrödinger Gleichung KW - Vier-Wellen-Mischung KW - optische Solitonen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88776 ER - TY - THES A1 - Prokhorov, Boris E. T1 - High-latitude coupling processes between thermospheric circulation and solar wind driven magnetospheric currents and plasma convection T1 - Kopplungsprozesse zwischen der thermosphärischen Zirkulation in hohen Breiten und den vom Sonnenwind getriebenen magnetosphärischen Strömen und der Plasmakonvektion N2 - The high-latitudinal thermospheric processes driven by the solar wind and Interplanetary Magnetic Field (IMF) interaction with the Earth magnetosphere are highly variable parts of the complex dynamic plasma environment, which represent the coupled Magnetosphere – Ionosphere – Thermosphere (MIT) system. The solar wind and IMF interactions transfer energy to the MIT system via reconnection processes at the magnetopause. The Field Aligned Currents (FACs) constitute the energetic links between the magnetosphere and the Earth ionosphere. The MIT system depends on the highly variable solar wind conditions, in particular on changes of the strength and orientation of the IMF. In my thesis, I perform an investigation on the physical background of the complex MIT system using the global physical - numerical, three-dimensional, time-dependent and self-consistent Upper Atmosphere Model (UAM). This model describes the thermosphere, ionosphere, plasmasphere and inner magnetosphere as well as the electrodynamics of the coupled MIT system for the altitudinal range from 80 (60) km up to the 15 Earth radii. In the present study, I developed and investigated several variants of the high-latitudinal electrodynamic coupling by including the IMF dependence of FACs into the UAM model. For testing, the various variants were applied to simulations of the coupled MIT system for different seasons, geomagnetic activities, various solar wind and IMF conditions. Additionally, these variants of the theoretical model with the IMF dependence were compared with global empirical models. The modelling results for the most important thermospheric parameters like neutral wind and mass density were compared with satellite measurements. The variants of the UAM model with IMF dependence show a good agreement with the satellite observations. In comparison with the empirical models, the improved variants of the UAM model reproduce a more realistic meso-scale structures and dynamics of the coupled MIT system than the empirical models, in particular at high latitudes. The new configurations of the UAM model with IMF dependence contribute to the improvement of space weather prediction. N2 - Die thermosphärischen Prozesse in hohen Breiten, die durch die Wechselwirkung des Sonnenwinds und des Interplanetaren Magnetfeldes (IMF) mit der Erdmagnetosphäre getrieben werden, stellen sich als stark veränderliches Geschehen in der komplexen dynamischen Plasmaumgebung der Erde dar, die das gekoppelte System der Magnetosphäre, Ionosphäre und Thermosphäre (MIT) umfaßt. Die Einflüsse des Sonnenwindes und des IMF zeigen sich als Energieübertragung in das MIT System mittels Rekonnektionsprozessen an der Magnetopause. Feldliniengerichtete Ströme (FACs) repräsentieren die energetische Kopplung zwischen der Magnetosphäre und der Ionosphäre der Erde. Das MIT System wird bestimmt durch die stark veränderlichen Sonnenwindbedingungen, insbesondere von der Stärke und Richtung des IMF. In meiner Promotionsschrift untersuche ich die physikalischen Bedingungen des komplexen MIT System mit Hilfe eines globalen physikalisch-numerischen, dreidimensionalen, zeitabhängigen und selbstkonsistenten Modells, dem Upper Atmosphere Model (UAM). Das UAM beschreibt das Verhalten der Thermosphäre, Ionosphäre, Plasmasphäre und der inneren Magnetosphäre in einem Höhenbereich zwischen 80 (60) km und 15 Erdradien sowie die elektrodynamische Verkopplung des gesamten MIT Systems. In der vorliegenden Arbeit habe ich mehrere Varianten der elektrodynamischen Kopplung in hohen Breiten entwickelt und analysiert, die die FACs innerhalb des UAM in ihrer Abhängigkeit vom IMF darstellen. Für Testzwecke wurden diese Varianten auf eine Reihe von numerischen Simulationen des gekoppelten MIT Systems unter verschiedenen Bedingungen hinsichtlich Jahreszeit, geomagnetischer Aktivität, Sonnenwind- und IMF-Parametern angewandt. Darüberhinaus wurden diese Varianten des IMF-abhängigen theoretischen Modells entsprechenden globalen empirischen Modellen gegenübergestellt. Modellergebnisse wurden außerdem mit einigen wichtigen von Satelliten gemessenen Thermosphärenparametern, wie dem Neutralwind und der Massendichte verglichen. Die UAM Modelvarianten mit IMF-Abhängigkeit zeigen eine gute Übereinstimmung mit den Satellitenbeobachtungen. Im Vergleich mit empirischen Modellaussagen geben die UAM Modellvarianten ein genaueres Bild der mesoskaligen Strukturen und der Dynamik des gekoppelten MIT Systems wieder, insbesondere für die hohen Breiten. Die neuen UAM Konfigurationen mit IMF-Abhängigkeit tragen damit zu verbesserten Möglichkeiten in der Weltraumwettervorhersage bei. KW - upper atmosphere model KW - high-latitudinal thermosphere KW - magnetosphere-ionosphere-thermosphere coupling KW - solar wind and interplanetary magnetic field influence KW - field aligned currents KW - Upper Atmosphere Model (UAM) KW - Thermosphäre hoher Breiten KW - Kopplung zwischen Magnetosphäre, Ionosphäre und Thermosphäre KW - Einfluß des Sonnenwindes und des interplanetaren magnetischen Feldes KW - feldlinengerichtete Ströme Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-92353 ER - TY - THES A1 - Papendiek, Franka T1 - Fodder legumes for Green Biorefineries T1 - Futterleguminosen als Rohstoff der Grünen Bioraffinerie BT - a perspective for sustainable agricultural production systems BT - eine Perspektive für nachhaltige agrarische Produktionssysteme N2 - Peak oil is forcing our society to shift from fossil to renewable resources. However, such renewable resources are also scarce, and they too must be used in the most efficient and sustainable way possible. Biorefining is a concept that represents both resource efficiency and sustainability. This approach initiates a cascade use, which means food and feed production before material use, and an energy-related use at the end of the value-added chain. However, sustainability should already start in the fields, on the agricultural side, where the industrially-used biomass is produced. Therefore, the aim of my doctoral thesis is to analyse the sustainable feedstock supply for biorefineries. In contrast to most studies on biorefineries, I focus on the sustainable provision of feedstock and not on the bioengineering processing of whatever feedstock is available. Grasslands provide a high biomass potential. They are often inefficiently used, so a new utilisation concept based on the biorefining approach can increase the added value from grasslands. Fodder legumes from temporary and permanent grasslands were chosen for this study. Previous research shows that they are a promising feedstock for industrial uses, and their positive environmental impact is an important byproduct to promote sustainable agricultural production systems. Green Biorefineries are a class of biorefineries that use fresh green biomass, such as grasses or fodder legumes, as feedstock. After fractionation, an organic solution (press juice) forms; this is used for the production of organic acids, chemicals and extracts, as well as fertilisers. A fibre component (press cake) is also created to produce feed, biomaterials and biogas. This thesis examines a specific value chain, using alfalfa and clover/grass as feedstock and generating lactic acid and one type of cattle feed from it. The research question is if biomass production needs to be adapted for the utilisation of fodder legumes in the Green Biorefinery approach. I have attempted to give a holistic analysis of cultivation, processing and utilisation of two specific grassland crops. Field trials with alfalfa and clover/grass at different study sites were carried out to obtain information on biomass quality and quantity depending on the crop, study site and harvest time. The fresh biomass was fractionated with a screw press and the composition of press juices and cakes was analysed. Fermentation experiments took place to determine the usability of press juices for lactic acid production. The harvest time is not of high importance for the quality of press juices as a fermentation medium. For permanent grasslands, late cuts, often needed for reasons of nature conservation, are possible without a major influence on feedstock quality. The press cakes were silaged for feed-value determination. Following evidence that both intermediate products are suitable feedstocks in the Green Biorefinery approach, I developed a cost-benefit analysis, comparing different production scenarios on a farm. Two standard crop rotations for Brandenburg, producing either only market crops or market crops and fodder legumes for ruminant feed production, were compared to a system that uses the cultivated fodder legumes for the Green Biorefinery value chain instead of only feed production. Timely processing of the raw material is important to maintain quality for industrial uses, so on-site processing at the farm is assumed in Green Biorefinery scenario. As a result, more added value stays in the rural area. Two farm sizes, common for many European regions, were chosen to examine the influence of scale. The cost site of farmers has also been analysed in detail to assess which farm characteristics make production of press juices for biochemical industries viable. Results show that for large farm sizes in particular, the potential profits are high. Additionally, the wider spectrum of marketable products generates new sources of income for farmers. The holistic analysis of the supply chain provides evidence that the cultivation processes for fodder legumes do not need to be adapted for use in Green Biorefineries. In fact, the new utilisation approach even widens the cultivation and processing spectrum and can increase economic viability of fodder legume production in conventional farming. N2 - Nachwachsende Rohstoffe ersetzen zunehmend fossile Energieträger. Die effiziente Verwertung dieser Ressourcen ist essentiell, um eine nachhaltige Rohstoffnutzung zu gewährleisten. Die Bioraffinerie ist ein Konzept, das darauf abzielt Ressourcen möglichst effizient und nachhaltig zu nutzen. Biomasse wird hierbei mit möglichst hoher Wertschöpfung verarbeitet und es entstehen sowohl Lebens- und Futtermittel, als auch Chemikalien und Energieträger daraus. Doch auch die Rohstoffe, die im Bioraffinerieprozess verarbeitet werden, müssen nachhaltig produziert sein. Das Ziel dieser Doktorarbeit ist es, die nachhaltige Bereitstellung von Rohstoffen für die Bioraffinerie zu untersuchen. Als Rohstoff habe ich Futterleguminosen vom Grünland gewählt. Grünlandflächen sind in Deutschland und weiten Teilen Europas durch Umbruch oder aber Nutzungsaufgabe bedroht. Dies zeigt, dass sie nicht effizient genutzt werden. Neue Nutzungsansätze, die sich durch Bioaffinerien ergeben, könnten den Rückgang des Grünlands aufhalten. Sowohl Dauergrünland, als auch temporäres Grünland wird in dieser Arbeit untersucht. Futterleguminosen wurden gewählt, da frühere Studien sie als vielversprechenden Rohstoff für die industrielle Nutzung ausgewiesen haben und sie einen sehr positiven ökologischen Einfluss auf Agrarökosysteme haben können. Eine Form der Bioraffinerie ist die Grüne Bioraffinerie, die als Rohstoff frische grüne Biomasse, wie zum Beispiel Gräser verarbeitet. Die Biomasse wird in einen Faseranteil (Presskuchen) und eine organische Lösung (Presssaft) fraktioniert. Der Presskuchen kann zur Herstellung von Futtermitteln, Biomaterialien oder auch als Biogassubstrat verwendet werden. Der Presssaft ist vielfältig in der biochemischen Industrie einsetzbar, z.B. zur Produktion organischer Säuren, Kosmetika und Pharmazeutika. Diese Doktorarbeit untersucht eine spezifische Wertschöpfungskette der Grünen Bioraffinerie, bei der Luzerne und Kleegras als Rohstoffe verwendet werden und aus ihnen Milchsäure sowie ein Futtermittel für Wiederkäuer produziert wird. Die Forschungsfragen in diesem Zusammenhang sind, (1) ob der Anbau der Futterleguminosen der Nutzung als Rohstoff in der Bioraffinerie angepasst werden muss; (2) wie die Biomasse für eine effiziente Rohstoffausbeute verarbeitet werden muss; und (3) ob der Anbau von Futterleguminosen für die Grüne Bioraffinerie wirtschaftlich rentabel umsetzbar ist. Ich habe mit dieser Arbeit somit eine ganzheitliche Untersuchung umgesetzt, die den Anbau, die Verarbeitung und letztlich auch die Produktverwertung untersucht. Zur Beantwortung der Forschungsfragen wurden Feldversuche durchgeführt, um Informationen zu Biomassequalität und –quantität in Abhängigkeit der Kulturpflanze, des Untersuchungsstandortes sowie des Erntezeitpunktes zu erlangen. Die geerntete Biomasse wurde mit einer Schneckenpresse in Presssaft und –kuchen separiert und deren Inhaltsstoffe analysiert. In Fermentierungsexperimenten wurde die Güte der Presssäfte als Rohstoff in der Milchsäureherstellung untersucht. Die Herstellung von Milchsäure erfordert eine schnelle Verarbeitung der Biomasse, sodass diese direkt im landwirtschaftlichen Betrieb stattfinden sollte. Dies führt zu einer höheren Wertschöpfung direkt am Ort der Produktion und kann die Wirtschaft im ländlichen Raum stärken. Die Qualität des Presskuchens als Futtermittel wurde mithilfe von Silierversuchen bestimmt. Die Untersuchungen in dieser Doktorarbeit zeigten, dass der Erntezeitpunkt für die Rohstoffqualität in der industriellen Nutzung eine untergeordnete Rolle spielt. Somit werden späte Erntezeitpunkte möglich, die vor allem für extensiv genutztes Dauergrünland wichtig sind, um die Biodiversität zu erhalten. Nachdem der Nachweis erbracht war, dass sowohl der Presssaft als auch der Presskuchen wertvolle Zwischenprodukte der Grünen Bioraffinerie sind, habe ich eine Kosten-Nutzen Analyse aufgestellt. Ziel war es herauszufinden, ob Landwirte von der Bereitstellung dieser Zwischenprodukte wirtschaftlich profitieren können. Es stellte sich heraus, dass vor allem große landwirtschaftliche Betriebe einen wirtschaftlichen Nutzen daraus ziehen können. Der Anbau von Futterleguminosen könnte in diesen Betrieben eine stark positive Umweltwirkung haben, da z.B. der Einsatz von Mineraldüngern reduziert werden kann und Bodenstrukturen verbessert werden. Zusammenfassend eröffnet die Grüne Bioraffinerie neue Nutzungsansätze für Futterleguminosen und somit Grünlandstandorte und kann genutzt werden, um die Nachhaltigkeit in agrarischen Produktionssystemen zu steigern. KW - Green Biorefinery KW - cost-benefit-analysis KW - field trials KW - fermentation experiments KW - lactic acid production KW - fodder legumes KW - Luzerne KW - Kleegras KW - Versuchsanbau KW - Fermentation KW - Milchsäure KW - Futtermittel für Wiederkäuer KW - Presskuchen KW - Presssaft KW - Kosten-Nutzen-Analyse KW - Nachhaltigkeit im ländlichen Raum Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87198 ER - TY - THES A1 - Cattania, Camilla T1 - Improvement of aftershock models based on Coulomb stress changes and rate-and-state dependent friction T1 - Verbesserte Nachbebenmodelle durch Berücksichtigung von Coulombspannungsänderungen und Rate-State abhängiger Reibung N2 - Earthquake clustering has proven the most useful tool to forecast changes in seismicity rates in the short and medium term (hours to months), and efforts are currently being made to extend the scope of such models to operational earthquake forecasting. The overarching goal of the research presented in this thesis is to improve physics-based earthquake forecasts, with a focus on aftershock sequences. Physical models of triggered seismicity are based on the redistribution of stresses in the crust, coupled with the rate-and-state constitutive law proposed by Dieterich to calculate changes in seismicity rate. This type of models are known as Coulomb- rate and-state (CRS) models. In spite of the success of the Coulomb hypothesis, CRS models typically performed poorly in comparison to statistical ones, and they have been underepresented in the operational forecasting context. In this thesis, I address some of these issues, and in particular these questions: (1) How can we realistically model the uncertainties and heterogeneity of the mainshock stress field? (2) What is the effect of time dependent stresses in the postseismic phase on seismicity? I focus on two case studies from different tectonic settings: the Mw 9.0 Tohoku megathrust and the Mw 6.0 Parkfield strike slip earthquake. I study aleatoric uncertainties using a Monte Carlo method. I find that the existence of multiple receiver faults is the most important source of intrinsic stress heterogeneity, and CRS models perform better when this variability is taken into account. Epistemic uncertainties inherited from the slip models also have a significant impact on the forecast, and I find that an ensemble model based on several slip distributions outperforms most individual models. I address the role of postseismic stresses due to aseismic slip on the mainshock fault (afterslip) and to the redistribution of stresses by previous aftershocks (secondary triggering). I find that modeling secondary triggering improves model performance. The effect of afterslip is less clear, and difficult to assess for near-fault aftershocks due to the large uncertainties of the afterslip models. Off-fault events, on the other hand, are less sensitive to the details of the slip distribution: I find that following the Tohoku earthquake, afterslip promotes seismicity in the Fukushima region. To evaluate the performance of the improved CRS models in a pseudo-operational context, I submitted them for independent testing to a collaborative experiment carried out by CSEP for the 2010-2012 Canterbury sequence. Preliminary results indicate that physical models generally perform well compared to statistical ones, suggesting that CRS models may have a role to play in the future of operational forecasting. To facilitate efforts in this direction, and to enable future studies of earthquake triggering by time dependent processes, I have made the code open source. In the final part of this thesis I summarize the capabilities of the program and outline technical aspects regarding performance and parallelization strategies. N2 - Die örtliche und zeitlich Häufung von Erdbeben ist geeignet, um Änderungen in Seismizitätsraten auf kurzen bis mittleren Zeitskalen (Stunden bis Monate) zu prognostizieren. Kürzlich wurden vermehrt Anstrengungen unternommen, den Umfang solcher Modelle auf Operationelle Erdbebenvorhersage auszudehnen, welche die Veröffentlichung von Erdbebenwahrscheinlichkeiten beinhaltet mit dem Ziel, die Bevölkerung besser auf mögliche Erdbeben vorzubereiten. Das vorrangige Ziel dieser Dissertation ist die Verbesserung von kurz- und mittelfristiger Erdbebenprognose basierend auf physikalischen Modellen. Ich konzentriere mich hier auf Nachbebensequenzen. Physikalische Modelle, die getriggerte Seimizität erklären, basieren auf der Umverteilung von Spannungen in der Erdkruste. Berechnung der Coulomb Spannung können kombiniert werden mit dem konstituivem Gesetz von Dieterich, welches die Berechnung von Änderungen in der Seismizitätsrate ermöglicht. Diese Modelle sind als Coulomb-Rate-and-State (CRS) Modelle bekannt. Trotz der erfolgreichen Überprüfung der Coulomb-Hypothese, schneiden CRS-Modelle im Vergleich mit statistischen Modellen schlecht ab, und wurden deshalb bisher kaum im Kontext operationeller Erdbenbenvorhersage genutzt. In dieser Arbeit, gehe ich auf einige der auftretenden Probleme ein. Im Besonderen wende ich mich den folgenden Fragen zu: (1) Wie können wir die Unsicherheiten und die Heterogenität des Spannungsfeldes infolge des Hauptbebens realistisch modellieren? (2)Welche Auswirkungen haben zeitlich variable Spannungsänderungen in der postseismischen Phase? Ich konzentriere mich hierbei auf zwei Beispiele in unterschiedlichen tektonischen Regionen: die Aufschiebung des Mw9.0 Tohoku Erdbeben und die Blattverschiebung des Mw6.0 Parkfield Erdbeben. Ich untersuche aleotorische Unsicherheiten der Coulomb-Spannung durch Variabilität in der Orientierung der betroffenen Bruchflächen und durch Spannungsgradienten innerhalb von Modellzellen. Ich zeige, dass die Existenz der unterschiedlichen Bruchflächen die bedeutenste Quelle für intrinsiche Spannungheterogenität ist und das CRS-Modelle deutlich besser abschneiden, wenn diese Variabilität berücksichtigt wird. Die epistemischen Unsicherheiten aufgrund von unterschiedlichen Ergebnissen von Inversionen von Daten für die Verschiebung entlang der Bruchfläche haben ebenso erhebliche Auswirkungen auf die Vorhersage. Ich gehe dann auf die Rolle von postseismischen Spannung ein, insbesondere auf zwei Prozesse: aseismische Verschiebung entlang der Störungsfläche des Hauptbebens (Afterslip) und die Veränderung von Spannungen durch vorhergehende Nachbeben (sekundäres Triggern). Ich demonstriere, dass das Modellieren von sekundärem Triggern die Modellvorhersage in beiden Fallbeispielen verbessert. Die Einbeziehung von Afterslip verbessert die Qualität der Vorhersage nur für die Nachbebensequenz des Parkfield Erdbebens. Dagegen kann ich nachweisen, dass Afterslip infolge des Tohoku Bebens eine höhere Seismizität auf Abschiebungsflächen im Hangenden begünstigt. Die dargestellten Verbesserungen des CRS-Modells sind sehr vielversprechend im Kontext operationeller Erdbebenvorhersage, verlangen aber nach weiterer Überprüfung. Ich stelle die vorläufigen Ergebnisse eines gemeinschaftlichen Tests für die Erdbebenfolge von Canterbury 2010-2012 vor, welcher von CSEP durchgeführt wurde. Die physikalischen Modelle schneiden hier im Vergleich mit statistischen Modellen gut ab. Daher scheint eine Anwendung von CSR-Modellen, die Unsicherheiten und sekundäres Triggering berücksichtigen, in zukünftigen operationellen Erdbebenvorhersagen empfehlenswert. Um die Bemühungen in dieser Richtung zu unterstützen und weitere Studien zum Triggern von Erdbeben durch zeitabhängige Prozesse zu ermöglichen, habe ich meinen Open Source Code öffentlich zugänglich gemacht. Im letzen Teil dieser Arbeit fasse ich die Leistungsfähigkeit des Programms zusammen und skizziere die technischen Aspekte bezüglich der Effiziens und der Parallelisierung des Programmes. KW - earthquake forecasting KW - earthquake interaction KW - Coulomb stress KW - rate-state friction KW - Erdbebenvorhersage KW - Coulombspannung KW - Erdbebenwechselwirkung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87097 ER - TY - THES A1 - Hildebrandt, Dominik T1 - The HI Lyman-alpha opacity at redshift 2.7 < z < 3.6 T1 - Die HI-Lyman-α-Opazität im Rotverschiebungsbereich 2.7 < z < 3.6 N2 - Most of the baryonic matter in the Universe resides in a diffuse gaseous phase in-between galaxies consisting mostly of hydrogen and helium. This intergalactic medium (IGM) is distributed in large-scale filaments as part of the overall cosmic web. The luminous extragalactic objects that we can observe today, such as galaxies and quasars, are surrounded by the IGM in the most dense regions within the cosmic web. The radiation of these objects contributes to the so-called ultraviolet background (UVB) which keeps the IGM highly ionized ever since the epoch of reionization. Measuring the amount of absorption due to intergalactic neutral hydrogen (HI) against extragalactic background sources is a very useful tool to constrain the energy input of ionizing sources into the IGM. Observations suggest that the HI Lyman-alpha effective optical depth, τ_eff, decreases with decreasing redshift, which is primarily due to the expansion of the Universe. However, some studies find a smaller value of the effective optical depth than expected at the specific redshift z~3.2, possibly related to the complete reionization of helium in the IGM and a hardening of the UVB. The detection and possible cause of a decrease in τ_eff at z~3.2 is controversially debated in the literature and the observed features need further explanation. To better understand the properties of the mean absorption at high redshift and to provide an answer for whether the detection of a τ_eff feature is real we study 13 high-resolution, high signal-to-noise ratio quasar spectra observed with the Ultraviolet and Visual Echelle Spectrograph (UVES) at the Very Large Telescope (VLT). The redshift evolution of the effective optical depth, τ_eff(z), is measured in the redshift range 2.7≤z≤3.6. The influence of metal absorption features is removed by performing a comprehensive absorption-line-fitting procedure. In the first part of the thesis, a line-parameter analysis of the column density, N, and Doppler parameter, b, of ≈7500 individually fitted absorption lines is performed. The results are in good agreement with findings from previous surveys. The second (main) part of this thesis deals with the analysis of the redshift evolution of the effective optical depth. The τ_eff measurements vary around the empirical power law τ_eff(z)~(1+z)^(γ+1) with γ=2.09±0.52. The same analysis as for the observed spectra is performed on synthetic absorption spectra. From a comparison between observed and synthetic spectral data it can be inferred that the uncertainties of the τ_eff values are likely underestimated and that the scatter is probably caused by high-column-density absorbers with column densities in the range 15≤logN≤17. In the real Universe, such absorbers are rarely observed, however. Hence, the difference in τ_eff from different observational data sets and absorption studies is most likely caused by cosmic variance. If, alternatively, the disagreement between such data is a result of an too optimistic estimate of the (systematic) errors, it is also possible that all τ_eff measurements agree with a smooth evolution within the investigated redshift range. To explore in detail the different analysis techniques of previous studies an extensive literature comparison to the results of this work is presented in this thesis. Although a final explanation for the occurrence of the τ_eff deviation in different studies at z~3.2 cannot be given here, our study, which represents the most detailed line-fitting analysis of its kind performed at the investigated redshifts so far, represents another important benchmark for the characterization of the HI Ly-alpha effective optical depth at high redshift and its indicated unusual behavior at z~3.2. N2 - Der Großteil der baryonischen Materie des Universums, die im Wesentlichen aus Wasserstoff und Helium besteht, befindet sich in Form von diffusem Gas zwischen den Galaxien. Dieses intergalaktische Medium (IGM) bildet großräumige Strukturen aus, dessen Filamente als "kosmisches Netz" bezeichnet werden. Die leuchtkräftigen extragalaktischen Objekte, die man heutzutage beobachten kann (z.B. Galaxien und Quasare), sind von diesem IGM umgeben und befinden sich in den dichtesten Regionen innerhalb des kosmischen Netzes. Die von diesen Objekten ausgehende ultraviolette (UV) Strahlung ist Bestandteil des UV-Strahlungshintergrunds, der seit der Reionisationsphase den hochionisierten Zustand des IGM aufrecht hält. Eine Auswertung des absorbierten Strahlungsanteils durch den noch im IGM vorhandenen neutralen Wasserstoff (HI) entlang der Sichtlinie zu einer beobachteten extragalaktischen Hintergrundquelle lässt auf den Energieeintrag der Strahlungsquellen ins IGM schließen. Aus geeigneten Messdaten lässt sich schlussfolgern, dass sich die effektive optische Tiefe von HI (Ly-alpha Übergang) mit abnehmender Rotverschiebung verringert, was im Wesentlichen auf die Expansion des Universums zurückzuführen ist. Einige Arbeiten finden jedoch bei der ausgewiesenen Rotverschiebung z~3.2 einen kleineren Wert für die effektive optische Tiefe als erwartet, ein Trend der möglicherweise mit der vollständigen Reionisation von Helium im IGM und einem Anstieg der Intensität des UV-Hintergrunds in Verbindung steht. Die Detektion und mögliche Ursache einer Abnahme der effektiven optischen Tiefe bei z~3.2 ist in der Literatur kontrovers diskutiert und die beobachteten Besonderheiten machen eine weitere Untersuchung erforderlich. Um die Eigenschaften der mittleren Absorption bei hoher Rotverschiebung besser zu verstehen und um einen Lösungsansatz für die Debatte zu liefern, untersuchen wir 13 hoch aufgelöste Quasarabsorptionsspektren mit einem hohen Signal-zu-Rauschen Verhältnis, die mit dem Instrument UVES des Very Large Telescope (VLT) aufgenommen wurden. Die Entwicklung der effektiven optischen Tiefe wird im Rotverschiebungsbereich 2.7≤z≤3.6 gemessen. Die Messung wird um den Beitrag von Metallen durch die detaillierte Anpassung von Linienprofilen an die beobachtete Absorption korrigiert. Im ersten Teil der Arbeit wird eine Auswertung der Parameter der ≈7500 einzeln angepassten Absorptionslinien (Säulendichte N und Doppler-Parameter b) vorgenommen. Die entsprechenden Ergebnisse stimmen im Rahmen der Messunsicherheiten mit Literaturwerten überein. Der Hauptteil der Arbeit beschäftigt sich mit der Berechnung der effektiven optischen Tiefe in Abhängigkeit von der Rotverschiebung τ_eff(z). Es stellt sich heraus, dass die τ_eff-Messwerte um ein empirisches Potengesetz der Form τ_eff(z)~(1+z)^(γ+1) mit γ=2.09±0.52 streuen. Die gleiche Auswertung wie für die Beobachtungsdaten wird für synthetische Spektren durchgeführt. Ein Vergleich dieser Daten legt nahe, dass die Größe der Unsicherheiten der τ_eff-Messwerte wahrscheinlich unterschätzt wird und dass die Streuung der Datenpunkte auf Absorber hoher Säulendichte (15≤logN≤17) zurückzuführen ist. Solche Absorber sind im beobachtbaren Universum jedoch selten, sodass der Unterschied in den τ_eff-Messwerten bei verschiedenen Zusammenstellungen von Beobachtungsdaten und Studien zum Absorptionsverhalten höchstwahrscheinlich durch kosmische Varianz bedingt ist. Sollte jedoch die fehlende Übereinstimmung dieser Daten eine Folge zu optimistischer (systematischer) Fehlerabschätzungen sein, so ist es ebenfalls denkbar, dass die τ_eff-Messwerte mit einer gleichmäßigen Entwicklung über den untersuchten Rotverschiebungsbereich hinweg konsistent sind. Um die wesentlichen Unterschiede in den Untersuchungsmethoden vorheriger Studien zu untersuchen, wird in dieser Arbeit ein umfassender Vergleich der Ergebnisse dieser Arbeit mit entsprechender Literatur vorgenommen. Eine endgültige Erklärung für das Auftreten einer Abweichung in τ_eff(z) vom empirischen Potenzgesetz, wie sie von einigen Studien bei z~3.2 gefunden wurde, kann in dieser Arbeit zwar nicht gegeben werden, dennoch stellt sie die bislang umfassendste Parameterbestimmung von Absorptionslinien ihrer Art im untersuchten Rotverschiebungsbereich dar. Sie ist somit ein weiterer wichtiger Schritt in Richtung des ganzheitlichen Verständnisses der effektiven optischen Tiefe bei hohen Rotverschiebungen und deren möglicherweise ungewöhnlichem Verlauf bei z~3.2. KW - intergalactic medium KW - cosmology: observations KW - methods: data analysis KW - methods: statistical KW - quasars: absorption lines KW - intergalaktisches Medium KW - Kosmologie: Beobachtungen KW - Methoden: Datenauswertung KW - Methoden: statistisch KW - Quasare: Absorptionslinien Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78355 ER - TY - THES A1 - Wettstein, Christoph T1 - Cytochrome c-DNA and cytochrome c-enzyme interactions for the construction of analytical signal chains N2 - Electron transfer (ET) reactions play a crucial role in the metabolic pathways of all organisms. In biotechnological approaches, the redox properties of the protein cytochrome c (cyt c), which acts as an electron shuttle in the respiratory chain, was utilized to engineer ET chains on electrode surfaces. With the help of the biopolymer DNA, the redox protein assembles into electro active multilayer (ML) systems, providing a biocompatible matrix for the entrapment of proteins. In this study the characteristics of the cyt c and DNA interaction were defined on the molecular level for the first time and the binding sites of DNA on cyt c were identified. Persistent cyt c/DNA complexes were formed in solution under the assembly conditions of ML architectures, i.e. pH 5.0 and low ionic strength. At pH 7.0, no agglomerates were formed, permitting the characterization of the NMR spectroscopy. Using transverse relaxation-optimized spectroscopy (TROSY)-heteronuclear single quantum coherence (HSQC) experiments, DNAs’ binding sites on the protein were identified. In particular, negatively charged AA residues, which are known interaction sites in cyt c/protein binding were identified as the main contact points of cyt c and DNA. Moreover, the sophisticated task of arranging proteins on electrode surfaces to create functional ET chains was addressed. Therefore, two different enzyme types, the flavin dependent fructose dehydrogenase (FDH) and the pyrroloquinoline quinone dependent glucose dehydrogenase (PQQ-GDH), were tested as reaction partners of freely diffusing cyt c and cyt c immobilized on electrodes in mono- and MLs. The characterisation of the ET processes was performed by means of electrochemistry and the protein deposition was monitored by microgravimetric measurements. FDH and PQQ-GDH were found to be generally suitable for combination with the cyt c/DNA ML system, since both enzymes interact with cyt c in solution and in the immobilized state. The immobilization of FDH and cyt c was achieved with the enzyme on top of a cyt c monolayer electrode without the help of a polyelectrolyte. Combining FDH with the cyt c/DNA ML system did not succeed, yet. However, the basic conditions for this protein-protein interaction were defined. PQQ-GDH was successfully coupled with the ML system, demonstrating that that the cyt c/DNA ML system provides a suitable interface for enzymes and that the creation of signal chains, based on the idea of co-immobilized proteins is feasible. Future work may be directed to the investigation of cyt c/DNA interaction under the precise conditions of ML assembly. Therefore, solid state NMR or X-ray crystallography may be required. Based on the results of this study, the combination of FDH with the ML system should be addressed. Moreover, alternative types of enzymes may be tested as catalytic component of the ML assembly, aiming on the development of innovative biosensor applications. N2 - In den Energiegewinnungsprozessen der Zellen spielen biochemische Reaktion, die auf Elektronentransfer (ET) basieren, eine wichtige Rolle. So sind die Proteinkomplexe der Atmungskette, welche an der inneren Membran der Mitochondrien abläuft, über eine ET-Kette miteinander verbunden. In biotechnologischen Anwendungen wird dieses Phänomen genutzt um Proteine auf der Oberfläche von Elektroden als funktionierende ET-Ketten zu arrangieren. Dabei kann der ET innerhalb dieser Kaskaden als elektrischer Strom gemessen und als Signal betrachtet werden. Dies ermöglicht die Anwendung von proteinmodifizierten Elektroden als Biosensoren und Biobrennstoffzellen. Ein geeigneter Baustein für den Aufbau vielschichtiger ET-Systeme ist das kleine, eisenhaltige Protein Cytochrom c (Cyt c), welches in der Lage ist Elektronen aufzunehmen, zu transportieren und wieder abzugeben. Als zweiter Baustein dient das lange, fadenartige Biomolekül DNA. DNA und Cyt c interagieren unter bestimmten Bedingungen aufgrund ihrer entgegengesetzten Oberflächenladungen. Dies ermöglicht den schichtweisen Aufbau stabiler Cyt c/DNA-Multischichten (MS) auf Elektrodenoberflächen, welche durch die sogenannte Layer-by-Layer (LbL) Technik aufgebaut werden. In diesen MS Systemen behält Cyt c trotz der Immobilisierung seine Beweglichkeit um die eigene Achse, wodurch der Selbstaustausch von Elektronen zwischen den Cyt c Molekülen sowie der ET zur Elektrode gewährleistet wird. Der molekulare Aufbau der Cyt c/DNA MS sowie die Interaktion zwischen den zwei biologischen Bausteine ist weitgehend unerforscht, daher wurden in der vorliegenden Studie die genauen Bedingungen der Cyt c/DNA Interaktion in Lösung untersucht. Außerdem wird die Eignung des MS Systems zur Einbettung von Enzymen getestet. Die Bausteine des MS-Systems, Cyt c und DNA bilden in Lösung stabile Komplexe unter den Assemblierungsbedingungen der MS (d.h. pH 5.0 und geringe Salzkonzentration). Im Vergleich dazu tritt bei pH 7.0 eine schwächere Interaktion auf, die für eine Komplexbildung nicht ausreicht. Dies ermöglicht die Untersuchung der Interaktion mittels Kernspinresonanzspektroskopie (NMR, engl. nuclear magnetic resonance spectroscopy), wobei die Interaktionsstellen des DNA-Moleküls auf Cyt c bestimmt werden. Im Vergleich zu pH 7.0 wird im leicht sauren pH-Bereich (6.0) eine erhöhte Anzahl an Interaktionspunkten gefunden, was Rückschlüsse auf eine erhöhte Interaktion zulässt. Dies resultiert schließlich in der starken Bindung bei pH 5.0, die den Aufbau stabiler Cyt c/DNA-MS auf Elektrodenoberflächen ermöglicht. Darüber hinaus spielen der Salzgehalt der Lösung sowie das Konzentrationsverhältnis von Cyt c und DNA eine wichtige Rolle. Auf der Grundlage des Cyt c/DNA-MS Aufbaus sollte durch die Kopplung eines Enzymes eine Signalkette mit sensorischen Eigenschaften geschaffen werden. Das Enzym dient dabei als Erkennungselement für bestimmte Moleküle in Lösung. Durch die Reaktion des Enzyms mit dem Molekül wird ein bioelektrisches Signal generiert, das durch elektrochemische Methoden gemessen wird. Dies wurde mit zwei verschiedenen Enzymen, der Glukose Dehydrogenase (GDH) und der Fruktose Dehydrogenase (FDH), untersucht. Beide Enzyme waren in der Lage mit einer Cyt c Monoschicht zu kommunizieren und konnten mit dem redox Protein auf der Elektrodenoberfläche immobilisiert werden. GDH konnte erfolgreich mit dem Cyt c/DNA-MS System gekoppelt und die Sensoreigenschaften der so aufgebauten Elektronentransferkette charakterisiert werden. Zusammenfassend charakterisiert diese Arbeit die Bedingungen der Cyt c/DNA-Komplexbildung und gibt einen Einblick in die bisher unbekannte Interaktion zwischen Cyt c und DNA auf der molekularen Ebene. Darüber hinaus wird die Nutzbarkeit des Cyt c/DNA MS Systems zur Einbettung von Enzymen am Beispiel der GDH gezeigt und schafft somit die Grundlage für das bessere Verständnis von ET Reaktionen zwischen Proteinen auf Elektrodenoberflächen. T2 - Cytochrom c-DNA und Cytochrom c-Enzym Interaktion für den Aufbau analytischer Signalketten KW - biosensor KW - protein KW - DNA KW - enzyme KW - interaction KW - DNA KW - Biosensor KW - Enzym KW - Interaktion KW - Protein Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78367 ER - TY - THES A1 - Rajasundaram, Dhivyaa T1 - Integrative analysis of heterogeneous plant cell wall related data T1 - Integrative Analyse von heterogenen Pflanzenzellwand-Daten N2 - Plant cell walls are complex structures that underpin plant growth and are widely exploited in diverse human activities thus placing them with a central importance in biology. Cell walls have been a prominent area of research for a long time, but the chemical complexity and diversity of cell walls not just between species, but also within plants, between cell-types, and between cell wall micro-domains pose several challenges. Progress accelerated several-fold in cell wall biology owing to advances in sequencing technology, aided soon thereafter by advances in omics and imaging technologies. This development provides additional perspectives of cell walls across a rapidly growing number of species, highlighting a myriad of architectures, compositions, and functions. Furthermore, rather than the component centric view, integrative analysis of the different cell wall components across system-levels help to gain a more in-depth understanding of the structure and biosynthesis of the cell envelope and its interactions with the environment. To this end, in this work three case studies are detailed, all pertaining to the integrative analysis of heterogeneous cell wall related data arising from different system-levels and analytical techniques. A detailed account of multiblock methods is provided and in particular canonical correlation and regression methods of data integration are discussed. In the first integrative analysis, by employing canonical correlation analysis - a multivariate statistical technique to study the association between two datasets - novel insight to the relationship between glycans and phenotypic traits is gained. In addition, sparse partial least squares regression approach that adapts Lasso penalization and allows for the selection of a subset of variables was employed. The second case study focuses on an integrative analysis of images obtained from different spectroscopic techniques. By employing yet another multiblock approach - multiple co-inertia analysis, insitu biochemical composition of cell walls from different cell-types is studied thereby highlighting the common and complementary parts of the two hyperspectral imaging techniques. Finally, the third integrative analysis facilitates gene expression analysis of the Arabidopsis root transcriptome and translatome for the identification of cell wall related genes and compare expression patterns of cell wall synthesis genes. The computational analysis considered correlation and variation of expression across cell-types at both system-levels, and also provides insight into the degree of co-regulatory relationships that are preserved between the two processes. The integrative analysis of glycan data and phenotypic traits in cotton fibers using canonical methods led to the identification of specific polysaccharides which may play a major role during fiber development for the final fiber characteristics. Furthermore, this analysis provides a base for future studies on glycan arrays in case of developing cotton fibers. The integrative analysis of images from infrared and Raman spectroscopic approaches allowed the coupling of different analytical techniques to characterize complex biological material, thereby, representing various facets of their chemical properties. Moreover, the results from the co-inertia analysis demonstrated that the study was well adapted as it is relevant for coupling data tables in a symmetric way. Several indicators are proposed to investigate how the global and block scores are related. In addition, studying the root cells of \textit{Arabidopsis thaliana} allowed positing a novel pipeline to systematically investigate and integrate the different levels of information available at the global and single-cell level. The conducted analysis also confirms that previously identified key transcriptional activators of secondary cell wall development display highly conserved patterns of transcription and translation across the investigated cell-types. Moreover, the biological processes that display conserved and divergent patterns based on the cell-type-specific expression and translation levels are identified. N2 - Pflanzliche Zellwände sind komplexe Strukturen, die wichtig für das Zellwachstum und auch nützlich für den Menschen sind, weshalb sie eine wichtige zentrale Rolle in der Biologie haben. Zellwände sind schon seit einiger Zeit ein bedeutsames Untersuchungsgebiet, jedoch stellen Fragen nach der chemischen Komplexizität und Diversität nicht nur zwischen Zellwänden verschiedener Spezies, sondern auch innerhalb von Pflanzen, zwischen verschiedenen Zelltypen und auch zwischen dem Mikro-Bereich von Zellwänden eine Herausforderung dar. Ein grosser Fortschritt in der Forschung konnte durch die Weiterentwicklung der Sequenziertechniken erzielt werden, sowie auch durch Fortschritte der "Omik"-Technologien und Imaging-Technologien. Dieser Fortschritt ermöglicht eine zusätzliche Perspektive auf Zellwände über die stark wachsende Anzahl verschiedener Spezies, die eine Vielzahl von Architekturen, Zusammensetzung und Funktionen hervorhebt. Des Weiteren werden statt einer Komponenten-zentrierten Sichtweise eine integrative Analyse der verschiedenen Zellwandkomponenten über unterschiedliche Systemebenen genutzt, um ein tieferes Verständnis über die Struktur und Biosynthese der Zellhülle und ihrer Wechselwirkung mit der Umgebung zu erlangen. Zu diesem Zweck werden in dieser Arbeit drei Fallstudien ausführlich beschrieben, die sich alle auf die integrative Analyse von heterogenen zellwandbezogenen Daten beziehen, die von unterschiedlichen Systemebenen und analystischen Techniken stammen. Eine detailierte Darstellung von Multiblock-Methoden wird verschafft, wobei besonders kanonische Korrelationsanalyse und Regressionsmethoden der Datenintegration diskutiert werden. In der ersten Studie werden unter Einsatz kanonischer Korrelationsanalyse - einer multivariaten statistischen Technik, um Zusammenhänge zwischen zwei Datensätzen zu ermitteln - angewendet, um neue Erkenntnisse in Bezug auf die Beziehungen zwischen Glycanen und phenotypischen Merkmalen zu erhalten. In der zweiten integrativen Analyse wird ein Sparse Partial Least Square Regressionsansatz verwendet, der Lasso Penalization anwendet und die Auswahl von einem Sub-Set von Variablen erlaubt. Ausserdem fokussiert sich die zweite Studie auch auf integrative Analyse von Bildern, die von zwei verschiedenen spektroskopischen Techniken aufgenommen wurden. Zunächst werden die zwei Sets von Bildern vor-bearbeitet und so aufbereitet, dass sie eine Blockdaten-Struktur bilden. Durch Anwendung eines weiteren Multiblock-Verfahrens, der multiple Co-Inertia Analyse, wird die in-situ biochemische Zusammensetzung der Zellwände von verschiedenen Zelltypen untersucht und die Gemeinsamkeiten und Unterschiede der zwei hyperspektralen Imaging-Techniken hervorgehoben. Zuletzt ermöglicht die dritte Studie eine integrative Genexpressions-Analyse des Arabidopsis Wurzeltranskriptoms und -translatoms zur Identifikation von zellwandbezogenen Genen und dem Vergleich von Expressionsmustern von Zellwandsynthese-Genen. Die numerische Analyse zieht sowohl Korrelation als auch Variation der Genexpression verschiedener Zelltypen auf den beiden Systemebenen in Betracht und liefert so einen Einblick in den Grad der ko-regulierten Beziehungen, die zwischen den beiden Prozessen konserviert sind. Die integrative Analyse der Glycandaten und den phenotypischen Merkmalen in Baumwollfasern unter Benutzung der kanonischen Methoden führte zur Identifikation von spezifischen Polysacchariden, welche eine wesentliche Rolle für die Entwicklung der finalen Fasereigenschaften spielen könnten. Weiterhin stellt diese Analyse eine Basis für zukünftige Studien über Glycanarrays von sich in der Entwicklung befindlichen Baumwollfasern dar. Die integrative Analyse von Bildern von Infrarot- und Raman-spektroskopischen Methoden erlaubt die Verknüpfung von verschiedenen analytischen Techniken, um komplexes biologisches Material zu charakterisieren, und somit eine Vielzahl ihrer chemischen Eigenschaften darzustellen. Dar über hinaus zeigen die Ergebnisse der Co-Inertia Analyse, dass die Studie gut adaptiert ist, was relevant für die symmetrische Verknüpfung von Datentabellen ist, aber auch weil mehrere Indikatoren vorgestellt wurden, um zu untersuchen, in wie fern die globalen und Block-Scores in Beziehung stehen. Ausserdem konnte durch die Untersuchung der Wurzelzellen von Arabidopsis thaliana eine neue Pipeline zur systematischen Untersuchung und Integration verschiedener Informationsebenen auf globaler und Einzelzellebene zuzüglich Identifikation von zellwandbezogenen Genen postuliert werden. Die ausgeführte Analyse bestätig auch, dass vorherige identifizierte Schlüssel-Transkriptionsfaktoren der sekundären Zellwandentwicklung hoch-konservierte Transkripions- und Translationsmuster in den untersuchten Zelltypen zeigen. Dazu kommt, dass biologischen Prozesse mit konservierten und divergenten Mustern auf zelltypspezifischer Expressions- und Translationebene identifiziert werden konnten. KW - pflanzliche Zellwände KW - "Omik"-Technologien KW - multivariate statistische Technik KW - integrative omics analysis KW - plant cell walls KW - canonical correlation analysis KW - regression methods Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77652 ER - TY - THES A1 - Bittermann, Klaus T1 - Semi-empirical sea-level modelling T1 - Semiempirische Meeresspiegelmodellierung N2 - Semi-empirical sea-level models (SEMs) exploit physically motivated empirical relationships between global sea level and certain drivers, in the following global mean temperature. This model class evolved as a supplement to process-based models (Rahmstorf (2007)) which were unable to fully represent all relevant processes. They thus failed to capture past sea-level change (Rahmstorf et al. (2012)) and were thought likely to underestimate future sea-level rise. Semi-empirical models were found to be a fast and useful tool for exploring the uncertainties in future sea-level rise, consistently giving significantly higher projections than process-based models. In the following different aspects of semi-empirical sea-level modelling have been studied. Models were first validated using various data sets of global sea level and temperature. SEMs were then used on the glacier contribution to sea level, and to infer past global temperature from sea-level data via inverse modelling. Periods studied encompass the instrumental period, covered by tide gauges (starting 1700 CE (Common Era) in Amsterdam) and satellites (first launched in 1992 CE), the era from 1000 BCE (before CE) to present, and the full length of the Holocene (using proxy data). Accordingly different data, model formulations and implementations have been used. It could be shown in Bittermann et al. (2013) that SEMs correctly predict 20th century sea-level when calibrated with data until 1900 CE. SEMs also turned out to give better predictions than the Intergovernmental Panel on Climate Change (IPCC) 4th assessment report (AR4, IPCC (2007)) models, for the period from 1961–2003 CE. With the first multi-proxy reconstruction of global sea-level as input, estimate of the human-induced component of modern sea-level change and projections of future sea-level rise were calculated (Kopp et al. (2016)). It turned out with 90% confidence that more than 40 % of the observed 20th century sea-level rise is indeed anthropogenic. With the new semi-empirical and IPCC (2013) 5th assessment report (AR5) projections the gap between SEM and process-based model projections closes, giving higher credibility to both. Combining all scenarios, from strong mitigation to business as usual, a global sea-level rise of 28–131 cm relative to 2000 CE, is projected with 90% confidence. The decision for a low carbon pathway could halve the expected global sea-level rise by 2100 CE. Present day temperature and thus sea level are driven by the globally acting greenhouse-gas forcing. Unlike that, the Milankovich forcing, acting on Holocene timescales, results mainly in a northern-hemisphere temperature change. Therefore a semi-empirical model can be driven with northernhemisphere temperatures, which makes it possible to model the main subcomponent of sea-level change over this period. It showed that an additional positive constant rate of the order of the estimated Antarctic sea-level contribution is then required to explain the sea-level evolution over the Holocene. Thus the global sea level, following the climatic optimum, can be interpreted as the sum of a temperature induced sea-level drop and a positive long-term contribution, likely an ongoing response to deglaciation coming from Antarctica. N2 - Semiempirische Meeresspiegelmodelle (SEMe) nutzen die physikalisch motivierte, empirische Beziehung des globalen Meeresspiegels zu einem bestimmten Antrieb. Im Folgenden ist das die mittlere globale Temperatur. Diese Modellklasse entstand als Ergänzung zu prozeßbasierten Modellen, die nicht alle relevanten Prozesse abbilden konnten (Rahmstorf (2007)) und die deshalb weder den beobachteten Meeresspiegel erklären konnten (Rahmstorf et al. (2012)) noch vertrauenswürdige Zukunftsprojektionen lieferten. Semiempirische Modelle sind eine gute und schnelle Option, die Unsicherheit im zukünftigen Meeresspiegelanstieg auszuloten, wobei sie konsistent höhere Zukunftsprojektionen lieferten als prozeßbasierte Modelle. Im Folgenden wurden verschiedene Aspekte der semiempirischen Meeresspiegelmodellierung untersucht. Modelle wurden erst mit verschiedenen globalen Temperatur- und Meeresspiegeldatensätzen validiert. SEMe wurden dann auf den Meeresspiegelbeitrag von Gletschern angewandt und genutzt, um die globale Temperatur aus Meeresspiegeldaten abzuleiten. Die untersuchten Zeiträume variieren zwischen dem instrumentellen Abschnitt mit Pegelstandsmessungen (seit dem Jahr 1700 in Amsterdam) und Satellitendaten (seit 1992), dem Zeitraum seit 1000 vor Christus und dem gesamten Holozän (mittels Proxydaten). Entsprechend wurden verschiedene Daten, Modellformulierungen und -implementationen benutzt. Es konnte in Bittermann et al. (2013) gezeigt werden, dass SEMe den beobachteten Meeresspiegel des 20sten Jahrhunderts korrekt vorhersagen können, wenn sie bis zum Jahr 1900 kalibriert wurden. Auch für den Zeitraum 1961 bis 2003 lieferten SEMe bessere Vorhersagen als der vierte Sachstandsbericht des Intergovernmental Panel on Climate Change (AR4, IPCC (2007)). Mit der ersten globalen multi-proxy Rekonstruktion des globalen Meeresspiegels als Input konnten sowohl der anthropogene Anteil des modernen Meeresspiegelanstiegs als auch Zukunftsprojektionen berechnet werden (Kopp et al. (2016)). Es zeigt sich mit 90% Sicherheit, dass mehr als 40 % des beobachteten Meeresspiegelanstiegs im 20sten Jahrhundert anthropogenen Ursprungs sind. Mit den neuen semiempirischen Zukunftsprojektionen und denen des fünften Sachstandsberichtes (AR5) des IPCC (2013) läßt sich die Kluft zwischen SEMen und prozeßbasierten Modellen schließen, was beide vertrauenswürdiger macht. Über alle Szenarien hinweg, von starker Treibhausgaseinsparung bis zum ungebremsten Ausstoß, ergibt sich, mit 90% Sicherheit, zwischen 2000 und 2100 ein Meeresspiegelanstieg von 28 bis 131 cm. Die Entscheidung starker Treibhausgaseinsparungen kann den erwarteten globalen Meeresspiegelanstieg im Jahr 2100 halbieren. Die gegenwärtige globale Temperatur, und damit der globale Meeresspiegel, werden von dem global wirkenden Treibhausgasforcing bestimmt. Im Gegensatz dazu wirkt das orbitale Forcing, welches über Holozän-Zeitskalen dominiert, hauptsächlich auf die Nordhemisphäre. Deshalb kann man ein SEM mit Nordhemisphärentemperaturen antreiben und dadurch die Hauptkomponente der Meeresspiegeländerung über das Holozän simulieren. Es stellte sich heraus, dass eine zusätzliche konstante Rate, von der Größenordnung des antarktischen Beitrags zum Meeresspiegel, nötig ist, um den Meeresspiegelverlauf des Holozäns zu erklären. Der Meeresspiegel seit dem Holozän-Klimaoptimum kann also als eine Summe von temperaturbedingtem Fallen und einem langfristigen positiven Beitrag, wahrscheinlich einer andauernden Reaktion auf die Deglaziation der Antarktis, interpretiert werden. KW - sea level KW - Meeresspiegel KW - climate change KW - Klimawandel KW - projections KW - Projektionen KW - anthropogenic sea level KW - anthropogener Meeresspiegel KW - Holocene KW - Holozän KW - semi-empirical models KW - semiempirische Modelle Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93881 ER - TY - THES A1 - Brachs, Maria T1 - Genome wide expression analysis and metabolic mechanisms predicting body weight maintenance T1 - Genomweite Expressions-Analyse und metabolische Mechanismen bestimmen den Körpergewichtserhalt N2 - Obesity is a major health problem for many developing and industrial countries. Increasing rates reach almost 50 % of the population in some countries and related metabolic diseases including cardiovascular events and T2DM are challenging the health systems. Adiposity, an increase in body fat mass, is a major hallmark of obesity. Adipose tissue is long known not only to store lipids but also to influence whole-body metabolism including food intake, energy expenditure and insulin sensitivity. Adipocytes can store lipids and thereby protect other tissue from lipotoxic damage. However, if the energy intake is higher than the energy expenditure over a sustained time period, adipose tissue will expand. This can lead to an impaired adipose tissue function resulting in higher levels of plasma lipids, which can affect other tissue like skeletal muscle, finally leading to metabolic complications. Several studies showed beneficial metabolic effects of weight reduction in obese subjects immediately after weight loss. However, weight regain is frequently observed along with potential negative effects on cardiovascular risk factors and a high intra-individual response. We performed a body weight maintenance study investigating the mechanisms of weight maintenance after intended WR. Therefore we used a low caloric diet followed by a 12-month life-style intervention. Comprehensive phenotyping including fat and muscle biopsies was conducted to investigate hormonal as well as metabolic influences on body weight regulation. In this study, we showed that weight reduction has numerous potentially beneficial effects on metabolic parameters. After 3-month WR subjects showed significant weight and fat mass reduction, lower TG levels as well as higher insulin sensitivity. Using RNA-Seq to analyse whole fat and muscle transcriptome a strong impact of weight reduction on adipose tissue gene expression was observed. Gene expression alterations over weight reduction included several cellular metabolic genes involved in lipid and glucose metabolism as well as insulin signalling and regulatory pathways. These changes were also associated with anthropometric parameters assigning body composition. Our data indicated that weight reduction leads to a decreased expression of several lipid catabolic as well as anabolic genes. Long-term body weight maintenance might be influenced by several parameters including hormones, metabolic intermediates as well as the transcriptional landscape of metabolic active tissues. Our data showed that genes involved in biosynthesis of unsaturated fatty acids might influence the BMI 18-month after a weight reduction phase. This was further supported by analysing metabolic parameters including RQ and FFA levels. We could show that subjects maintaining their lost body weight had a higher RQ and lower FFA levels, indicating increased metabolic flexibility in subjects. Using this transcriptomic approach we hypothesize that low expression levels of lipid synthetic genes in adipose tissue together with a higher mitochondrial activity in skeletal muscle tissue might be beneficial in terms of body weight maintenance. N2 - Die Adipositas hat sich in den letzten Jahren zu einem deutlichen Gesundheitsproblem in Industrie- und Entwicklungsländern entwickelt. So sind in einigen Länder bis zu 50 % der Bevölkerung übergewichtig und Begleiterkrankungen wie Herzkreislauferkrankungen und Typ 2 Diabetes belasten das Gesundheitssystem. Ein Anstieg der Körperfettmasse spielt bei der Adipositas eine große Rolle. Mittlerweile ist bekannt, dass Fettgewebe nicht nur Lipide speichert, sondern auch den Gesamtmetabolismus wie Nahrungsaufnahme, Energieumsatz und Insulinsensitivität beeinflusst. Lipide werden in Adipozyten gespeichert und verhindern so eine vermehrte Fetteinlagerung in andere Gewebe. Somit stellt das Fettgewebe ein wichtiges Organ dar, das andere periphere Gewebe vor dem toxischen Effekt erhöhter Lipidspiegel schütz. Ist über einen längeren Zeitraum die Energiezufuhr höher als der Energieverbrauch, kommt es zu einer Expansion des Fettgewebes. Dies kann im weiteren Verlauf zu einer Dysfunktion der Adipozyten und des Fettgewebes führen. Erhöhte Lipidspiegel können dann nicht mehr im Fettgewebe gespeichert werden und es kommt zu einer Anreicherung in der Peripherie. Vor allem das Muskelgewebe und die Leber sind hiervon betroffen, was zu weiteren metabolischen Komplikationen führt. Eine Gewichtsreduktion führt in adipösen Personen zu einer Verbesserung zahlreicher metabolischer Parameter. Diverse Studien zeigten jedoch, dass nur ein geringer Anteil dieser Personen in der Lage waren, das reduzierte Körpergewicht zu erhalten. Diese Wiederzunahme des Körpergewichts führt unter anderem zu einer Erhöhung des kardiovaskulären Risikos. Im Allgemeinen ist eine hohe Variabilität bei der Gewichtsreduktion und der Wiederzunahme zu beobachten. Diese Arbeit basiert auf Daten einer Studie, die Effekte einer Gewichtsreduktion auf den Gewichtserhalt untersucht. Nach einer 3-monatigen Gewichtsreduktion mittels einer niederkalorischen Diät wurden die Probanden in Kontroll- und Interventionsgruppe eingeteilt. Anthropometrische sowie metabolische Parameter inklusive Muskel- und Fettgewebsbiopsien wurden erfasst. In dieser Studie konnte gezeigt werden, dass eine Gewichtsreduktion verschiedenste positive Auswirkungen auf den Metabolismus der Teilnehmer hat. Die Probanden zeigten nach 3-monatiger Gewichtsreduktion eine signifikante Reduktion des Körpergewichts und der Fettmasse, erniedrigte Triglyzerid Spiegel und eine verbesserte Insulinsensitivität. Mittels RNA-Seq konnten wir zusätzlich zeigen, dass eine Gewichtsreduktion deutliche Auswirkungen auf das Transkriptom des Fettgewebes besitzt. Unter anderem wurden Genexpressionsveränderungen im Bereich zell-metabolischer Gene wie Lipid- und Glukosestoffwechsel als auch im Bereich des Insulinsignalweges und regulatorischer Gene ermittelt. Diese Expressionsveränderungen zeigten auch einen Zusammenhang mit dem BMI. Unsere Daten weisen darauf hin, dass eine Gewichtsreduktion zu einer Erniedrigung der Expression von Genen im Fettstoffwechsel führt. Ein langfristiger Gewichtserhalt wird durch zahlreiche Parameter wie Hormone, Stoffwechselintermediate und vermutlich auch den transkriptionellen Zustand im metabolisch aktiven Gewebe beeinflusst. Die hier gezeigten Daten deuten darauf hin, dass Gene beteiligt in der Biosynthese von ungesättigten Fettsäuren den BMI 18 Monate nach einer Gewichtsreduktion beeinflussen. Weitere Analysen in Bezug auf den RQ und die FFA Spiegel bestätigen diese Daten. Wir konnten zeigen, dass der Gewichtserhalt mit einem erhöhten RQ und niedrigen FFA Spiegel korrelierten. Dies könnte auf eine erhöhte metabolische Flexibilität in Personen mit Gewichtserhalt hinweisen. Aufgrund dieser Daten spekulieren wir, dass eine niedrige Expression von Lipidsynthese-Genen im Fettgewebe zusammen mit einer erhöhten mitochondrialen Aktivität im Skeletmuskel einen positiven Einfluss auf einen langfristigen Gewichtserhalt besitzt. KW - obesity KW - body weight loss KW - RNA Sequencing KW - body weight maintenance KW - Adipositas KW - Körpergewichtsverlust KW - RNA Sequenzierung KW - Körpergewichsterhalt Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100767 ER - TY - THES A1 - Bettenbühl, Mario T1 - Microsaccades T1 - Mikrosakkaden BT - Symbols in fixational eye movements BT - Symbole in den Fixationsbewegungen der Augen N2 - The first thing we do upon waking is open our eyes. Rotating them in our eye sockets, we scan our surroundings and collect the information into a picture in our head. Eye movements can be split into saccades and fixational eye movements, which occur when we attempt to fixate our gaze. The latter consists of microsaccades, drift and tremor. Before we even lift our eye lids, eye movements – such as saccades and microsaccades that let the eyes jump from one to another position – have partially been prepared in the brain stem. Saccades and microsaccades are often assumed to be generated by the same mechanisms. But how saccades and microsaccades can be classified according to shape has not yet been reported in a statistical manner. Research has put more effort into the investigations of microsaccades’ properties and generation only since the last decade. Consequently, we are only beginning to understand the dynamic processes governing microsaccadic eye movements. Within this thesis, the dynamics governing the generation of microsaccades is assessed and the development of a model for the underlying processes. Eye movement trajectories from different experiments are used, recorded with a video-based eye tracking technique, and a novel method is proposed for the scale-invariant detection of saccades (events of large amplitude) and microsaccades (events of small amplitude). Using a time-frequency approach, the method is examined with different experiments and validated against simulated data. A shape model is suggested that allows for a simple estimation of saccade- and microsaccade related properties. For sequences of microsaccades, in this thesis a time-dynamic Markov model is proposed, with a memory horizon that changes over time and which can best describe sequences of microsaccades. N2 - Beim Aufwachen jeden Morgen, ist es das erste, was wir tun: wir öffnen unsere Augen. Wir lassen die Augen rotieren und suchen unsere Umgebung ab. Gleichzeitig wird die gesammelte Information in unserem Gehirn zu einem Bild vereint. Augenbewegungen können getrennt werden in Sakkaden, welche sprunghafte Augenbewegungen darstellen, und Fixationsbewegungen der Augen, letztere bestehend aus Mikrosakkaden, Tremor und Drift. Bevor wir unsere Augen aufschlagen, wurden die Bewegungen bereits teilweise im Hirnstamm vorprogrammiert. So ist dieser Teil unseres Gehirns verantwortlich für die Auslösung einer Sakkade oder Mikrosakkade, worin man versuchen kann auch gleichzeitig einen Zusammenhang für die Generierung dieser Bewegung herzustellen. Es wird vermutet, dass Mikrosakkaden auch als kleinskaligere Sakkade verstanden werden können, welche auftreten, wenn wir versuchen unsere Augen still auf einen Punkt zu fixieren. Bisher gibt es keine statistische Untersuchung bezüglich einer Klassifizierung von Sakkaden und Mikrosakkaden aufgrund ihrer Form, d.h. ihrer räumlichen Entwicklung über die Zeit. Seit Beginn des neuen Milleniums verstärkte sich die Forschung wieder auf die Eigenschaften und Entstehung von Mikrosakkaden. Demnach stehen wir immer noch am Anfang diese Phänomene mit dynamischen Prozessen beschreiben zu können. Der Fokus dieser Arbeit konzentriert sich auf das Verstehen der generierenden Dynamik von Mikrosakkaden. Es wird ein Model für den unterliegenden Prozess entwickelt und getestet. Es wurden Aufzeichnungen von Augenbewegungen aus verschiedenen Experimenten genutzt, jeweils aufgenommen mit einem videobasiertem System. Es wird eine neue Methode zur amplitudenunabhängigen Detektion von Sakkaden eingeführt, um die Zeitpunkte des Auftretens von Mikrosakkaden und Sakkaden zu bestimmen. Dabei werden für Daten verschiedener Experimente Methoden der Zeit-Frequenz-Analyse genutzt und anschließend die Methode validiert mit simulierten Daten. Außerdem wird ein Modell vorgestellt für die formabhängigen Ausprägungen von Sakkaden und Mikrosakkaden, um die Schätzung ihrer beiden physikalisch relevanten Eigenschaften zu erleichtern. Zum Ende der Arbeit wird ein zeitdynamisches Modell für Sequenzen von Mikrosakkadensymbolen aufgezeigt. Mithilfe der Beschreibung der in Symbolsequenzen übersetzten Mikrosakkadensequenzen als Markovketten, wird diese Form der Augenbewegung durch einen stochastischen Prozess beschrieben. Hierbei bestehen zeitliche und räumliche Abhängigkeiten zwischen den aufeinanderfolgenden zeitdiskreten Symbolen und erlauben somit, ein Referenzmodell für einen Teil der Fixationsbewegungen der Augen zu haben. T3 - Potsdam Cognitive Science Series - 5 KW - Mikrosakkaden KW - Fixationsbewegungen der Augen KW - Sakkadendetektion KW - Mikrosakkadensequenzen KW - Waveletanalyse KW - microsaccades KW - fixational eye movements KW - saccade detection KW - sequences of microsaccades KW - wavelet analysis Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72622 SN - 978-3-86956-122-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Lamanna, Francesco T1 - Adaptive radiation and speciation in African weakly-electric fish T1 - Adaptive Radiation und Artbildung von elektrischen Fischen Afrikas BT - a phylogenetic and transcriptomic perspective BT - eine phylogenetische und transkriptomische Perspektive N2 - The rise of evolutionary novelties is one of the major drivers of evolutionary diversification. African weakly-electric fishes (Teleostei, Mormyridae) have undergone an outstanding adaptive radiation, putatively owing to their ability to communicate through species-specific Electric Organ Discharges (EODs) produced by a novel, muscle-derived electric organ. Indeed, such EODs might have acted as effective pre-zygotic isolation mechanisms, hence favoring ecological speciation in this group of fishes. Despite the evolutionary importance of this organ, genetic investigations regarding its origin and function have remained limited. The ultimate aim of this study is to better understand the genetic basis of EOD production by exploring the transcriptomic profiles of the electric organ and of its ancestral counterpart, the skeletal muscle, in the genus Campylomormyrus. After having established a set of reference transcriptomes using “Next-Generation Sequencing” (NGS) technologies, I performed in silico analyses of differential expression, in order to identify sets of genes that might be responsible for the functional differences observed between these two kinds of tissues. The results of such analyses indicate that: i) the loss of contractile activity and the decoupling of the excitation-contraction processes are reflected by the down-regulation of the corresponding genes in the electric organ; ii) the metabolic activity of the electric organ might be specialized towards the production and turnover of membrane structures; iii) several ion channels are highly expressed in the electric organ in order to increase excitability, and iv) several myogenic factors might be down-regulated by transcription repressors in the EO. A secondary task of this study is to improve the genus level phylogeny of Campylomormyrus by applying new methods of inference based on the multispecies coalescent model, in order to reduce the conflict among gene trees and to reconstruct a phylogenetic tree as closest as possible to the actual species-tree. By using 1 mitochondrial and 4 nuclear markers, I was able to resolve the phylogenetic relationships among most of the currently described Campylomormyrus species. Additionally, I applied several coalescent-based species delimitation methods, in order to test the hypothesis that putatively cryptic species, which are distinguishable only from their EOD, belong to independently evolving lineages. The results of this analysis were additionally validated by investigating patterns of diversification at 16 microsatellite loci. The results suggest the presence of a new, yet undescribed species of Campylomormyrus. N2 - Das übergreifende Ziel dieser Arbeit ist das bessere Verständnis der Bedeutung der schwachen Elektrizität für die adaptive radiation der Mormyriden Afrikas. Das gewählte Modell-Taxon, die Mormyriden-Gattung Campylomormyrus, zeigt eine große Vielfalt an elektrischen Entladungsformen. Diese Entladungsformen sind artspezifisch. Die genetische Basis dieses Merkmales ist allerdings noch unbekannt. In dieser Arbeit habe ich transkriptomische Untersuchungen vom elektrischen Organ und Skelettmuskel durchgeführt. Die Ergebnisse dieser Analysen zeigen, dass die phenotypischen Unterschiede zwischen dem elektrischen Organ und dem Skelettmusckel in den jeweiligen transkriptomen gespiegelt sind. Ich habe auch einen phylogenetischen Stammbaum für die Gattung Campylomormyrus hergestellt, durch die Anwendung von „Multispecies Coalescent Models“-basierten Methoden. Außerdem, durch die Anwendung von Mikrosatellitdaten, die als unabhängiger Beweis dienten, konnte ich zeigen, dass die identifizierten phylogenetischen Gruppen reproduktiv isolierte biologische Arten sind. Auf diese Weise konnte ich ein neuen, noch unbeschriebenen Art nachweisen. KW - evolution KW - transcriptomics KW - phylogeny KW - Evolution KW - Transkriptomik KW - Phylogenese Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80097 ER - TY - THES A1 - Olszewska, Agata T1 - Forming magnetic chain with the help of biological organisms T1 - Die Bildung magnetischer Kettenstrukturen mit Hilfe biologischer Organismen N2 - Magnetite nanoparticles and their assembly comprise a new area of development for new technologies. The magnetic particles can interact and assemble in chains or networks. Magnetotactic bacteria are one of the most interesting microorganisms, in which the assembly of nanoparticles occurs. These microorganisms are a heterogeneous group of gram negative prokaryotes, which all show the production of special magnetic organelles called magnetosomes, consisting of a magnetic nanoparticle, either magnetite (Fe3O4) or greigite (Fe3S4), embedded in a membrane. The chain is assembled along an actin-like scaffold made of MamK protein, which makes the magnetosomes to arrange in mechanically stable chains. The chains work as a compass needle in order to allow cells to orient and swim along the magnetic field of the Earth. The formation of magnetosomes is known to be controlled at the molecular level. The physico–chemical conditions of the surrounding environment also influence biomineralization. The work presented in this manuscript aims to understand how such external conditions, in particular the extracellular oxidation reduction potential (ORP) influence magnetite formation in the strain Magnetospirillum magneticum AMB-1. A controlled cultivation of the microorganism was developed in a bioreactor and the formation of magnetosomes was characterized. Different techniques have been applied in order to characterize the amount of iron taken up by the bacteria and in consequence the size of magnetosomes produced at different ORP conditions. By comparison of iron uptake, morphology of bacteria, size and amount of magnetosomes per cell at different ORP, the formation of magnetosomes was inhibited at ORP 0 mV, whereas reduced conditions, ORP – 500 mV facilitate biomineralization process. Self-assembly of magnetosomes occurring in magnetotactic bacteria became an inspiration to learn from nature and to construct nanoparticles assemblies by using the bacteriophage M13 as a template. The M13 bacteriophage is an 800 nm long filament with encapsulated single-stranded DNA that has been recently used as a scaffold for nanoparticle assembly. I constructed two types of assemblies based on bacteriophages and magnetic nanoparticles. A chain – like assembly was first formed where magnetite nanoparticles are attached along the phage filament. A sperm – like construct was also built with a magnetic head and a tail formed by phage filament. The controlled assembly of magnetite nanoparticles on the phage template was possible due to two different mechanism of nanoparticle assembly. The first one was based on the electrostatic interactions between positively charged polyethylenimine coated magnetite nanoparticles and negatively charged phages. The second phage –nanoparticle assembly was achieved by bioengineered recognition sites. A mCherry protein is displayed on the phage and is was used as a linker to a red binding nanobody (RBP) that is fused to the one of the proteins surrounding the magnetite crystal of a magnetosome. Both assemblies were actuated in water by an external magnetic field showing their swimming behavior and potentially enabling further usage of such structures for medical applications. The speed of the phage - nanoparticles assemblies are relatively slow when compared to those of microswimmers previously published. However, only the largest phage-magnetite assemblies could be imaged and it is therefore still unclear how fast these structures can be in their smaller version. N2 - Magnetit-Nanopartikel (Fe3O4) und deren Anordnungen umfassen einen neuen Bereich in der Entwicklung neuer Technologien. Diese magnetischen Teilcheninteragieren miteinander und unter bestimmten Umständen lassen sie sich in Ketten anordnen. Magnetotaktische Bakterien stellen eine Gruppeinteressanter Mikroorganismen dar, in welchen ebendiese kettenförmige Anordnung von Nanopartikeln vorkommt. Diese Mikroorgansimen gehören zu einer heterogenen Gruppe an Gram negativen Prokaryoten, welche die Produktion von speziellen magnetischen Organellen, den sogenannten Magnetosomen, aufweist. Die Magnetosomen bestehen entweder aus Magnetit- oder Greigit (Fe3S4)- Nanopartikeln, welche in einer Membran eingebettet sind. Die Kette ist entlang eines Aktin ähnlichen Gerüstes angeordnet, welches aus dem Protein MamK besteht und dafür verantwortlich ist, dass sich die Magnetosomen in mechanisch stabilen Ketten arrangieren können. Diese Ketten fungieren als Kompass Nadeln und ermöglichen es den Zellen sich entlang des Magnetfeldes der Erde zuorientieren. Es ist bekannt, dass die Bildung der Magnetosomen auf molekularer Ebene kontrolliert wird. Die physiko-chemischen Bedingungen der direkten Umgebung beeinflussen die Biomineralisierung. Die in diesem Manuskript vorgestellte Arbeit setzt sich zum Ziel, die äußeren Bedingungen, im Speziellen der Einfluss des extrazellulären Oxidations- und Reduktions-Potentials (ORP) auf die Magnetit Bildung im Bakterienstamm Magnetospirillum magneticum AMB-1 besser zu verstehen. Eine kontrollierte Anzucht des Mikroorganismus wurde im Bioreaktor entwickelt und die Magnetosomenbildung wurden charakterisiert. Unter verschiedenen ORP-Bedingungen wurde untersucht, wieviel Eisen von den Bakterien aufgenommen wird und welche Auswirkungen das auf die Zahl und Größe der Magnetosomen hat. Untersucht man die Parameter Eisenaufnahme, Morphologie der Bakterien, Größe und Menge der Magnetosomen pro Zelle kommt man zu dem Schluss, dass die Magnetosomenbildung bei einem ORP von 0 mV inhibiert wird, wobei reduzierende Bedingungen bei einem ORP von -500 mV den Biomineralisationsprozess fördern. Inspiriert von der Fähigkeit der Selbstorganisation von Magnetosomen in MTB wurde versucht Nanopartikel-Anordnungen mit Hilfe des Bakteriophagen M13 als Vorlage zu konstruieren. Der Bakteriophage M13 ist ein 800 nm langes Filament mit eingekapselter einzelsträngiger DNA und wurde schon zuvor als Gerüst für Nanopartikel-Konstrukte verwendet. Ich habe zwei Typen von Anordnungen basierend auf Bakteriophagen und magnetischen Nanopartikeln konstruiert. Es wurde eine kettenartige Struktur, an der magnetische Nanopartikel entlang eines Phagenfilamentes angebracht sind und ein spermienähnliches Konstrukt mit einem magnetischen Kopf und einem Phagenfilament als Schwanz, entwickelt. Um eine kontrollierte Anordnung von Magnetit-Nanopartikeln an den Phagen zu ermöglichen, wurden zwei verschiedene Ansätze verfolgt. Der erste basierte auf elektrostatischen Wechselwirkungen zwischen den mit positiv geladenem Polyethylenimin dekorierten Magnetit-Nanopartikeln und den negativ geladenen Phagen. Das zweite Phagen-Nanopartikel-Konstrukt wurde mit Hilfe von biologisch veränderten Erkennungsseiten hergestellt. Die Phagen weisen ein mCherry Protein auf, welches als Verbindungsstück für den red binding nanobody (RBP) verwendet wurde. Dieser wurde mit einem der Proteine fusioniert, welches die Magnetit Kristalle der Magnetosomen umhüllt. Beide Konstrukte wurden mit Hilfe eines externen Magnetfeldes im Wasser angeregt, wobei sich ihr Schwimmverhalten und das Potential für medizinische Anwendungen dieser Strukturen zeigten. Die Geschwindigkeit der Phagen-Nanopartikel-Konstrukte war im Vergleich zu den bisher veröffentlichten Mikroschwimmern relativ langsam. Es konnten jedoch nur die größten Phagen-Magnetit-Konstrukte visualisiert werden, wodurch die Geschwindigkeit der kleineren Versionen dieser Strukturen noch unklar bleibt. KW - nanoparticles KW - phages KW - nanoparticles assembly KW - magnetotactic bacteria KW - Nanopartikel KW - magnetotaktische Bakterien KW - magnetite Ketter KW - Bakteriophagen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89767 ER - TY - THES A1 - Aygül, Mesut T1 - Pre-collisional accretion and exhumation along the southern Laurasian active margin, Central Pontides, Turkey T1 - Prä-Kollisions Akkretion und Exhumierung entlang des aktiven südlichen Kontinentalrands Laurassisens, mittlere Pontiden, Türkei N2 - The Central Pontides is an accretionary-type orogenic area within the Alpine-Himalayan orogenic belt characterized by pre-collisional tectonic continental growth. The region comprises Mesozoic subduction-accretionary complexes and an accreted intra-oceanic arc that are sandwiched between the Laurasian active continental margin and Gondwana-derived the Kırşehir Block. The subduction-accretion complexes mainly consist of an Albian-Turonian accretionary wedge representing the Laurasian active continental margin. To the north, the wedge consists of slate/phyllite and metasandstone intercalation with recrystallized limestone, Na-amphibole-bearing metabasite (PT= 7–12 kbar and 400 ± 70 ºC) and tectonic slices of serpentinite representing accreted distal part of a large Lower Cretaceous submarine turbidite fan deposited on the Laurasian active continental margin that was subsequently accreted and metamorphosed. Raman spectra of carbonaceous material (RSCM) of the metapelitic rocks revealed that the metaflysch sequence consists of metamorphic packets with distinct peak metamorphic temperatures. The majority of the metapelites are low-temperature (ca. 330 °C) slates characterized by lack of differentiation of the graphite (G) and D2 defect bands. They possibly represent offscraped distal turbidites along the toe of the Albian accretionary wedge. The rest are phyllites that are characterized by slightly pronounced G band with D2 defect band occurring on its shoulder. Peak metamorphic temperatures of these phyllites are constrained to 370-385 °C. The phyllites are associated with a strip of incipient blueschist facies metabasites which are found as slivers within the offscraped distal turbidites. They possibly represent underplated continental metasediments together with oceanic crustal basalt along the basal décollement. Tectonic emplacement of the underplated rocks into the offscraped distal turbidites was possibly achieved by out-of-sequence thrusting causing tectonic thickening and uplift of the wedge. 40Ar/39Ar phengite ages from the phyllites are ca. 100 Ma, indicating Albian subduction and regional HP metamorphism. The accreted continental metasediments are underlain by HP/LT metamorphic rocks of oceanic origin along an extensional shear zone. The oceanic metamorphic sequence mainly comprises tectonically thickened deep-seated eclogite to blueschist facies metabasites and micaschists. In the studied area, metabasites are epidote-blueschists locally with garnet (PT= 17 ± 1 kbar and 500 ± 40 °C). Lawsonite-blueschists are exposed as blocks along the extensional shear zone (PT= 14 ± 2 kbar and 370–440 °C). They are possibly associated with low shear stress regime of the initial stage of convergence. Close to the shear zone, the footwall micaschists consist of quartz, phengite, paragonite, chlorite, rutile with syn-kinematic albite porphyroblast formed by pervasive shearing during exhumation. These types of micaschists are tourmaline-bearing and their retrograde nature suggests high-fluid flux along shear zones. Peak metamorphic mineral assemblages are partly preserved in the chloritoid-micaschist farther away from the shear zone representing the zero strain domains during exhumation. Three peak metamorphic assemblages are identified and their PT conditions are constrained by pseudosections produced by Theriak-Domino and by Raman spectra of carbonaceous material: 1) garnet-chloritoid-glaucophane with lawsonite pseudomorphs (P= 17.5 ± 1 kbar, T: 390-450 °C) 2) chloritoid with glaucophane pseudomorphs (P= 16-18 kbar, T: 475 ± 40 °C) and 3) relatively high-Mg chloritoid (17%) with jadeite pseudomorphs (P= 22-25 kbar; T: 440 ± 30 °C) in addition to phengite, paragonite, quartz, chlorite, rutile and apatite. The last mineral assemblage is interpreted as transformation of the chloritoid + glaucophane assemblage to chloritoid + jadeite paragenesis with increasing pressure. Absence of tourmaline suggests that the chloritoid-micaschist did not interact with B-rich fluids during zero strain exhumation. 40Ar/39Ar phengite age of a pervasively sheared footwall micaschist is constrained to 100.6 ± 1.3 Ma and that of a chloritoid-micaschist is constrained to 91.8 ± 1.8 Ma suggesting exhumation during on-going subduction with a southward younging of the basal accretion and the regional metamorphism. To the south, accretionary wedge consists of blueschist and greenschist facies metabasite, marble and volcanogenic metasediment intercalation. 40Ar/39Ar phengite dating reveals that this part of the wedge is of Middle Jurassic age partly overprinted during the Albian. Emplacement of the Middle Jurassic subduction-accretion complexes is possibly associated with obliquity of the Albian convergence. Peak metamorphic assemblages and PT estimates of the deep-seated oceanic metamorphic sequence suggest tectonic stacking within wedge with different depths of burial. Coupling and exhumation of the distinct metamorphic slices are controlled by decompression of the wedge possibly along a retreating slab. Structurally, decompression of the wedge is evident by an extensional shear zone and the footwall micaschists with syn-kinematic albite porphyroblasts. Post-kinematic garnets with increasing grossular content and pseudomorphing minerals within the chloritoid-micaschists also support decompression model without an extra heating. Thickening of subduction-accretionary complexes is attributed to i) significant amount of clastic sediment supply from the overriding continental domain and ii) deep level basal underplating by propagation of the décollement along a retreating slab. Underplating by basal décollement propagation and subsequent exhumation of the deep-seated subduction-accretion complexes are connected and controlled by slab rollback creating a necessary space for progressive basal accretion along the plate interface and extension of the wedge above for exhumation of the tectonically thickened metamorphic sequences. This might be the most common mechanism of the tectonic thickening and subsequent exhumation of deep-seated HP/LT subduction-accretion complexes. To the south, the Albian-Turonian accretionary wedge structurally overlies a low-grade volcanic arc sequence consisting of low-grade metavolcanic rocks and overlying metasedimentary succession is exposed north of the İzmir-Ankara-Erzincan suture (İAES), separating Laurasia from Gondwana-derived terranes. The metavolcanic rocks mainly consist of basaltic andesite/andesite and mafic cognate xenolith-bearing rhyolite with their pyroclastic equivalents, which are interbedded with recrystallized pelagic limestone and chert. The metavolcanic rocks are stratigraphically overlain by recrystallized micritic limestone with rare volcanogenic metaclastic rocks. Two groups can be identified based on trace and rare earth element characteristics. The first group consists of basaltic andesite/andesite (BA1) and rhyolite with abundant cognate gabbroic xenoliths. It is characterized by relative enrichment of LREE with respect to HREE. The rocks are enriched in fluid mobile LILE, and strongly depleted in Ti and P reflecting fractionation of Fe-Ti oxides and apatite, which are found in the mafic cognate xenoliths. Abundant cognate gabbroic xenoliths and identical trace and rare earth elements compositions suggest that rhyolites and basaltic andesites/andesites (BA1) are cogenetic and felsic rocks were derived from a common mafic parental magma by fractional crystallization and accumulation processes. The second group consists only of basaltic andesites (BA2) with flat REE pattern resembling island arc tholeiites. Although enriched in LILE, this group is not depleted in Ti or P. Geochemistry of the metavolcanic rocks indicates supra-subduction volcanism evidenced by depletion of HFSE and enrichment of LILE. The arc sequence is sandwiched between an Albian-Turonian subduction-accretionary complex representing the Laurasian active margin and an ophiolitic mélange. Absence of continent derived detritus in the arc sequence and its tectonic setting in a wide Cretaceous accretionary complex suggest that the Kösdağ Arc was intra-oceanic. This is in accordance with basaltic andesites (BA2) with island arc tholeiite REE pattern. Zircons from two metarhyolite samples give Late Cretaceous (93.8 ± 1.9 and 94.4 ± 1.9 Ma) U/Pb ages. Low-grade regional metamorphism of the intra-oceanic arc sequence is constrained 69.9 ± 0.4 Ma by 40Ar/39Ar dating on metamorphic muscovite from a metarhyolite indicating that the arc sequence became part of a wide Tethyan Cretaceous accretionary complex by the latest Cretaceous. The youngest 40Ar/39Ar phengite age from the overlying subduction-accretion complexes is 92 Ma confirming southward younging of an accretionary-type orogenic belt. Hence, the arc sequence represents an intra-oceanic paleo-arc that formed above the sinking Tethyan slab and finally accreted to Laurasian active continental margin. Abrupt non-collisional termination of arc volcanism was possibly associated with southward migration of the arc volcanism similar to the Izu-Bonin-Mariana arc system. The intra-oceanic Kösdağ Arc is coeval with the obducted supra-subduction ophiolites in NW Turkey suggesting that it represents part of the presumed but missing incipient intra-oceanic arc associated with the generation of the regional supra-subduction ophiolites. Remnants of a Late Cretaceous intra-oceanic paleo-arc and supra-subduction ophiolites can be traced eastward within the Alp-Himalayan orogenic belt. This reveals that Late Cretaceous intra-oceanic subduction occurred as connected event above the sinking Tethyan slab. It resulted as arc accretion to Laurasian active margin and supra-subduction ophiolite obduction on Gondwana-derived terranes. N2 - Die Mittelpontiden sind ein akkretionäres orogenes Gebiet innerhalb des Alpen-Himalaya Orogengürtels, das durch präkollisionales tektonisches kontinentales Wachstum gekennzeichnet ist. Die Region umfasst mesozoische subduktions-akkretions Komplexe und einen akkretierten intraozeanischen Bogen, die zwischen dem aktiven laurassischen Kontinentalrand und dem von Gondwana abgeleiteten Kırşehir Block eingeklemmt sind. Die Subduktions-Akkretionskomplexe bestehen hauptsächlich aus einem Alb-Turon Akkretionskeil, der den aktiven laurassischen Kontinentalrand repräsentiert. Im Norden besteht der Keil aus Schiefer/Phyllit und Metasandsteineinlagerungen mit rekristallisiertem Kalkstein, Na-Amphibole-tragendem Metabasit (PT= 7-12 kbar und 400 ± 70 ºC) und tektonischen Serpentinit-Einlagerungen, die einen distalen Teil eines großen submarinen Turbiditfächers der Unterkreide darstellen, der auf dem aktiven Kontinentalrand von Lauras abgelagert und anschließend akkretiert und metamorphisiert wurde. Ramanspektren von kohlenstoffhaltigem Material (RSCM) der metapelitischen Gesteine zeigen, dass die Metaflyschsequenz aus metamorphen Paketen mit ausgeprägten metamorphen Temperaturspitzen besteht. Die Mehrheit der Metapelite sind Niedertemperatur (ca. 330 °C) Schiefer, die sich durch eine mangelnde Differenzierung der Defektbänder Graphit (G) und D2 auszeichnen. Sie stellen möglicherweise abgetragene distale Turbidite entlang der Sohle des Akkretionskeils im Alb dar. Der Rest sind Phyllite, die sich durch ein leicht ausgeprägtes G-Band mit D2-Defektband an der Schulter auszeichnen. Die metamorphen Temperaturen dieser Phyllite sind auf 370-385 °C begrenzt. Die Phyllite sind mit Streifen von Metabasiten der beginnenden blauen Fazies assoziiert, die sich als Bänder innerhalb der abgetragenen distalen Turbidite befinden. Sie stellen möglicherweise unterschichtete kontinentale Metasedimente zusammen mit ozeanischem Krustenbasalt entlang des basalen Decollements dar. Die tektonische Einlagerung der unterschobenen Gesteine in die abgetragenen distalen Turbidite wurde möglicherweise durch "out-of-sequence thrusting" erreicht, was zu einer tektonischen Verdickung und Hebung des Keils führte. 40Ar/39Ar Phengit Alter von den Phylliten sind ca. 100 Ma, was auf Subduktion und regionale HP-Metamorphose während dem Alb hinweist. Die akkretierten kontinentalen Metasedimente werden von HP/LT-metamorphen Gesteinen ozeanischen Ursprungs entlang einer ausgedehnten Scherzone durchzogen. Die ozeanisch metamorphe Sequenz umfasst hauptsächlich tektonisch verdickte, tief sitzende Eklogite bis hin zu blauschieferfaziellen Metabasiten und Glimmerschiefern. Im Untersuchungsgebiet treten Metabasite als Epidot-Blauschiefer lokal mit Granat auf (PT= 17 ± 1 kbar und 500 ± 40 °C). Lawsonit-Blauschiefer treten als Blöcke entlang einer Extensionsscherzone auf (PT= 14 ± 2 kbar und 370-440 °C). Sie sind möglicherweise mit einem niedrigen Scherspannungsregime während der Anfangsphase der Konvergenz verbunden. In der Nähe der Scherzone bestehen die Glimmerschiefer aus Quarz, Phengit, Paragonit, Chlorit, Rutil und syn-kinematischen Albitporphyroblasten, die durch Scherung während der Exhumierung entstanden. Die Glimmerschiefer führen Turmalin und ihre retrograde Natur deutet auf hohen Fluidflux entlang der Scherzonen. Mineralvergesellschaftungen des metamorphen Maximums sind, weiter weg von der Scherzone, teilweise noch in den Chloritoid-Glimmerschiefern erhalten. Diese Domänen erfuhren während der Exhumierung keinen Strain. Drei metamorphe Vergesellschaftungen wurden identifiziert und ihre PT-Bedingungen durch Theriak-Domino Modellierung und Raman-Spektren von kohlenstoffhaltigem Material eingeschränkt: 1) Granat-Chloritoid-Glaukophan mit Lawsonit-Pseudomorphen (P= 17.5 ± 1 kbar, T: 390-450 °C); 2) Chloritoid mit Glaukophan-Pseudomorphen (P= 16-18 kbar, T: 475 ± 40 °C) und 3) relativ hoch-Mg-Chloritoid (17%) mit Jadeit-Pseudomorphen (P= 22-25 kbar; T: 440 ± 30 °C) zusätzlich zu Phengit, Paragonit, Quarz, Chlorit, Rutil und Apatit. Die letzte Mineralparagenese wird interpretiert als Transformation der Chloritoid + Glaukophan Vergesellschaftung zu Chloritoid + Jadeit Paragenese mit steigendem Druck. Das Fehlen von Turmalin deutet darauf hin, dass der Chloritoid-Glimmerschiefer während der strain-freien Exhumierung nicht mit B-reichen Fluiden reagiert hat. Das 40Ar/39Ar Phengitalter eines penetrativ geschieferten Glimmerschiefers ist auf 100,6 ± 1,3 Ma und das eines Chlorit-Glimmerschiefers auf 91,8 ± 1,8 Ma begrenzt, was auf eine Exhumierung während der laufenden Subduktion mit einer südlichen Verjüngung der Basalakkretion und des regionalen Metamorphismus hindeutet. Im Süden besteht der Akkretionskeil aus blauschiefer- und grünschieferfaziellen Metabasiten, Marmoren und vulkanogenen Metasedimenteinlagerungen. 40Ar/39Ar Phengit Datierung zeigt, dass dieser Teil des Keils aus dem Mittleren Jura stammt, der während des Albs teilweise überprägt wurde. Die Platznahe der Subduktions-/Akkretionskomplexe des Mittleren Jura ist möglicherweise mit einer schiefen Lage der Konvergenz im Alb verbunden. Peak metamorphe Mineralvergesellschaftungen und PT-Schätzungen der tiefliegenden ozeanischen metamorphen Sequenz deuten auf eine tektonische Stapelung im Akkretionskeil mit unterschiedlichen Grabentiefen hin. Die Kopplung und Exhumierung der einzelnen metamorphen Einheiten wird durch Dekompression des Keils gesteuert, möglicherweise entlang einer sich zurückziehenden Platte. Strukturell ist die Dekompression des Keils durch eine ausgedehnte Scherzone und die Glimmerschiefer der Basis mit syn-kinematischen Albitporphyroblasten erkennbar. Postkinematische Granate mit steigendem Grossulargehalt und pseudomorphe Mineralien innerhalb der Chloritoid-Glimmerschiefer unterstützen ein Dekompressionsmodell ohne zusätzliche Erwärmung. Die Verdickung der Subduktions-/Akkretionskomplexe wird zugeschrieben: i) einer signifikanten Menge an klastischer Sedimentzufuhr aus dem überschobenen kontinentalen Bereich und ii) tiefer basaler Unterschiebung durch Ausbreitung des Decollements entlang einer sich zurückziehenden Platte. Die Unterschiebung durch basale Decollementausbreitung und anschließende Exhumierung der tief liegenden Subduktions-Akkretionskomplexe wird durch Slab-Rollback gesteuert. Dadurch wird der notwendige Raum für eine progressive basale Akkretion entlang der Plattengrenze und der Verlängerung des überliegenden Keils für die Exhumierung der tektonisch verdickten metamorphen Sequenzen geschaffen. Dies könnte der wichtigste Mechanismus tektonischer Verdickung und anschließender Exhumierung von tief sitzenden HP/LT-Subduktions-Akkretionskomplexen sein. Im Süden liegt der Akkretionskeil des Alb-Turon strukturell über einer vulkanischen Bogensequenz aus niedriggradigen metavulkanischem Gestein und darüber liegender metasedimentärer Abfolge. Diese Metavulkanite, treten nördlich der İzmir-Ankara-Erzincan Sutur (İAES), welche Laurasia von der aus Gondwana stammenden Terranen trennt. Die metavulkanischen Gesteine bestehen hauptsächlich aus basaltischem Andesit/Andesit und Rhyolith mit mafischen Xenolithen sowie mit ihren pyroklastischen Äquivalenten, welche mit rekristallisiertem pelagischem Kalkstein und Hornstein durchsetzt sind. Die metavulkanischen Gesteine sind stratigraphisch überlagert von rekristallisiertem mikritischem Kalkstein mit seltenen vulkanischen metaklastischen Gesteinen. Zwei Gruppen können anhand von Spuren- und Seltenerden-gehalten identifiziert werden. Die erste Gruppe besteht aus basaltischem Andesit/Andesit (BA1) und Rhyolith mit zahlreichen gabbroiden Xenolithen. Sie ist durch eine relative Anreicherung von LREE gegenüber HREE gekennzeichnet. Die Gesteine sind mit fluidmobilen LILE angereichert und stark in Ti und P abgereichert, was die Fraktionierung von Fe-Ti-Oxiden und Apatit widerspiegelt, die in den mafischen Xenolithen zu finden sind. Reichlich gabbroide Xenolithe und identische Spuren- und Seltenerdelemente-Zusammensetzungen deuten darauf hin, dass Rhyolithe und basaltische Andesite/Andesite (BA1) kogenetisch sind und die felsischen Gesteine von einem gemeinsamen mafischen Magma durch fraktionierte Kristallisations- und Akkumulationsprozesse abgeleitet wurden. Die zweite Gruppe besteht nur aus basaltischen Andesiten (BA2) mit flachem REE-Muster, das an Inselbogen-Tholeiite erinnert. Obwohl angereichert mit LILE, ist diese Gruppe nicht Ti oder P verarmt. Die Geochemie der metavulkanischen Gesteine deutet auf Supra-Subduktionsvulkanismus hin, der durch den Abbau von HFSE und die Anreicherung von LILE belegt ist. Die Insel-Bogensequenz ist zwischen einem subduktions-akkretionären Komplex des Alb-Turon, der den laurassischen aktiven Kontinentalrandrand repräsentiert, und einer ophiolitischen Mélange eingeklemmt. Das Fehlen von kontinentalem Detritus in der Insel-Bogensequenz und seine tektonische Anordnung in einem breiten kreidezeitlichen Akkretionskomplex deuten darauf hin, dass der Kösdağ Arc intraozeanisch war. Dem entsprechen die basaltischen Andesiten (BA2) mit Inselbogen-Tholeiit-REE-Muster. Zirkon aus zwei Metarhyolithproben ergibt U/Pb-Alter der Spätkreide (93,8 ± 1,9 und 94,4 ± 1,9 Ma). Die niedriggradige regionale Metamorphose der intraozeanischen Bogensequenz ist durch 40Ar/39Ar Datierung von metamorphem Muskovit aus einem Metarhyolith auf 69,9 ± 0,4 Ma eingegrenzt, was darauf hindeutet, dass die Insel-Bogensequenz in der späten Kreide Teil des breiten Akkretionskomplexes der Tethys wurde. Das jüngste Phengitalter von 40Ar/39Ar aus den darüber liegenden Subduktions-Akkretionskomplexen ist 92 Ma, was die Verjüngung des akkretionären orogenen Gürtels gegen Süden bestätigt. Die Insel-Bogensequenz stellt somit einen intraozeanischen Paläobogen dar, der sich über der absinkenden Tethys-platte gebildet und schließlich an den aktiven laurassischen Kontinentalrand akkretiert hat. Der abrupte, nicht kollisionsbedingte Abbruch des Insel-Bogenvulkanismus war möglicherweise mit der südwärts Wanderung des Vulkanismus ähnlich dem Izu-Bonin-Mariana-Bogensystem verbunden. Der intraozeanische Kösdağ Bogen ist gleichaltrig zu den obduzierten Supra-Subduktionsophiolithen der Nordwesttürkei, was darauf hindeutet, dass er einen Teil des vermuteten, aber fehlenden beginnenden intraozeanischen Systems darstellt, das mit der Erzeugung der regionalen Supra-Subduktionsophiolithe verbunden ist. Überreste eines intraozeanischen Paläobogens und supra-subduzierter Ophiolithe der späten Kreide können innerhalb des orogenen Alpen-Himalaya-Gürtels nach Osten verfolgt werden. Dies zeigt, dass die intraozeanische Subduktion der Spätkreide als verbreitetes Ereignis über der absinkenden Platte der Tethys stattfand. Dieses führte zur Insel-Bogenakkretion am aktiven Kontinenntalrand Laurasirns und zur Supra-Subduktion Ophiolith-obduktion auf aus Gondwana stammenden Terranen. KW - Eurasian active margin KW - subduction-accretionary complexes KW - HP/LT metamorphism KW - Pontides KW - Eurasischer aktiver Kontinentalrand KW - subduktions-akkretions Komplexe KW - HP/LT-Metamorphose KW - Pontiden Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416769 ER - TY - THES A1 - Priegnitz, Mike T1 - Development of geophysical methods to characterize methane hydrate reservoirs on a laboratory scale T1 - Entwicklung geophysikalischer Methoden zur Charakterisierung von Methanhydrat-Reservoiren im Labormaßstab N2 - Gashydrate sind kristalline Feststoffe bestehend aus Wasser und Gasmolekülen. Sie sind stabil bei erhöhten Drücken und niedrigen Temperaturen. Natürliche Hydratvorkommen treten daher an Kontinentalhängen, in Permafrostböden und in tiefen Seen sowie Binnenmeeren auf. Bei der Hydratbildung orientieren sich die Wassermoleküle neu und bilden sogenannte Käfigstrukturen, in die Gas eingelagert werden kann. Aufgrund des hohen Drucks bei der Hydratbildung können große Mengen an Gas in die Hydratstruktur eingebaut werden. Das Volumenverhältnis von Wasser zu Gas kann dabei bis zu 1:172 bei 0°C und Atmosphärendruck betragen. Natürliche Gashydrate enthalten hauptsächlich Methan. Da Methan sowohl ein Treibhausgas als auch ein Brenngas ist, stellen Gashydrate gleichermaßen eine potentielle Energieressource sowie eine mögliche Quelle für Treibhausgase dar. Diese Arbeit untersucht die physikalischen Eigenschaften von Methanhydrat gesättigten Sedimentproben im Labormaßstab. Dazu wurde ein großer Reservoirsimulator (LARS) mit einer eigens entwickelten elektrischen Widerstandstomographie ausgerüstet, die das erste Mal an hydratgesättigten Sedimentproben unter kontrollierten Temperatur-, Druck-, und Hydratsättigungsbedingungen im Labormaßstab angewendet wurde. Üblicherweise ist der Porenraum von (marinen) Sedimenten mit elektrisch gut leitendem Salzwasser gefüllt. Da Hydrate einen elektrischen Isolator darstellen, ergeben sich große Kontraste hinsichtlich der elektrischen Eigenschaften im Porenraum während der Hydratbildung und -zersetzung. Durch wiederholte Messungen während der Hydraterzeugung ist es möglich die räumliche Widerstandsverteilung in LARS aufzuzeichnen. Diese Daten bilden in der Folge die Grundlage für eine neue Auswerteroutine, welche die räumliche Widerstandsverteilung in die räumliche Verteilung der Hydratsättigung überführt. Dadurch ist es möglich, die sich ändernde Hydratsättigung sowohl räumlich als auch zeitlich hoch aufgelöst während der gesamten Hydraterzeugungsphase zu verfolgen. Diese Arbeit zeigt, dass die entwickelte Widerstandstomographie eine gute Datenqualität aufwies und selbst geringe Hydratsättigungen innerhalb der Sedimentprobe detektiert werden konnten. Bei der Umrechnung der Widerstandsverteilung in lokale Hydrat-Sättigungswerte wurden die besten Ergebnisse mit dem Archie-var-phi Ansatz erzielt, der die zunehmende Hydratphase dem Sedimentgerüst zuschreibt, was einer Abnahme der Porosität gleichkommt. Die Widerstandsmessungen zeigten weiterhin, dass die schnelle Hydraterzeugung im Labor zur Ausbildung von kleinen Hydratkristallen führte, die dazu neigten, zu rekristalliesieren. Es wurden weiterhin Hydrat-Abbauversuche durchgeführt, bei denen die Hydratphase über Druckerniedrigung in Anlehnung an den 2007/2008 Mallik Feldtest zersetzt wurde. Dabei konnte beobachtet werden, dass die Muster der Gas- undWasserflussraten im Labor zum Teil gut nachgebildet werden konnten, jedoch auch aufbaubedingte Abweichungen auftraten. In zwei weiteren Langzeitversuchen wurde die Realisierbarkeit und das Verhalten bei CO2-CH4-Hydrat Austauschversuchen in LARS untersucht. Das tomographische Messsystem wurde dabei genutzt um während der CH4 Hydrat Aufbauphase die Hydratverteilung innerhalb der Sedimentprobe zu überwachen. Im Zuge der anschließenden CO2-Injektion konnte mithilfe der Widerstandstomographie die sich ausbreitende CO2-Front überwacht und der Zeitpunkt des CO2 Durchbruchs identifiziert werden. N2 - Gas hydrates are crystalline solids composed of water and gas molecules. They are stable at elevated pressure and low temperatures. Therefore, natural gas hydrate deposits occur at continental margins, permafrost areas, deep lakes, and deep inland seas. During hydrate formation, the water molecules rearrange to form cavities which host gas molecules. Due to the high pressure during hydrate formation, significant amounts of gas can be stored in hydrate structures. The water-gas ratio hereby can reach up to 1:172 at 0°C and atmospheric pressure. Natural gas hydrates predominantly contain methane. Because methane constitutes both a fuel and a greenhouse gas, gas hydrates are a potential energy resource as well as a potential source for greenhouse gas. This study investigates the physical properties of methane hydrate bearing sediments on a laboratory scale. To do so, an electrical resistivity tomography (ERT) array was developed and mounted in a large reservoir simulator (LARS). For the first time, the ERT array was applied to hydrate saturated sediment samples under controlled temperature, pressure, and hydrate saturation conditions on a laboratory scale. Typically, the pore space of (marine) sediments is filled with electrically well conductive brine. Because hydrates constitute an electrical isolator, significant contrasts regarding the electrical properties of the pore space emerge during hydrate formation and dissociation. Frequent measurements during hydrate formation experiments permit the recordings of the spatial resistivity distribution inside LARS. Those data sets are used as input for a new data processing routine which transfers the spatial resistivity distribution into the spatial distribution of hydrate saturation. Thus, the changes of local hydrate saturation can be monitored with respect to space and time. This study shows that the developed tomography yielded good data quality and resolved even small amounts of hydrate saturation inside the sediment sample. The conversion algorithm transforming the spatial resistivity distribution into local hydrate saturation values yielded the best results using the Archie-var-phi relation. This approach considers the increasing hydrate phase as part of the sediment frame, metaphorically reducing the sample’s porosity. In addition, the tomographical measurements showed that fast lab based hydrate formation processes cause small crystallites to form which tend to recrystallize. Furthermore, hydrate dissociation experiments via depressurization were conducted in order to mimic the 2007/2008 Mallik field trial. It was observed that some patterns in gas and water flow could be reproduced, even though some setup related limitations arose. In two additional long-term experiments the feasibility and performance of CO2-CH4 hydrate exchange reactions were studied in LARS. The tomographical system was used to monitor the spatial hydrate distribution during the hydrate formation stage. During the subsequent CO2 injection, the tomographical array allowed to follow the CO2 migration front inside the sediment sample and helped to identify the CO2 breakthrough. KW - hydrate KW - Electrical Resistivity Tomography (ERT) KW - geophysics KW - Gashydrate KW - Elektrische Widerstandstomographie (ERT) KW - Geophysik Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89321 ER - TY - THES A1 - Helpa, Vanessa T1 - Interplay between mineral reaction and deformation via structural defects T1 - Wechselwirkung von Mineralreaktion und Deformation durch Strukturdefekte N2 - This thesis contains three experimental studies addressing the interplay between deformation and the mineral reaction between natural calcite and magnesite. The solid-solid mineral reaction between the two carbonates causes the formation of a magnesio-calcite precursor layer and a dolomite reaction rim in every experiment at isostatic annealing and deformation conditions. CHAPTER 1 briefly introduces general aspects concerning mineral reactions in nature and diffusion pathways for mass transport. Moreover, results of previous laboratory studies on the influence of deformation on mineral reactions are summarized. In addition, the main goals of this study are pointed out. In CHAPTER 2, the reaction between calcite and magnesite single crystals is examined at isostatic annealing conditions. Time series performed at a fixed temperature revealed a diffusion-controlled dolomite rim growth. Two microstructural domains could be identified characterized by palisade-shaped dolomite grains growing into the magnesite and granular dolomite growing towards calcite. A model was provided for the dolomite rim growth based on the counter-diffusion of CaO and MgO. All reaction products exhibited a characteristic crystallographic relationship with respect to the calcite reactant. Moreover, kinetic parameters of the mineral reaction were determined out of a temperature series at a fixed time. The main goal of the isostatic test series was to gain information about the microstructure evolution, kinetic parameters, chemical composition and texture development of the reaction products. The results were used as a reference to quantify the influence of deformation on the mineral reaction. CHAPTER 3 deals with the influence of non-isostatic deformation on dolomite and magnesio-calcite layer production between calcite and magnesite single crystals. Deformation was achieved by triaxial compression and by torsion. Triaxial compression up to 38 MPa axial stress at a fixed time showed no significant influence of stress and strain on dolomite formation. Time series conducted at a fixed stress yield no change in growth rates for dolomite and magnesio-calcite at low strains. Slightly larger magnesio-calcite growth rates were observed at strains above >0.1. High strains at similar stresses were caused by the activation of additional glide systems in the calcite single crystal and more mobile dislocations in the magnesio-calcite grains, providing fast diffusion pathways. In torsion experiments a gradual decrease in dolomite and magnesio-calcite layer thickness was observed at a critical shear strain. During deformation, crystallographic orientations of reaction products rearranged with respect to the external framework. A direct effect of the mineral reaction on deformation could not be recognized due to the relatively small reaction product widths. In CHAPTER 4, the influence of starting material microfabrics and the presence of water on the reaction kinetics was evaluated. In these experimental series polycrystalline material was in contact with single crystals or two polycrystalline materials were used as reactants. Isostatic annealing resulted in different dolomite and magnesio-calcite layer thicknesses, depending on starting material microfabrics. The reaction progress at the magnesite interface was faster with smaller magnesite grain size, because grain boundaries provided fast pathways for diffusion and multiple nucleation sites for dolomite formation. Deformation by triaxial compression and torsion yield lower dolomite rim thicknesses compared to annealed samples for the same time. This was caused by grain coarsening of polycrystalline magnesite during deformation. In contrast, magnesio-calcite layers tended to be larger during deformation, which triggered enhanced diffusion along grain boundaries. The presence of excess water had no significant influence on the reaction kinetics, at least if the reactants were single crystals. In CHAPTER 5 general conclusions about the interplay between deformation and the mineral reaction in the carbonate system are presented. Finally, CHAPTER 6 highlights possible future work in the carbonate system based on the results of this study. N2 - Die vorliegende Arbeit umfasst drei experimentelle Studien die sich mit der Wechselwirkung von Mineralreaktion und Deformation zwischen natürlichem Kalzit und Magnesit befassen. Die fest-fest Mineralreaktion zwischen den Karbonaten führt zur Entstehung einer Magnesio-Kalzit Vorläuferphase und zur Entstehung eines Dolomit Reaktionssaumes in allen durchge-führten Experimenten sowohl unter isostatischen Bedingungen als auch während der Defor-mation. Im ersten Kapitel werden die grundlegenden Aspekte hinsichtlich Mineralreaktionen in der Natur und Diffusion angeführt. Weiterhin werden Resultate von vorherigen Studien bezüglich des Einflusses von Deformation auf Mineralreaktionen zusammengefasst. Außerdem werden die Hauptziele dieser Studie aufgezeigt. Im zweiten Kapitel wird die Mineralreaktion zwischen Kalzit und Magnesit Einkristallen unter isostatischen Bedingungen untersucht. Zeitserien bei einer festgelegten Temperatur zeigten ein diffusionskontrolliertes Dolomitsaumwachstum. Die Mikrostruktur des Dolomitsaums ist durch zwei unterschiedliche Bereiche charakterisiert. Palisadenartige Dolomitkörner wachsen in den Magnesit und granulare Dolomitkörner wachsen in Richtung des Kalzits. Ein Model für das Dolomitsaumwachstum wurde angewandt, basierend auf der Gegendiffusion von CaO und MgO. Alle Reaktionsprodukte zeigten eine bestimmte kristallographische Beziehung in Hinblick auf den Kalzitreaktanten. Des Weiteren wurden die kinetischen Parameter für die Mineralreaktion durch Temperaturserien bei einer festen Versuchslaufzeit bestimmt. Das Hauptziel der isostatischen Testserie bestand darin Informationen über die mikrostrukturelle Entwicklung, die kinetischen Parameter, die chemische Zusammensetzung und die texturelle Entwicklung der Reaktionsprodukte zu gewinnen. Die Resultate dienten als Referenz um den Einfluss der Deformation auf die Mineralreaktion zu quantifizieren. Kapitel drei befasst sich mit dem Effekt von nicht-isostatischer Deformation auf die Bildungen von Dolomit und Magnesio-Kalzit zwischen Kalzit und Magnesit Einkristallen. Deformation wurde entweder durch triaxiale Kompression oder durch Torsion erreicht. Triaxiale Kompression bis zu 38 MPa axialer Spannung bei festgelegter Zeit zeigte keinen signifikanten Einfluss von Spannung und Verformung auf die Dolomitproduktion. Eine Zeitserie bei ähnlichen axialen Spannungen und geringen Verformungen resultierten in vergleichbaren Wachstumsraten für Dolomit und Magnesio-Kalzit wie unter isostatischen Bedingungen. Geringfügig schnellere Wachstumsraten für den Magnesio-Kalzit traten in Experimenten auf bei denen die Verformung größer als 0.1 war. Hohe Verformungen bei ähnlichen Spannungen wurde durch die Aktivierung zusätzlicher Gleitsysteme im Kalzit Einkristall und mobile Versetzungen im Magnesio-Kalzit erreicht, welche schnelle Wege für Diffusion bereitstellen. In Torsionsexperimenten wurde eine graduelle Abnahme der Dolomitsaumdicke und des Magnesio-Kalzits beim Überschreiten einer kritischen Scherverformung festgestellt. Während der Deformation kam es zu einer Umorientierung der kristallographischen Achsen von Dolomit und Magnesio-Kalzit hinsichtlich des externen Bezugsystems. Ein direkter Effekt der Mineralreaktion auf die Deformation konnte auf Grund der relative geringen Reaktionsproduktdi-cke nicht gesehen werden. Im vierten Kapitel wurden der Korngrößeneinfluss des Ausgangsmaterials sowie die Anwesenheit von Wasser auf die Reaktionskinetik getestet. In dieser Testserie wurde polykristallines Material in Kontakt zu Einkristallen gebracht oder zwei polykristalline Materialien wurden als Reaktanten benutzt. Isostatisches Ausheizen resultierte in verschiedenen Dolomitsaum- und Magnesio-Kalzitdicken in Abhängigkeit der Korngröße der Reaktanten. Bei kleinen Korngrößen des Magnesits war der Reaktionsfortschritt erhöht, da Korngrenzen Wege für schelle Diffusion boten und viele Nukleationskeime erlaubten. Im Gegensatz zu isostatischen Bedingungen führten triaxiale Kompression und Torsion zu geringen Dolomitsaumdi-cken. Die Ursache hierfür war auftretendes Kornwachstum im polykristallinen Magnesit während der Deformation. Für den Magnesio-Kalzit wurde ein beschleunigtes Wachstum während der Deformation festgestellt, da der Massentransport entlang von Korngrenzen begünstigt wurde. Die Reaktionskinetik zwischen zwei Einkristallen wurde durch die Anwesenheit von zusätzlichem Wasser nicht signifikant beeinflusst. Das fünfte Kapitel enthält die generellen Schlussfolgerungen die für die Wechselwirkung von Mineralreaktion und Deformation im Karbonatsystem getroffen werden konnten. Basierend auf den Resultaten dieser Studie zeigt Kapitel sechs abschließend auf, welche Möglichkeiten es für zukünftige Arbeiten im Karbonatsystem gibt. KW - carbonates KW - deformation KW - mineral reaction KW - Karbonate KW - Deformation KW - Mineralreaktion Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90332 ER - TY - THES A1 - Streich, David T1 - Understanding massive disk galaxy formation through resolved stellar populations T1 - Über die Entstehung massiver Scheibengalaxien anhand Aufgelöster Stellare Populationen N2 - In this thesis we utilize resolved stellar populations to improve our understanding of galaxy formation and evolution. In the first part we improve a method for metallicity determination of faint old stellar systems, in the second and third part we analyze the individual history of six nearby disk galaxies outside the Local Group. A New Calibration of the Color Metallicity Relation of Red Giants for HST data: It is well known, that the color distribution of stars on the the Red Giant Branch (RGB) can be used to determine metallicities of old stellar populations that have only shallow photometry. Based on the largest sample of globular clusters ever used for such studies, we quantify the relation between metallicity and color in the widely used HST ACS filters F606W and F814W. We use a sample of globular clusters from the ACS Globular Cluster Survey and measure their RGB color at given absolute magnitudes to derive the color-metallicity relation. We find a clear relation between metallicity and RGB color; we investigate the scatter and the uncertainties in this relation and show its limitations. A comparison with isochrones shows reasonably good agreement with BaSTI models, a small offset to Dartmouth models, and a larger offset to Padua models. Even for the best globular cluster data available, the metallicity of a simple stellar population can be determined from the RGB alone only with an accuracy of 0.3 dex for [M/H]<-1, and 0.15 dex for [M/H]>-1. For mixed populations, as they are observed in external galaxies, the uncertainties will be even larger due to uncertainties in extinction, age, etc. Therefore caution is necessary when interpreting photometric metallicities. The Structural History of Nearby Low Mass Disk Galaxies: We study the individual evolution histories of three nearby, low-mass, edge-on galaxies (IC5052, NGC4244, NGC5023). Using the color magnitude diagrams of resolved stellar populations, we construct star count density maps for populations of different ages and analyze the change of structural parameters with stellar age within each galaxy. The three galaxies show low vertical heating rates, which are much lower than the heating rate of the Milky Way. This indicates that heating agents, as giant molecular clouds and spiral structure are weak in low mass galaxies. We do not detect a separate thick disk in any of the three galaxies, even though our observations cover a larger range in equivalent surface brightness than any integrated light study. While scaleheights increase with age, each population can be well described by a single disk. Only two of the galaxies contain a very weak additional component, which we identify as the faint halo. The mass of these faint halos is less than 1% of the mass of the disk. All populations in the three galaxies exhibit no or only little flaring. While this finding is consistent with previous integrated light studies, it poses strong constraints on galaxy formation models, because most theoretical simulations often find strong flaring due to interactions or radial migration. Furthermore, we find breaks in the radial profiles of all three galaxies. The radii of these breaks are independent of age, and the break strength is decreasing with age in two of the galaxies (NGC4244 and NGC5023). This is consistent with break formation models, that combine a star formation cutoff with radial migration. The differing behavior of IC5052 can be explained by a recent interaction or minor merger. The Structural History of Massive Disk Galaxies: We extend the structural analysis of stellar populations with distinct ages to three massive galaxies, NGC891, NGC4565 and NGC7814. While confusion effects due to the high stellar number densities in their central region, and the prominent dust lanes inhibit an detailed analysis of the radial profiles, we can study their vertical structure. These massive galaxies also have a slower heating than the Milky Way, comparable to the low mass galaxies. This can be traced back to their already thick young populations and thick layers of their interstellar medium. We do not find a clear separate thick disk in any of these three galaxies; all populations can be described by a single disk plus a S\'ersic bulge/halo component. In contrast to the low mass galaxies, we cannot rule out the presence of thick disks in the massive galaxies, because of the strong influence of the halo, that might hide the possible contribution of the thick disk to the vertical star count profiles. However, the faintness of the possible thick disks still points to problems in the earlier ubiquitous findings of thick disks in external galaxies. N2 - Es ist noch nicht einmal einhundert Jahre her, dass sich in der ``Großen Debatte'' die beiden Astronomen Harlow Shapley und Heber Curtis über die Frage stritten, wie groß unsere Milchstraße sei und ob die Spiralnebel innerhalb dieser lägen oder eigene, von dieser getrennte Objekte seien. Seitdem diese Fragen in den darauffolgenden Jahren, insbesondere durch die Arbeiten Hubbles, gelöst werden konnten, hat das Forschungsfeld der Galaxienentstehung und -entwicklung bis heute enorme Fortschritte gemacht, und lässt doch noch so viele Frage offen. Das Schwierige, aber eben auch das Interessante an der Physik der Galaxien besteht darin, dass sich hier so viele Teilbereiche der (Astro-)physik treffen: von der allgemeinen Relativitätstheorie und der Kosmologie, die die Anfangs- und Randbedingungen geben, über die Dynamik kollisionsfreier Systeme für die Bewegung von Sternen und die Hydrodynamik zum Verständnis der Sternentstehung, bis zur Kernphysik zur Entstehung der Elemente in Sternen und Supernovae. All diese verschiedenen Prozesse (und viele mehr) beeinflussen das Bild der Galaxien, das wir heute sehen. In dieser Arbeit benutzen wir aufgelöste Sternenpopulationen, d.h. photometrische Messungen einer großen Zahl einzelner Sterne, um die Entstehungseschichte von Galaxien zu erforschen. Das Hauptwerkzeug dabei ist das Farben-Helligkeits-Diagramm der Sterne. Seit den frühen Arbeiten Ejnar Hertzsprungs und Henry Russels zu Beginn des zwanzigsten Jahrhunderts ist bekannt, dass Sterne in einem Diagramm, in dem die absolute Helligkeit (oder analog die Leuchtkraft) über der Spektralklasse (oder analog der Effektivtemperatur oder der Farbe) der Sterne aufgetragen ist, nur bestimmte Bereiche belegen. Die genaue Verteilung der Sterne in einem solchen Diagramm wird vor allem durch das Alter und die chemische Zusammensetzung, d.h. die Metallizität, bestimmt. Dies bedeutet, dass man aus der verteilung der Sterne im Farben-Helligkeits-Diagramm Rückschlüsse auf deren Alter und Metallizität, und daraus Rückschüsse auf die Entwicklund einer Galaxie ziehen kann. Im ersten Teil der Arbeit widmen wir uns der Farb-Metallizitäts-Beziehung von Roten Riesensternen, die genutzt weden kann, um die Metallizität alter Sternenpopulation aus rein photometrischen Messungen zu bestimmen. Wir verbessern diese Beziehung, die im Grundsatz schon lange bekannt ist, für die Filtersysteme des Hubble-Weltraumteleskopes. Ausgehend von einer Probe von 71 Kugelsternhaufen, für die sowohl spektroskopische Metallizitätsbestimmungen als auch Photometrie mit den Hubble Filtern F606W und F814W verfügbar sind, haben wir die Farben-Helligkeitsbeziehung neu bestimmt und die Streuung um diese Beziehung sowie die Unsicherheiten untersucht. Im Vergleich mit theoretischen Sternentwicklungsmodellen zeigt sich, dass die beobachtete Beziehung gut mit den BaSTI-Modellen übereinstimmt, während die Dartmouth-Modelle eine kleine, und die Padua-Modelle eine größere Abweichung aufzeigen. Desweiteren zeigen wir, dass selbst für die derzeit besten Daten von einfachen, eindeutig alten Populationen, wie die Kugelsternhaufen sie darstellen, eine Metallizitätsbestimmung anhand des Roten-Riesenastes nur mit einer Genauigkeit von 0.3 dex für niedrige Metallizitäten ([M/H]<-1), und mit einer Genauigkeit von 0.15 dex für höhere Metallizitäten durchgeführt werden kann. In komplizierteren Fällen mit gemischten Populationen, wie sie in externen Galaxies häufig zu finden sind, sind die Unsicherheiten noch größer. Im weiteren Teil der Arbeit erforschen wir die Entstehungsgeschichte von sechs nahen edge-on Scheibengalaxien, von denen drei eine Rotationsgeschwindigkeit ähnlich der Milchstraße haben, während drei weitere deutlich kleiner sind. Mit Hilfe der Farben-Helligkeits-Diagramme unterteilen wir deren Sterne in Populationen unterschiedlichen Alters und erstellen Karten der Anzahldichte einer jeden Population. Damit untersuchen wir dann die Abhängigheit der strukturellen Parameter, wie z.B. Skalenhöhe und -länge, vom Alter der Sterne. In allen Galaxien finden wir einen Anstieg der Skalenhöhe mit dem Alter, dessen Stärke jedoch deutlich unterhalb dem der Milchstraße liegt. In den drei massearmen Galaxien kann dies durch eine geringere Häufigkeit und Stärke der die Heizung verursachenden Streuzentren (z.B. Riesenmolekülwolken oder Spiralarme) erklärt werden. In den drei massereichen Galaxien hängt dies wahrschinlch mit der bereits intrinsisch dickeren Verteilung des interstellaren Mediums und der jungen Sterne zusammen. Weiterhin untersuchen wir die Veränderung der Skalenhöhe mit zunehmenden Radius in den Galaxien und finden nur eine geringen Anstieg der Skalenhöhe zu den Außenbereichen der Galaxien hin. Dies ist in Übereinstimmung mit vorherigen Beobachten, stellt jedoch eine bedeutsamen Einschränkung für Galaxiensimulationen dar, in denen oftmals eine starke Aufweitung der Scheiben zu ihrem Rand hin stattfindet. In keiner der Galaxien entdecken wir eine separate dicke Scheibe. In den massearmen Galaxien kann jede der Population gut durch eine einfache Scheibe beschrieben werden. Darüberhinaus finden wir in zwei Galaxien lediglich eine sehr schwache Halo-Komponente, die mit einer maximalen Masse von nur 1% der Masse der Scheibe aber deutlich schwächer ist als es für eine dicke Scheibe erwartet würde. In den massereicheren Galaxien können die Populationen jeweils mit einer Kombination aus einer Scheibe und einer gemeinsamen S\'ersic-Komponente für Halo und Bulge beschrieben werden. Hier können wir die Existenz einer dicken Scheiben nicht mit Sicherheit ausschließen, da die Präsenz einer massiven Halo/Bulge-Komponente eine mögliche Messung der dicken Scheibe verhindern könnte. Allerdings deutet das Fehlen der dicken Scheiben in unseren Beobachtungen darauf hin, dass eventuelle dicke Scheiben deutlich schwächer sein müssen als sie andere Studien bisher gefunden haben. KW - astrophysics KW - extragalactic physics KW - galaxy formation KW - galaxy evolution KW - galaxy structure KW - stellar populations KW - globular clusters KW - Astronomie KW - Astrophysik KW - Galaxienphysik KW - stellare Populationen KW - Scheibengalaxien KW - Spiralgalaxien KW - Galaxienentstehung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-81027 ER - TY - THES A1 - Radenacker, Anke T1 - Economic consequences of family dissolution T1 - Die finanziellen Folgen von Familientrennung BT - comparing Germany and the United States since the 1980s, and married and cohabiting parents in Germany BT - Deutschland und die USA seit den 1980er Jahren im Vergleich, sowie verheiratete und unverheiratete Eltern in Deutschland im Vergleich N2 - Welfare states and policies have changed greatly over the past decades, mostly characterized by retrenchments in terms of government spending or in terms of restricted access to certain benefits. In the area of family policies, however, a lot of countries have simultaneously expanded provisions and transfers for families. Bringing together the macro analysis of policy variation and household income changes on the micro-level, the main research question of the dissertation is to what extent economic consequences following separation and divorce in families with children have changed between the 1980s and the 2000s in Germany and the United States. The second research question of the dissertation regards the differences in dissolution outcomes between married and cohabiting parents in Germany. The dissertation thus aims to link institutional regulations of welfare states with the actual income situation of families. To achieve this, a research design was developed that has never been used for the analysis of the economic consequences of family dissolution. For this, the two longest running panel datasets, German Socio-economic Panel (GSOEP) and the US American Panel Study of Income Dynamics (PSID), have been used. The analytic strategy applied to estimate the effects of family dissolution on household income is a difference-in-difference design combined with coarsened exact matching (CEM). To begin with, the dissertation confirmed many findings of previous research, for example regarding the gender differences in family dissolution outcomes. Mothers experience clearly higher relative income losses and consequently higher risks of poverty than fathers. This finding is universal, that is it holds for both countries, for all time periods observed, and for all measures of economic outcome that were employed. Another confirmed finding is the higher level of welfare state intervention in Germany compared to the United States. The dissertation also revealed a number of novel findings. The results show that the expansion of family policies in Germany over time has not been accompanied by substantially decreasing income losses for mothers. Though income losses have slightly decreased over time, they have become more persistent during the years following family dissolution. The impact of the German welfare state has meanwhile been quite stable. American mothers’ income losses took place on a slightly lower level than those of German mothers. Only during the 1980s their relative losses were clearly lower than those of German mothers. And also American mothers did not recover as much from their income losses during the 2000s than they used to during the 1980s. For them, the 1996 welfare reform brought a considerable decrease in welfare state support. Accordingly, the results for American mothers can certainly be described as a shift from public to private provision. The general finding of previous studies that fathers do not have to suffer income losses, or if at all rather moderate ones compared to mothers, can be confirmed. Nevertheless, both German and US American fathers face a deterioration of the economic consequences of family dissolution over time. German fathers’ relative income changes are still positive though they have decreased over time. One reason for this decrease is the increasing loss of partner earnings following union dissolution. Also among American fathers, income gains still prevail in the year of family dissolution. Two years later, however, they have been facing income losses already since the 1980s which have furthermore increased considerably over time. Zooming in on Germany, family dissolution outcomes by marital status show negligible differences between cohabiting and married mothers in disposable income, but considerable differences in losses of income before taxes and transfers. It is the impact of the welfare state that equalizes the differences in income losses between these two groups of mothers. For married mothers, losses are not as high in the year of event but they have difficulties to recover from these losses. Without the income buffering of the welfare state, married mothers would, three years after family dissolution, remain with relative income losses double as high as for cohabiting mothers. Compared to mothers, differences between married and cohabiting fathers are visible in changes of income before as well as after taxes and transfers. The welfare state does not alter the difference between the two groups of fathers. With regard to both income concepts, cohabiting fathers fare worse than married fathers. Cohabiting fathers suffer moderate income losses of disposable income while married fathers experience moderate income gains. Accounting for support payments is decisive for fathers’ income changes. If these payments are not deducted from disposable income, both married and cohabiting fathers experience gains in disposable income following family dissolution. N2 - Wohlfahrtsstaaten unterlagen in den vergangenen Jahrzehnten einem deutlichen Wandel, vor allem gekennzeichnet durch Ausgabenkürzungen oder durch Begrenzung des Zugangs zu Leistungen. Gleichzeitig hat es in vielen Ländern einen Ausbau von familienpolitischen Maßnahmen und Leistungen gegeben. Im Mittelpunkt der Dissertation steht die Frage ob und inwieweit sich die Einkommensfolgen nach einer Trennung der Eltern in US-amerikanischen und deutschen Familien mit Kindern vor dem Hintergrund dieses Wandels zwischen den 1980er und 2000er Jahren verändert haben. Einen weiteren Schwerpunkt der Arbeit bildet die Analyse der Einkommensfolgen von Familientrennung in Deutschland mit Blick auf den Familienstand der Eltern. Um die Forschungsfragen zu beantworten, wurde ein für die Analyse der finanziellen Folgen von Familientrennung bislang noch nicht verwendetes Forschungsdesign entwickelt. Die angewendete Methode ist ein Difference-in-Difference Design in Kombination mit Coarsened Exact Matching (CEM). Dafür wurden die beiden längsten Paneldatensätze, das deutsche Sozio-Oekonomische Panel (SOEP) und die amerikanische Panel Study of Income Dynamics (PSID), verwendet. Zunächst hat die Dissertation viele Ergebnisse vorangegangener Forschung bestätigt, beispielsweise in Bezug auf die Geschlechterunterschiede in den finanziellen Folgen von Trennung und Scheidung. Mütter erleben deutlich höhere relative Einkommensverluste und sind folglich einem höheren Armutsrisiko ausgesetzt als Väter. Dieses Ergebnis gilt universell, das heißt für beide Länder, für alle untersuchten Zeiträume, und auch für alle hier verwendeten Einkommensmaße. Weiterhin konnte bestätigt werden, dass die wohlfahrtsstaatliche Unterstützung in Deutschland größer ist als in den USA. Die Dissertation hat aber vor allem eine Vielzahl neuer Erkenntnisse hervorgebracht. Die Ergebnisse zeigen, dass sich der Ausbau familienpolitischer Leistungen in Deutschland nicht in deutlich reduzierten Einkommensverlusten für Mütter wiederspiegelt. Obgleich die Einkommensverluste im Zeitverlauf etwas geringer wurden, wurden sie gleichzeitig persistenter in den Folgejahren nach einer Trennung. Die Abfederung der Einkommensverluste durch den Wohlfahrtsstaat ist währenddessen relativ stabil geblieben. Die Einkommensverluste von amerikanischen Müttern haben auf einem etwas geringeren Niveau stattgefunden als jene von Müttern in Deutschland. Nur während der 1980er Jahre waren ihre Einkommensverluste deutlich geringer als die der deutschen Mütter. Auch amerikanische Mütter erholten sich in den 2000er Jahren nicht mehr so schnell von Einkommensverlusten wie noch in den 1980er Jahren. Für sie hat die Wohlfahrtsreform von 1996 zu einem deutlichen Rückgang an staatlicher Hilfe geführt. Entsprechend können die Ergebnisse für amerikanische Mütter durchaus als eine Verschiebung von öffentlichen hin zu privaten Maßnahmen der Bewältigung von Einkommensverlusten beschrieben werden. Sowohl deutsche als auch amerikanische Väter sehen sich im Zeitverlauf mit einer Verschlechterung der Einkommensfolgen nach einer Trennung konfrontiert. Die relativen Einkommensveränderungen von deutschen Vätern sind immer noch positiv, wobei die Zuwächse über die Zeit abgenommen haben. Ein Grund für diesen Rückgang ist der zunehmende Verlust von Partnereinkommen nach einer Trennung. Auch bei amerikanischen Vätern finden sich weiterhin relative Gewinne im Jahr der Trennung. Allerdings sehen sie sich zwei Jahre danach Verlusten ausgesetzt, und zwar bereits seit den 1980er Jahren, welche im Zeitverlauf außerdem deutlich zugenommen haben. Ein genauerer Blick auf Deutschland hat außerdem gezeigt, dass die Unterschiede in den Trennungsfolgen zwischen zum Zeitpunkt der Trennung verheirateten und unverheirateten Müttern vernachlässigbar sind, zumindest was das verfügbare Haushaltseinkommen betrifft. Allerdings gibt es deutliche Unterschiede in den Einkommensverlusten wenn das Einkommen vor Steuern und Transfers zur Beurteilung herangezogen wird. Es ist also der Wohlfahrtsstaat, der die Unterschiede in den Einkommensverlusten zwischen diesen Müttern angleicht. Verheiratete Mütter verlieren relativ betrachtet weniger Einkommen, haben aber mehr Schwierigkeiten sich von diesen Verlusten wieder zu erholen. Im Vergleich zu Müttern sind die Unterschiede zwischen verheirateten und unverheirateten Vätern sowohl im verfügbaren Haushaltseinkommen als auch im Einkommen nach Steuern und Transfers deutlich sichtbar. Dabei ergeht es unverheirateten Vätern schlechter als verheirateten. Während verheiratete Väter leichte Gewinne im verfügbaren Haushaltseinkommen verzeichnen, müssen unverheiratete Väter leichte Verluste hinnehmen. Für die Ergebnisse von Vätern ist die Berücksichtigung von Unterhaltszahlungen entscheidend. Werden diese nicht vom Haushaltseinkommen abgezogen, dann erfahren sowohl verheiratete als auch unverheiratete Väter relative Gewinne nach einer Familientrennung. KW - family dissolution KW - separation KW - divorce KW - marital status KW - household income KW - poverty KW - Germany KW - United States KW - panel data KW - difference-in-difference KW - matching KW - Trennung KW - Scheidung KW - Familienstand KW - Haushaltseinkommen KW - Armut KW - Deutschland KW - USA KW - Difference-in-Difference KW - Matching Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100217 ER - TY - THES A1 - Grygiel, Konrad T1 - Poly(ionic liquid) stabilizers and new synthetic approaches T1 - Polyionische Flüssigkeiten als Stabilisatoren und neue Synthesewege N2 - The main focus of the present thesis was to investigate the stabilization ability of poly(ionic liquid)s (PILs) in several examples as well as develop novel chemical structures and synthetic routes of PILs. The performed research can be specifically divided into three parts that include synthesis and application of hybrid material composed of PIL and cellulose nanofibers (CNFs), thiazolium-containing PILs, and main-chain imidazolium-type PILs. In the first chapter, a vinylimidazolium-type IL was polymerized in water in the presence of CNFs resulting in the in situ electrostatic grafting of polymeric chains onto the surface of CNFs. The synthesized hybrid material merged advantages of its two components, that is, superior mechanical strength of CNFs and anion dependent solution properties of PILs. In contrast to unmodified CNFs, the hybrid could be stabilized and processed in organic solvents enabling its application as reinforcing agent for porous polyelectrolyte membranes. In the second part, PILs and ionic polymers containing two types of thiazolium repeating units were synthesized. Such polymers displayed counterion dependent thermal stability and solubility in organic solvents of various dielectric constants. This new class of PILs was tested as stabilizers and phase transfer agents for carbon nanotubes in aqueous and organic media, and as binder materials to disperse electroactive powders and carbon additives in solid electrode in lithium-ion batteries. The incorporation of S and N atoms into the polymeric structures make such PILs also potential precursors for S, N - co-doped carbons. In the last chapter, reactants originating from biomass were successfully harnessed to synthesize main-chain imidazolium-type PILs. An imidazolium-type diester IL obtained via a modified Debus-Radziszewski reaction underwent transesterification with diol in a polycondensation reaction. This yielded a polyester-type PIL which CO2 sorption properties were investigated. In the next step, the modified Debus-Radziszewski reaction was further applied to synthesize main-chain PILs according to a convenient, one-step protocol, using water as a green solvent and simple organic molecules as reagents. Depending on the structure of the employed diamine, the synthesized PILs after anion exchange showed superior thermal stability with unusually high carbonization yields. Overall, the outcome of these studies will actively contribute to the current research on PILs by introducing novel PIL chemical structures, improved synthetic routes, and new examples of stabilized materials. The synthesis of main-chain imidazolium-type PILs by a modified Debus-Radziszewski reaction is of a special interest for the future work on porous ionic liquid networks as well as colloidal PIL nanoparticles. N2 - Im Mittelpunkt der vorliegenden Arbeit stand die Entwicklung neuer polymerer ionischen Flüssigkeiten (PILs) mittels neuer Synthesewege als auch auf diesen PILs basierenden Kompositmaterialien. Die hergestellten Materialien wurden folgend hinsichtlich ihrer Tauglichkeit als Stabilisatoren, Phasentransferreagenzien, „binder“ oder CO2-Absorber untersucht. Die Untersuchungen lassen sich in drei Teile untergliedern und beinhalten Herstellung und Anwendungsuntersuchungen von Hybridmaterialien basierend auf PILs und Cellulosefasern im Nanometerbereich (CNF), von PILs mit Thiazoliumgruppen und schließlich PILs welche teilweise oder vollständig aus Biomaterialien hergestellt wurden mit Imidazoliumgruppen in der Hauptkette. In Gegenwart von CNF wurde eine vinylimidazoliumbasierte ionische Flüssigkeit (IL) in Wasser polymerisiert. Dies führte in situ zu einem elektrostatischen angraften der Ketten auf der Oberfläche der CNFs. Diese Kompositmaterialien vereinigen die Vorteile beider Komponenten, die außerordentliche mechanische Stabilität der CNFs und die vielseitigen mittels Gegenionen einstellbaren Lösungseigenschaften der PIL. Beispielsweise können diese Hybridmaterialien im Gegensatz zu den unmodifizierten CNFs in organischen Lösungsmitteln und somit zur Verstärkung für poröse Polyelektrolytmembranen eingesetzt werden. Im zweiten Teil wurden PILs und ioniosche Polymere synthetisiert mit Thiazoliumkationen in den Monomerbausteinen. Diese Polymere zeigten eine vom Gegenion abhängige thermische Stabilität und Löslichkeit in Lösungsmitteln verschiedenster Dielektrizitätskonstanten. Diese neue Klasse der PILs bzw. ionischen Polymere wurde hinsichtlich der Nutzbarkeit als Vorläufer für Stickstoff- und Schwefel-codotierte Kohlenstoffsysteme, Stabilisator sowie Phasentransferreagenz für „carbon nanotubes“ in wässrigem und organischen Lösungsmitteln und „binder“ für Elektrodenmaterialien in Lithiumionenbatterien. Im letzten Teil wurden aus Biomaterialien die Ausgangsstoffe für PILs mit imidazoliumbasierter Hauptkette gewonnen. Hierzu wurde der imidazoliumbasierende Diester mittels abgewandelter Debus-Radziszewski-Reaktion gewonnen und eine Umesterung mittels eines ebenfalls aus Biomaterialien stammenden Diols vorgenommen. Die erhaltene polyesterbasierte PIL wurde folgend hinsichtlich ihres CO2 – Absorbtionspotentials untersucht. Die geänderte Debus-Radziszewski-Reaktion wurde folgend für eine PIL-Einstufensynthese mit Wasser als grünem Lösungsmittel und einfachen hauptsächlich aus Biomasse gewonnen Reagenzien herangezogen. Abhängig von den eingesetzten Diaminen und Gegenionen konnten für die hergestellten PILs hervorragende thermische Stabilitäten oder beträchtliche Karbonisierungsausbeuten erreicht werden, welche für PILs zu den höchsten publizierten Werten in der Literatur zählen. Die vorgelegten Studien stellen einen wichtigen Beitrag auf dem Gebiet der PIL-Forschung dar mit neuen PIL-Strukturen, verbesserten Synthesewegen und neuen Stabilisierungsmöglichkeiten. Die Synthese der Hauptkettenimidazolium-PIL mittels angepasster Debus-Radziszewski-Reaktion ist eine vielversprechende Methode sowohl für die Herstellung poröser IL-Netzwerke als auch kolloidaler PIL-Nanopartikel. KW - ionic polymers KW - polymerised ionic liquids KW - ionic liquids KW - Debus-Radziszewski polymerization KW - thiazolium KW - ionische Flüssigkeit KW - Thiazol-Salze KW - ionischen Polymere KW - elektroaktive Polymere Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80367 ER - TY - THES A1 - Obu, Jaroslav T1 - Effect of mass wasting on soil organic carbon storage and coastal erosion in permafrost environments T1 - Einfluss von Hangbewegungen auf Kohlenstoffspeicher und Küstenerosion in Permafrostgebieten N2 - Accelerated permafrost thaw under the warming Arctic climate can have a significant impact on Arctic landscapes. Areas underlain by permafrost store high amounts of soil organic carbon (SOC). Permafrost disturbances may contribute to increased release of carbon dioxide and methane to the atmosphere. Coastal erosion, amplified through a decrease in Arctic sea-ice extent, may also mobilise SOC from permafrost. Large expanses of permafrost affected land are characterised by intense mass-wasting processes such as solifluction, active-layer detachments and retrogressive thaw slumping. Our aim is to assess the influence of mass wasting on SOC storage and coastal erosion. We studied SOC storage on Herschel Island by analysing active-layer and permafrost samples, and compared non-disturbed sites to those characterised by mass wasting. Mass-wasting sites showed decreased SOC storage and material compaction, whereas sites characterised by material accumulation showed increased storage. The SOC storage on Herschel Island is also significantly correlated to catenary position and other slope characteristics. We estimated SOC storage on Herschel Island to be 34.8 kg C m-2. This is comparable to similar environments in northwest Canada and Alaska. Coastal erosion was analysed using high resolution digital elevation models (DEMs). Two LIDAR scanning of the Yukon Coast were done in 2012 and 2013. Two DEMs with 1 m horizontal resolution were generated and used to analyse elevation changes along the coast. The results indicate considerable spatial variability in short-term coastline erosion and progradation. The high variability was related to the presence of mass-wasting processes. Erosion and deposition extremes were recorded where the retrogressive thaw slump (RTS) activity was most pronounced. Released sediment can be transported by longshore drift and affects not only the coastal processes in situ but also along adjacent coasts. We also calculated volumetric coastal erosion for Herschel Island by comparing a stereo-photogrammetrically derived DEM from 2004 with LIDAR DEMs. We compared this volumetric erosion to planimetric erosion, which was based on coastlines digitised from satellite imagery. We found a complex relationship between planimetric and volumetric coastal erosion, which we attribute to frequent occurrence of mass-wasting processes along the coasts. Our results suggest that volumetric erosion corresponds better with environmental forcing and is more suitable for the estimation of organic carbon fluxes than planimetric erosion. Mass wasting can decrease SOC storage by several mechanisms. Increased aeration following disturbance may increase microbial activity, which accelerates organic matter decomposition. New hydrological conditions that follow the mass wasting event can cause leaching of freshly exposed material. Organic rich material can also be directly removed into the sea or into a lake. On the other hand the accumulation of mobilised material can result in increased SOC storage. Mass-wasting related accumulations of mobilised material can significantly impact coastal erosion in situ or along the adjacent coast by longshore drift. Therefore, the coastline movement observations cannot completely resolve the actual sediment loss due to these temporary accumulations. The predicted increase of mass-wasting activity in the course of Arctic warming may increase SOC mobilisation and coastal erosion induced carbon fluxes. N2 - Die Erwärmung des arktischen Klimas beschleunigt das Tauen des Permafrosts. Das kann einen erheblichen Einfluss auf arktische Landschaften haben. Permafrostböden speichern große Mengen Kohlenstoff, der aufgrund von Umlagerungsprozessen wie beispielsweise Massenversatz mobilisiert und als Kohlendioxid oder Methan freigesetzt werden kann. Der Kohlenstoff im Boden kann auch durch Küstenerosion mobilisiert werden, die durch den Rückgang des arktischen Meereises und höhere Meerwassertemperaturen künftig stark zunehmen wird. Große Teile der arktischen Permafrostgebiete werden durch intensive Massenversatzprozesse wie Solifluktion, Rutschungen in der saisonalen Auftauschicht (active layer detachments) und rückschreitende Taurutschungen (retrogressive thaw slumps) gekennzeichnet. Unser Ziel ist es, den Einfluss dieser Massenbewegungen auf Kohlenstoffspeicher und Küstenerosion zu bewerten. Wir haben Auftauschicht- und Permafrostproben untersucht, um den Kohlenstoffspeicher für Herschel Island zu ermitteln. Wir verglichen ungestörtes Terrain mit durch Massenversatz gekennzeichnetem Terrain. Letzteres zeigte verringerte Bodenkohlenstoffspeicher und Materialverdichtung. Durch Akkumulation organischen Materials gekennzeichnete Lagen zeigten eine Zunahme des Kohlenstoffpeichers. Der Bodenkohlenstoffspeicher auf Herschel Insel korreliert außerdem deutlich mit der Lage in Senken und der Hangneigung. Der Kohlenstoffspeicher im Boden von Herschel Island ist etwa so hoch wie in vergleichbaren Landschaften im Nordwesten Kanadas und Alaskas. Wir schätzen ihn auf 34,8 kg C m-2. Wir ermittelten Küstenerosionsraten mit hochauflösenden Digitalen Geländemodellen (DGM). Dazu benutzten wir zwei LIDAR Aufnahmen der Yukon Küste aus den Jahren 2012 und 2013. Zwei DGMs mit 1 m horizontaler Auflösung wurden erzeugt und verwendet, um die Höhenunterschiede entlang der Küste zu analysieren. Wir fanden eine erhebliche räumliche Variabilität in kurzfristigen Küstenerosionsraten. Wir erklärten die hohe Variabilität mit der räumlichen Heterogenität des Vorkommens von Massenversatzprozessen. Besonders die sogenannten retrogressive thaw slumps bewirkten extrem hohe Erosionsraten an einigen Küstenabschnitten. Durch Strandversetzung wird erodiertes Sediment die Küste entlang transportiert und beeinflusst so nicht nur lokale Küstenprozesse, sondern auch benachbarte Küstenabschnitte. Um die längerfristige Entwicklung der Küste einschätzen zu können, haben wir volumetrische Erosionsraten aus dem Vergleich eines stereophotogrammetrisch abgeleiteten DGM aus dem Jahr 2004 mit unseren LIDAR DGMs errechnet. Planimetrische Erosionsraten wurden anhand von digitalisierten Küstenlinien aus Satellitenbildern berechnet. So konnte auch der Einfluss von volumetrischer und planimetrischer Erosion eingeschätzt werden. Wir fanden komplexe Zusammenhänge zwischen planimetrischer und volumetrischer Küstenerosion, die wir auf das gehäufte Auftreten von Massenversatzprozessen entlang einiger Küstenabschnitte zurückführen. Die Ergebnisse legen nahe, dass volumetrische Erosionsraten den beobachteten Umweltbedingungen besser entsprechen als planimetrische Erosionsraten und somit besser geeignet sind zur Einschätzung organischer Kohlenstoffflüsse in Permafrostgebieten entlang der arktischen Küsten. Massenversatz kann den Kohlenstoffspeicher im Boden mit verschiedenen Mechanismen verringern. Erhöhte Belüftung kann die mikrobielle Aktivität erhöhen, die den Abbau organischer Materie beschleunigt. Durch veränderte hydrologische Bedingungen nach Massenversatz können Stoffe aus der Auftauschicht ausgewaschen werden. Organikreiche Stoffe können auch direkt ins einem Meer in einen See erodiert werden. Andererseits kann die Akkumulation von umgelagertem Material zu einer Erhöhung des Bodenkohlenstoffspeichers an anderer Stelle führen. Die Akkumulation von Material aus Massenversatz kann erhebliche Auswirkungen auf die lokale Küstenerosion, durch Strandversetzung aber auch auf angrenzende Küstenabschnitte haben. Allein durch Beobachtung der Veränderung von Küstenlinien kann aufgrund solcher temporärer Ansammlungen die Einschätzung des tatsächlichen Sedimentverlustes pro Küstenabschnitt nicht präzise wiedergegeben werden. Im Zuge der prognostizierten Erwärmung der Arktis und der damit verbundene Zunahme von Massenversatzprozessen und Küstenerosion wird sich die Mobilisierung von Bodenkohlenstoff aus Permafrost zukünftig beschleunigen. KW - mass wasting KW - soil organic carbon KW - coastal erosion KW - Massenversatzprozesse KW - Kohlenstoffspeicher KW - Küstenerosion Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90599 ER - TY - THES A1 - Lischke, Betty T1 - Food web regulation under different forcing regimes in shallow lakes T1 - Nahrungsnetzregulation unter verschiedenen Einflussfaktoren in Flachseen BT - synthesis and modelling BT - Synthese und Modellierung N2 - The standing stock and production of organismal biomass depends strongly on the organisms’ biotic environment, which arises from trophic and non-trophic interactions among them. The trophic interactions between the different groups of organisms form the food web of an ecosystem, with the autotrophic and bacterial production at the basis and potentially several levels of consumers on top of the producers. Feeding interactions can regulate communities either by severe grazing pressure or by shortage of resources or prey production, termed top-down and bottom-up control, respectively. The limitations of all communities conglomerate in the food web regulation, which is subject to abiotic and biotic forcing regimes arising from external and internal constraints. This dissertation presents the effects of alterations in two abiotic, external forcing regimes, terrestrial matter input and long-lasting low temperatures in winter. Diverse methodological approaches, a complex ecosystem model study and the analysis of two whole-lake measurements, were performed to investigate effects for the food web regulation and the resulting consequences at the species, community and ecosystem scale. Thus, all types of organisms, autotrophs and heterotrophs, at all trophic levels were investigated to gain a comprehensive overview of the effects of the two mentioned altered forcing regimes. In addition, an extensive evaluation of the trophic interactions and resulting carbon fluxes along the pelagic and benthic food web was performed to display the efficiencies of the trophic energy transfer within the food webs. All studies were conducted in shallow lakes, which is worldwide the most abundant type of lakes. The specific morphology of shallow lakes allows that the benthic production contributes substantially to the whole-lake production. Further, as shallow lakes are often small they are especially sensitive to both, changes in the input of terrestrial organic matter and the atmospheric temperature. Another characteristic of shallow lakes is their appearance in alternative stable states. They are either in a clear-water or turbid state, where macrophytes and phytoplankton dominate, respectively. Both states can stabilize themselves through various mechanisms. These two alternative states and stabilizing mechanisms are integrated in the complex ecosystem model PCLake, which was used to investigate the effects of the enhanced terrestrial particulate organic matter (t-POM) input to lakes. The food web regulation was altered by three distinct pathways: (1) Zoobenthos received more food, increased in biomass which favored benthivorous fish and those reduced the available light due to bioturbation. (2) Zooplankton substituted autochthonous organic matter in their diet by suspended t-POM, thus the autochthonous organic matter remaining in the water reduced its transparency. (3) T-POM suspended into the water and reduced directly the available light. As macrophytes are more light-sensitive than phytoplankton they suffered the most from the lower transparency. Consequently, the resilience of the clear-water state was reduced by enhanced t-POM inputs, which makes the turbid state more likely at a given nutrient concentration. In two subsequent winters long-lasting low temperatures and a concurrent long duration of ice coverage was observed which resulted in low overall adult fish biomasses in the two study lakes – Schulzensee and Gollinsee, characterized by having and not having submerged macrophytes, respectively. Before the partial winterkill of fish Schulzensee allowed for a higher proportion of piscivorous fish than Gollinsee. However, the partial winterkill of fish aligned both communities as piscivorous fish are more sensitive to low oxygen concentrations. Young of the year fish benefitted extremely from the absence of adult fish due to lower predation pressure. Therefore, they could exert a strong top-down control on crustaceans, which restructured the entire zooplankton community leading to low crustacean biomasses and a community composition characterized by copepodites and nauplii. As a result, ciliates were released from top-down control, increased to high biomasses compared to lakes of various trophic states and depths and dominated the zooplankton community. While being very abundant in the study lakes and having the highest weight specific grazing rates among the zooplankton, ciliates exerted potentially a strong top-down control on small phytoplankton and particle-attached bacteria. This resulted in a higher proportion of large phytoplankton compared to other lakes. Additionally, the phytoplankton community was evenly distributed presumably due to the numerous fast growing and highly specific ciliate grazers. Although, the pelagic food web was completely restructured after the subsequent partial winterkills of fish, both lakes were resistant to effects of this forcing regime at the ecosystem scale. The consistently high predation pressure on phytoplankton prevented that Schulzensee switched from the clear-water to the turbid state. Further mechanisms, which potentially stabilized the clear-water state, were allelopathic effects by macrophytes and nutrient limitation in summer. The pelagic autotrophic and bacterial production was an order of magnitude more efficient transferred to animal consumers than the respective benthic production, despite the alterations of the food web structure after the partial winterkill of fish. Thus, the compiled mass-balanced whole-lake food webs suggested that the benthic bacterial and autotrophic production, which exceeded those of the pelagic habitat, was not used by animal consumers. This holds even true if the food quality, additional consumers such as ciliates, benthic protozoa and meiobenthos, the pelagic-benthic link and the potential oxygen limitation of macrobenthos were considered. Therefore, low benthic efficiencies suggest that lakes are primarily pelagic systems at least at the animal consumer level. Overall, this dissertation gives insights into the regulation of organism groups in the pelagic and benthic habitat at each trophic level under two different forcing regimes and displays the efficiency of the carbon transfer in both habitats. The results underline that the alterations of external forcing regimes affect all hierarchical level including the ecosystem. N2 - Die Produktion neuer Organismenbiomasse bildet die Grundlage allen Lebens und hängt von zahlreichen Faktoren, wie den trophischen Interaktionen, ab. Diese limitieren Organismengemeinschaften entweder durch starken Fraß oder begrenzte Ressourcenverfügbarkeit, genannt top-down beziehungsweise bottom-up Kontrolle. Die Nahrungsnetzregulation umfasst die trophischen Interaktionen des Nahrungsnetzes. In dieser Dissertation wurde die Beeinflussung der Nahrungsnetzregulation durch die externen, abiotischen Einflussfaktoren (1) erhöhter Eintrag terrestrischen Kohlenstoffs und (2) lang anhaltende niedrige Temperaturen im Winter in Flachseen untersucht. Flachseen sind aufgrund ihrer Morphometrie sensitiv gegenüber diesen Einflussfaktoren, durch einen erheblichen Anteil benthischer Produktion an der Gesamtseeproduktion gekennzeichnet und treten im trüben oder klaren Zustand auf. Der erhöhte Eintrag terrestrischen Kohlenstoffs in Flachseen verringerte die Resilienz des klaren, Makrophyten dominierten Sees. Unter Nutzung eines komplexen Ökosystemmodells konnten verschiedene Wirkmechanismen dargestellt werden, die jeweils die Lichtverfügbarkeit für Makrophyten reduzierten. Dabei wirkte der zusätzliche terrestrische Kohlenstoff als Nahrungszuschuss für bottom-up kontrollierte benthische Konsumenten, wohingegen top-down kontrollierte pelagische Konsumenten autochthone Nahrungsquellen durch terrestrischen Kohlenstoff ersetzten. Niedrige Temperaturen im Winter verursachten lang anhaltende Eisbedeckung und somit ein Sauerstoffdefizit in beiden Untersuchungsseen. Dies führte zu einem Fischsterben, bei welchem der Anteil piscivorer Fische des Makrophyten dominierten Sees überproportional stark abnahm. Die Fischgemeinschaft beider Seen wurde ähnlicher und war insgesamt von 0+ Fischen gekennzeichnet, welche eine starke top-down Kontrolle auf die Crustaceen ausübten, was diese dezimierte und Ciliaten vom Fraßdruck befreite. Die Zooplanktongemeinschaft wurde von Ciliaten dominiert, welche durch hohe Fraßraten den Biomasseaufbau von Teilen des Phytoplanktons und den Bakterien limitierten. Die energetische Weitergabeeffizienz der pelagischen autotrophen und bakteriellen Produktion zu tierischen Konsumenten war trotz des erheblichen Einflusses des Fischsterbens um ein zehnfaches höher als im benthischen Nahrungsnetz, wie die Synthese von umfangreichen Messungen in Ganzseenexperimenten auf allen trophischen Ebenen zeigte. Die benthischen Konsumenten scheinen weder bottom-up, noch top-down und nur zum Teil Habitat limitiert zu sein, womit ihre Regulation noch unklar bleibt. Die untersuchten Einflussfaktoren wirkten regulierend auf der Art-, Gemeinschafts- und Ökosystemebene. Beide Seen waren resistent gegenüber der drastischen Nahrungsnetzrestrukturierung nach dem Fischsterben, wohingegen der Eintrag terrestrischen Kohlenstoffs die Resilienz des Makrophyten dominierten Zustands verringerte. Dies verdeutlicht die weitreichenden Folgen externer Einflussfaktoren und zeigt, dass methodisch diverse Analysen der Nahrungsnetzregulation entscheidend zum Verständnis der ablaufenden Prozesse beitragen. KW - lake food web KW - complex model KW - ciliates KW - benthic food web KW - allochthonous matter KW - particulate organic matter KW - plankton KW - winter fish kill KW - trophic transfer efficiency KW - bistability KW - Nahrungsnetz KW - Bistabilität KW - allochthoner Eintrag KW - Flachseen KW - Ciliaten KW - Phytoplankton KW - Zooplankton KW - benthische Nahrungskette KW - pelagische Nahrungskette KW - trophische Transfereffizienz KW - Winterfischsterben KW - Modellierung KW - Ökosystem Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89149 ER - TY - THES A1 - Kappel, David T1 - Multi-spectrum retrieval of maps of Venus' surface emissivity in the infrared T1 - Multispektrum-Retrieval von Karten der Oberflächenemissivität der Venus im Infrarotbereich N2 - The main goal of this cumulative thesis is the derivation of surface emissivity data in the infrared from radiance measurements of Venus. Since these data are diagnostic of the chemical composition and grain size of the surface material, they can help to improve knowledge of the planet’s geology. Spectrally resolved images of nightside emissions in the range 1.0-5.1 μm were recently acquired by the InfraRed Mapping channel of the Visible and InfraRed Thermal Imaging Spectrometer (VIRTIS-M-IR) aboard ESA’s Venus EXpress (VEX). Surface and deep atmospheric thermal emissions in this spectral range are strongly obscured by the extremely opaque atmosphere, but three narrow spectral windows at 1.02, 1.10, and 1.18 μm allow the sounding of the surface. Additional windows between 1.3 and 2.6 μm provide information on atmospheric parameters that is required to interpret the surface signals. Quantitative data on surface and atmosphere can be retrieved from the measured spectra by comparing them to simulated spectra. A numerical radiative transfer model is used in this work to simulate the observable radiation as a function of atmospheric, surface, and instrumental parameters. It is a line-by-line model taking into account thermal emissions by surface and atmosphere as well as absorption and multiple scattering by gases and clouds. The VIRTIS-M-IR measurements are first preprocessed to obtain an optimal data basis for the subsequent steps. In this process, a detailed detector responsivity analysis enables the optimization of the data consistency. The measurement data have a relatively low spectral information content, and different parameter vectors can describe the same measured spectrum equally well. A usual method to regularize the retrieval of the wanted parameters from a measured spectrum is to take into account a priori mean values and standard deviations of the parameters to be retrieved. This decreases the probability to obtain unreasonable parameter values. The multi-spectrum retrieval algorithm MSR is developed to additionally consider physically realistic spatial and temporal a priori correlations between retrieval parameters describing different measurements. Neglecting geologic activity, MSR also allows the retrieval of an emissivity map as a parameter vector that is common to several spectrally resolved images that cover the same surface target. Even applying MSR, it is difficult to obtain reliable emissivity maps in absolute values. A detailed retrieval error analysis based on synthetic spectra reveals that this is mainly due to interferences from parameters that cannot be derived from the spectra themselves, but that have to be set to assumed values to enable the radiative transfer simulations. The MSR retrieval of emissivity maps relative to a fixed emissivity is shown to effectively avoid most emissivity retrieval errors. Relative emissivity maps at 1.02, 1.10, and 1.18 μm are finally derived from many VIRTIS-M-IR measurements that cover a surface target at Themis Regio. They are interpreted as spatial variations relative to an assumed emissivity mean of the target. It is verified that the maps are largely independent of the choice of many interfering parameters as well as the utilized measurement data set. These are the first Venus IR emissivity data maps based on a consistent application of a full radiative transfer simulation and a retrieval algorithm that respects a priori information. The maps are sufficiently reliable for future geologic interpretations. N2 - Das Hauptziel dieser publikationsbasierten Dissertation ist die Ableitung von Oberflächenemissivitäts-Daten im Infraroten aus Radianzmessungen der Venus. Da diese Daten diagnostisch bezüglich chemischer Zusammensetzung und Korngröße des Oberflächenmaterials sind, können sie zur Erweiterung des Wissens über die Geologie des Planeten beitragen. Spektral aufgelöste Bilder von nachtseitigen Emissionen im Bereich 1.0-5.1 µm wurden kürzlich durch den Infrarot-Kartierungskanal des Abbildenden Spektrometers im Sichtbaren und Infraroten Bereich (VIRTIS-M-IR) an Bord der ESA-Sonde Venus Express (VEX) gewonnen. Die thermischen Emissionen der Oberfläche sowie der tiefen Atmosphäre werden in diesem Spektralbereich stark durch die extrem licht-undurchlässige Atmosphäre verschleiert, aber drei schmale spektrale Fenster bei 1.02, 1.10 und 1.18 µm ermöglichen die Sondierung der Oberfläche. Weitere Fenster zwischen 1.3 und 2.6 µm liefern Informationen über atmosphärische Parameter, die benötigt werden, um die Oberflächensignale zu interpretieren. Quantitative Daten von Oberfläche und Atmosphäre können von den gemessenen Spektren durch Vergleiche mit simulierten Spektren abgeleitet werden. In dieser Arbeit wird ein numerisches Strahlungstransportmodell verwendet, um die beobachtbare Strahlung als Funktion von Atmosphären-, Oberflächen-, und Instrumentenparametern zu simulieren. Es ist ein Linie-für-Linie-Modell und berücksichtigt sowohl thermische Emissionen der Oberfläche und Atmosphäre, als auch Absorption und Mehrfachstreuung durch Gase und Wolken. Die VIRTIS-M-IR-Messungen werden zunächst vorverarbeitet, um eine optimale Datenbasis für die nachfolgenden Schritte zu erhalten. Eine detaillierte Analyse des Detektoransprechvermögens ermöglicht dabei die Optimierung der Datenkonsistenz. Die Messdaten haben einen vergleichsweise geringen spektralen Informationsgehalt, und verschiedene Parametervektoren können ein- und dasselbe gemessene Spektrum gleich gut beschreiben. Eine übliche Maßnahme, das Retrieval der gesuchten Parameter aus einem gemessenem Spektrum zu regularisieren, ist die Berücksichtigung von a-priori-Mittelwerten und -Standardabweichungen der zu bestimmenden Parameter. Dadurch wird die Wahrscheinlichkeit verringert, unrealistische Parameterwerte zu erhalten. Es wird der Multispektrum-Retrieval-Algorithmus MSR entwickelt, um zusätzlich physikalisch realistische räumliche und zeitliche a-priori-Korrelationen zwischen Retrievalparametern, die verschiedene Messungen beschreiben, berücksichtigen zu können. Vernachlässigt man geologische Aktivität, kann mittels MSR auch eine Emissivitätskarte in Form eines Parametervektors bestimmt werden, der verschiedenen spektral aufgelösten, denselben Oberflächenbereich überdeckenden Bildern gemeinsam ist. Selbst bei Anwendung von MSR ist es schwierig, verlässliche Karten für die Absolutwerte der Emissivität zu erhalten. Eine detaillierte Retrieval-Fehleranalyse, die auf synthetischen Spektren beruht, zeigt, dass dies hauptsächlich an Interferenzen von Parametern liegt, die nicht aus den Spektren selbst hergeleitet werden können. Um dennoch die Strahlungstransportsimulationen zu ermöglichen, müssen diese Parameter auf angenommene Werte gesetzt werden. Es wird nachgewiesen, dass durch ein MSR-Retrieval von Emissivitätskarten relativ zu einer festen Emissivität die meisten Fehler bei der Emissivitätsbestimmung effizient vermieden werden können. Abschließend werden relative Emissivitätskarten bei 1.02, 1.10 und 1.18 µm aus vielen VIRTIS-M-IR-Messungen bestimmt, die einen Oberflächenbereich in der Themis Regio überdecken. Diese Karten werden als räumliche Variationen relativ zu einer angenommenen mittleren Emissivität des Oberflächenbereichs interpretiert. Es wird nachgewiesen, dass die Karten von der Wahl vieler interferierender Parameter sowie von der Auswahl der zugrunde liegenden Messungen weitgehend unabhängig sind. Dieses sind die ersten Karten von Emissivitätsdaten der Venus im Infrarotbereich auf Basis der konsistenten Anwendung einer umfassenden Strahlungstransportsimulation und eines Retrievalalgorithmus, der a priori Informationen berücksichtigt. Die Karten sind hinreichend zuverlässig für zukünftige geologische Interpretationen. KW - Venus Express KW - VIRTIS KW - surface emissivity KW - infrared KW - radiative transfer KW - retrieval KW - multi-spectrum regularization KW - Venus Express KW - VIRTIS KW - Oberflächenemissivität KW - Infrarot KW - Strahlungstransport KW - Retrieval KW - Multi-Spektrum-Regularisierung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85301 ER - TY - THES A1 - Bora, Sanjay Singh T1 - Regionally adaptable ground-motion Prediction Equations (GMPEs) for seismic hazard analysis T1 - Regional anpassungsfähige Bodenbewegungsmodelle (engl. ground motion prediction equations, GMPEs) für Erdbebengefährdungsabschätzungen N2 - Adjustment of empirically derived ground motion prediction equations (GMPEs), from a data- rich region/site where they have been derived to a data-poor region/site, is one of the major challenges associated with the current practice of seismic hazard analysis. Due to the fre- quent use in engineering design practices the GMPEs are often derived for response spectral ordinates (e.g., spectral acceleration) of a single degree of freedom (SDOF) oscillator. The functional forms of such GMPEs are based upon the concepts borrowed from the Fourier spectral representation of ground motion. This assumption regarding the validity of Fourier spectral concepts in the response spectral domain can lead to consequences which cannot be explained physically. In this thesis, firstly results from an investigation that explores the relationship between Fourier and response spectra, and implications of this relationship on the adjustment issues of GMPEs, are presented. The relationship between the Fourier and response spectra is explored by using random vibration theory (RVT), a framework that has been extensively used in earthquake engineering, for instance within the stochastic simulation framework and in the site response analysis. For a 5% damped SDOF oscillator the RVT perspective of response spectra reveals that no one-to-one correspondence exists between Fourier and response spectral ordinates except in a limited range (i.e., below the peak of the response spectra) of oscillator frequencies. The high oscillator frequency response spectral ordinates are dominated by the contributions from the Fourier spectral ordinates that correspond to the frequencies well below a selected oscillator frequency. The peak ground acceleration (PGA) is found to be related with the integral over the entire Fourier spectrum of ground motion which is in contrast to the popularly held perception that PGA is a high-frequency phenomenon of ground motion. This thesis presents a new perspective for developing a response spectral GMPE that takes the relationship between Fourier and response spectra into account. Essentially, this frame- work involves a two-step method for deriving a response spectral GMPE: in the first step two empirical models for the FAS and for a predetermined estimate of duration of ground motion are derived, in the next step, predictions from the two models are combined within the same RVT framework to obtain the response spectral ordinates. In addition to that, a stochastic model based scheme for extrapolating the individual acceleration spectra beyond the useable frequency limits is also presented. To that end, recorded acceleration traces were inverted to obtain the stochastic model parameters that allow making consistent extrapola- tion in individual (acceleration) Fourier spectra. Moreover an empirical model, for a dura- tion measure that is consistent within the RVT framework, is derived. As a next step, an oscillator-frequency-dependent empirical duration model is derived that allows obtaining the most reliable estimates of response spectral ordinates. The framework of deriving the response spectral GMPE presented herein becomes a self-adjusting model with the inclusion of stress parameter (∆σ) and kappa (κ0) as the predictor variables in the two empirical models. The entire analysis of developing the response spectral GMPE is performed on recently compiled RESORCE-2012 database that contains recordings made from Europe, the Mediterranean and the Middle East. The presented GMPE for response spectral ordinates should be considered valid in the magnitude range of 4 ≤ MW ≤ 7.6 at distances ≤ 200 km. N2 - Die Anpassung von empirisch gewonnenen Bodenbewegungsmodellen (engl. ground motion prediction equations, GMPEs) einer Region an andere Zielregionen bzw. -standorte, für die es nur eine schlechte oder ungenügende Datengrundlage gibt, ist eine der großen Herausforderungen in der seismischen Gefährdungsanalyse. Die abgeleiteten GMPEs werden oft zur Vorhersage von sogenannten Antwortspektren (AS) erstellt. Diese Zielgröße ist von besonderem Interesse für ingenieurtechnische Berechnungen zur erdbebensicheren Auslegung von Gebäuden. Die gewählten funktionalen Formen von GMPEs sind oft der physikalisch basierten Darstellung von seismischer Bodenbewegung als Fourier-Amplituden-Spektren (FAS) entlehnt. Die Annahme der Gültigkeit dieser Konzepte für die Modellierung von Antwortspektren kann jedoch zu Phänomenen führen, die physikalisch nicht erklärbar sind. Im ersten Teil der vorliegenden Doktorarbeit wird deshalb die Beziehung zwischen FAS und AS unter dem Aspekt möglicher Implikationen für die Anpassung von GMPEs an Zielstand-orte näher erforscht und die gefundenen Ergebnisse präsentiert. Die Beziehung zwischen FAS und AS wurde mit Hilfe der `random-vibration-theory' (RVT) untersucht. RVT ist ein Modellierungansatz, der extensiv im Erbebeningenieurwesen benutzt wird, wie zum Beispiel bei der Stochastischen Methode zur Simulation von Bodenbewegungen oder bei standortspezifischen Analysen zur Reaktion von Gebäuden auf seismische Bodenerschütterungen. Die RVT basierten Analysen für das Antwortverhalten eines 5 % gedämpften Einmassenschwingers auf Bodenunruhe zeigen, dass es keine eins zu eins Übertragbarkeit zwischen FAS und AS gibt, abgesehen von einem eingeschränkten Bereich von Eigenfrequenzen des Massenschwingers, deren Antwortspektralwerte unterhalb des charakteristischen Maximums des AS liegen. Für hohe Eigenfrequenzen werden die Werte des AS von Beiträgen des FAS dominiert, deren Frequenzbereich weit tiefer liegt als die betrachtete Eigenfrequenz im AS. Es konnte beobachtet werden, dass die maximale Bodenbeschleunigung (engl. Peak Ground Acceleration, PGA) mit dem Integral über das gesamte, die Bodenunruhe beschreibende FAS in Verbindung steht. Dies steht im Kontrast zur weit verbreiteten Auffassung, PGA sei ein Hochfrequenzphänomen. In dieser Doktorarbeit wird eine neue Perspektive für die Erstellung von GMPEs für die Vorhersage von Antwortspektren (AS-GMPEs) vorgestellt, die die Beziehung zwischen FAS und AS mit einbezieht. Dieser Ansatz beinhaltet eine Zweischrittmethode, um ein AS-GMPE zu erstellen: Im ersten Schritt werden zwei empirische Modelle abgeleitet, welche der Vorhersage des FAS und der Dauer der seismischen Bodenbewegung dienen; im zweiten Schritt werden diese Vorhersagen der beiden empirischen Modelle (FAS, Dauer der Bodenbewegung) unter Benutzung der RVT miteinander kombiniert, um Antwortspektralwerte abzuleiten. Darüber hinaus wird ein Verfahren vorgestellt, das es ermöglicht, erhobene FAS Daten (individuelle Beschleunigungsspektren) über den nutzbaren Frequenzbereich der Daten hinaus zu extrapolieren. Das Verfahren basiert auf der Stochasitischen Methode zur Simulation von Bodenbewegungen. Zu diesem Zweck wurden gemessene Zeitreihen von Erdbeben induzierter Bodenbeschleunigung invertiert, um die Modellparameter der Stochastischen Methode zu bestimmen, was eine konsistente Extrapolation des jeweiligen individuellen (Beschleunigungs-) FAS erlaubt. Ferner wurde ein empirisches Modell für ein Maß der Dauer von seismischer Bodenbewegung entwickelt, das konsistent innerhalb des Ansatzes der RVT ist. In einem nächsten Schritt wurde ein empirisches Modell für die Dauer von seismischer Bodenunruhe entwickelt, das von der Eigenfrequenz des Einmassenschwingers abhängig ist. Dies erlaubt eine möglichst zuverlässige Vorhersage von Antwortspektralwerten. Das hier präsentierte Verfahren zur Ableitung von AS-GMPEs ermöglicht eine einfache Anpassung des AS-GMPE an einen Zielstandort, da es den Stressparameter (∆σ) und den Parameter Kappa (κ0) als Prädiktoren in den beiden empirischen Modellen mit einschließt. Die gesamte Analyse und Ableitung des AS-GMPE basiert auf erhobenen Daten der RESORCE-2012 Datenbank, die Messungen aus Europa, dem Mittelmeerraum und dem Mittleren Osten enthält. Das präsentierte AS-GMPE ist für den Magnituenbereich 4 ≤ MW ≤ 7.6 und für Distanzen ≤ 200 km gültig. KW - seismic hazard KW - response spectra KW - Ground Motion Prediction Equation (GMPE) KW - Fourier spectra KW - duration KW - Erdbebengefährdungsabschätzungen KW - Bodenbewegungsmodelle KW - Antwortspektren KW - Fourier-Spektren KW - Dauer der Bodenbewegung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88806 ER - TY - THES A1 - Hanf, Franziska Stefanie T1 - South Asian summer monsoon variability: a modelling study with the atmospheric regional climate model HIRHAM5 T1 - Variabilität des Südasiatischen Sommermonsuns: eine Modellstudie mit dem regionalen Atmosphärenmodell HIRHAM5 N2 - The lives of more than 1/6 th of the world population is directly affected by the caprices of the South Asian summer monsoon rainfall. India receives around 78 % of the annual precipitation during the June-September months, the summer monsoon season of South Asia. But, the monsoon circulation is not consistent throughout the entire summer season. Episodes of heavy rainfall (active periods) and low rainfall (break periods) are inherent to the intraseasonal variability of the South Asian summer monsoon. Extended breaks or long-lasting dryness can result in droughts and hence trigger crop failures and in turn famines. Furthermore, India's electricity generation from renewable sources (wind and hydro-power), which is increasingly important in order to satisfy the rapidly rising demand for energy, is highly reliant on the prevailing meteorology. The major drought years 2002 and 2009 for the Indian summer monsoon during the last decades, which are results of the occurrence of multiple extended breaks, emphasise exemplary that the understanding of the monsoon system and its intraseasonal variation is of greatest importance. Although, numerous studies based on observations, reanalysis data and global model simulations have been carried out with the focus on monsoon active and break phases over India, the understanding of the monsoon intraseasonal variability is only in the infancy stage. Regional climate models could benefit the comprehension of monsoon breaks by its resolution advantage. This study investigates moist dynamical processes that initiate and maintain breaks during the South Asian summer monsoon using the atmospheric regional climate model HIRHAM5 at a horizontal resolution of 25 km forced by the ECMWF ERA Interim reanalysis for the period 1979-2012. By calculating moisture and moist static energy budgets the various competing mechanisms leading to extended breaks are quantitatively estimated. Advection of dry air from the deserts of western Asia towards central India is the dominant moist dynamical process in initiating extended break conditions over South Asia. Once initiated, the extended breaks are maintained due to many competing mechanisms: (i) the anomalous easterlies at the southern flank of this anticyclonic anomaly weaken the low-level cross-equatorial jet and thus the moisture transport into the monsoon region, (ii) differential radiative heating over the continental and the oceanic tropical convergence zone induces a local Hadley circulation with anomalous rising over the equatorial Indian Ocean and descent over central India, and (iii) a cyclonic response to positive rainfall anomalies over the near-equatorial Indian Ocean amplifies the anomalous easterlies over India and hence contributes to the low-level divergence over central India. A sensitivity experiment that mimics a scenario of higher atmospheric aerosol concentrations over South Asia addresses a current issue of large uncertainty: the role aerosols play in suppressing monsoon rainfall and hence in triggering breaks. To study the indirect aerosol effects the cloud droplet number concentration was increased to imitate the aerosol's function as cloud condensation nuclei. The sensitivity experiment with altered microphysical cloud properties shows a reduction in the summer monsoon precipitation together with a weakening of the South Asian summer monsoon. Several physical mechanisms are proposed to be responsible for the suppressed monsoon rainfall: (i) according to the first indirect radiative forcing the increase in the number of cloud droplets causes an increase in the cloud reflectivity of solar radiation, leading to a climate cooling over India which in turn reduces the hydrological cycle, (ii) a stabilisation of the troposphere induced by a differential cooling between the surface and the upper troposphere over central India inhibits the growth of deep convective rain clouds, (iii) an increase of the amount of low and mid-level clouds together with a decrease in high-level cloud amount amplify the surface cooling and hence the atmospheric stability, and (iv) dynamical changes of the monsoon manifested as a anomalous anticyclonic circulation over India reduce the moisture transport into the monsoon region. The study suggests that the changes in the total precipitation, which are dominated by changes in the convective precipitation, mainly result from the indirect radiative forcing. Suppression of rainfall due to the direct microphysical effect is found to be negligible over India. Break statistics of the polluted cloud scenario indicate an increase in the occurrence of short breaks (3 days), while the frequency of extended breaks (> 7 days) is clearly not affected. This disproves the hypothesis that more and smaller cloud droplets, caused by a high load of atmospheric aerosols trigger long drought conditions over central India. N2 - Das Leben von mehr als 1/6 der Weltbevölkerung wird direkt von den Kapriolen des Südasiatischen Sommermonsuns beeinflusst. Während der Sommermonsunzeit Südasiens von Juni bis September fällt allein in Indien ungefähr 78 % des Gesamtjahresniederschlags. Jedoch kennzeichnet der Monsun keine Phase von Dauerregenfällen. Vielmehr ist er von einzelnen Perioden mit hohen Niederschlagsmengen (aktive Monsunphasen) und geringen Niederschlagsmengen (Monsun-Unterbrechungsphasen) geprägt. Langanhaltende Monsun-Unterbrechungen können zu Dürren und damit zu Ernteausfällen, Hungersnöten und Einbußen in der Wirtschaft des Landes führen. Ebenso ist Indiens Stromerzeugung aus erneuerbaren Energien (Wind- und Wasserkraft), die eine Schlüsselkomponente in Indiens zukünftiger Energiestrategie spielt, direkt von den vorherrschenden Wettersituationen abhängig. Daher ist die Erforschung der intrasaisonalen Variabilität des Süd-asiatischen Sommermonsuns von enormer Wichtigkeit. Obwohl bereits zahlreiche Studien mit Fokus auf dem Wechsel von Aktiv- und Unterbrechungsphasen unter Verwendung von Beobachtungs- und Reanalysedaten und globalen Modellsimulationen existieren, steckt das Verständnis der intrasaisonalen Variabilität des Südasiatischen Sommermonsuns in seinen Anfängen. Die höhere Auflösung von Simulationen mit regionalen Klimamodellen kann zu einer Verbesserung des Verständnisses der Ursache von langanhaltenden Monsun-Unterbrechungsphasen beitragen. In dieser Arbeit werden speziell die feucht-dynamischen Prozesse, die Unterbrechungsphasen des Südasiatischen Sommermonsuns über Indien initiieren und aufrechterhalten, mit Hilfe des regionalen Atmosphärenmodells HIRHAM5 untersucht. Die Durchführung von Budget Studien ermöglicht die quantitative Abschätzung der verschiedenen konkurrierenden Mechanismen. Advektion von trockener Luft aus den Wüsten Westasiens nach Zentral-Indien wird als der dominierende Prozess für die Entstehung von Monsun-Unterbrechungen identifiziert. Diese Studie zeigt, dass für die Aufrechterhaltung von Unterbrechungsphasen abweichende Zirkulationsstrukturen, ausgelöst durch anormale strahlungsbedingte Erwärmungsmuster, verantwortlich sind. Zum einen beeinträchtigen abgeschwächte Westwinde über Süd-Indien und dem Arabischen Meer den Feuchtigkeitstransport in die Monsunregion, zum anderen führt eine lokal ausgeprägte Hadley-Zelle mit aufsteigenden (absinkenden) Luftmassen über dem zentralen äquatorialen Indischen Ozean (Zentral-Indien) zur Zunahme der atmosphärischen Stabilität und somit zur Hemmung von vertikalem Wolkenwachstum über Zentral-Indien. Gegenwärtige Studien beschäftigen sich mit der Frage, ob hohe Konzentrationen an atmosphärischen Aerosolen lange Dürreperioden über Indien steuern können. Ein durchgeführtes Sensitivitätsexperiment, welches ein Szenario von erhöhten atmosphärischen Aerosolkonzentrationen durch eine veränderte Anzahl an Wolkentropfen über Südasien imitiert, analysiert die Auswirkungen indirekter Aerosoleffekte auf den mittleren Südasiatischen Sommermonsun und dessen intrasaisonaler Variabilität. Die Zunahme der Wolkentropfenkonzentration führt in Zusammenhang mit einer Abschwächung des Südasiatischen Sommermonsuns zu einer Reduktion der Sommerniederschläge über Zentral-Indien. Das Experiment zeigt, dass die Unterdrückung der Monsunregenfälle hauptsächlich durch eine gehemmte Bildung von hochreichenden Konvektionswolken durch die indirekte Strahlungswirkung von Aerosolen hervorgerufen wird. Eine statistische Analyse der Häufigkeit von Monsun-Unterbrechungsphasen in dem „verschmutzten“ Wolkenszenario zeigt zwar eine Zunahme in dem Vorkommen von kurzen Monsun-Unterbrechungsphasen (3 Tage), jedoch eine Abnahme in der Häufigkeit von langanhaltenden Monsun-Unterbrechungsphasen (> 7 Tage). Dies führt zu der Schlussfolgerung, dass mehr und kleinere Wolkentropfen, verursacht durch hohe atmosphärischen Aerosolansammlungen, keine ausgedehnten Trockenphasen über Zentral-Indien auslösen. KW - South Asian summer monsoon KW - monsoon breaks KW - moist static energy KW - regional climate model KW - model tuning KW - aerosols KW - Südasiatischen Sommermonsun KW - Monsun-Unterbrechungen KW - Indien KW - Budgetstudien KW - Aerosole Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89331 ER - TY - THES A1 - Otto, Katharina Alexandra T1 - Mass wasting and the Coriolis effect on asteroid Vesta T1 - Massenbewegungen und der Corioliseffekt auf dem Asteroiden Vesta N2 - This work investigates the influence of the Coriolis force on mass motion related to the Rheasilvia impact basin on asteroid (4) Vesta's southern hemisphere. The giant basin is 500km in diameter, with a centre which nearly coincides with the rotation axis of Vesta. The Rheasilvia basin partially overlaps an earlier, similarly large impact basin, Veneneia. Mass motion within and in the vicinity of the Rheasilvia basin includes slumping and landslides, which, primarily due to their small linear extents, have not been noticeably affected by the Coriolis force. However, a series of ridges related to the basin exhibit significant curvature, which may record the effect of the Coriolis force on the mass motion which generated them. In this thesis 32 of these curved ridges, in three geologically distinct regions, were examined. The mass motion velocities from which the ridge curvatures may have resulted during the crater modification stage were investigated. Velocity profiles were derived by fitting inertial circles along the curved ridges and considering both the current and past rotation states of Vesta. An iterative, statistical approach was used, whereby the radii of inertial circles were obtained through repeated fitting to triplets of points across the ridges. The most frequently found radius for each central point was then used for velocity derivation at that point. The results of the velocity analysis are strongly supportive of a Coriolis force origin for the curved ridges. Derived velocities (29.6 ± 24.6 m/s) generally agree well with previously published predictions from numerical simulations of mass motion during the impact process. Topographical features such as local slope gradient and mass deposition regions on the curved ridges also independently agree with regions in which the calculated mass motion accelerates or decelerates. Sections of constant acceleration, deceleration and constant velocity are found, showing that mass motion is being governed by varying conditions of topography, regolith structure and friction. Estimates of material properties such as the effective viscosities (1.9-9.0·10⁶ Pa·s) and coefficients of friction (0.02-0.81) are derived from the velocity profile information in these sections. From measured accelerations of mass motions on the crater wall, it is also shown that the crater walls must have been locally steeper at the time of the mass motion. Together with these novel insights into the state and behaviour of material moving during the modification stage of Rheasilvia's formation, this work represents the first time that the Coriolis Effect on mass motions during crater formation has been shown to result in diagnostic features preserved until today. N2 - In dieser Arbeit wurden Massenbewegungen im Rheasilvia-Einschlagsbecken der Südhemisphäre des Asteroiden (4) Vesta untersucht. Die Besonderheiten des Beckens sind seine Größe von 500km Durchmesser, die Lage des Zentrums, welche nahezu mit der Rotationsachse Vestas übereinstimmt und die Überlagerung mit dem ähnlich großen Einschlagsbecken Venenia. Die meisten Massenbewegungen, wie Hangrutschungen oder Lawinen, sind aufgrund ihrer relativ kleinen Bewegungsdistanzen nicht sichtbar von der Corioliskraft beeinflusst worden. Jedoch weist die Krümmung von einigen radialen Bergrücken darauf hin, dass diese durch Massenbewegungen im Modifikationsprozess des Rheasilvia-Einschlags entstanden sein könnten. Danach wurden sie durch die Corioliskraft während der Bewegung in Richtung Kraterboden abgelenkt. In dieser Arbeit wurden 32 gekrümmte Bergrücken untersucht, um herauszufinden, ob diese durch die Corioliskraft beeinflusst wurden. Dazu wurden mehrere Inertialkreise an die gekrümmten Bergrücken angepasst und mit Hilfe der Kenntnisse über Form und Rotation von Vesta Geschwindigkeitsprofile der Massenbewegungen erstellt. Zur Bestimmung der Geschwindigkeit an einem Punkt wurde eine interaktive und statistische Methode entwickelt, die automatisiert an jeden Punkt auf dem gekrümmten Bergrücken mehrere Interialkreise anpasste. Der am häufigsten vorkommende Intertialradius eines Punktes wurde folglich benutzt um die Geschwindigkeit an diesem Punkt zu bestimmen. Das Ergebnis der Geschwindigkeitsanalyse bekräftigt die Corioliskraft als Ursache für die Krümmung der Bergrücken. Die Geschwindigkeiten (29.6 ± 24.6 m/s) stimmen nicht nur mit zuvor numerisch simulierten Geschwindigkeiten des Rheasilvia-Beckens überein, sondern topographische Eigenschaften, wie die Hangneigung und Massenablagerungen, sind ebenfalls mit den resultierenden Beschleunigungen und Verlangsamungen im Einklang. Abschnitte mit konstanter Beschleunigung, Verlangsamung und Geschwindigkeit zeigen, dass die Massenbewegungen in heterogenem Regolith mit unterschiedlicher Topographie und Reibung stattgefunden haben müssen. Außerdem konnten Materialeigenschaften wie die effektive Viskosität (1.9-9.0·10⁶ Pa·s) und der effektive Reibungskoeffizient (0.02-0.81) des Materials abgeschätzt werden. Die gemessenen Beschleunigungen an der Kraterwand weisen darauf hin, dass der Hangwinkel zur Zeit der Massenbewegungen steiler gewesen sein muss als gegenwärtig beobachtet werden kann. Diese Arbeit lieferte neue Einsichten in das Verhalten von Material während des Rheasilvia-Einschlags. Zum ersten Mal konnte so gezeigt werden, dass der Coriolis-Effekt einen Einfluss auf die Massenbewegungen während eines Einschlagsprozesses haben kann und dass die erzeugten Krümmungen bis heute beobachtbar sind. KW - Coriolis effect KW - Vesta KW - mass wasting KW - asteroids KW - Dawn mission KW - impact cratering KW - impact simulation KW - modification stage KW - material properties KW - mass-wasting velocities KW - viscosity KW - coefficient of friction KW - acoustic fluidization KW - Rheasilvia KW - Veneneia KW - curved radial ridges KW - Coriolis Effekt KW - Vesta KW - Massenbewegungen KW - Asteroiden KW - Dawn-Mission KW - Einschlagskrater KW - Einschlagssimulation KW - Modifikationsphase KW - Materialeigenschaften KW - Massenbewegungsgeschwindigkeiten KW - Viskosität KW - Reibungskoeffizient KW - akustische Fluidisierung KW - Rheasilvia KW - Veneneia KW - gekrümmte radiale Bergrücken Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87390 ER - TY - THES A1 - Jehannin, Marie T1 - About the role of physico-chemical properties and hydrodynamics on the progress of a precipitation reaction T1 - Über die Rolle physikalisch-chemischer Eigenschaften und Hydrodynamiken auf den Fortschritt einer Fällungsreaktion BT - the case of cerium oxalate particles produced during coalescence of drops BT - Ceroxalat-Partikel, entstanden während der Koaleszenz von Tropfen N2 - The size and morphology control of precipitated solid particles is a major economic issue for numerous industries. For instance, it is interesting for the nuclear industry, concerning the recovery of radioactive species from used nuclear fuel. The precipitates features, which are a key parameter from the post-precipitate processing, depend on the process local mixing conditions. So far, the relationship between precipitation features and hydrodynamic conditions have not been investigated. In this study, a new experimental configuration consisting of coalescing drops is set to investigate the link between reactive crystallization and hydrodynamics. Two configurations of aqueous drops are examined. The first one corresponds to high contact angle drops (>90°) in oil, as a model system for flowing drops, the second one correspond to sessile drops in air with low contact angle (<25°). In both cases, one reactive is dissolved in each drop, namely oxalic acid and cerium nitrate. When both drops get into contact, they may coalesce; the dissolved species mix and react to produce insoluble cerium oxalate. The precipitates features and effect on hydrodynamics are investigated depending on the solvent. In the case of sessile drops in air, the surface tension difference between the drops generates a gradient which induces a Marangoni flow from the low surface tension drop over the high surface tension drop. By setting the surface tension difference between the two drops and thus the Marangoni flow, the hydrodynamics conditions during the drop coalescence could be modified. Diols/water mixtures are used as solvent, in order to fix the surface tension difference between the liquids of both drops regardless from the reactant concentration. More precisely, the used diols, 1,2-propanediol and 1,3-propanediol, are isomer with identical density and close viscosity. By keeping the water volume fraction constant and playing with the 1,2-propanediol and 1,3-propanediol volume fractions of the solvents, the mixtures surface tensions differ up to 10 mN/m for identical/constant reactant concentration, density and viscosity. 3 precipitation behaviors were identified for the coalescence of water/diols/recatants drops depending on the oxalic excess. The corresponding precipitates patterns are visualized by optical microscopy and the precipitates are characterized by confocal microscopy SEM, XRD and SAXS measurements. In the intermediate oxalic excess regime, formation of periodic patterns can be observed. These patterns consist in alternating cerium oxalate precipitates with distinct morphologies, namely needles and “microflowers”. Such periodic fringes can be explained by a feedback mechanism between convection, reaction and the diffusion. N2 - Die Kontrolle der Morphologie und Größe fester durch Fällung erzeugter Partikel ist eine wichtige Herausforderung in Industrie und Forschung. Insbesondere gilt dies für die Wiederaufbereitung verbrauchter Brennstäber in der Atomindustrie. Die Eigenschaften der Ausfällungen hängen von den Mischbedingungen der Flüssigkeiten in den Prozessen ab. Dennoch sind die Beziehungen zwischen den physischen Charakteristiken der erzeugten Partikeln und den hydrodynamischen Bedingungen ungewiss. In dieser Arbeit werden Zwei-Tropfen-Koalezenz-Experiment genutzt, um die Verbindungen zwischen Hydrodynamik und Fällungsreaktion besser zu verstehen. Zwei Konfigurationen von ruhenden wässrigen Tropfen wurden untersucht: Zum einen Tropfen mit hohem Kontaktwinkel (> 90°) in Öl und zum anderen Tropfen mit kleinem Kontaktwinkel (< 25°) in Luft. In beiden Fällen wurde Oxalsäure und Ceriumnitrat jeweils in einem Tropfen gelöst. Wenn beide Tropfen einander in Kontakt treten, können sie sich vereinigen. Dabei mischen sich die Reagenzien und erzeugen Ceriumoxalat. In Abhängigkeit von Lösungsmitteln werden die Eigenschaften der Fällung sowie ihr Einfluss auf die Hydrodynamik untersucht. In Experimenten Tropfen in Luft ist es außerdem möglich, mittels Wasser/Diol-Mischungen den Oberflächenspannungsgradienten zwischen beiden Tropfenflüssigkeiten zu ändern. Damit ist es möglich den resultierenden Marangoni-Fluss zu kontrollieren. So werden die hydrodynamischen Bedingungen unabhängig von dem Oxalsäureüberschuss verwirklicht. In diesem Fall werden drei Fällungsverhalten abhängig er Oxalsäure-Konzentration beobachtet. Das Zwischenverhalten zeigt überraschende periodische Strukturen, welche verschiedenen Morphologien bilden, nämlich Nägeln und „Microflower“. Die Strukturen wurden über Optische Mikroskopie Identifiziert und charakterisiert mit Hilfe von Konfokaler Mikroskopie, SEM, XRD und SAXS. Die Entstehung solcher Strukturen könnte durch eine Konvektion- Diffusion- Reaktion-Rückkopplung erklärt werden. N2 - Réussir à contrôler la morphologie et la taille de particules solides obtenues par précipitation est un enjeu industriel majeur. C’est notamment le cas dans l’industrie nucléaire pour le recyclage du combustible usé. Les caractéristiques des précipités sont liées aux conditions de mélange des phases liquides dans les procédés. Les corrélations entre les paramètres physiques des particules obtenues et les conditions hydrodynamiques n’ont pas été examinées jusqu’à présent. Dans cette étude, des systèmes expérimentaux originaux, basés sur la coalescence de deux gouttes, sont utilisés afin de mieux comprendre les liens entre hydrodynamique et réaction de précipitation. Deux configurations de gouttes aqueuses ont été investiguées, la première consiste en deux goutes posées à fort angle de contact (>90°) dans l’huile, il s’agit d’un système modèle pour les gouttes en émulsion, la second configuration correspond à deux gouttes posées à faible angle de contact (>25°) dans l’air. Dans chaque cas, une espèce réactive est dissoute dans chaque goutte, à savoir de l’acide oxalique ou du nitrate de cérium dans la seconde. Lorsque les deux gouttes se touchent, elles peuvent éventuellement coalescer, alors les espèces chimiques se mélangent et réagissent pour produire un précipité d’oxalate de cérium. Les caractéristiques de ce précipité et ses effets sur l’hydrodynamique sont examinés en fonction du solvant utilisé. De plus, dans le cas des gouttes posées sur une surface de silice dans l’air, une différence de tension de surface entre deux gouttes crée un gradient qui génère un flux de Marangoni dirigé de la goutte de faible tension de surface au-dessus de la goutte de forte tension de surface. En jouant sur la différence de tension de surface entre les deux gouttes, et ainsi sur le flux de Marangoni, il est possible de modifier les conditions hydrodynamiques lors de la coalescence des gouttes. Des mélanges eau/diols ont été utilisés comme solvant afin de pouvoir modifier la différence de tension de surface entre les liquides des deux gouttes indépendamment de leur concentration en réactif. Les diols utilisés, le 1,2-propanediol et le 1,3-propanediol sont des isomères, ils sont la même densité, des viscosités semblables mais des tensions de surface différentes. En fixant la fraction volumique d’eau dans le solvant, et en jouant sur les fractions volumiques de chaque diols, il est possible de contrôler la tension de surface des mélanges sur une gamme de 10 mN/m pour une concentration en réactifs donnée, et en conservant la densité et viscosité des solvants. Trois régimes de précipitation ont été identifiés dans le cas de la coalescence de gouttes d’eau/diols/réactifs en fonction de l’excès oxalique. Les motifs de précipitation en découlant ont été imagés par microscopie optique et les différents précipités ont été caractérisés à l’aide de microscopie confocale, MEB, DRX et SAXS. Le régime intermédiaire présente des motifs périodiques surprenants. Ces motifs correspondent à des domaines nettement délimités d’oxalate de cérium de différentes morphologies, à savoir des aiguilles et des « microflowers ». L’obtention de tels motifs peut s’expliquer par un mécanisme de rétroaction entre convection, réaction et diffusion. KW - Marangoni flow KW - coalescence KW - periodic pattern KW - oxalic precipitation KW - drop KW - Marangoni-Fluss KW - Koaleszenz KW - Tropfen KW - Fällungsreaktion KW - periodisches Muster KW - Oxalat-Fällung KW - flux de Marangoni KW - coalescence KW - gouttes KW - précipitation KW - motif périodique KW - précipitation oxalique Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88364 ER - TY - THES A1 - Sarem, Zeinab T1 - Regulation of IGF-1 bioactivity by dietary hormones, impact of glucagon and insulin-induced hypoglycemia T1 - Regulierung der IGF-1 Bioaktivität durch diätische Hormone, Auswirkungen von Glucagon und Insulin-induzierte Hypoglykämie N2 - Der Zusammenhang zwischen Ernährung und der Entwicklung von chronischen Krankenheiten wie metabolischem Syndrom, Diabetes mellitus, Krebs und kardiovaskulären Erkrankungen wurde untersucht. Veränderungen der GH-IGF-1 Achse in Verbindung mit ernährungsbedingten Erkrankungen wurden früher beschrieben. Das Wechselspiel zwischen GH, gesamt IGF-1 und verschiedenen hemmenden und stimulierenden IGF-1 bindenden Proteinen (IGFBPs) bestimmt die IGF-1 Bioaktivität, die als die Fähigkeit von IGF-1 die Phosphorylierung von seinem Rezeptor und folglich seinem Signalsweg zu induzieren, identifiziert ist. Deshalb reicht die Messung der IGF-1 Bioaktivität aus, um Änderungen des GH-IGF-1 Systems darzustellen. Studien deuten darauf hin, dass proteinreiche Diät, gekennzeichnet durch erhöhte Glukagonsekretion, und Insulin-induzierte Hypoglykämie die Sterblichkeit erhöhen, und die Mechanismen sind unklar. Sowohl Glukagon als auch Insulin-induzierte Hypoglykämie stimulieren die GH Sekretion. Das Ziel der vorliegenden Studie war, die Wirkung von Glucagon und Insulin-induzierter Hypoglykämie auf die IGF-1 -Bioaktivität als mögliche Mechanismen zu characterizieren. In einer doppelblinden, Placebo-kontrollierten Studie wurde Glukagon intramuskulär 13 Patienten mit T1DM (6 Männer / 7 Frauen; [ BMI ] : 24,8 ± 0,95 kg / m2) , 11 übergewichtigen Teilnehmern (OP ; 5/6 ; 34,4 ± 1,7 kg / m2) und 13 gesunden schlanken Teilnehmern (LP ; 6/7 ; 21,7 ± 0,6 kg / m2) administriert. Zwölf übergewichtige Teilnehmer (OP ; 6/6 ; 34,4 ± 1,7 kg / m2) und 13 gesunde schlanke Teilnehmer (LP ; 6/7 ; 21,7 ± 0,6 kg / m2) führten Insulintoleranztests in einer weiteren doppelblinden, Plazebo- kontrollierten Studie durch. Änderungen des GH, gesamt-IGF-1, der IGF-bindenden Proteinen ( IGFBPs ) und der IGF-1-Bioaktivität wurden durch das zellbasierte KIRA-Verfahren gemessen. Außerdem wurde die Wechselwirkung zwischen den metabolischen Hormonen (Glucagon und Insulin) und GH-IGF-1-System auf der Transkriptionsebene mit primären Maus-Hepatozyten untersucht. In dieser Arbeit verringerte Glukagon die IGF-1-Bioaktivität bei den Menschen unabhängig von körpereigenen Insulinspiegeln, höchstwahrscheinlich durch Modulation des IGFBP-1 und -2. Die Glukagon-induzierte Reduktion der IGF-1-Bioaktivität stellt einen neuen Mechanismus der Wirkung von Glucagon auf die GH-Sekretion dar und kann als mögliche Erklärung für die negativen Auswirkungen der proteinreichen Diät im Zusammenhang auf das erhöhte kardiovaskuläre Risiko und die Mortalität vorgeschlagen werden. Zusätzlich wurde die Insulin-induzierten Hypoglykämie eine Abnahme der IGF-1-Bioaktivität durch Hochregulierung von IGFBP-2 zugeordnet. Diese Ergebnisse können auf mögliche und wenig erforschte Mechanismen zur Erläuterung der starken Assoziation zwischen Hypoglykämie und erhöhter kardiovaskulärer Mortalität bei diabetischen Patienten beziehen. N2 - The relationship between nutrition and the development of chronic diseases including metabolic syndrome, diabetes mellitus, cancer and cardiovascular disease has been well studied. On the other hand, changes in the GH-IGF-1 axis in association with nutrition-related diseases have been reported. The interplay between GH, total IGF-1 and different inhibitory and stimulatory kinds of IGF-1 binding proteins (IGFBPs) results in IGF-1 bioactivity, the ability of IGF-1 to induce phosphorylation of its receptor and consequently its signaling. Moreover, IGF-1 bioactivity is sufficient to reflect any change in the GH-IGF-1 system. Accumulating evidence suggests that both of high protein diet, characterized by increased glucagon secretion, and insulin-induced hypoglycemia increase mortality rate and the mechanisms are unclear. However both of glucagon and insulin-induced hypoglycemia are potent stimuli of GH secretion. The aim of the current study was to identify the impact of glucagon and insulin-induced hypoglycemia on IGF-1 bioactivity as possible mechanisms. In a double-blind placebo-controlled study, glucagon was intramuscularly administrated in 13 type 1 diabetic patients (6 males /7 females; [BMI]: 24.8 ± 0.95 kg/m2), 11 obese subjects (OP; 5/ 6; 34.4 ± 1.7 kg/m2), and 13 healthy lean participants (LP; 6/ 7; 21.7 ± 0.6 kg/m2), whereas 12 obese subjects (OP; 6/ 6; 34.4 ± 1.7 kg/m2), and 13 healthy lean participants (LP; 6/ 7; 21.7 ± 0.6 kg/m2) performed insulin tolerance test in another double-blind placebo-controlled study and changes in GH, total IGF-1, IGF binding proteins (IGFBPs) and IGF-1 bioactivity, measured by the cell-based KIRA method, were investigated. In addition, the interaction between the metabolic hormones (glucagon and insulin) and the GH-IGF-1 system on the transcriptional level was studied using mouse primary hepatocytes. In this thesis, glucagon decreased IGF-1 bioactivity in humans independently of endogenous insulin levels, most likely through modulation of IGFBP-1 and-2 levels. The glucagon-induced reduction in IGF-1 bioactivity may represent a novel mechanism underlying the impact of glucagon on GH secretion and may explain the negative effect of high protein diet related to increased cardiovascular risk and mortality rate. In addition, insulin-induced hypoglycemia was correlated with a decrease in IGF-1 bioactivity through up-regulation of IGFBP-2. These results may refer to a possible and poorly explored mechanism explaining the strong association between hypoglycemia and increased cardiovascular mortality among diabetic patients. KW - IGF-1 KW - bioactivity KW - glucagon KW - insulin-induced hypoglycemia KW - IGF-1 KW - Bioaktivität KW - Glucagon KW - Insulin-induzierte Hypoglykämie Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82198 ER - TY - THES A1 - Mulyukova, Elvira T1 - Stability of the large low shear velocity provinces T1 - Stabilität der basalen Melange im untersten Erdmantel BT - numerical modeling of thermochemical mantle convection BT - numerische Modellierung thermochemischer Mantelkonvektion N2 - We study segregation of the subducted oceanic crust (OC) at the core mantle boundary and its ability to accumulate and form large thermochemical piles (such as the seismically observed Large Low Shear Velocity Provinces - LLSVPs). Our high-resolution numerical simulations suggest that the longevity of LLSVPs for up to three billion years, and possibly longer, can be ensured by a balance in the rate of segregation of high-density OC-material to the CMB, and the rate of its entrainment away from the CMB by mantle upwellings. For a range of parameters tested in this study, a large-scale compositional anomaly forms at the CMB, similar in shape and size to the LLSVPs. Neutrally buoyant thermochemical piles formed by mechanical stirring - where thermally induced negative density anomaly is balanced by the presence of a fraction of dense anomalous material - best resemble the geometry of LLSVPs. Such neutrally buoyant piles tend to emerge and survive for at least 3Gyr in simulations with quite different parameters. We conclude that for a plausible range of values of density anomaly of OC material in the lower mantle - it is likely that it segregates to the CMB, gets mechanically mixed with the ambient material, and forms neutrally buoyant large scale compositional anomalies similar in shape to the LLSVPs. We have developed an efficient FEM code with dynamically adaptive time and space resolution, and marker-in-cell methodology. This enabled us to model thermochemical mantle convection at realistically high convective vigor, strong thermally induced viscosity variations, and long term evolution of compositional fields. N2 - Es wird allgemein akzeptiert, dass Mantelkonvektion - das langsame Fließen der Mantelgesteine, das mutmaßlich ein wichtiger Antrieb der Plattentektonik ist - von Dichteunterschieden verursacht wird, die thermischen aber auch chemischen Ursprungs sind. Es fehlen aber Kenntnisse über die thermochemischen Prozesse im Erdinneren, vor allem wegen Schwierigkeiten bei der Beobachtung. Eines der zuverlässigsten Resultate von tomographischen Beobachtungen ist die Existenz von zwei Haufen einer basalen Melange (BAM, LLSVP auf Englisch), die sich auf gegenüber liegenden Seiten in 3000 km Tiefe am Boden des Mantels unter Afrika bzw dem Pazifik befinden. Die niedrige Scherwellengeschwindigkeit in der BAM scheint eine thermischen (heiß) sowie einen chemischen (Material mit hoher Dichte) Ursprung zu haben. Aufgrund von plattentektonischen Rekonstruktionen wird angenommen dass die BAM langlebig und stabil sind, und dass sie von überwiegend von ihren Rändern hochquellenden Manteldiapiren beprobt werden. Die Hauptfrage meiner Doktorarbeit ist, wie solche großen chemischen Speicher wie die BAM sich bilden und über hunderte von Millionen Jahren überleben können, ohne dass sie von der Mantelkonvektion zerstört werden. Was sind die physikalischen Eigenschaften des BAM-Materials, z.B. Dichte, die dazu beitragen? Ich benutze numerische Modellierung um zu erforschen, wie sich eine dichte Bodenschicht bildet und wie die Mantelkonvektion Material daraus mitnimmt. Mein Ziel ist, die langfristige thermochemische Entwicklung des Erdmantels zu verstehen, insbesondere die Rolle der Dichteheterogeintäten Viskosität im untersten Mantel. KW - earth's mantle KW - thermochemical mantle convection KW - numerical modeling KW - Erdmantel KW - thermochemischer Mantelkonvektion KW - numerische Modellierung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82228 ER - TY - THES A1 - Conforti, Giovanni T1 - Reciprocal classes of continuous time Markov Chains T1 - Reziproke Klassen zeitkontinuierlicher Markov-Ketten N2 - In this thesis we study reciprocal classes of Markov chains. Given a continuous time Markov chain on a countable state space, acting as reference dynamics, the associated reciprocal class is the set of all probability measures on path space that can be written as a mixture of its bridges. These processes possess a conditional independence property that generalizes the Markov property, and evolved from an idea of Schrödinger, who wanted to obtain a probabilistic interpretation of quantum mechanics. Associated to a reciprocal class is a set of reciprocal characteristics, which are space-time functions that determine the reciprocal class. We compute explicitly these characteristics, and divide them into two main families: arc characteristics and cycle characteristics. As a byproduct, we obtain an explicit criterion to check when two different Markov chains share their bridges. Starting from the characteristics we offer two different descriptions of the reciprocal class, including its non-Markov probabilities. The first one is based on a pathwise approach and the second one on short time asymptotic. With the first approach one produces a family of functional equations whose only solutions are precisely the elements of the reciprocal class. These equations are integration by parts on path space associated with derivative operators which perturb the paths by mean of the addition of random loops. Several geometrical tools are employed to construct such formulas. The problem of obtaining sharp characterizations is also considered, showing some interesting connections with discrete geometry. Examples of such formulas are given in the framework of counting processes and random walks on Abelian groups, where the set of loops has a group structure. In addition to this global description, we propose a second approach by looking at the short time behavior of a reciprocal process. In the same way as the Markov property and short time expansions of transition probabilities characterize Markov chains, we show that a reciprocal class is characterized by imposing the reciprocal property and two families of short time expansions for the bridges. Such local approach is suitable to study reciprocal processes on general countable graphs. As application of our characterization, we considered several interesting graphs, such as lattices, planar graphs, the complete graph, and the hypercube. Finally, we obtain some first results about concentration of measure implied by lower bounds on the reciprocal characteristics. N2 - Diese Dissertation behandelt die reziproke zufällige Prozesse mit Sprüngen. Gegeben eine zeitkontinuierliche Markovkette als Referenzdynamik, ist die assoziierte reziproke Klasse die Menge aller Wahrscheinlichkeiten auf dem Pfadraum, die als eine Mischung ihrer Brücken geschrieben werden kann. Reziproke Prozesse zeichnen sich durch eine Form der bedingten Unabhängigkeit aus, die die Markoveigenschaft verallgemeinert. Ursprünglich ist diese Idee auf Schrödinger zurückzuführen, der nach einer probabilistischen Interpretation für die Quantenmechanik suchte. Einer reziproken Klasse wird eine Familie reziproker Charakteristiken assoziiert. Dies sind Raum-Zeit Abbildungen, die die reziproke Klasse eindeutig definieren. Wir berechnen diese Charakteristiken explizit und unterteilen sie in zwei Typen: Bogen-Charakteristiken und Kreis-Charakteristiken. Zusätzlich erhalten wir ein klares Kriterium zur Prüfung wann die Brücken von zwei verschiedenen Markovketten übereinstimmen. Wir beschreiben auf zwei verschiedene Arten reziproken Klasse und berücksichtigen auch ihre nicht-Markov Elemente. Die erste Charakterisierung basiert auf einem pfadweisen Ansatz, während die zweite kurzzeit Asymptotik benutzt. Der erste Ansatz liefert eine Familie funktionaler Gleichungen deren einzige Lösungen die Elemente der reziproken Klasse sind. Die Gleichungen können als partielle Integration auf dem Pfadraum mit einem Ableitungsoperator, der eine St¨orung der Pfade durch zusätzliche zufällige Kreise hervorruft, interpretiert werden. Die Konstruktion dieser Gleichungen benötigt eine geometrische Analyse des Problems. Wir behandeln außerdem die Fragestellung einer scharfen Charakterisierung und zeigen interessante Verbindungen zur diskreten Geometrie. Beispiele, für die wir eine solche Formel finden konnten, sind für Zählprozesse und für Irrfahrte auf abelschen Gruppen, in denen die Menge der Kreise eine Gruppenstruktur erweist. Zusätzlich zu diesem globalen Zugang, erforschen wir eine lokale Beschreibung durch die Analyse des kurzfristigen Verhaltens eines reziproken Prozesses. Analog zur Markoveigenschaft und kurzzeit Entwicklung ihrer Übergangswahrscheinlichkeit Markovketten charakterisieren, zeigen wir, dass eine reziproke Klasse charakterisiert werden kann indem wir ihre reziproke Eigenschaft und zwei Familien von Kurzzeit Entwicklungen der Brücken voraussetzen. Solche lokalen Ansatz ist geeignet, um Sprungprozesse auf allgemeine zählbaren Graphen zu studieren. Als Beispiele unserer Charakterisierung, betrachten wir Gitter, planare Graphen, komplette Graphen und die Hyperwürfel. Zusätzlich präsentieren wir erste Ergebnisse über Maßenkonzentration eines reziproken Prozesses, als Konsequenz unterer Schranken seiner Charakteristiken. N2 - In questa tesi si studiano le classi reciproche delle catene di Markov. Data una catena di Markov a tempo continuo su uno spazio numerabile, che svolge il ruolo di dinamica di riferimento, la sua classe reciproca é costituita da tutte le leggi sullo spazio dei cammini che si possono scrivere come un miscuglio dei ponti della legge di riferimento. Questi processi stocastici godono di una propriet`a di independenza condizionale che generalizza la proprietá di Markov ed é ispirata ad un’idea avuta da Schrödinger nel tentativo di derivare un’interpretazione stocastica della meccanica quantistica. A ciascuna classe reciproca é associato un insieme di caratteristiche reciproche. Una caratteristica reciproca é una proprietá della dinamica di riferimento che viene trasmessa a tutti gli elementi della classe, e viene espressa matematicamente da un opportuna combinazione di funzionali del generatore della catena di riferimento. Nella tesi, le caratteristiche vengono calcolate esplicitamente e suddivise in due famiglie principali: le caratteristiche di arco e le caratteristice di ciclo. Come sottoprodotto, otteniamo un criterio esplicito per decidere quando due catene di Markov hanno gli stessi ponti. A partire dalle caratteristiche reciproche, vengono proposte due caratterizzazioni della classe reciproca, compresi i suoi elementi non Markoviani. La prima é basata su un approccio traiettoriale, mentre la seconda si basa sul comportamento asintotico locale dei processi reciproci. Utilizzando il primo approccio, si ottiene una famiglia di equazioni funzionali che ammette come soluzioni tutti e soli gli elementi della classe reciproca. Queste equazioni sono integrazioni per parti sullo spazio dei cammini associate ad operatori differenziali che perturbano le traiettorie del processo canonico con l’aggiunta di loops casuali. Nella costruzione di queste equazioni si impiegano tecniche di geometria discreta, stabilendo un interessante collegamento con risultati recenti in questo campo. Le caratterizzazioni ottenute sono ottimali, in quanto impiegano un numero minimo di equazioni per descrivere la classe. Con questo metodo vengono studiate le classi reciproche di processi di conteggio, di camminate aleatorie su gruppi Abeliani, dove l’insieme dei cicli gode anch’esso di una struttura di gruppo. Il secondo approccio, di natura locale, si basa su stime asintotiche in tempo corto. É ben noto come una catena di Markov sia caratterizzata dal fatto di possedere la propriet`a di Markov e dal comportamento in tempo corto delle probabilitá di transizione. In questa tesi mostriamo che una classe reciproca é caratterizzata dalla propriet`a reciproca, e da due famiglie di stime asintotiche per i ponti del processo. Questo approccio locale permette di analizzare le classi reciproche di passeggiate aleatorie su grafi generali. Come applicazione dei risultati teorici, consideriamo i lattici, i grafi planari, il grafo completo, e l’ipercubo discreto. Infine, otteniamo delle stime di concentrazione della misura e sul comportamento globale dei ponti, sotto l’ipotesi di un limite inferiore per le caratteristiche reciproche. KW - reciprocal characteristics KW - random walks on graphs KW - reziproke Invarianten KW - reziproke Klassen KW - Schrödinger Problem KW - partielle Integration auf dem Pfadraum KW - Irrfahrten auf Graphen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82255 ER - TY - THES A1 - Künstler, Andreas T1 - Spot evolution on the red giant star XX Triangulum T1 - Entwicklung von Sternflecken auf dem roten Riesenstern XX Triangulum N2 - Spots on stellar surfaces are thought to be stellar analogues of sunspots. Thus, starspots are direct manifestations of strong magnetic fields. Their decay rate is directly related to the magnetic diffusivity, which itself is a key quantity for the deduction of an activity cycle length. So far, no single starspot decay has been observed, and thus no stellar activity cycle was inferred from its corresponding turbulent diffusivity. We investigate the evolution of starspots on the rapidly-rotating K0 giant XX Triangulum. Continuous high-resolution and phase-resolved spectroscopy was obtained with the robotic 1.2-m STELLA telescope on Tenerife over a timespan of six years. With our line-profile inversion code iMap we reconstruct a total of 36 consecutive Doppler maps. To quantify starspot area decay and growth, we match the observed images with simplified spot models based on a Monte-Carlo approach. It is shown that the surface of XX Tri is covered with large high-latitude and even polar spots and with occasional small equatorial spots. Just over the course of six years, we see a systematically changing spot distribution with various time scales and morphology such as spot fragmentation and spot merging as well as spot decay and formation. For the first time, a starspot decay rate on another star than the Sun is determined. From our spot-decay analysis we determine an average linear decay rate of D = -0.067±0.006 Gm^2/day. From this decay rate, we infer a turbulent diffusivity of η_τ = (6.3±0.5) x 10^14 cm^2/s and consequently predict an activity cycle of 26±6 years. The obtained cycle length matches very well with photometric observations. Our time-series of Doppler maps further enables to investigate the differential rotation of XX Tri. We therefore applied a cross-correlation analysis. We detect a weak solar-like differential rotation with a surface shear of α = 0.016±0.003. This value agrees with similar studies of other RS CVn stars. Furthermore, we found evidence for active longitudes and flip-flops. Whereas the more active longitude is located in phase towards the (unseen) companion star, the weaker active longitude is located at the opposite stellar hemisphere. From their periodic appearance, we infer a flip-flop cycle of ~2 years. Both activity phenomena are common on late-type binary stars. Last but not least we redetermine several astrophysical properties of XX Tri and its binary system, as large datasets of photometric and spectroscopic observations are available since its last determination in 1999. Additionally, we compare the rotational spot-modulation from photometric and spectroscopic studies. N2 - Sternflecken gelten als stellare Analoga zu Sonnenflecken. Somit sind Sternflecken direkte Erscheinungsformen starker Magnetfelder. Ihre Zerfallsrate ist direkt mit der magnetischen Diffusivität verknüpft, welche selbst ein Maß für die Länge eines Aktivitätszyklus ist. Bislang konnte noch kein Zerfall eines einzelnen Sternflecks beobachtet werden und somit konnte noch kein stellarer Aktivitätszyklus mittels einer aus dem Fleckenzerfall abgeleiteten Diffusivität bestimmt werden. Wir untersuchen die Entwicklung von Sternflecken auf dem schnell rotierenden K0 Riesenstern XX Triangulum. Über einen Zeitraum von sechs Jahren wurden durchgängig hochauflösende Spektren mit dem 1.2-m STELLA Teleskop auf Teneriffa aufgenommen. Mit unserem Inversionscode für Linienprofile (iMap) werden insgesamt 36 Dopplerkarten der Sternoberfläche rekonstruiert. Um sowohl den Zerfall als auch die Entstehung von Sternflecken zu bestimmen, werden die rekonstruierten Dopplerkarten mit vereinfachten Fleckenmodellen mittels einer Monte-Carlo-Methode abgebildet. Es zeigt sich, dass die Oberfläche von XX Tri mit großen Flecken auf hohen und sogar polaren Breiten bedeckt ist sowie gelegentlichen kleineren Flecken nahe des Äquators. Gerade in der Zeitspanne von sechs Jahren sehen wir eine systematische Veränderung der Fleckenverteilung auf unterschiedlichen Zeitskalen und mit unterschiedlicher Morphologie, wie Fleckenaufspaltung und Fleckenvereinigung sowie Fleckenzerfall und Fleckenentstehung. Zum ersten Mal wird die Zerfallsrate eines Sternflecks auf einem anderen Stern als der Sonne bestimmt. Von unserer Fleckenzerfallsanalyse bestimmen wir eine mittlere lineare Zerfallsrate von D = -0.067±0.006 Gm^2/d. Von dieser Zerfallsrate leiten wir eine turbulente Diffusivität von η_τ = (6.3±0.5) x 10^14 cm^2/s ab, und schließen daraus einen Aktivitätszyklus von 26±6 Jahren. Diese Zykluslänge stimmt gut mit photometrischen Beobachtungen überein. Unsere Dopplerkarten ermöglichen zusätzlich die Untersuchung der differentiellen Rotation auf XX Tri, wofür eine Kreuzkorrelationsmethode angewandt wird. Wir detektieren eine schwache sonnenähnliche differentielle Rotation mit einer Oberflächenscherung von α = 0.016±0.003. Dieser Wert stimmt mit vergleichbaren Untersuchungen anderer RS CVn-Sterne überein. Zudem haben wir Anzeichen für aktive Longituden und Flip-Flops gefunden. Während sich die aktivere Longitude in Phase zu dem (nicht sichtbaren) Begleitstern befindet, liegt die schwächere aktive Longitude auf der gegenüberliegenden Hemisphäre. Aus ihrem periodischen Auftreten schließen wir auf einen Flip-Flop-Zyklus von ungefähr zwei Jahren. Beide Aktivitätserscheinungen sind häufig auf Doppelsternen späten Spektraltyps zu finden. Zu guter Letzt bestimmen wir die astrophysikalischen Eigenschaften von XX Tri neu, da seit der letzten Bestimmung im Jahre 1999 große neue Datensätze unterschiedlicher Beobachtungen vorhanden sind. Zusätzlich vergleichen wir die periodische Fleckenmodulation aus photometrischen und spektroskopischen Analysen. KW - stellar physics KW - stellar activity KW - Doppler imaging KW - Sternphysik KW - Sternaktivität KW - Doppler Imaging Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-84008 ER - TY - THES A1 - Soulié, Virginie T1 - Sessile droplets of salt solutions on inert and metallic surfaces T1 - Gouttes sessiles de solutions salines sur des surfaces inertes et métalliques BT - influence of salt concentration gradients on evaporation and corrosion behaviour BT - influence des gradients de concentration en sel sur la dynamique d’Evaporation et le processus de corrosion N2 - In this thesis we investigate the evaporation behaviour of sessile droplets of aqueous saline solutions on planar inert and metallic surfaces and characterise the corrosion phenomenon for iron surfaces. First we study the evaporation behaviour of sessile salty droplets on inert surfaces for a wide range of salt concentrations, relative humidities, droplet sizes and contact angles. Our study reveals the range of validity of the well-accepted diffusion-controlled evaporation model and highlights the impact of salt concentration (surface tension) gradients driven Marangoni flows on the evaporation behaviour and the subsequent salty deposit patterns. Furthermore we study the spatial-temporal evolution of sessile droplets from saline solutions on metallic surfaces. In contrast to the simple, generally accepted Evans droplet model, we show that the corrosion spreads ahead of the macroscopic contact line with a peripheral film. The three-phase contact line is destabilized by surface tension gradients induced by ionic composition changes during the course of the corrosion process and migration of cations towards the droplet perimeter. Finally we investigate the corrosion behaviour under drying salty sessile droplets on metallic surfaces. The corrosion process, in particular the location of anodic and cathodic activities over the footprint droplet area is correlated to the spatial distribution of the salt inside the drying droplet. N2 - Dans cette thèse, la dynamique d’évaporation de gouttes sessiles de solutions salines sur des surfaces planes inertes et métalliques a été étudiée et le phénomène de corrosion pour les surfaces ferriques caractérisé. En premier lieu, nous nous sommes intéressés à la dynamique d’évaporation de gouttes sessiles salées sur des surfaces inertes pour une large gamme de concentrations en sel, d’humidité relatives, de tailles de goutte et d’angles de contact. Notre étude révèle les domaines de validité du modèle classique d’évaporation, processus contrôlé par la diffusion de la vapeur dans l’air et met en évidence l’impact de flux (de Marangoni) induits par des gradients de concentration (tension de surface) en sel sur la dynamique d’évaporation et les dépôts salins obtenus après évaporation de la goutte. De plus, nous nous sommes consacrés à l’évolution spatio-temporelle de gouttes sessiles de solutions salines sur des surfaces métalliques. Contrairement au modèle simplifié de la goutte d’Evans, nous avons montré que le processus de corrosion s’étend aux abords de la ligne de contact, avec la formation d’un film périphérique. La ligne triple est déstabilisée par des gradients de tension de surface induits par des variations de composition ionique au cours du processus de corrosion et la migration des cations vers la périphérie de la goutte. Enfin nous avons étudié le phénomène de corrosion du métal induit par l’évaporation de gouttes sessiles salées. Le processus de corrosion, en particulier la localisation des réactions anodiques et cathodiques sur la surface métallique en contact avec la goutte est corrélée à la distribution spatiale du sel au sein de la goutte s’évaporant. KW - sessile droplet KW - salt KW - evaporation KW - corrosion KW - liegende Tropfen KW - Salz KW - Verdunstung KW - Korrosion KW - gouttes sessiles KW - sel KW - evaporation KW - corrosion Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90329 ER - TY - THES A1 - Schröder, Sarah T1 - Modelling surface evolution coupled with tectonics T1 - Modellierung von Oberflächenprozessen gekoppelt mit Tektonik BT - A case study for the Pamir BT - Eine Fallstudie zum Pamir N2 - This study presents the development of 1D and 2D Surface Evolution Codes (SECs) and their coupling to any lithospheric-scale (thermo-)mechanical code with a quadrilateral structured surface mesh. Both SECs involve diffusion as approach for hillslope processes and the stream power law to reflect riverbed incision. The 1D SEC settles sediment that was produced by fluvial incision in the appropriate minimum, while the supply-limited 2D SEC DANSER uses a fast filling algorithm to model sedimantation. It is based on a cellular automaton. A slope-dependent factor in the sediment flux extends the diffusion equation to nonlinear diffusion. The discharge accumulation is achieved with the D8-algorithm and an improved drainage accumulation routine. Lateral incision enhances the incision's modelling. Following empirical laws, it incises channels of several cells width. The coupling method enables different temporal and spatial resolutions of the SEC and the thermo-mechanical code. It transfers vertical as well as horizontal displacements to the surface model. A weighted smoothing of the 3D surface displacements is implemented. The smoothed displacement vectors transmit the deformation by bilinear interpolation to the surface model. These interpolation methods ensure mass conservation in both directions and prevent the two surfaces from drifting apart. The presented applications refer to the evolution of the Pamir orogen. A calibration of DANSER's parameters with geomorphological data and a DEM as initial topography highlights the advantage of lateral incision. Preserving the channel width and reflecting incision peaks in narrow channels, this closes the huge gap between current orogen-scale incision models and observed topographies. River capturing models in a system of fault-bounded block rotations reaffirm the importance of the lateral incision routine for capturing events with channel initiation. The models show a low probability of river capturings with large deflection angles. While the probability of river capturing is directly depending on the uplift rate, the erodibility inside of a dip-slip fault speeds up headward erosion along the fault: The model's capturing speed increases within a fault. Coupling DANSER with the thermo-mechanical code SLIM 3D emphasizes the versatility of the SEC. While DANSER has minor influence on the lithospheric evolution of an indenter model, the brittle surface deformation is strongly affected by its sedimentation, widening a basin in between two forming orogens and also the southern part of the southern orogen to south, east and west. N2 - Im Rahmen dieser Studie werden 1D und 2D Erosionsmodelle im Gebirgsmaßstab implementiert und mit Modellen für tektonische Deformation gekoppelt. Die Kopplungsmethode erlaubt unterschiedlich räumliche und zeitliche Auflösungen im tektonischen und im Erosionsmodell. Es werden sowohl vertikale als auch horizontale Bewegungen zwischen den Modellen transferiert. Darüber hinaus enthält die Kopplungsmethode ein Glättungsverfahren, um eventuelle Instabilitäten des tektonischen Modelles zu kompensieren. Beide Erosionsmodelle beziehen Hangerosion, Flusseinschneidung und Sedimentation ein. Der 1D Code nutzt Hack's Law, um die Wassermengen zu berechnen. Er garantiert Massenerhaltung, indem er Sedimente in Senken speichert. Das 2D Erosionsmodell DANSER basiert auf einem zellulären Automaten. Ein zusätzlicher steigungsabhängiger Faktor erweitert lineare zu nichtlinearer Diffusion. Wassermengen werden mit Hilfe des D8-Algorithmus und einer veränderten Form von O'Callaghans (1984) Algorithmus akkumuliert. Laterale Einschneidung, berechnet durch einen neuen Verteilungs-Algorithmus, verbessert die Modellierung von Flusssystemen. Flüsse sind dabei repräsentiert durch eine unterschiedliche Anzahl an Zellen orthogonal zur Fließrichtung. Ihre Breite wird nach empirischen Gesetzen ermittelt. Die präsentierten Anwendungen dienen der Studie des Pamirgebirges. Zunächst werden die Modellparameter anhand von Einschneidungs- und Erosionsraten sowie Sedimentdurchflüssen kalibriert. Ein digitales Höhenmodell dient als Anfangstopographie und zur Extraktion von Flussprofilen. Laterale Einschneidung zeigt eine deutliche Verbesserung zu bisher vorhandenen Modellen. Sie ermöglicht die Erhaltung der Flussbreite und zeigt hohe Einschneidungsraten in engen Flusspassagen. Modelle von Flussanzapfungen in einem System paralleler Verwerfungen bestätigen die Wichtigkeit von lateraler Einschneidung für Flussanzapfungsmodelle, die Hangerosion einbeziehen. Während die Modelle eine geringe Wahrscheinlichkeit von Flussanzapfungen mit hohem Ablenkungswinkel zeigen, belegen sie auch, dass deren (allgemeine) Wahrscheinlichkeit direkt von der Hebungsrate der Verwerfungen abhängt. Die Erodibilität beschleunigt lediglich die Geschwindigkeit von Flussanzapfungen. Ein Modell, das die Codes SLIM 3D und DANSER koppelt, dokumentiert die vielseitige Verwendbarkeit des neuen Codes: Es zeigt einen geringen Einfluss von Oberflächenprozessen auf die Lithosphärendeformation, während die Sedimentationsroutine erheblich auf spröde Oberflächendeformationen einwirkt. Das Modell legt nahe, dass Sedimentation ein zwischen zwei entstehenden Gebirgen gelegenes Becken weitet. Außerdem weitet sich der südlich von der interkontinentalen Kollisionszone gelegene Teil des Gebirge-Models ebenfalls durch Sedimentation. KW - erosion KW - coupling KW - SEC KW - surface evolution KW - thermo-mechanics KW - surface processes KW - DANSER KW - Pamir KW - Tien-Shan KW - Tian-Shan KW - tectonics KW - modelling KW - modeling KW - numerical model KW - simulation KW - surface KW - fluvial incision KW - hillslope diffusion KW - finite differences KW - finite elements KW - Eulerian grid KW - DANSER KW - DANSER KW - Erosion KW - Modellierung KW - Tektonik KW - Koppelung KW - SEC KW - numerische Modellierung KW - Oberflächenprozesse KW - Pamir KW - Tien-Shan KW - Tian-Shan KW - Tiefendeformation KW - Software KW - Simulation KW - Oberfläche KW - fluviale Einschneidung KW - Hangerosion KW - finite Differenzen KW - finite Elemente KW - Eulerische Gitter Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90385 ER - TY - THES A1 - Neugebauer, Ina T1 - Reconstructing climate from the Dead Sea sediment record using high-resolution micro-facies analyses T1 - Klimarekonstruktion an Sedimentkernen des Toten Meeres an Hand hochaufgelöster Mikrofaziesanalysen T2 - Dissertation N2 - The sedimentary record of the Dead Sea is a key archive for reconstructing climate in the eastern Mediterranean region, as it stores the environmental and tectonic history of the Levant for the entire Quaternary. Moreover, the lake is located at the boundary between Mediterranean sub-humid to semi-arid and Saharo-Arabian hyper-arid climates, so that even small shifts in atmospheric circulation are sensitively recorded in the sediments. This DFG-funded doctoral project was carried out within the ICDP Dead Sea Deep Drilling Project (DSDDP) that intended to gain the first long, continuous and high-resolution sediment core from the deep Dead Sea basin. The drilling campaign was performed in winter 2010-11 and more than 700 m of sediments were recovered. The main aim of this thesis was (1) to establish the lithostratigraphic framework for the ~455 m long sediment core from the deep Dead Sea basin and (2) to apply high-resolution micro-facies analyses for reconstructing and better understanding climate variability from the Dead Sea sediments. Addressing the first aim, the sedimentary facies of the ~455 m long deep-basin core 5017-1 were described in great detail and characterised through continuous overview-XRF element scanning and magnetic susceptibility measurements. Three facies groups were classified: (1) the marl facies group, (2) the halite facies group and (3) a group involving different expressions of massive, graded and slumped deposits including coarse clastic detritus. Core 5017-1 encompasses a succession of four main lithological units. Based on first radiocarbon and U-Th ages and correlation of these units to on-shore stratigraphic sections, the record comprises the last ca 220 ka, i.e. the upper part of the Amora Formation (parts of or entire penultimate interglacial and glacial), the last interglacial Samra Fm. (~135-75 ka), the last glacial Lisan Fm. (~75-14 ka) and the Holocene Ze’elim Formation. A major advancement of this record is that, for the first time, also transitional intervals were recovered that are missing in the exposed formations and that can now be studied in great detail. Micro-facies analyses involve a combination of high-resolution microscopic thin section analysis and µXRF element scanning supported by magnetic susceptibility measurements. This approach allows identifying and characterising micro-facies types, detecting event layers and reconstructing past climate variability with up to seasonal resolution, given that the analysed sediments are annually laminated. Within this thesis, micro-facies analyses, supported by further sedimentological and geochemical analyses (grain size, X-ray diffraction, total organic carbon and calcium carbonate contents) and palynology, were applied for two time intervals: (1) The early last glacial period ~117-75 ka was investigated focusing on millennial-scale hydroclimatic variations and lake level changes recorded in the sediments. Thereby, distinguishing six different micro-facies types with distinct geochemical and sedimentological characteristics allowed estimating relative lake level and water balance changes of the lake. Comparison of the results to other records in the Mediterranean region suggests a close link of the hydroclimate in the Levant to North Atlantic and Mediterranean climates during the time of the build-up of Northern hemisphere ice sheets during the early last glacial period. (2) A mostly annually laminated late Holocene section (~3700-1700 cal yr BP) was analysed in unprecedented detail through a multi-proxy, inter-site correlation approach of a shallow-water core (DSEn) and its deep-basin counterpart (5017-1). Within this study, a ca 1500 years comprising time series of erosion and dust deposition events was established and anchored to the absolute time-scale through 14C dating and age modelling. A particular focus of this study was the characterisation of two dry periods, from ~3500 to 3300 and from ~3000 to 2400 cal yr BP, respectively. Thereby, a major outcome was the coincidence of the latter dry period with a period of moist and cold climate in Europe related to a Grand Solar Minimum around 2800 cal yr BP and an increase in flood events despite overall dry conditions in the Dead Sea region during that time. These contrasting climate signatures in Europe and at the Dead Sea were likely linked through complex teleconnections of atmospheric circulation, causing a change in synoptic weather patterns in the eastern Mediterranean. In summary, within this doctorate the lithostratigraphic framework of a unique long sediment core from the deep Dead Sea basin is established, which serves as a base for any further high-resolution investigations on this core. It is demonstrated in two case studies that micro-facies analyses are an invaluable tool to understand the depositional processes in the Dead Sea and to decipher past climate variability in the Levant on millennial to seasonal time-scales. Hence, this work adds important knowledge helping to establish the deep Dead Sea record as a key climate archive of supra-regional significance. N2 - Die Sedimente des Toten Meeres stellen ein wichtiges Archiv für Klimarekonstruktionen im ostmediterranen Raum dar, da die gesamte quartäre Umwelt- und Tektonikgeschichte der Levante darin gespeichert ist. Außerdem führt die Lage des Sees im Grenzbereich zwischen mediterranem subhumidem bis semiaridem Klima und saharo-arabischem hyperaridem Klima dazu, dass selbst kleine Veränderungen der atmosphärischen Zirkulation sensibel in den Sedimenten verzeichnet werden. Diese Doktorarbeit wurde von der DFG finanziert und im Rahmen des ICDP Dead Sea Deep Drilling Project (DSDDP) durchgeführt, welches sich zur Aufgabe gestellt hat, den ersten langen, kontinuierlichen und hoch aufgelösten Sedimentkern vom tiefen Becken des Toten Meeres zu erlangen. Die Bohrkampagne fand im Winter 2010-11 statt, bei der mehr als 700 m Sedimente geteuft wurden. Die Zielsetzung dieser Doktorarbeit beinhaltete (1) den lithostratigraphischen Rahmen für den ~455 m langen Sedimentkern vom tiefen Becken des Toten Meeres zu erarbeiten und (2) hoch aufgelöste Mikrofazies-Analysen an den Sedimenten des Toten Meeres anzuwenden, um Klimavariabilität rekonstruieren und besser verstehen zu können. Bezüglich erst genannter Zielsetzung wurden die Sedimentfazies des ~455 m langen Kerns 5017 1 vom tiefen Becken detailliert beschrieben und an Hand kontinuierlicher XRF Elementscanner-Daten und Messungen der magnetischen Suszeptibilität charakterisiert. Drei Faziesgruppen wurden unterschieden: (1) die Mergel-Faziesgruppe, (2) die Halit-Faziesgruppe und (3) eine verschiedene Ausprägungen massiver, gradierter oder umgelagerter Ablagerungen sowie grob-klastischen Detritus umfassende Gruppe. Der Kern 5017-1 ist durch die Abfolge von vier lithologischen Haupt-Einheiten charakterisiert. Basierend auf ersten Radiokarbon- und U Th- Altern und Korrelation dieser Einheiten mit den am Ufer aufgeschlossenen stratigraphischen Abschnitten, umfasst der Datensatz die letzten ca 220 Tausend Jahre (ka), einschließlich des oberen Abschnitts der Amora-Formation (Teile von oder gesamtes vorletztes Interglazial und Glazial), die Samra-Fm. des letzten Interglazials (~135-75 ka), die Lisan-Fm. des letzten Glazials (~75-14 ka) und die holozäne Ze’elim-Formation. Ein entscheidender Fortschritt dieses Records ist, dass erstmals Übergangsbereiche erfasst wurden, die in den aufgeschlossenen Formationen fehlen und nun detailliert studiert werden können. Mikrofazies-Analysen umfassen eine Kombination hoch aufgelöster mikroskopischer Dünnschliff-Analysen und µXRF Elementscanning, die durch die Messung der magnetischen Suszeptibilität unterstützt werden. Dieser Ansatz erlaubt es, Mikrofazies-Typen zu identifizieren und zu charakterisieren, Eventlagen aufzuzeichnen und die Klimavariabilität der Vergangenheit mit bis zu saisonaler Auflösung zu rekonstruieren, vorausgesetzt, dass die zu analysierenden Sedimente jährlich laminiert sind. Im Rahmen dieser Doktorarbeit wurden Mikrofazies-Analysen für zwei Zeitabschnitte angewendet, unterstützt durch weitere sedimentologische und geochemische Analysen (Korngrößen, Röntgen-Diffraktometrie, gesamter organischer Kohlenstoff- und Kalziumkarbonat-Gehalte) sowie Palynologie. (1) Das frühe letzte Glazial ~117-75 ka wurde hinsichtlich hydroklimatischer Variationen und in den Sedimenten verzeichneter Seespiegeländerungen auf tausendjähriger Zeitskala untersucht. Dabei wurden sechs verschiedene Mikrofazies-Typen mit unterschiedlichen geochemischen und sedimentologischen Charakteristika bestimmt, wodurch relative Änderungen des Seespiegels und der Wasserbilanz des Sees abgeschätzt werden konnten. Ein Vergleich der Ergebnisse mit anderen Records aus dem Mittelmeerraum lässt vermuten, dass das Hydroklima der Levante eng mit dem nordatlantischen und mediterranen Klima während der Zeit des Aufbaus nordhemisphärischer Eisschilde im frühen letzten Glazial verknüpft war. (2) Ein weitestgehend jährlich laminierter spätholozäner Abschnitt (~3700-1700 kal. J. BP – kalibrierte Jahre vor heute) wurde in größtem Detail an Hand eines Multiproxie-Ansatzes und durch Korrelation eines Flachwasser-Bohrkerns (DSEn) mit seinem Gegenstück aus dem tiefen Becken (5017-1) untersucht. In dieser Studie wurde eine ca. 1500 Jahre umfassende Zeitreihe von Erosions- und Staubablagerungs-Ereignissen erstellt und an Hand von 14C-Datierung und Altersmodellierung mit der absoluten Zeitskala verankert. Ein besonderer Fokus dieser Studie lag in der Charakterisierung zweier Trockenphasen, von ~3500 bis 3300 beziehungsweise von ~3000 bis 2400 kal. J. BP. Dabei war ein wichtiges Resultat, dass letztgenannte Trockenphase mit einer Phase feuchten und kühlen Klimas in Europa, in Zusammenhang mit einem solaren Minimum um 2800 kal. J. BP, zusammen fällt und dass trotz der generell trockeneren Bedingungen in der Toten Meer Region zu dieser Zeit verstärkt Flutereignisse verzeichnet wurden. Diese unterschiedlichen Klimasignaturen in Europa und am Toten Meer waren wahrscheinlich durch komplexe Telekonnektionen der atmosphärischen Zirkulation verknüpft, was eine Veränderung synoptischer Wettermuster im ostmediterranen Raum zur Folge hatte. Zusammenfassend lässt sich sagen, dass innerhalb dieser Doktorarbeit der lithostratigraphische Rahmen eines einzigartigen, langen Sedimentkerns vom tiefen Becken des Toten Meeres erstellt wurde, welcher als Basis für jegliche weitere hoch aufgelöste Untersuchungen an diesem Kern dient. In zwei Fallstudien wird demonstriert, dass Mikrofazies-Analysen ein unschätzbares Werkzeug darstellen, Ablagerungsprozesse im Toten Meer zu verstehen und die Klimavariabilität der Vergangenheit in der Levante auf tausendjährigen bis saisonalen Zeitskalen zu entschlüsseln. Diese Arbeit enthält daher wichtige Erkenntnisse, die dabei helfen die Schlüsselstellung des Records vom tiefen Toten Meer als Klimaarchiv überregionaler Bedeutung zu etablieren. KW - Dead Sea KW - palaeoclimate KW - lake sediments KW - varves KW - Totes Meer KW - Paläoklima KW - Seesedimente KW - Warven Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85266 ER - TY - THES A1 - Mucha, Anne T1 - Temporal interpretation and cross-linguistic variation T1 - Temporale Interpretation und cross-linguistische Variation BT - A formal semantic analysis of temporal and aspectual reference in Hausa and Medumba N2 - This thesis investigates temporal and aspectual reference in the typologically unrelated African languages Hausa (Chadic, Afro–Asiatic) and Medumba (Grassfields Bantu). It argues that Hausa is a genuinely tenseless language and compares the interpretation of temporally unmarked sentences in Hausa to that of morphologically tenseless sentences in Medumba, where tense marking is optional and graded. The empirical behavior of the optional temporal morphemes in Medumba motivates an analysis as existential quantifiers over times and thus provides new evidence suggesting that languages vary in whether their (past) tense is pronominal or quantificational (see also Sharvit 2014). The thesis proposes for both Hausa and Medumba that the alleged future tense marker is a modal element that obligatorily combines with a prospective future shifter (which is covert in Medumba). Cross-linguistic variation in whether or not a future marker is compatible with non-future interpretation is proposed to be predictable from the aspectual architecture of the given language. N2 - Die vorliegende Dissertation untersucht Zeitinterpretation in den afrikanischen Sprachen Hausa (Tschadisch, Afro-asiatisch) und Medumba (Grassfields Bantu). Es wird gezeigt, dass Hausa eine im technischen Sinne tempuslose Sprache ist. Außerdem wird die Interpretation von Sätzen ohne Tempus im Hausa mit der im Medumba verglichen, wo Tempusmarkierung optional und abgestuft ist. Das Verhalten der optionalen Temporalmarkierer im Medumba motiviert eine Quantorenanalyse dieser Morpheme. Im Vergleich mit anderen abgestuften Tempussprachen liefert Medumba somit neue Evidenz für die Annahme, dass Sprachen sich darin unterscheiden, ob die Semantik ihrer Tempusmorpheme über Zeitintervalle quantifiziert oder Zeitvariablen restringiert (vgl. Sharvit 2014). Es wird sowohl für Hausa als auch für Medumba eine modale Semantik für die jeweiligen Futurmarkierer vorgeschlagen. Diese treten obligatorisch mit einem semantischen Prospektiv- bzw. Futurmorphem auf, das im Hausa overt und im Medumba covert realisiert wird. Sprachvergleichend wird argumentiert, dass die Kombinationsmöglichkeiten von semantischem Aspekt in einer Sprache determinieren, ob der Futurmarkierer der jeweiligen Sprache nicht-futurische Lesarten erlaubt. KW - formal semantics KW - tense KW - aspect KW - Chadic KW - Grassfields Bantu KW - Tempus KW - Aspekt KW - Formale Semantik KW - Tschadisch KW - Grassfields Bantu Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85935 ER - TY - THES A1 - Meyer, Andreas T1 - Data perspective in business process management T1 - Daten im Geschäftsprozessmanagement BT - the role of data for process modeling, analysis, and execution BT - ihre Rolle für Prozessmodellierung, -analyse und -ausführung N2 - Geschäftsprozessmanagement ist ein strukturierter Ansatz zur Modellierung, Analyse, Steuerung und Ausführung von Geschäftsprozessen, um Geschäftsziele zu erreichen. Es stützt sich dabei auf konzeptionelle Modelle, von denen Prozessmodelle am weitesten verbreitet sind. Prozessmodelle beschreiben wer welche Aufgabe auszuführen hat, um das Geschäftsziel zu erreichen, und welche Informationen dafür benötigt werden. Damit beinhalten Prozessmodelle Informationen über den Kontrollfluss, die Zuweisung von Verantwortlichkeiten, den Datenfluss und Informationssysteme. Die Automatisierung von Geschäftsprozessen erhöht die Effizienz der Arbeitserledigung und wird durch Process Engines unterstützt. Dafür werden jedoch Informationen über den Kontrollfluss, die Zuweisung von Verantwortlichkeiten für Aufgaben und den Datenfluss benötigt. Während aktuelle Process Engines die ersten beiden Informationen weitgehend automatisiert verarbeiten können, müssen Daten manuell implementiert und gewartet werden. Dem entgegen verspricht ein modell-getriebenes Behandeln von Daten eine vereinfachte Implementation in der Process Engine und verringert gleichzeitig die Fehleranfälligkeit dank einer graphischen Visualisierung und reduziert den Entwicklungsaufwand durch Codegenerierung. Die vorliegende Dissertation beschäftigt sich mit der Modellierung, der Analyse und der Ausführung von Daten in Geschäftsprozessen. Als formale Basis für die Prozessausführung wird ein konzeptuelles Framework für die Integration von Prozessen und Daten eingeführt. Dieses Framework wird durch operationelle Semantik ergänzt, die mittels einem um Daten erweiterten Petrinetz-Mapping vorgestellt wird. Die modellgetriebene Ausführung von Daten muss komplexe Datenabhängigkeiten, Prozessdaten und den Datenaustausch berücksichtigen. Letzterer tritt bei der Kommunikation zwischen mehreren Prozessteilnehmern auf. Diese Arbeit nutzt Konzepte aus dem Bereich der Datenbanken und überführt diese ins Geschäftsprozessmanagement, um Datenoperationen zu unterscheiden, um Abhängigkeiten zwischen Datenobjekten des gleichen und verschiedenen Typs zu spezifizieren, um modellierte Datenknoten sowie empfangene Nachrichten zur richtigen laufenden Prozessinstanz zu korrelieren und um Nachrichten für die Prozessübergreifende Kommunikation zu generieren. Der entsprechende Ansatz ist nicht auf eine bestimmte Prozessbeschreibungssprache begrenzt und wurde prototypisch implementiert. Die Automatisierung der Datenbehandlung in Geschäftsprozessen erfordert entsprechend annotierte und korrekte Prozessmodelle. Als Unterstützung zur Datenannotierung führt diese Arbeit einen Algorithmus ein, welcher Informationen über Datenknoten, deren Zustände und Datenabhängigkeiten aus Kontrollflussinformationen extrahiert und die Prozessmodelle entsprechend annotiert. Allerdings können gewöhnlich nicht alle erforderlichen Informationen aus Kontrollflussinformationen extrahiert werden, da detaillierte Angaben über mögliche Datenmanipulationen fehlen. Deshalb sind weitere Prozessmodellverfeinerungen notwendig. Basierend auf einer Menge von Objektlebenszyklen kann ein Prozessmodell derart verfeinert werden, dass die in den Objektlebenszyklen spezifizierten Datenmanipulationen automatisiert in ein Prozessmodell überführt werden können. Prozessmodelle stellen eine Abstraktion dar. Somit fokussieren sie auf verschiedene Teilbereiche und stellen diese im Detail dar. Solche Detailbereiche sind beispielsweise die Kontrollflusssicht und die Datenflusssicht, welche oft durch Aktivitäts-zentrierte beziehungsweise Objekt-zentrierte Prozessmodelle abgebildet werden. In der vorliegenden Arbeit werden Algorithmen zur Transformation zwischen diesen Sichten beschrieben. Zur Sicherstellung der Modellkorrektheit wird das Konzept der „weak conformance“ zur Überprüfung der Konsistenz zwischen Objektlebenszyklen und dem Prozessmodell eingeführt. Dabei darf das Prozessmodell nur Datenmanipulationen enthalten, die auch in einem Objektlebenszyklus spezifiziert sind. Die Korrektheit wird mittels Soundness-Überprüfung einer hybriden Darstellung ermittelt, so dass Kontrollfluss- und Datenkorrektheit integriert überprüft werden. Um eine korrekte Ausführung des Prozessmodells zu gewährleisten, müssen gefundene Inkonsistenzen korrigiert werden. Dafür werden für jede Inkonsistenz alternative Vorschläge zur Modelladaption identifiziert und vorgeschlagen. Zusammengefasst, unter Einsatz der Ergebnisse dieser Dissertation können Geschäftsprozesse modellgetrieben ausgeführt werden unter Berücksichtigung sowohl von Daten als auch den zuvor bereits unterstützten Perspektiven bezüglich Kontrollfluss und Verantwortlichkeiten. Dabei wird die Modellerstellung teilweise mit automatisierten Algorithmen unterstützt und die Modellkonsistenz durch Datenkorrektheitsüberprüfungen gewährleistet. N2 - Business process management (BPM) is a systematic and structured approach to model, analyze, control, and execute business operations also referred to as business processes that get carried out to achieve business goals. Central to BPM are conceptual models. Most prominently, process models describe which tasks are to be executed by whom utilizing which information to reach a business goal. Process models generally cover the perspectives of control flow, resource, data flow, and information systems. Execution of business processes leads to the work actually being carried out. Automating them increases the efficiency and is usually supported by process engines. This, though, requires the coverage of control flow, resource assignments, and process data. While the first two perspectives are well supported in current process engines, data handling needs to be implemented and maintained manually. However, model-driven data handling promises to ease implementation, reduces the error-proneness through graphical visualization, and reduces development efforts through code generation. This thesis addresses the modeling, analysis, and execution of data in business processes and presents a novel approach to execute data-annotated process models entirely model-driven. As a first step and formal grounding for the process execution, a conceptual framework for the integration of processes and data is introduced. This framework is complemented by operational semantics through a Petri net mapping extended with data considerations. Model-driven data execution comprises the handling of complex data dependencies, process data, and data exchange in case of communication between multiple process participants. This thesis introduces concepts from the database domain into BPM to enable the distinction of data operations, to specify relations between data objects of the same as well as of different types, to correlate modeled data nodes as well as received messages to the correct run-time process instances, and to generate messages for inter-process communication. The underlying approach, which is not limited to a particular process description language, has been implemented as proof-of-concept. Automation of data handling in business processes requires data-annotated and correct process models. Targeting the former, algorithms are introduced to extract information about data nodes, their states, and data dependencies from control information and to annotate the process model accordingly. Usually, not all required information can be extracted from control flow information, since some data manipulations are not specified. This requires further refinement of the process model. Given a set of object life cycles specifying allowed data manipulations, automated refinement of the process model towards containment of all data manipulations is enabled. Process models are an abstraction focusing on specific aspects in detail, e.g., the control flow and the data flow views are often represented through activity-centric and object-centric process models. This thesis introduces algorithms for roundtrip transformations enabling the stakeholder to add information to the process model in the view being most appropriate. Targeting process model correctness, this thesis introduces the notion of weak conformance that checks for consistency between given object life cycles and the process model such that the process model may only utilize data manipulations specified directly or indirectly in an object life cycle. The notion is computed via soundness checking of a hybrid representation integrating control flow and data flow correctness checking. Making a process model executable, identified violations must be corrected. Therefore, an approach is proposed that identifies for each violation multiple, alternative changes to the process model or the object life cycles. Utilizing the results of this thesis, business processes can be executed entirely model-driven from the data perspective in addition to the control flow and resource perspectives already supported before. Thereby, the model creation is supported by algorithms partly automating the creation process while model consistency is ensured by data correctness checks. KW - business process management KW - process automation KW - model-driven KW - data KW - data objects KW - model transformation KW - data correctness checking KW - process refinement KW - data extraction KW - data states KW - formal framework KW - process and data integration KW - Geschäftsprozessmanagement KW - Prozessautomatisierung KW - Modellgetrieben KW - Daten KW - Datenobjekte KW - Modelltransformation KW - Datenkorrektheit KW - Prozessverfeinerung KW - Datenextraktion KW - Datenzustände KW - formales Framework KW - Prozess- und Datenintegration Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-84806 ER - TY - THES A1 - Hunke, Philip Paul T1 - The Brazilian Cerrado: ecohydrological assessment of water and soil degradation in heavily modified meso-scale catchments T1 - Der brasilianische Cerrado: ökohydrologische Analyse von Boden- und Wasserdegradierung in intensiv landwirtschaftlich genutzten mesoskaligen Einzugsgebieten N2 - The Brazilian Cerrado is recognised as one of the most threatened biomes in the world, as the region has experienced a striking change from natural vegetation to intense cash crop production. The impacts of rapid agricultural expansion on soil and water resources are still poorly understood in the region. Therefore, the overall aim of the thesis is to improve our understanding of the ecohydrological processes causing water and soil degradation in the Brazilian Cerrado. I first present a metaanalysis to provide quantitative evidence and identifying the main impacts of soil and water alterations resulting from land use change. Second, field studies were conducted to (i) examine the effects of land use change on soils of natural cerrado transformed to common croplands and pasture and (ii) indicate how agricultural production affects water quality across a meso-scale catchment. Third, the ecohydrological process-based model SWAT was tested with simple scenario analyses to gain insight into the impacts of land use and climate change on the water cycling in the upper São Lourenço catchment which experienced decreasing discharges in the last 40 years. Soil and water quality parameters from different land uses were extracted from 89 soil and 18 water studies in different regions across the Cerrado. Significant effects on pH, bulk density and available P and K for croplands and less-pronounced effects on pastures were evident. Soil total N did not differ between land uses because most of the cropland sites were N-fixing soybean cultivations, which are not artificially fertilized with N. By contrast, water quality studies showed N enrichment in agricultural catchments, indicating fertilizer impacts and potential susceptibility to eutrophication. Regardless of the land use, P is widely absent because of the high-fixing capacities of deeply weathered soils and the filtering capacity of riparian vegetation. Pesticides, however, were consistently detected throughout the entire aquatic system. In several case studies, extremely high-peak concentrations exceeded Brazilian and EU water quality limits, which pose serious health risks. My field study revealed that land conversion caused a significant reduction in infiltration rates near the soil surface of pasture (–96 %) and croplands (–90 % to –93 %). Soil aggregate stability was significantly reduced in croplands than in cerrado and pasture. Soybean crops had extremely high extractable P (80 mg kg–1), whereas pasture N levels declined. A snapshot water sampling showed strong seasonality in water quality parameters. Higher temperature, oxi-reduction potential (ORP), NO2–, and very low oxygen concentrations (<5 mg•l–1) and saturation (<60 %) were recorded during the rainy season. By contrast, remarkably high PO43– concentrations (up to 0.8 mg•l–1) were measured during the dry season. Water quality parameters were affected by agricultural activities at all sampled sub-catchments across the catchment, regardless of stream characteristic. Direct NO3– leaching appeared to play a minor role; however, water quality is affected by topsoil fertiliser inputs with impact on small low order streams and larger rivers. Land conversion leaving cropland soils more susceptible to surface erosion by increased overland flow events. In a third study, the field data were used to parameterise SWAT. The model was tested with different input data and calibrated in SWAT-CUP using the SUFI-2 algorithm. The model was judged reliable to simulate the water balance in the Cerrado. A complete cerrado, pasture and cropland cover was used to analyse the impact of land use on water cycling as well as climate change projections (2039–2058) according to the projections of the RCP 8.5 scenario. The actual evapotranspiration (ET) for the cropland scenario was higher compared to the cerrado cover (+100 mm a–1). Land use change scenarios confirmed that deforestation caused higher annual ET rates explaining partly the trend of decreased streamflow. Taking all climate change scenarios into account, the most likely effect is a prolongation of the dry season (by about one month), with higher peak flows in the rainy season. Consequently, potential threats for crop production with lower soil moisture and increased erosion and sediment transport during the rainy season are likely and should be considered in adaption plans. From the three studies of the thesis I conclude that land use intensification is likely to seriously limit the Cerrado’s future regarding both agricultural productivity and ecosystem stability. Because only limited data are available for the vast biome, we recommend further field studies to understand the interaction between terrestrial and aquatic systems. This thesis may serve as a valuable database for integrated modelling to investigate the impact of land use and climate change on soil and water resources and to test and develop mitigation measures for the Cerrado in the future. N2 - Ökohydrologische Interaktionen in Folge von exzessiver Bodenerosion auf landwirtschaftlich stark modifizierten Flächen können speziell in tropischen Gebieten einen großen Einfluss auf die Fruchtbarkeit und zukünftige Nutzbarkeit der Böden haben, wie dies im Cerrado geschieht. Der brasilianische Cerrado ist eine neotropische Savanne und stellt mit 2 Mio. km² das zweitgrößte Biom Südamerikas dar. Das Biom wird global unter den bedeutendsten aber auch meist gefährdetsten 25 Biodiversitätshotspots gelistet. Ein extremer Landnutzungswandel führt dazu, dass der Cerrado zu den weltweit bedeutendsten landwirtschaftlichen Gebieten zählt und mittlerweile > 50 % des Bioms abgeholzt sind. Durch staatliche Subventionsprogramme, Aufkalkung und Düngung der Böden werden mehrere Ernten (v.a. Soja, Mais, Zuckerrohr und Baumwolle) pro Jahr bei hohem Ertrag realisiert. Aufgrund weniger Untersuchungen ist bisher unklar, wie sich die Landnutzungsintensivierung mit dem Einsatz großer Mengen an Agrochemikalien auf die Boden- und Wasserressourcen auswirkt. Um die Zielsetzung zu erreichen, wurden in einer umfassenden Metaanalyse Boden- und Wasserqualitätsparameter von mehr als 100 Einzelstudien analysiert, mehrere Feldkampagnen zur Erhebung bodenphysikochemischer und Wasserqualitätsparameter für unterschiedliche Landnutzungen durchgeführt und Modellierungen mit SWAT zur Abschätzung des Landnutzungs- und Klimawandels vorgenommen. Die Literaturanalyse konnte zeigen, dass Erosion, Veränderungen des Nährstoffkreislaufs, Nährstoffanreicherungen und sehr hohe Pestizidkonzentrationen in den Gewässern des gesamten Cerrado auftreten, mit stärkster Ausprägung für Ackerflächen. Trotz hoher Düngemengen wird festgestellt, dass P nur in sehr geringen Konzentrationen in den Gewässern nachgewiesen wird, welches auf die P-Fixierung der Böden und die Filterleistung der Uferrandstreifen zurückzuführen ist. In einer Feldstudie bestätigen sich die Ergebnisse, dass der Landnutzungswandel zu deutlichen Änderungen der boden-physikochemischen Parameter führt, wie z.B. einer signifikanten Abnahme der hydraulischen Leitfähigkeit (> –90 %) und der Bodenaggregatstabilität. Außerdem werden erhöhte pH-Werte und Überdüngung anzeigende P und K-gehalte im Oberboden (9-fach natürlicher Hintergrund) mit der stärksten Ausprägung unter Soja gemessen. Die Niederschlagsintensitäten überschreiten die Infiltrationskapazität der landwirtschaftlich genutzten Böden, wodurch es zu erhöhtem Oberflächenabfluss, Bodenerosionsereignissen mit Gullyformierungen kommt und der Eintrag von Agrochemikalien in die zuvor pristinen Gewässer begünstigt wird. Verglichen mit natürlichen Gewässern konnten im gesamten Einzugsgebiet niedrigere O2-Werte (< 5 mg l–1) sowie erhöhte NO3– (0.5 mg l–1), NO2– (0.1 mg l–1) und in der Trockenzeit auf direkte Düngung zurückzuführende sehr hohe PO43– (0.8 mg l–1) Konzentrationen festgestellt werden. Da in den Bodenprofilen keine Tiefenakkumulation von NPK nachgewiesen wurde ist davon auszugehen, dass Dünger durch Oberflächenabflussprozesse in das Flusssystem gelangen. Auch wenn die Nährstoffkonzentrationen nach europäischen Maßstäben gering sind, ist anzunehmen, dass in einem nährstofflimitierten System wie dem Cerrado die um ein vielfach erhöhte Konzentration der natürlichen Hintergrundwerte den Metabolismus der Gewässer negativ beeinflusst. In einer dritten Studie wird mit SWAT untersucht wie sich der Landnutzungs- und Klimawandel auf die Wasserbilanz auswirkt. In Testläufen zeigt sich, dass sowohl die verwendeten Niederschlagseingangsdaten als auch die Vegetationsparameter des natürlichen Cerrados von hoher Relevanz sind. Die Simulation verschiedener Landnutzungsszenarien belegt, dass die im Gebiet beobachteten abnehmenden Abflüsse auf die Zunahme landwirtschaftlicher Produktion und einer damit einhergehenden Zunahme der Evapotranspiration zurückzuführen sind. Die Simulation extremer Klimaszenarien (RCP 8.5 2039-2058) verdeutlicht, dass sich die Trockenzeit verlängert, welches Auswirkungen auf die Aussaattermine haben könnte. Gleichzeitig nehmen die Spitzenabflüsse in der Regenzeit zu, welches ohne entsprechende Gegenmaßnahmen zu erhöhter Erosion und gesteigertem Nähr- und Schadstofftransport in die Gewässer führt. Kombiniert mit einer weiteren Landnutzungsintensivierung wird für die zukünftige Entwicklung des Cerrado geschlussfolgert, dass die Veränderungen des Wasser- und Nährstoffhaushalt durch die Landwirtschaft und die damit einhergehenden Degradierungserscheinungen die Produktivität und Ökosystemstabilität nicht dauerhaft gewährleisten werden können. Die vorliegende Dissertation liefert einen zentralen Beitrag zur ökohydrologischen Bewertung des Status quo und der zukünftigen Entwicklung des brasilianischen Cerrados. Sie kann einen Ausgangspunkt für weitere Forschungen und Modellierungen darstellen, um die in dieser Arbeit benannten offenen Fragen hinsichtlich der ökohydrologischen Interaktionen zu klären. KW - Cerrado KW - ecohydrology KW - water KW - soil KW - deforestation KW - Cerrado KW - Ökohydrologie KW - Landnutzung KW - Boden KW - Wasser Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85110 ER - TY - THES A1 - Kieling, Katrin T1 - Quantification of ground motions by broadband simulations T1 - Quantifizierung von Bodenbewegung durch Breitband-Simulationen N2 - In many procedures of seismic risk mitigation, ground motion simulations are needed to test systems or improve their effectiveness. For example they may be used to estimate the level of ground shaking caused by future earthquakes. Good physical models for ground motion simulation are also thought to be important for hazard assessment, as they could close gaps in the existing datasets. Since the observed ground motion in nature shows a certain variability, part of which cannot be explained by macroscopic parameters such as magnitude or position of an earthquake, it would be desirable that a good physical model is not only able to produce one single seismogram, but also to reveal this natural variability. In this thesis, I develop a method to model realistic ground motions in a way that is computationally simple to handle, permitting multiple scenario simulations. I focus on two aspects of ground motion modelling. First, I use deterministic wave propagation for the whole frequency range – from static deformation to approximately 10 Hz – but account for source variability by implementing self-similar slip distributions and rough fault interfaces. Second, I scale the source spectrum so that the modelled waveforms represent the correct radiated seismic energy. With this scaling I verify whether the energy magnitude is suitable as an explanatory variable, which characterises the amount of energy radiated at high frequencies – the advantage of the energy magnitude being that it can be deduced from observations, even in real-time. Applications of the developed method for the 2008 Wenchuan (China) earthquake, the 2003 Tokachi-Oki (Japan) earthquake and the 1994 Northridge (California, USA) earthquake show that the fine source discretisations combined with the small scale source variability ensure that high frequencies are satisfactorily introduced, justifying the deterministic wave propagation approach even at high frequencies. I demonstrate that the energy magnitude can be used to calibrate the high-frequency content in ground motion simulations. Because deterministic wave propagation is applied to the whole frequency range, the simulation method permits the quantification of the variability in ground motion due to parametric uncertainties in the source description. A large number of scenario simulations for an M=6 earthquake show that the roughness of the source as well as the distribution of fault dislocations have a minor effect on the simulated variability by diminishing directivity effects, while hypocenter location and rupture velocity more strongly influence the variability. The uncertainty in energy magnitude, however, leads to the largest differences of ground motion amplitude between different events, resulting in a variability which is larger than the one observed. For the presented approach, this dissertation shows (i) the verification of the computational correctness of the code, (ii) the ability to reproduce observed ground motions and (iii) the validation of the simulated ground motion variability. Those three steps are essential to evaluate the suitability of the method for means of seismic risk mitigation. N2 - In vielen Verfahren zur Minimierung seismischen Risikos braucht man Seismogramme, um die Effektivität von Systemen zu testen oder diese zu verbessern. So können realistische Bodenbewegungen genutzt werden, um das Ausmaß der Erschütterungen durch zukünftige Erdbeben abzuschätzen. Gute physikalische Bodenbewegungsmodelle haben auch das Potential, Lücken in den beobachteten Datensätzen zu schließen und somit Gefährdungsabschätzungen zu verbessern. Da die in der Natur beobachtete Bodenbewegung einer gewissen Variabilität unterliegt, von der ein Teil nicht durch makroskopische Parameter wie Magnitude oder Position des Erdbebens erklärt werden kann, ist es wünschenswert, dass ein gutes physikalisches Modell nicht nur ein einzelnes Seismogramm produziert, sondern auch die natürliche Variabilität widerspiegelt. In dieser Arbeit beschreibe ich eine Methode zur Modellierung von realistischen Bodenbewegungen, die – aufgrund ihrer einfachen Modellkonfiguration – mehrere Szenario-Simulationen ermöglicht. Dabei konzentriere ich mich auf zwei Aspekte: Einerseits nutze ich ein deterministisches Verfahren für die Wellenausbreitung für den gesamten Frequenzbereich, von der statischen Deformation bis etwa 10 Hz, unter Berücksichtigung der Variabilität der Quelle durch die Einbeziehung von selbstähnlichen Slipverteilungen und rauen Störungsflächen. Andererseits skaliere ich das Quellspektrum so, dass die modellierte Wellenform die abgestrahlte seismische Ener-gie wiedergibt. Damit überprüfe ich, ob die Energie-Magnitude als Stellgröße geeignet ist, die den Anteil der Energie beschreibt, der im Hochfrequenzbereich abgestrahlt wird. Der Vorteil der Energie- Magnitude ist, dass diese aus Beobachtungen, sogar in sehr kurzer Zeit, ermittelt werden kann. Anwendungen der entwickelten Methode für das Wenchuan (China) Erdbeben von 2008, das Tokachi-Oki (Japan) Erdbeben von 2003 und das Northridge (Kalifornien, USA) Erdbeben von 1994 demonstrieren, dass durch eine feine Diskretisierung und kleinskalige Variabilität in der Quelle hohe Frequenzen ausreichend in die Wellenform eingeführt werden, was den deterministischen Ansatz auch im Hochfrequenzbereich bestätigt. Ich zeige, dass die Energie-Magnitude verwendet werden kann um den Hochfrequenzanteil in Bodenbewegungssimulationen zu kalibrieren. Da die determistische Wellenausbreitung auf den gesamten Frequenzbereich angewandt wird, können die Variabilitäten, die durch parametrische Unsicherheiten in der Quellbeschreibung entstehen, beziffert werden. Zahlreiche Simulationen für ein M=6 Beben zeigen, dass die Rauigkeit der Quelle und die Slipverteilung durch Minderung der Direktivitätseffekte die simulierte Variabilität der Bodenbewegung geringfügig verringern. Dagegen haben die Bruchgeschwindigkeit und die Lage des Hypozentrums einen stärkeren Einfluss auf die Variabilität. Die Unsicherheit in der Energie-Magnitude dagegen führt zu großen Unterschieden zwischen verschiedenen Erdbebensimulationen, welche größer sind als die beobachtete Variabilität von Bodenbewegungen. In Bezug auf die vorgestellte Methode zeigt diese Arbeit (i) den Nachweis der Richtigkeit des Computerprogramms, (ii) die Eignung zur Modellierung beobachteter Bodenbewegung und (iii) den Vergleich der simulierten Variabilität von Bodenbewegung mit der beobachteten. Dies sind die ersten drei Schritte auf dem Weg zur Nutzbarkeit von Bodenbewegungssimulationen in Maßnahmen zur Verminderung des seismischen Risikos. KW - ground motions KW - earthquake KW - simulation KW - seismic risk KW - ground motion variability KW - Bodenbewegung KW - Erdbeben KW - seismisches Risiko KW - Simulation KW - Variabilität von Bodenbewegung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85989 ER - TY - THES A1 - Jantz, Bastian T1 - The dynamics of accountability in public sector reforms T1 - Accountability-Dynamiken und Reformen des öffentlichen Sektors N2 - This PhD thesis is essentially a collection of six sequential articles on dynamics of accountability in the reformed employment and welfare administration in different countries. The first article examines how recent changes in the governance of employment services in three European countries (Denmark, Germany and Norway) have influenced accountability relationships from a very wide-ranging perspective. It starts from the overall assumption in the literature that accountability relationships are becoming more numerous and complex, and that these changes may lead to multiple accountability disorder. The article explores these assumptions by analyzing the different actors involved and the information requested in the new governance arrangements in all three countries. It concludes that the considerable changes in organizational arrangements and more managerial information demanded and provided have led to more shared forms of accountability. Nevertheless, a clear development towards less political or administrative accountability could not be observed. The second article analyzes how the structure and development of reform processes affect accountability relationships and via what mechanisms. It is distinguished between an instrumental perspective and an institutional perspective and each of these perspectives takes a different view on the link between reforms and concrete action and results. By taking the welfare reforms in Norway and Germany as an example, it is shown that the reform outcomes in both countries are the result of a complex process of powering, puzzling and institutional constraints where different situational interpretations of problems, interests and administrative legacies had to be balanced. Accountability thus results not from a single process of environmental necessity or strategic choice, but from a dynamic interplay between different actors and institutional spheres. The third article then covers a specific instrument of public sector reforms, i.e. the increasing use of performance management. The article discusses the challenges and ambiguities between performance management and different forms of accountability based on the cases of the reformed welfare administration in Norway and Germany. The findings are that the introduction of performance management creates new accountability structures which influence service delivery, but not necessarily in the direction expected by reform agents. Observed unintended consequences include target fixation, the displacement of political accountability and the predominance of control aspects of accountability. The fourth article analyzes the accountability implications of the increasingly marketized models of welfare governance. It has often been argued that relocating powers and discretion to private contractors involve a trade-off between democratic accountability and efficiency. However, there is limited empirical evidence of how contracting out shapes accountability or is shaped by alternative democratic or administrative forms of accountability. Along these lines the article examines employment service accountability in the era of contracting out in Germany, Denmark and Great Britain. It is found that market accountability instruments are complementary instruments, not substitutes. The findings highlight the importance of administrative and political instruments in legitimizing marketized service provision and shed light on the processes that lead to the development of a hybrid accountability model. The fifth and sixth articles focus on the diagonal accountability relationships between public agencies, supreme audit institutions (SAI) and parental ministry or parliament. The fifth article examines the evolving role of SAIs in Denmark, Germany and Norway focusing particularly on their contribution to public accountability and their ambivalent relationship with some aspects of public sector reform in the welfare sector. The article analyzes how SAIs assess New Public Management inspired reforms in the welfare sector in the three countries. The analysis shows that all three SAIs have taken on an evaluative role when judging New Public Management instruments. At the same time their emphasis on legality and compliance can be at odds with some of the operating principles introduced by New Public Management reforms. The sixth article focuses on the auditing activities of the German SAI in the field of labor market administration as a single in-depth case study. The purpose is to analyze how SAIs gain impact in diagonal accountability settings. The results show that the direct relationship between auditor and auditee based on cooperation and trust is of outstanding importance for SAIs to give effect to their recommendations. However, if an SAI has to rely on actors of diagonal accountability, it is in a vulnerable position as it might lose control over the interpretation of its results. N2 - Die öffentliche Verwaltung sieht sich einem immer stärker werdenden Legitimationsdruck ausgesetzt, da Verwaltungshandeln nicht mehr nur innerhalb hierarchisch strukturierter Behörden erfolgt, sondern eine Vielzahl von Akteuren (öffentlich und privat) – mit für den Bürger teilweise unklaren Zuständigkeiten – beteiligt sind. Die Beziehungen zwischen den Akteuren innerhalb dieser Netzwerke folgen nicht länger einer klaren Hierarchie, sondern es entwickeln sich unübersichtliche Strukturen, innerhalb derer es schwierig ist, konkrete Instanzen zur Verantwortung zu ziehen. Die Pluralisierung und Dynamisierung von Governance-Strukturen verändert somit die Legitimationsgrundlage staatlichen Handelns. Kritische Stimmen sprechen in diesem Zusammenhang gar von einem Legitimationsdefizit. Zentral innerhalb dieser Diskussion ist das Konzept der Accountability, definiert als Beziehung, in deren Rahmen ein Akteur einem anderen Akteur gegenüber eine Verpflichtung zur Rechenschaft eingeht und von diesem Gegenüber für diese Rechenschaft im Gegenzug legitimiert wird oder auch sanktioniert werden kann. Ganz im Gegensatz zu der gestiegenen Aufmerksamkeit für Accountability fehlt es derzeit an einer systematischen Diskussion über den Bedeutungs- und Formenwandel von Accountability. Accountability-Phänomene werden weiterhin mit den Maßstäben tradierter und vergleichsweise statischer Accountability-Konzepte behandelt. Die vorliegende Arbeit setzt hier an, indem Accountability als soziale Beziehung konzeptualisiert und analysiert wird. Accountability-Beziehungen sind somit als dynamische Arrangements zu verstehen, die Prozesse des Wandels, der Reform, Veränderung, Hybridisierung oder Transformation durchlaufen können. Dieses konzeptionelle Verständnis von Accountability-Dynamiken wird in der Folge auf die jüngsten Reformen im Wohlfahrtsstaat, insbesondere in der Arbeitsmarktpolitik, angewendet. Wohlfahrtsstattliche Systeme stehen seit geraumer Zeit unter Reform- und Anpassungsdruck, gängige Kritikpunkte sind mangelnde Effizienz und Nachhaltigkeit sowie sinkende öffentliche Unterstützung. Politische Legitimität und Verantwortlichkeit ist dabei eine der Grundvoraussetzungen für das Fortbestehen des Wohlfahrtsstaates kontinentaleuropäischer Prägung. Daher untersucht die Arbeit, in welcher Form die jüngsten Wohlfahrtsstaatreformen die Accountability-Strukturen beeinflusst haben. Dabei haben die jüngsten Modernisierungsansätze im Zuge der internationalen Reformbewegung des „New Public Management“ auch im Bereich der Arbeitsmarktverwaltung das Verhältnis zwischen demokratischer, politischer Accountability auf der einen Seite und organisatorischer Autonomie der administrativen Einheiten zur Erbringung von arbeitsmarktpolitischen Dienstleistungen auf der anderen Seite, verändert. Somit gerät das Spannungsverhältnis zwischen Legitimation und Effizienz in den Blickpunkt. Wie können die unterschiedlichen Verantwortlichkeiten (Ergebnis- und Leistungsverantwortung der dezentralen Ebenen und politische Verantwortung der gewählten Körperschaften) verknüpft werden? Wie verändert sich die Rechenschaftspflicht nachgeordneter Organisationen im Bereich der Arbeitsmarktpolitik durch zunehmende autonome Kompetenzen? Der Analysefokus richtet sich somit primär auf Organisationsreformen und deren Einfluss auf die Veränderung der Verantwortlichkeitsstrukturen in der Arbeitsmarktverwaltung in unterschiedlichen Ländern (Norwegen, Dänemark, Großbritannien und Deutschland). KW - accountability KW - administrative reforms KW - employment services KW - Accountability KW - Rechenschaftspflicht KW - Verwaltungsreformen KW - Arbeitsmarktpolitik Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78131 ER - TY - THES A1 - Grubic, Mira T1 - Focus and alternative sensitivity in Ngamo (West-Chadic) T1 - Fokus und Alternativensensitivität in Ngamo (Westtschadisch) N2 - The main research question of this thesis concerns the relation between focus interpretation, focus realization, and association with focus in the West Chadic language Ngamo. Concerning the relation between focus realization and interpretation, this thesis contributes to the question, cross-linguistically, what factors influence a marked realization of the focus/background distinction. There is background-marking rather than focus-marking in Ngamo, and the background marker is related to the definite determiner in the language. Using original fieldwork data as a basis, a formal semantic analysis of the background marker as a definite determiner of situations is proposed. Concerning the relation between focus and association with focus, the thesis adds to the growing body of crosslinguistic evidence that not all so-called focus-sensitive operators always associate with focus. The thesis shows that while the exclusive particle yak('i) (= "only") in Ngamo conventionally associates with focus, the particles har('i) (= "even, as far as, until, already"), and ke('e) (= "also, and") do not. The thesis provides an analysis of these phenomena in a situation semantic framework. N2 - Diese Arbeit untersucht die Verbindung zwischen Fokusinterpretation, Fokusrealisierung und Assoziation mit Fokus in der westtschadischen Sprache Ngamo. Was den Zusammenhang zwischen Fokusinterpretation und -realisierung angeht, leistet diese Arbeit einen Beitrag zu der Frage, welche Faktoren in verschiedenen Sprachen für markierte Realisierung von Fokus zuständig sind. Ngamo ist in diesem Zusammenhang besonders interessant, da es Hintergrundierung statt Fokus markiert (Schuh, 2005). Was den Zusammenhang zwischen Fokus und Assoziation mit Fokus angeht, liefert die Arbeit weitere Evidenz dafür, dass sogenannte fokussensitive Partikeln nicht in allen Sprachen obligatorisch mit Fokus assoziieren müssen. Sie zeigt dass obwohl die Partikel yak'i ("nur") in Ngamo konventionell mit Fokus assoziiert, die Partikeln har('i) (= "sogar, bis, schon") und ke('e) (= "auch, und") dies nicht tun. Die Arbeit analysiert diese Phänomene mit Hilfe eines situationssemantischen Ansatzes. KW - focus KW - focus-sensitivity KW - formal semantics KW - African languages KW - definiteness KW - situation semantics KW - Fokus KW - Fokussensitivität KW - formale Semantik KW - Situationssemantik KW - afrikanische Sprachen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-81666 ER - TY - THES A1 - Eid-Sabbagh, Rami-Habib T1 - Business process architectures BT - concepts, formalism, and analysis N2 - Business Process Management has become an integral part of modern organizations in the private and public sector for improving their operations. In the course of Business Process Management efforts, companies and organizations assemble large process model repositories with many hundreds and thousands of business process models bearing a large amount of information. With the advent of large business process model collections, new challenges arise as structuring and managing a large amount of process models, their maintenance, and their quality assurance. This is covered by business process architectures that have been introduced for organizing and structuring business process model collections. A variety of business process architecture approaches have been proposed that align business processes along aspects of interest, e. g., goals, functions, or objects. They provide a high level categorization of single processes ignoring their interdependencies, thus hiding valuable information. The production of goods or the delivery of services are often realized by a complex system of interdependent business processes. Hence, taking a holistic view at business processes interdependencies becomes a major necessity to organize, analyze, and assess the impact of their re-/design. Visualizing business processes interdependencies reveals hidden and implicit information from a process model collection. In this thesis, we present a novel Business Process Architecture approach for representing and analyzing business process interdependencies on an abstract level. We propose a formal definition of our Business Process Architecture approach, design correctness criteria, and develop analysis techniques for assessing their quality. We describe a methodology for applying our Business Process Architecture approach top-down and bottom-up. This includes techniques for Business Process Architecture extraction from, and decomposition to process models while considering consistency issues between business process architecture and process model level. Using our extraction algorithm, we present a novel technique to identify and visualize data interdependencies in Business Process Data Architectures. Our Business Process Architecture approach provides business process experts,managers, and other users of a process model collection with an overview that allows reasoning about a large set of process models, understanding, and analyzing their interdependencies in a facilitated way. In this regard we evaluated our Business Process Architecture approach in an experiment and provide implementations of selected techniques. N2 - Geschäftsprozessmanagement nimmt heutzutage eine zentrale Rolle zur Verbesserung von Geschäftsabläufen in Organisationen des öffentlichen und privaten Sektors ein. Im Laufe von Geschäftsprozessmanagementprojekten entstehen große Prozessmodellsammlungen mit hunderten und tausenden Prozessmodellen, die vielfältige Informationen enthalten. Mit der Entstehung großer Prozessmodellsammlungen, entstehen neue Herausforderungen. Diese beinhalten die Strukturierung und Organisation vieler Prozessmodelle, ihre Pflege und Aktualisierung, sowie ihre Qualitätssicherung. Mit diesen Herausforderungen befassen sich Geschäftsprozessarchitekturen. Viele der aktuellen Geschäftsprozessarchitekturen ordnen Geschäftsprozesse nach bestimmen Aspekten von Interesse, zum Beispiel, nach Zielen, Funktionen, oder Geschäftsobjekten. Diese Herangehensweisen bieten eine sehr abstrakte Kategorisierung von einzelnen Geschäftsprozessen, wobei sie wichtige Abhängigkeiten zwischen Prozessen ignorieren und so wertvolle Informationen verbergen. Die Produktion von Waren und das Anbieten von Dienstleistungen bilden ein komplexes System untereinander abhängiger Geschäftsprozesse. Diesbezüglich ist es unabdingbar eine ganzheitliche Sicht auf Geschäftsprozesse und ihre Abhängigkeiten zu schaffen, um die Geschäftsprozesse zu organisieren, zu analysieren und zu optimieren. Die Darstellung von Geschäftsprozessabhängigkeiten zeigt versteckte und implizite Informationen auf, die bisher in Geschäftsprozesssammlungen verborgen blieben. In dieser Arbeit stellen wir eine Geschäftsprozessarchitekturmethodik vor, die es erlaubt Geschäftsprozessabhänigigkeiten auf einer abstrakten Ebene darzustellen und zu analysieren. Wir führen eine formale Definition unserer Geschäftsprozessarchitektur und entsprechende Korrektheitskriterien ein. Darauf aufbauend stellen wir Analysetechniken für unsere Geschäftsprozessarchitektur vor. In einem Anwendungsrahmenwerk eläutern wir die top-down und bottomup Anwendung unserer Geschäftsprozessarchitekturmethodik. Dies beinhaltet die Beschreibung von Algorithmen zur Extraktion von Geschäftsprozessarchitekturen und zur Generierung von Prozessmodellen aus Geschäftsprozessarchitekturen, die die Konsistenz zwischen den Elementen auf Prozessmodellebene und Geschäftsprozessarchitekturebene gewährleisten. Aufbauend auf dem Extraktionsalgorithmus, stellen wir eine neue Technik zur Identifizierung, Extraktion, und Visualisierung von versteckten Datenabhängigkeiten zwischen Prozessmodellen in Geschäftsprozessdatenarchitekturen vor. Unsere Arbeit stellt Geschäftsprozessexperten, Manager, und Nutzern einer Geschäftsprozessmodellsammlung eine Methodik zur Verfügung, die es ihnen ermöglicht und vereinfacht, eine Übersicht über Prozesse und ihren Abhängigkeiten zu erstellen, diese zu verstehen und zu analysieren. Diesbezüglich haben wir unsere Geschäftsprozessarchitekturmethodik in einem empirischen Experiment auf ihre Anwendbarkeit und Effektivität untersucht und zur weiteren Evaluierung ausgewählte Algorithmen implementiert. KW - business process architecture KW - bpm KW - formalism KW - analysis KW - abstraction KW - Prozessarchitektur KW - Geschäftsprozessmanagement KW - Analyse KW - Abstraktion Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-79719 ER - TY - THES A1 - Vlasov, Vladimir T1 - Synchronization of oscillatory networks in terms of global variables T1 - Synchronisation in Netzwerken von Oszillatoren via globaler Variabler N2 - Synchronization of large ensembles of oscillators is an omnipresent phenomenon observed in different fields of science like physics, engineering, life sciences, etc. The most simple setup is that of globally coupled phase oscillators, where all the oscillators contribute to a global field which acts on all oscillators. This formulation of the problem was pioneered by Winfree and Kuramoto. Such a setup gives a possibility for the analysis of these systems in terms of global variables. In this work we describe nontrivial collective dynamics in oscillator populations coupled via mean fields in terms of global variables. We consider problems which cannot be directly reduced to standard Kuramoto and Winfree models. In the first part of the thesis we adopt a method introduced by Watanabe and Strogatz. The main idea is that the system of identical oscillators of particular type can be described by a low-dimensional system of global equations. This approach enables us to perform a complete analytical analysis for a special but vast set of initial conditions. Furthermore, we show how the approach can be expanded for some nonidentical systems. We apply the Watanabe-Strogatz approach to arrays of Josephson junctions and systems of identical phase oscillators with leader-type coupling. In the next parts of the thesis we consider the self-consistent mean-field theory method that can be applied to general nonidentical globally coupled systems of oscillators both with or without noise. For considered systems a regime, where the global field rotates uniformly, is the most important one. With the help of this approach such solutions of the self-consistency equation for an arbitrary distribution of frequencies and coupling parameters can be found analytically in the parametric form, both for noise-free and noisy cases. We apply this method to deterministic Kuramoto-type model with generic coupling and an ensemble of spatially distributed oscillators with leader-type coupling. Furthermore, with the proposed self-consistent approach we fully characterize rotating wave solutions of noisy Kuramoto-type model with generic coupling and an ensemble of noisy oscillators with bi-harmonic coupling. Whenever possible, a complete analysis of global dynamics is performed and compared with direct numerical simulations of large populations. N2 - Die Synchronisation einer großen Menge von Oszillatoren ist ein omnipräsentes Phänomen, das in verschiedenen Forschungsgebieten wie Physik, Ingenieurwissenschaften, Medizin und Weiteren beobachtet wird. In der einfachsten Situation ist von einer Menge Phasenoszillatoren jeder mit dem Anderen gekoppelt und trägt zu einem gemeinsamen Feld (dem sogenannten mean field) bei, das auf alle Oszillatoren wirkt. Dieser Formulierung wurde von Winfree und Kuramoto der Weg bereitet und sie birgt die Möglichkeit einer Analyse des Systems mithilfe von globalen Variablen. In dieser Arbeit beschreiben wir mithilfe globaler Variablen die nicht-triviale kollektive Dynamik von Oszillatorpopulationen, welche mit einem mean field verbunden sind. Wir beschäftigen uns mit Problemen die nicht direkt auf die Standardmodelle von Kuramoto und Winfree reduziert werden können. Im ersten Teil der Arbeit verwenden wir eine Methode die auf Watanabe und Stro- gatz zurückgeht. Die Hauptidee ist, dass ein System von identischen Oszillatoren eines bestimmten Typs durch ein niedrig-dimensionales System von globalen Gleichungen beschrieben werden kann. Dieser Ansatz versetzt uns in die Lage eine vollständige analytische Untersuchung für eine spezielle jedoch große Menge an Anfangsbedingungen durchzuführen. Wir zeigen des Weiteren wie der Ansatz auf nicht-identische Systeme erweitert werden kann. Wir wenden die Methode von Watanabe und Strogatz auf Reihen von Josephson-Kontakten und auf identische Phasenoszillatoren mit einer Anführer-Kopplung an. Im nächsten Teil der Arbeit betrachten wir eine selbst-konsistente mean-field-Methode, die auf allgemeine nicht-identische global gekoppelte Phasenoszillatoren mit oder ohne Rauschen angewendet werden kann. Für die betrachteten Systeme gibt es ein Regime, in dem die globalen Felder gleichförmig rotieren. Dieses ist das wichtigste Regime. Es kann mithilfe unseres Ansatzes als Lösung einer Selbstkonsistenzgleichung für beliebige Verteilungen der Frequenzen oder Kopplungsstärken gefunden werden. Die Lösung liegt in einer analytischen, parametrischen Form sowohl für den Fall mit Rauschen, als auch für den Fall ohne Rauschen, vor. Die Methode wird auf ein deterministisches System der Kuramoto-Art mit generischer Kopplung und auf ein Ensemble von räumlich verteilten Oszillatoren mit Anführer-Kopplung angewendet. Zuletzt sind wir in der Lage, die Rotierende-Wellen-Lösungen der Kuramoto-artigen Modelle mit generischer Kopplung, sowie ein Ensemble von verrauschten Oszillatoren mit bi-harmonischer Kopplung, mithilfe des von uns vorgeschlagenen selbst-konsistenten Ansatzes vollständig zu charakterisieren. Wann immer es möglich war, wurde eine vollständige Untersuchung der globalen Dynamik durchgeführt und mit numerischen Ergebnissen von großen Populationen verglichen. KW - synchronization KW - Synchronisation KW - complex networks KW - komplexe Netzwerke KW - global description Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78182 ER - TY - THES A1 - Metzner, Paul-Philipp T1 - Eye movements and brain responses in natural reading T1 - Blickbewegungen und Hirnströme im natürlichen Lesen N2 - Intuitively, it is clear that neural processes and eye movements in reading are closely connected, but only few studies have investigated both signals simultaneously. Instead, the usual approach is to record them in separate experiments and to subsequently consolidate the results. However, studies using this approach have shown that it is feasible to coregister eye movements and EEG in natural reading and contributed greatly to the understanding of oculomotor processes in reading. The present thesis builds upon that work, assessing to what extent coregistration can be helpful for sentence processing research. In the first study, we explore how well coregistration is suited to study subtle effects common to psycholinguistic experiments by investigating the effect of distance on dependency resolution. The results demonstrate that researchers must improve the signal-to-noise ratio to uncover more subdued effects in coregistration. In the second study, we compare oscillatory responses in different presentation modes. Using robust effects from world knowledge violations, we show that the generation and retrieval of memory traces may differ between natural reading and word-by-word presentation. In the third study, we bridge the gap between our knowledge of behavioral and neural responses to integration difficulties in reading by analyzing the EEG in the context of regressive saccades. We find the P600, a neural indicator of recovery processes, when readers make a regressive saccade in response to integration difficulties. The results in the present thesis demonstrate that coregistration can be a useful tool for the study of sentence processing. However, they also show that it may not be suitable for some questions, especially if they involve subtle effects. N2 - Es erscheint offensichtlich, dass neuronale Prozesse und Blickbewegungen im Lesen eng miteinander verwoben sind, aber nur wenige Studien haben beide Signale simultan betrachtet. Der übliche Ansatz ist, sie stattdessen in separaten Esxperimenten aufzuzeichnen und die Ergebnisse anschließend miteinander zu vereinbaren. Es wurde jedoch bereits gezeigt, dass Blickbewegungen und EEG im natürlichen Lesen koregistriert werden können; Studien, die diesen Ansatzes verfolgen, haben entscheidend zum Verständnis okulomotorischer Prozesse beim Lesen beigetragen. Von diesen Studien ausgehend erörtert die vorliegende Dissertation, inwieweit Koregistrierung auch für Satzverarbeitungsforschung nützlich sein kann. In der ersten Studie wird erörtert, wie gut Koregistrierung für die Erfassung schwacher Effekte geeignet ist, wie sie für psycholinguistische Experimente typisch sind. Die linguistische Fragestellung in dieser Studie ist, wie sich Distanz auf die Auflösung linguistischer Abhängigkeiten auswirkt. Die Ergebnisse verdeutlichen, dass Forscher den Signal-Rausch-Abstand erhöhen müssen, um kleinere Effekte mittels Koregistrierung zu erfassen. In der zweiten Studie werden neuronale Oszillationen in unterschiedlichen Präsentationsformen untersucht. Mithilfe robuster Effekte in Reaktion auf Weltwissensverletzungen wird gezeigt, dass Enkodierung und Abruf von Gedächtnisspuren sich zwischen natürlichem und wortweisem Lesen unterscheidet. In der dritten Studie wird eine Verbindung zwischen behavioralen und elektrophysiologischen Reaktionen auf Integrationsschwierigkeiten im Lesen hergestellt. Hierzu wird das EEG in An- und Abwesenheit regressiver Sakkaden analysiert. Die P600, eine neuronale Reflektion von Reparaturprozessen, ist nur im Kontext von regressiven Sakkaden in Reaktion auf Integrationsschwierigkeiten zu beobachen. Die Ergebnisse der vorliegenden Arbeit demonstrieren, dass Koregistrierung eine vielversprechende Methode für die Satzverarbeitungsforschung ist. Sie zeigen jedoch auch, dass Koregistrierung sich nicht für jede Fragestellung eignet, insbesondere, wenn schwache Effekte zu erwarten sind. KW - natural reading KW - sentence processing KW - eye tracking KW - EEG KW - coregistration KW - dependency resolution KW - neural oscillations KW - regressive saccades KW - natürliches Lesen KW - Satzverarbeitung KW - Blickbewegungen KW - EEG KW - Koregistrierung KW - Abhängigkeitsauflösung KW - neuronale Oszillationen KW - regressive Sakkaden Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82806 ER - TY - THES A1 - Kulikova, Galina T1 - Source parameters of the major historical earthquakes in the Tien-Shan region from the late 19th to the early 20th century T1 - Herdparameter von starken, historischen Erdbeben in der Tien-Shan Region zur Jahrhundertwende (19./20. Jahrhundert) N2 - The Tien-Shan and the neighboring Pamir region are two of the largest mountain belts in the world. Their deformation is dominated by intermontane basins bounded by active thrust and reverse faulting. The Tien-Shan mountain belt is characterized by a very high rate of seismicity along its margins as well as within the Tien-Shan interior. The study area of the here presented thesis, the western part of the Tien-Shan region, is currently seismically active with small and moderate sized earthquakes. However, at the end of the 19th beginning of the 20th century, this region was struck by a remarkable series of large magnitude (M>7) earthquakes, two of them reached magnitude 8. Those large earthquakes occurred prior to the installation of the global digital seismic network and therefore were recorded only by analog seismic instruments. The processing of the analog data brings several difficulties, for example, not always the true parameters of the recording system are known. Another complicated task is the digitization of those records - a very time-consuming and delicate part. Therefore a special set of techniques is developed and modern methods are adapted for the digitized instrumental data analysis. The main goal of the presented thesis is to evaluate the impact of large magnitude M≥7.0 earthquakes, which occurred at the turn of 19th to 20th century in the Tien-Shan region, on the overall regional tectonics. A further objective is to investigate the accuracy of previously estimated source parameters for those earthquakes, which were mainly based on macroseismic observations, and re-estimate them based on the instrumental data. An additional aim of this study is to develop the tools and methods for faster and more productive usage of analog seismic data in modern seismology. In this thesis, the ten strongest and most interesting historical earthquakes in Tien-Shan region are analyzed. The methods and tool for digitizing and processing the analog seismic data are presented. The source parameters of the two major M≥8.0 earthquakes in the Northern Tien-Shan are re-estimated in individual case studies. Those studies are published as peer-reviewed scientific articles in reputed journals. Additionally, the Sarez-Pamir earthquake and its connection with one of the largest landslides in the world, Usoy landslide, is investigated by seismic modeling. These results are also published as a research paper. With the developed techniques, the source parameters of seven more major earthquakes in the region are determined and their impact on the regional tectonics was investigated. The large magnitudes of those earthquakes are confirmed by instrumental data. The focal mechanism of these earthquakes were determined providing evidence for responsible faults or fault systems. N2 - Der Tien-Shan und die angrenzende Pamir Region sind zwei der größten Gebirgszüge der Welt. Deformation findet hier hauptsächlich an aktiven Auf- und Abschiebungszonen statt, welche intermontane Becken umschließen. Der Tien-Shan Gebirgszug ist sowohl an den Störungszonen als auch innerhalb der Becken durch eine hohe Seismizitätsrate charakterisiert. Das Untersuchungsgebiet der hier präsentierten Dissertation, der westliche Bereich der Tien-Shan Region, ist in den letzten Jahrzehnten durch das Auftreten kleiner und mittlerer Erdbeben gekennzeichnet. Jedoch wurde diese Region an der Wende zum 20. Jahrhundert von einer Reihe außergewöhnlich starker Erdbeben (M>7) heimgesucht. Zwei von ihnen erreichten sogar die Magnitude 8. Diese starken Erdbeben ereigneten sich vor der Installation eines globalen, digitalen seismischen Netzwerks und wurden daher nur von analogen seismischen Instrumenten aufgezeichnet. Die Bearbeitung von analogen Daten birgt mehrere Schwierigkeiten, z.B. sind die wahren Werte der Instrumentencharakterisitik nicht immer bekannt. Ein weiterer komplizierter Teil ist die Digitalisierung dieser Aufzeichnungen, die sehr zeitaufwändig und diffizil ist. Um diesen und weiteren Schwierigkeiten zu begegnen, wurden in der vorliegenden Arbeit spezielle Techniken zur Digitalisierung analoger, seismischer Daten und moderne Methoden der Datenanalyse speziell für digitalisierte, analoge Daten adaptiert. Das Hauptziel der hier präsentierten Dissertation ist die Auswertung der Auswirkungen von starken Erdbeben (Magnitude 7.0) auf die regionale Tektonik, welche zur Jahrhundertwende zum 20. Jahrhundert in der Tian Shan Region stattgefunden haben. Eine weitere Zielsetzung ist die Überprüfung der Genauigkeit von früher bestimmten Herdparametern dieser Erdbeben, welche hauptsächlich auf makroseismischen Untersuchungen beruhen, und deren erneute Bestimmung mithilfe instrumenteller Daten. Außerdem sollen in dieser Arbeit die notwendigen Werkzeuge und Methoden für die schnellere und produktivere Nutzung von analogen, seismischen Daten für zukünftige Studien in der modernen Seismologie entwickelt werden. In dieser Arbeit werden die zehn stärksten und interessantesten historischen Erdbeben der Tien-Shan Region analysiert. Es werden Methoden und Werkzeuge für die Digitalisierung und Bearbeitung von analogen seismischen Daten vorgestellt. Die Herdparameter der zwei bedeutendsten Erdbeben mit M~8 im nördlichen Tien-Shan werden erneut bestimmt und in separaten, detaillierten Fallstudien behandelt. Diese Studien sind als wissenschaftlich begutachtete Artikel in renommierten Fachzeitschriften publiziert. Zusätzlich wurde das Sarez-Pamir Erdbeben und seine Verbindung mit einem der größten Erdrutsche der Welt, dem Usoy Erdrutsch, basierend auf seismischer Modellierung untersucht. Diese Ergebnisse sind ebenfalls in einem wissenschaftlichen Aufsatz veröffentlicht. Mit den hier entwickelten Methoden wurden die Herdparameter der sieben stärksten Erdbeben in der Region bestimmt und ihre Auswirkung auf die regionale Tektonik untersucht. Die Magnituden dieser Erdbeben wurden mit Hilfe instrumental aufgezeichneter Daten bestätigt. Die Herdflächenlösungen dieser Erdbeben wurden bestimmt und geben Hinweise auf die möglichen verantwortlichen Störungen. KW - Seismology KW - historical earthquakes KW - Seismologie KW - historische Erdbeben Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88370 ER - TY - THES A1 - Jäger, Lena Ann T1 - Working memory and prediction in human sentence parsing T1 - Arbeitsgedächtnis und Vorhersagbarkeit in der menschlichen Satzverarbeitung BT - cross-linguistic evidence from anaphoric dependencies and relative clauses BT - neue Erkenntnisse durch cross-linguistische Untersuchungen zu anaphorischen Dependenzen und Relativsätzen N2 - This dissertation investigates the working memory mechanism subserving human sentence processing and its relative contribution to processing difficulty as compared to syntactic prediction. Within the last decades, evidence for a content-addressable memory system underlying human cognition in general has accumulated (e.g., Anderson et al., 2004). In sentence processing research, it has been proposed that this general content-addressable architecture is also used for language processing (e.g., McElree, 2000). Although there is a growing body of evidence from various kinds of linguistic dependencies that is consistent with a general content-addressable memory subserving sentence processing (e.g., McElree et al., 2003; VanDyke2006), the case of reflexive-antecedent dependencies has challenged this view. It has been proposed that in the processing of reflexive-antecedent dependencies, a syntactic-structure based memory access is used rather than cue-based retrieval within a content-addressable framework (e.g., Sturt, 2003). Two eye-tracking experiments on Chinese reflexives were designed to tease apart accounts assuming a syntactic-structure based memory access mechanism from cue-based retrieval (implemented in ACT-R as proposed by Lewis and Vasishth (2005). In both experiments, interference effects were observed from noun phrases which syntactically do not qualify as the reflexive's antecedent but match the animacy requirement the reflexive imposes on its antecedent. These results are interpreted as evidence against a purely syntactic-structure based memory access. However, the exact pattern of effects observed in the data is only partially compatible with the Lewis and Vasishth cue-based parsing model. Therefore, an extension of the Lewis and Vasishth model is proposed. Two principles are added to the original model, namely 'cue confusion' and 'distractor prominence'. Although interference effects are generally interpreted in favor of a content-addressable memory architecture, an alternative explanation for interference effects in reflexive processing has been proposed which, crucially, might reconcile interference effects with a structure-based account. It has been argued that interference effects do not necessarily reflect cue-based retrieval interference in a content-addressable memory but might equally well be accounted for by interference effects which have already occurred at the moment of encoding the antecedent in memory (Dillon, 2011). Three experiments (eye-tracking and self-paced reading) on German reflexives and Swedish possessives were designed to tease apart cue-based retrieval interference from encoding interference. The results of all three experiments suggest that there is no evidence that encoding interference affects the retrieval of a reflexive's antecedent. Taken together, these findings suggest that the processing of reflexives can be explained with the same cue-based retrieval mechanism that has been invoked to explain syntactic dependency resolution in a range of other structures. This supports the view that the language processing system is located within a general cognitive architecture, with a general-purpose content-addressable working memory system operating on linguistic expressions. Finally, two experiments (self-paced reading and eye-tracking) using Chinese relative clauses were conducted to determine the relative contribution to sentence processing difficulty of working-memory processes as compared to syntactic prediction during incremental parsing. Chinese has the cross-linguistically rare property of being a language with subject-verb-object word order and pre-nominal relative clauses. This property leads to opposing predictions of expectation-based accounts and memory-based accounts with respect to the relative processing difficulty of subject vs. object relatives. Previous studies showed contradictory results, which has been attributed to different kinds local ambiguities confounding the materials (Lin and Bever, 2011). The two experiments presented are the first to compare Chinese relatives clauses in syntactically unambiguous contexts. The results of both experiments were consistent with the predictions of the expectation-based account of sentence processing but not with the memory-based account. From these findings, I conclude that any theory of human sentence processing needs to take into account the power of predictive processes unfolding in the human mind. N2 - Diese Dissertation untersucht die der menschlichen Satzverarbeitung zugrunde liegenden Mechanismen des Arbeitsgedächtnisses sowie deren Bedeutung für die Verarbeitungskomplexität im Vergleich zu dem Einfluss syntaktischer Erwartung. Vor dem Hintergrund der in den vergangenen Jahrzehnten angewachsenen empirischen Evidenz für ein assoziatives Gedächtnissystem als Grundlage der menschlichen Kognition im Allgemeinen (z.B. Anderson et al., 2004) wurde u.a. von McElree (2000) vorgeschlagen, dass dieses assoziative Gedächtnissystem auch der Sprachverarbeitung im Besonderen dient (z.B. McElree, 2000) und die Sprachverarbeitung folglich nicht etwa als ein von anderen kognitiven Fähigkeiten weitgehend losgelöstes Modul (z.B. Frazier, 1979) zu begreifen ist. Obwohl sich die Evidenz für ein assoziatives Gedächtnis in der Sprachverarbeitung stetig mehrt (z.B. McElree et al., 2003; VanDyke2006), werden Daten zur Verarbeitung von Reflexivpronomen als Argument gegen ein assoziatives Gedächtnis herangezogen. So schlug beispielsweise Sturt (2003) vor, dass der Gedächtniszugriff in der Verarbeitung von Reflexivpronomen-Antezedens-Dependenzen nicht assoziativer Natur ist, sondern rein syntaktisch gesteuert ist (z.B., Sturt, 2003). Im ersten Teil der vorliegenden Arbeit werden zwei Leseexperimente (Eyetracking) vorgestellt, welche die Verarbeitung des chinesischen Reflexivpronomens 'ziji' testen und die darauf ausgelegt sind, Theorien, die einen syntaktisch gesteuerten Gedächtniszugriff annehmen, von Theorien, die einen assoziativen Gedächtniszugriff, wie er beispielsweise in dem ACTR-basierten Modell von Lewis and Vasishth (2005) implementiert wurde, zu unterscheiden. In beiden Experimenten wurden Interferenzeffekte von Nominalphrasen beobachtet, die syntaktisch nicht als Antezedens des Reflexivpronomens in Frage kommen, aber das Belebtheitskriterium, das 'ziji' an seinen Antezedens stellt, erfüllen. Diese Ergebnisse werden als Evidenz gegen einen rein syntaktisch gesteuerten Gedächtniszugriff interpretiert. Jedoch sind diese Ergebnisse auch mit dem assoziativen Modell von Lewis und Vasishth (2005) nicht vollkommen vereinbar. Daher wird in der vorliegenden Arbeit eine Erweiterung des Modells von Lewis und Vasishth entwickelt. Zwei neue Prinzipien, 'cue confusion' und 'distractor prominence’, werden dem Originalmodell hinzugefügt und deren Auswirkungen auf die Vorhersagen des Modells diskutiert. Wenngleich Interferenzeffekte im Allgemeinen als Evidenz für ein assoziatives Gedächtnis herangezogen werden, argumentierte Dillon (2011), dass die empirisch beobachteten Interferenzeffekte nicht notwendigerweise Interferenzen im Moment eines assoziativen Gedächtniszugriffs reflektieren, sondern gleichermaßen Interferenzen widerspiegeln können, die bereits bei der Abspeicherung des entsprechenden Elements (z.B. des Antezedens in Reflexiv-Antezedens-Dependenzen) im Gedächtnis stattgefunden haben. Dies würde Interferenzeffekte mit einem nicht-assoziativen Gedächtnismodell vereinbar machen. Im zweiten Teil dieser Dissertation werden drei Experimente (selbst-gesteuertes Lesen und Eyetracking) vorgestellt, die deutsche Reflexivpronomen sowie schwedische Possessivpronomen testen und darauf abzielen, Rückschlüsse über den Moment der Interferenz (Interferenz beim Gedächtniszugriff im Gegensatz zu Interferenz bei der Speicherung) zu ziehen. Die Ergebnisse aller drei Experimente zeigen, dass etwaige Interferenzen beim Abspeichern eines Nomens keinen Einfluss auf dessen späteren Zugriff haben. Zusammengefasst zeigen die Ergebnisse dieser Experimente zum Chinesischen, Deutschen und Schwedischen, dass die Verarbeitung von Reflexivpronomen mit demselben assoziativen Gedächtniszugriff erklärt werden kann, von dem angenommen wird, dass er der Verarbeitung einer Reihe anderer syntaktischer Dependenzen zugrunde liegt. Darüber hinaus sind die hier vorgestellten Ergebnisse im Einklang mit einer generellen Theorie über die menschliche Kognition, die das Sprachverarbeitungssystem als Bestandteil einer allgemeinen kognitiven Architektur begreift, in welcher ein allgemeines assoziatives Gedächtnissystem auf sprachlichen Repräsentationen operiert. Im dritten Teil dieser Dissertation werden zwei weitere Leseexperimente (selbst-gesteuertes Lesen und Eyetracking) vorgestellt, in denen anhand chinesischer Relativsätze die Wirkung von Arbeitsgedächtnisprozessen im Vergleich zu der Wirkung syntaktischer Erwartung auf die Komplexität der inkrementellen Satzverarbeitung untersucht wird. Chinesisch ist cross-linguistisch insofern eine außergewöhnliche Sprache, als dass es eine Subjekt-Verb-Objekt-Wortstellung mit pränominalen Relativsätzen vereint. Die Kombination dieser Eigenschaften führt dazu, dass Theorien, die Satzverarbeitungskomplexität primär Arbeitsgedächtnisprozessen zuschreiben (z.B. Gibson, 2000), und erwartungsbasierte Theorien, welche die Satzverarbeitungskomplexität dem Erfüllen bzw. dem Brechen syntaktischer oder lexikalischer Erwartungen zuschreiben (z.B. Hale, 2001; Levy, 2008), gegensätzliche Vorhersagen machen. Bisherige Studien zu chinesischen Relativsätzen zeigten widersprüchliche Ergebnisse, was mit dem Vorhandensein konfundierender lokaler syntaktischer Ambiguitäten in den Stimuli erklärt wurde (Lin und Bever, 2011). Die beiden in dieser Arbeit vorgestellten Experimente testen erstmals chinesische Relativsätze anhand von Materialien, die frei von syntaktischen Ambiguitäten sind. Die Ergebnisse beider Experimente sind vereinbar mit erwartungsbasierten Theorien, aber nicht mit Theorien, die Satzverarbeitungskomplexität allein mit Arbeitsgedächtnisprozessen erklären. Diese Ergebnisse zeigen, dass jede umfassende Theorie der Satzverarbeitung erwartungsgesteuerten kognitiven Prozessen einen wichtigen Stellenwert einräumen muss. KW - working memory KW - Arbeitsgedächtnis KW - sentence processing KW - Satzverarbeitung KW - cognitive modeling KW - kognitive Modellierung KW - psycholinguistics KW - Psycholinguistik KW - ACT-R KW - Chinese KW - Chinesisch KW - reflexives KW - Reflexivpronomen KW - relative clauses KW - Relativsätze KW - linguistics KW - Linguistik KW - German KW - Deutsch KW - prediction KW - syntactic expectation KW - content-addressable memory Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82517 ER - TY - THES A1 - Gerth, Sabrina T1 - Memory limitations in sentence comprehension T1 - Begrenzungen des Arbeitsgedächtnisses in der Satzverarbeitung BT - a structural-based complexity metric of processing difficulty BT - eine strukturbasierte Komplexitätsmetrik von Verarbeitungsschwierigkeiten N2 - This dissertation addresses the question of how linguistic structures can be represented in working memory. We propose a memory-based computational model that derives offline and online complexity profiles in terms of a top-down parser for minimalist grammars (Stabler, 2011). The complexity metric reflects the amount of time an item is stored in memory. The presented architecture links grammatical representations stored in memory directly to the cognitive behavior by deriving predictions about sentence processing difficulty. Results from five different sentence comprehension experiments were used to evaluate the model's assumptions about memory limitations. The predictions of the complexity metric were compared to the locality (integration and storage) cost metric of Dependency Locality Theory (Gibson, 2000). Both metrics make comparable offline and online predictions for four of the five phenomena. The key difference between the two metrics is that the proposed complexity metric accounts for the structural complexity of intervening material. In contrast, DLT's integration cost metric considers the number of discourse referents, not the syntactic structural complexity. We conclude that the syntactic analysis plays a significant role in memory requirements of parsing. An incremental top-down parser based on a grammar formalism easily computes offline and online complexity profiles, which can be used to derive predictions about sentence processing difficulty. N2 - Diese Dissertation beschäftigt sich mit der Frage wie linguistische Strukturen im Arbeitsgedächtnis dargestellt werden. Es wurde ein gedächtnisbasiertes Computermodell entwickelt, das offline und online Komplexitätsprofile für bestimmte Satzstrukturen erstellt. Diese Komplexitätsprofile basieren auf den Berechnungen eines top-down Parsers für minimalistische Grammatiken (Stabler, 2011). Die Komplexitätsprofile spiegeln die Zeit wider, die ein Item im Gedächtnis oder Speicher gehalten wird. Das entwickelte Modell verbindet grammatische Repräsentationen, die im Speicher gehalten werden, direkt mit dem kognitiven menschlichen Verhalten in Sprachverarbeitungsexperimenten indem es Vorhersagen über Satzverarbeitungsschwierigkeiten trifft. Die Ergebnisse von fünf Satzverarbeitungsexperimenten wurden verwendet, um die Vorhersagen des Modells über die Begrenzungen des Gedächtnisses zu evaluieren. Die Vorhersagen der Komplexitätsmetrik wurden mit den Vorhersagen einer in der Psycholinguistik etablierten Komplexitätsmetrik (Dependency Locality Theory, DLT (Gibson, 2000)) verglichen. Beide Metriken machen vergleichbare offline und online Vorhersagen für vier der fünf Experimente. Der Unterschied zwischen beiden Metriken ist, dass die in dieser Dissertation erarbeitete Komplexitätsmetrik die strukturelle Komplexität der Satzstruktur mit einbezieht. Im Gegensatz zu DLTs Integrationsmetrik, die die Komplexität eines Satzes lediglich anhand der Anzahl der Wörter misst. Diese Dissertation zeigt, dass ein inkrementeller Top-down Parser, der auf einem Grammatikformalismus basiert, offline und online Komplexitätsprofile berechnen kann, die verwendet werden können, um Vorhersagen über Satzverarbeitungsschwierigkeiten zu treffen. T3 - Potsdam Cognitive Science Series - 6 KW - psycholinguistics KW - syntax KW - working memory KW - Psycholinguistik KW - Computermodell KW - Arbeitsgedächtnis KW - Syntax KW - computational model Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-71554 SN - 978-3-86956-321-3 ER - TY - THES A1 - Reimer, Anna Maria T1 - The poetics of the real and aesthetics of the reel BT - medial visuality in the contemporary Indian English novel N2 - The dissertation proposes that the spread of photography and popular cinema in 19th- and 20th-century-India have shaped an aesthetic and affective code integral to the reading and interpretation of Indian English novels, particularly when they address photography and/or cinema film, as in the case of the four corpus texts. In analyzing the nexus between ‘real’ and ‘reel’, the dissertation shows how the texts address the reader as media consumer and virtual image projector. Furthermore, the study discusses the Indian English novel against the backdrop of the cultural and medial transformations of the 20th century to elaborate how these influenced the novel’s aesthetics. Drawing upon reception aesthetics, the author devises the concept of the ‘implied spectator’ to analyze the aesthetic impact of the novels’ images as visual textures. No God in Sight (2005) by Altaf Tyrewala comprises of a string of 41 interior monologues, loosely connected through their narrators’ random encounters in Mumbai in the year 2000. Although marked by continuous perspective shifts, the text creates a sensation of acute immediacy. Here, the reader is addressed as implied spectator and is sutured into the narrated world like a film spectator ― an effect created through the use of continuity editing as a narrative technique. Similarly, Ruchir Joshi’s The Last Jet Engine Laugh (2002) coll(oc)ates disparate narrative perspectives and explores photography as an artistic practice, historiographic recorder and epistemological tool. The narrative appears guided by the random viewing of old photographs by the protagonist and primary narrator, the photographer Paresh Bhatt. However, it is the photographic negative and the practice of superimposition that render this string of episodes and different perspectives narratively consequential and cosmologically meaningful. Photography thus marks the perfect symbiosis of autobiography and historiography. Tabish Khair’s Filming. A Love Story (2007) immerses readers in the cine-aesthetic of 1930s and 40s Bombay film, the era in which the embedded plot is set. Plotline, central scenes and characters evoke the key films of Indian cinema history such as Satyajit Ray’s “Pather Panchali” or Raj Kapoor’s “Awara”. Ultimately, the text written as film dissolves the boundary between fiction and (narrated) reality, reel and real, thereby showing that the images of individual memory are inextricably intertwined with and shaped by collective memory. Ultimately, the reconstruction of the past as and through film(s) conquers trauma and endows the Partition of India as a historic experience of brutal contingency with meaning. The Bioscope Man (Indrajit Hazra, 2008) is a picaresque narrative set in Calcutta - India’s cultural capital and birthplace of Indian cinema at the beginning of the 20th century. The autodiegetic narrator Abani Chatterjee relates his rise and fall as silent film star, alternating between the modes of tell and show. He is both autodiegetic narrator and spectator or perceiving consciousness, seeing himself in his manifold screen roles. Beyond his film roles however, the narrator remains a void. The marked psychoanalytical symbolism of the text is accentuated by repeated invocations of dark caves and the laterna magica. Here too, ‘reel life’ mirrors and foreshadows real life as Indian and Bengali history again interlace with private history. Abani Chatterjee thus emerges as a quintessentially modern man of no qualities who assumes definitive shape only in the lost reels of the films he starred in. The final chapter argues that the static images and visual frames forwarded in the texts observe an integral psychological function: Premised upon linear perspective they imply a singular, static subjectivity appealing to the postmodern subject. In the corpus texts, the rise of digital technology in the 1990s thus appears not so much to have displaced older image repertories, practices and media techniques, than it has lent them greater visibility and appeal. Moreover, bricolage and pastiche emerge as cultural techniques which marked modernity from its inception. What the novels thus perpetuate is a media archeology not entirely servant to the poetics of the real. The permeable subject and the notion of the gaze as an active exchange as encapsulated in the concept of darshan - ideas informing all four texts - bespeak the resilience of a mythical universe continually re-instantiated in new technologies and uses. Eventually, the novels convey a sense of subalternity to a substantially Hindu nationalist history and historiography, the centrifugal force of which developed in the twentieth century and continues into the present. N2 - Die Dissertation stellt die These auf, dass Photographie und Film im Indien des 19. und 20. Jhd. einen ästhetisch-affektiven Code geprägt haben, der für das Verständnis des Indisch-Englischen Romans von großer Bedeutung ist. Dies gilt umso mehr wenn diese Medien explizit thematisiert werden, so wie es hier der Fall ist. Indem die Verbindung zwischen Realem und (Foto-/Kino-) Film untersucht wird, zeigt die Forschungsarbeit, wie die Texte ihre Leser als Medienkonsumenten und virtuelle ‛Bildprojektoren’ ansprechen. Auf dem kritischen Ansatz der Rezeptionsästhetik aufbauend, entwickelt die Autorin das Konzept des 'impliziten Betrachters', um so die ästhetische Wirkung der Texte auf den Leser analysieren zu können. No God in Sight (2005) von Altaf Tyrewala ist eine Aneinanderreihung von 41 inneren Monologen, lose verbunden durch Zufallsbegegnungen im Mumbai des Jahres 2000. Obgleich von ständigen Perspektivwechseln geprägt, schafft der Text ein Gefühl unmittelbaren Erlebens. In seiner Funktion als impliziter Betrachter wird der Leser hier quasi als Filmzuschauer in die erzählte Welt hineinprojiziert bzw. ‚vernäht‘. Dieser Effekt entsteht durch die Anwendung einer dem Film entlehnten Technik, dem ‚continuity editing‘. Auch Ruchir Joshi‘ The Last Jet Engine Laugh (2002) vereint widersprüchliche Erzählperspektiven. Der Roman beleuchtet Fotographie als künstlerische Praxis, historiographisches Speichermedium und epistemologisches Werkzeug. Das Narrativ erscheint allein durch die Betrachtung alter Fotos durch den Protagonist und primären Erzähler Paresh Bhatt gelenkt. Jedoch sind es das fotographische Negativ und die fotographische Überblendung, welche die disparaten Episoden und Perspektiven erzählerisch schlüssig und kosmologisch bedeutungsvoll machen. Mithin repräsentiert Fotographie hier die Symbiose von Autobiographie und Historiographie. Tabish Khairs Filming. A Love Story (2007) versetzt den Leser in die Welt des Bombay-Films der 1930er und 40er Jahre, in dem die Haupthandlung spielt. Handlung, Szenenbilder und selbst die Namen der Protagonisten verweisen unmittelbar auf Schlüsselfilme der indischen Filmgeschichte wie Satyajit Rays "Pather Panchali" oder Raj Kapoors "Awara".Geschrieben als Film, löst der Text die Grenze zwischen Fiktion und (erzählter) Realität, Film(-rolle) und Realem auf um zu zeigen, dass die individuellen Erinnerungsbilder unauflöslich mit der kollektiven Erinnerung verbunden sind und letztlich von ihr geprägt werden. Die Rekonstruktion der Vergangenheit als und durch (den) Film(e) überwindet schließlich das historische Trauma der Teilung Indiens in ihrer brutalen Sinnlosigkeit. The Bioscope Man (2008) ist ein pikaresker Roman und spielt zu Beginn des 20. Jahrhunderts in Kalkutta, damals noch Indiens kulturelle Hauptstadt und Geburtsstätte des indischen Kinos. Abani Chatterjee erzählt abwechselnd als konventioneller autodiegetischer Erzähler und als Zuschauer bzw. wahrnehmendes Bewusstsein von seinem Aufstieg und Fall als Stummfilmstar. Jenseits seiner Rollen bleibt der Erzähler jedoch eine Leerstelle. Der psychoanalytische Symbolismus des Textes wird durch wiederholte Aufrufung der Motive der Höhle und der Laterna Magica hervorgehoben. Auch hier spiegelt das Leben auf der Filmrolle das ‚echte‘ Leben, indem indische und bengalische Geschichte mit der individuellen (Lebens-)Geschichte verwoben werden. Chatterjee ist letztlich Inbegriff des modernen Menschen, des ‚Mannes ohne Eigenschaften‘ der nur in den verschwundenen Filmen in denen er einst spielte konkrete Form annimmt. Das Schlusskapitel argumentiert, dass die in den Texten entworfenen Bilder eine essentielle psychologische Funktion erfüllen: Auf der Linearperspektive basierend implizieren sie eine singuläre, statische Subjektivität die auf die Leserin als postmodernes Subjekt ansprechend wirkt. In den Texten scheint der Aufstieg der digitalen Technik und ihrer Bildwelt ältere Bilder, visuelle Praktiken und Medientechniken weniger ersetzt, als ihnen größere Sichtbarkeit und Appeal verliehen zu haben. Weiterhin werden Bricolage und Pastiche als originär moderne (Kultur-)Techniken dargestellt. Die den Romanen inhärente Medienarchäologie untersteht daher nicht vollständig der Poetik des Realen. Die hinduistisch geprägten Ideen vom ‚durchlässigen‘ Subjekt und vom Sehen als aktivem Austausch wie es der Begriff „darshan“ konzeptualisiert, verweisen auf die Widerstandskraft eines mythischen Universums das sich in den neuen Technologien kontinuierlich fortpflanzt. Letztlich versinnlichen und versinnbildlichen die Romane die Hindu-nationalistisch geprägte Geschichte des 20. Jahrhunderts, deren Zentrifugalkraft in ihrer Exklusivität und Aggressivität bis heute nachwirkt. KW - postcolonial literatures in English KW - Indian English novel KW - visual culture KW - Hindi film KW - Indian cinema KW - phenomenology KW - reception aesthetics KW - media studies KW - No God in Sight KW - The Last Jet Engine Laugh KW - Filming. A Love Story KW - The Bioscope Man KW - visual textures KW - media anthropology KW - photography KW - implied spectator KW - rasadhvani KW - Pather Panchali KW - Awara KW - postkoloniale englische Literaturen KW - indisch-englischer Roman KW - Intermedialität KW - suture KW - indisches Kino KW - Medienwissenschaft Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-95660 ER - TY - THES A1 - Böttle, Markus T1 - Coastal floods in view of sea level rise T1 - Küstenfluten im Hinblick auf steigende Meeresspiegel BT - assessing damage costs and adaptation measures BT - Abschätzung von Schadenskosten und Anpassungsmaßnahmen N2 - The sea level rise induced intensification of coastal floods is a serious threat to many regions in proximity to the ocean. Although severe flood events are rare they can entail enormous damage costs, especially when built-up areas are inundated. Fortunately, the mean sea level advances slowly and there is enough time for society to adapt to the changing environment. Most commonly, this is achieved by the construction or reinforcement of flood defence measures such as dykes or sea walls but also land use and disaster management are widely discussed options. Overall, albeit the projection of sea level rise impacts and the elaboration of adequate response strategies is amongst the most prominent topics in climate impact research, global damage estimates are vague and mostly rely on the same assessment models. The thesis at hand contributes to this issue by presenting a distinctive approach which facilitates large scale assessments as well as the comparability of results across regions. Moreover, we aim to improve the general understanding of the interplay between mean sea level rise, adaptation, and coastal flood damage. Our undertaking is based on two basic building blocks. Firstly, we make use of macroscopic flood-damage functions, i.e. damage functions that provide the total monetary damage within a delineated region (e.g. a city) caused by a flood of certain magnitude. After introducing a systematic methodology for the automatised derivation of such functions, we apply it to a total of 140 European cities and obtain a large set of damage curves utilisable for individual as well as comparative damage assessments. By scrutinising the resulting curves, we are further able to characterise the slope of the damage functions by means of a functional model. The proposed function has in general a sigmoidal shape but exhibits a power law increase for the relevant range of flood levels and we detect an average exponent of 3.4 for the considered cities. This finding represents an essential input for subsequent elaborations on the general interrelations of involved quantities. The second basic element of this work is extreme value theory which is employed to characterise the occurrence of flood events and in conjunction with a damage function provides the probability distribution of the annual damage in the area under study. The resulting approach is highly flexible as it assumes non-stationarity in all relevant parameters and can be easily applied to arbitrary regions, sea level, and adaptation scenarios. For instance, we find a doubling of expected flood damage in the city of Copenhagen for a rise in mean sea levels of only 11 cm. By following more general considerations, we succeed in deducing surprisingly simple functional expressions to describe the damage behaviour in a given region for varying mean sea levels, changing storm intensities, and supposed protection levels. We are thus able to project future flood damage by means of a reduced set of parameters, namely the aforementioned damage function exponent and the extreme value parameters. Similar examinations are carried out to quantify the aleatory uncertainty involved in these projections. In this regard, a decrease of (relative) uncertainty with rising mean sea levels is detected. Beyond that, we demonstrate how potential adaptation measures can be assessed in terms of a Cost-Benefit Analysis. This is exemplified by the Danish case study of Kalundborg, where amortisation times for a planned investment are estimated for several sea level scenarios and discount rates. N2 - Viele Regionen in Küstennähe sehen sich durch den Anstieg des mittleren Meeresspiegels einer erhöhten Hochwassergefahr ausgesetzt und die zunehmende Intensität extremer Flutereignisse stellt eine ernstzunehmende Bedrohung dar. Vor allem bei der Überschwemmung bebauter Gebiete können die resultierenden Schäden ein gewaltiges Ausmaß erreichen. Glücklicherweise steigt der mittlere Meeresspiegel langsam und es bleibt ausreichend Zeit sich an die verändernden Umweltbedingungen anzupassen. Dies geschieht üblicherweise durch den Bau oder die Verstärkung von Hochwasserschutzmaßnahmen wie z. B. Deichen oder Ufermauern aber auch angepasste Raumplanung und Katastrophenschutz sind vieldiskutierte Lösungsansätze. Obwohl die Folgenabschätzung des Meeresspiegelanstieges und die Entwicklung von entsprechenden Antwortstrategien zu den bedeutendsten Themen der Klimafolgenforschung gehören, bleiben globale Schadensschätzungen vage und stützen größtenteils auf den gleichen, wenigen Bewertungsmodellen. Diesem Umstand wollen wir mit der vorliegenden Arbeit Rechnung tragen und präsentieren einen eigenen Ansatz, der sowohl großskalige Abschätzungen als auch überregionale Vergleichbarkeit ermöglicht. Darüber hinaus leisten wir einen Beitrag zum allgemeinen Verständnis des Zusammenspiels zwischen dem mittleren Meeresspiegel, Anpassungsmaßnahmen und Flutschäden. Unser Vorhaben basiert auf zwei Grundbausteinen. Zum einen sind das makroskopische Flutschadensfunktionen, d. h. Schadensfunktionen zur Bestimmung des gesamten monetären Schadens in einem vorgegebenen Gebiet (z. B. einer Stadt) der durch eine Flut gewissen Ausmaßes verursacht wird. Dazu stellen wir einen systematischen Ansatz zur automatisierten Ermittlung solcher Kurven vor und bestimmen damit die Schadensfunktionen für 140 europäische Städte. Diese können sowohl für individuelle Schadensabschätzungen als auch für vergleichende, überregionale Studien herangezogen werden. Darüber hinaus ermöglicht die große Anzahl an Kurven eine grundlegende Charakterisierung des Anstieges der Schadensfunktion mit Hilfe eines funktionalen Modells. Das vorgeschlagene Modell ist im Allgemeinen s-förmig, weist jedoch für die relevanten Fluthöhen einen potenzgesetzartigen Anstieg auf und wir erhalten für die untersuchten Städte einen durchschnittlichen Exponenten von 3,4. Zur späteren Beschreibung der allgemeinen Zusammenhänge aller beteiligten Größen ist dieses Ergebnis von entscheidender Bedeutung. Der zweite grundlegende Baustein dieser Arbeit ist die Extremwerttheorie mittels derer wir das Auftreten von Flutereignissen schätzen und die in Verbindung mit einer Schadensfunktion die Wahrscheinlichkeitsverteilung der auftretenden Schäden im untersuchten Gebiet liefert. Da alle relevanten Parameter als variabel angenommen werden, bietet der beschriebene Ansatz größtmögliche Flexibilität und lässt sich auf beliebige Regionen anwenden. In Kopenhagen, beispielsweise, stellen wir bei einem Anstieg des mittleren Meeresspiegels von lediglich 11 cm bereits eine Verdopplung des jährlichen, zu erwarteten Schadens fest. Des Weiteren gelingt es uns, allgemeingültige funktionale Beziehungen zwischen den erwarteten Flutschäden und dem mittleren Meeresspiegel, sich verändernden Sturmbedingungen, sowie vorhandenen Schutzhöhen abzuleiten. Damit sind wir in der Lage, zukünftige Flutschäden auf Grundlage nur weniger Parameter zu schätzen: dem bereits erwähnten Exponenten der Schadensfuntion sowie den Extremwertparametern. Ähnliche Untersuchungen stellen wir zur Quantifizierung der aleatorischen Unsicherheit dieser Schätzungen an, wobei wir unter anderem einen Rückgang der Unsicherheit mit steigendem Meeresspiegel feststellen. Schlussendlich zeigen wir wie potenzielle Anpassungsmaßnahmen mit Hilfe einer Kosten-Nutzen-Analyse bewertet werden können. Dies wird anhand der dänischen Fallstudie Kalundborg veranschaulicht, für die wir die Amortisierungszeiten einer geplanten Investition für verschiedene Meeresspiegelszenarien und Diskontierungsraten untersuchen. KW - sea-level rise KW - flood damage KW - coastal flooding KW - Küstenfluten KW - Extremereignisse KW - Flutschäden KW - Meeresspiegelanstieg KW - Klimaanpassung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91074 ER - TY - THES A1 - Pradhan, Prajal T1 - Food demand and supply under global change T1 - Nahrungsmittelnachfrage und -Versorgung im Globalen Wandel N2 - Anthropogenic activities have transformed the Earth's environment, not only on local level, but on the planetary-scale causing global change. Besides industrialization, agriculture is a major driver of global change. This change in turn impairs the agriculture sector, reducing crop yields namely due to soil degradation, water scarcity, and climate change. However, this is a more complex issue than it appears. Crop yields can be increased by use of agrochemicals and fertilizers which are mainly produced by fossil energy. This is important to meet the increasing food demand driven by global demographic change, which is further accelerated by changes in regional lifestyles. In this dissertation, we attempt to address this complex problem exploring agricultural potential globally but on a local scale. For this, we considered the influence of lifestyle changes (dietary patterns) as well as technological progress and their effects on climate change, mainly greenhouse gas (GHG) emissions. Furthermore, we examined options for optimizing crop yields in the current cultivated land with the current cropping patterns by closing yield gaps. Using this, we investigated in a five-minute resolution the extent to which food demand can be met locally, and/or by regional and/or global trade. Globally, food consumption habits are shifting towards calorie rich diets. Due to dietary shifts combined with population growth, the global food demand is expected to increase by 60-110% between 2005 and 2050. Hence, one of the challenges to global sustainability is to meet the growing food demand, while at the same time, reducing agricultural inputs and environmental consequences. In order to address the above problem, we used several freely available datasets and applied multiple interconnected analytical approaches that include artificial neural network, scenario analysis, data aggregation and harmonization, downscaling algorithm, and cross-scale analysis. Globally, we identified sixteen dietary patterns between 1961 and 2007 with food intakes ranging from 1,870 to 3,400 kcal/cap/day. These dietary patterns also reflected changing dietary habits to meat rich diets worldwide. Due to the large share of animal products, very high calorie diets that are common in the developed world, exhibit high total per capita emissions of 3.7-6.1 kg CO2eq./day. This is higher than total per capita emissions of 1.4-4.5 kg CO2eq./day associated with low and moderate calorie diets that are common in developing countries. Currently, 40% of the global crop calories are fed to livestock and the feed calorie use is four times the produced animal calories. However, these values vary from less than 1 kcal to greater 10 kcal around the world. On the local and national scale, we found that the local and national food production could meet demand of 1.9 and 4.4 billion people in 2000, respectively. However, 1 billion people from Asia and Africa require intercontinental agricultural trade to meet their food demand. Nevertheless, these regions can become food self-sufficient by closing yield gaps that require location specific inputs and agricultural management strategies. Such strategies include: fertilizers, pesticides, soil and land improvement, management targeted on mitigating climate induced yield variability, and improving market accessibility. However, closing yield gaps in particular requires global N-fertilizer application to increase by 45-73%, P2O5 by 22-46%, and K2O by 2-3 times compare to 2010. Considering population growth, we found that the global agricultural GHG emissions will approach 7 Gt CO2eq./yr by 2050, while the global livestock feed demand will remain similar to 2000. This changes tremendously when diet shifts are also taken into account, resulting in GHG emissions of 20 Gt CO2eq./yr and an increase of 1.3 times in the crop-based feed demand between 2000 and 2050. However, when population growth, diet shifts, and technological progress by 2050 were considered, GHG emissions can be reduced to 14 Gt CO2eq./yr and the feed demand to nearly 1.8 times compare to that in 2000. Additionally, our findings shows that based on the progress made in closing yield gaps, the number of people depending on international trade can vary between 1.5 and 6 billion by 2050. In medium term, this requires additional fossil energy. Furthermore, climate change, affecting crop yields, will increase the need for international agricultural trade by 4% to 16%. In summary, three general conclusions are drawn from this dissertation. First, changing dietary patterns will significantly increase crop demand, agricultural GHG emissions, and international food trade in the future when compared to population growth only. Second, such increments can be reduced by technology transfer and technological progress that will enhance crop yields, decrease agricultural emission intensities, and increase livestock feed conversion efficiencies. Moreover, international trade dependency can be lowered by consuming local and regional food products, by producing diverse types of food, and by closing yield gaps. Third, location specific inputs and management options are required to close yield gaps. Sustainability of such inputs and management largely depends on which options are chosen and how they are implemented. However, while every cultivated land may not need to attain its potential yields to enable food security, closing yield gaps only may not be enough to achieve food self-sufficiency in some regions. Hence, a combination of sustainable implementations of agricultural intensification, expansion, and trade as well as shifting dietary habits towards a lower share of animal products is required to feed the growing population. N2 - Der Mensch beeinflusst die landwirtschaftlichen Erträge unmittelbar durch anthropogen verursachte Treiber des globalen Wandels, wie Bodenerosion, Wasserknappheit und Klimawandel, wovon er und seine Lebensmittelversorgung wiederum direkt betroffen sein werden. Einerseits steigert der Einsatz von Agrochemikalien und mithilfe fossiler Energien erzeugte Dünger die landwirtschaftlichen Erträge. Andererseits tragen Bevölkerungswachstum sowie die Tendenz zu kalorienreichen Ernährungsweisen zu einer vermehrten Nahrungsmittelnachfrage von 60-110% von 2005 bis 2050 bei. Das Decken der wachsenden Lebensmittelnachfrage bei gleichzeitiger Reduktion des landwirtschaftlichen Ressourcenverbrauchs und Umweltbelastungen stellt eine zentrale Herausforderung für die globale Nachhaltigkeit dar. In diesem Rahmen versucht diese Arbeit, die Potentiale der globalen Landwirtschaft auf kleinräumiger Skala auszuloten. Hierbei werden Prognosen zu Auswirkungen von Ernährungsmustern und Veränderungen der landwirtschaftlichen Produktionsmethoden unter Beibehaltung der der Anbaufolge und deren Einfluss auf den Klimawandel berücksichtigt. Projektionen basierend auf räumlich hoch aufgelösten Daten lassen Aussagen darüber zu, inwieweit die Nahrungsmittelproduktion lokal sichergestellt werden kann und falls nicht, wie dies durch regionalen und/oder globalen Handel erfolgen kann. Frei verfügbare Datensätze und Ansätze, wie künstliche neuronale Netze, Szenarioanalysen, Downscaling und skalenübergreifende Methoden werden zur Bearbeitung genutzt. Für den Zeitraum von 1961 bis 2007 konnten 16 globale Ernährungstypologien identifiziert werden. Diese spiegeln vor allem eine Tendenz hin zu fleischhaltiger Kost wider. Durch den hohen Anteil tierischer Produkte verursachen kalorienreiche Ernährungsmuster, wie in Industrieländern üblich, hohe pro Kopf Emissionen von 3,7-6,1 kg CO2eq./Tag und übersteigen die pro Kopf Emissionen von 1,4-4,5 kg CO2eq./Tag einer kalorienarmen Ernährungsweise in Entwicklungsländern. Weltweit werden 40% aller landwirtschaftlichen Erzeugnisse als Futtermittel genutzt, was bedeutet, dass aus einem regional variierenden Wert von weniger als 1 kcal bis 10 kcal Getreide, 1 kcal tierische Produkte erzeugt werden. Im Jahr 2000 konnten lokale und nationale Nahrungsmittelproduktionen die Nachfrage von 1,9 bzw. 4,4 Milliarden Menschen erfüllen. Trotzdem sind ca. 1 Milliarde Menschen in Asien und Afrika auf interkontinentalen Handel angewiesen um ihre Lebensmittelnachfrage zu decken. Bei alleiniger Betrachtung des Bevölkerungswachstums wird ein Anstieg der globalen landwirtschaftlichen Treibhausgasemissionen bis zum Jahr 2050 auf jährlich 7 Gt CO2eq. deutlich, während die Nachfrage nach angebauten Futtermitteln gegenüber 2000 annähernd gleich bleiben wird. Das Hinzuziehen von Ernährungsgewohnheiten zeigt, dass zwischen 2000 und 2050 ein Anstieg der Treibhausgasemissionen auf 20 Gt CO2eq. pro Jahr und eine 1,3-fach gesteigerte Nachfrage nach Futtermittel möglich ist. Der zusätzliche Einbezug von technologischem Fortschritt ergibt, dass Emissionen auf jährlich 14 Gt CO2eq. und der Anstieg der Futtermittelnachfrage auf das 0,8-fache reduziert werden können. Daraus geht die Erkenntnis hervor, dass je nachdem, wie erfolgreich Ertragslücken geschlossen werden, 1,5 bis 6 Milliarden Menschen vom internationalen Handel abhängig sind, welcher mittelfristig zusätzliche fossile Energie benötigt. Der Einfluss des Klimawandels auf Ernteerträge wird den Bedarf an internationalem Handel mit landwirtschaftlichen Produkten um 4% bis 16% erhöhen. Weiterhin lässt sich schlussfolgern, dass insbesondere veränderte Ernährungsgewohnheiten, im Gegensatz zu Bevölkerungswachstum, die Nachfrage nach Getreide, die landwirtschaftlichen Treibhausgasemissionen sowie den internationalen Handel mit Nahrungsmitteln erhöhen werden. Durch adäquaten Technologietransfer und technologischen Fortschritt lassen sich Ernteerträge steigern, landwirtschaftliche Emissionen senken und die Effizienz der Umwandlung von Futtermittel in tierische Produkte erhöhen. Abhängigkeiten vom internationalen Handel könnten durch den Konsum lokaler und regionaler Produkte und durch Diversifizierung von Erzeugnissen verringert werden. Zur Schließung von Ertragslücken sind ortsspezifische Maßnahmen erforderlich, wie die nachhaltige Verwendung von Düngemitteln und Pestiziden, Bodenverbesserung, Maßnahmen zur Abschwächung klimabedingter Ernteschwankungen sowie ein verbesserter Marktzugang. Um die Ernährung einer wachsenden Weltbevölkerung zu gewährleisten, ist eine Kombination aus nachhaltiger Intensivierung und Ausweitung der Landwirtschaft, des Handels sowie Ernährungsmuster mit geringeren Anteilen tierischer Produkte notwendig. KW - food security KW - global change KW - climate change KW - yield gap KW - dietary patterns KW - livestock feed KW - food self-sufficiency KW - emissions KW - food demand KW - dietary changes KW - self-organising maps KW - cross-scale analysis KW - sustainability KW - Nahrungsmittelsicherheit KW - Nahrungsmittelselbstversorgung KW - Ertragslücken KW - Emissionen KW - Futtermittel KW - Ernährungsmuster KW - Ernährungsumstellung KW - Klimawandel KW - Lebensmittelnachfrage KW - selbstorganisierte Karten KW - skalenübergreifende Analyse KW - Nachhaltigkeit Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77849 ER - TY - THES A1 - Baier, Thomas T1 - Matching events and activities T1 - Zuordnung von Ereignissen zu Aktivitäten BT - preprocessing event logs for process analysis BT - Vorverarbeitung von Ereignislogs für die Prozessanalyse N2 - Nowadays, business processes are increasingly supported by IT services that produce massive amounts of event data during process execution. Aiming at a better process understanding and improvement, this event data can be used to analyze processes using process mining techniques. Process models can be automatically discovered and the execution can be checked for conformance to specified behavior. Moreover, existing process models can be enhanced and annotated with valuable information, for example for performance analysis. While the maturity of process mining algorithms is increasing and more tools are entering the market, process mining projects still face the problem of different levels of abstraction when comparing events with modeled business activities. Mapping the recorded events to activities of a given process model is essential for conformance checking, annotation and understanding of process discovery results. Current approaches try to abstract from events in an automated way that does not capture the required domain knowledge to fit business activities. Such techniques can be a good way to quickly reduce complexity in process discovery. Yet, they fail to enable techniques like conformance checking or model annotation, and potentially create misleading process discovery results by not using the known business terminology. In this thesis, we develop approaches that abstract an event log to the same level that is needed by the business. Typically, this abstraction level is defined by a given process model. Thus, the goal of this thesis is to match events from an event log to activities in a given process model. To accomplish this goal, behavioral and linguistic aspects of process models and event logs as well as domain knowledge captured in existing process documentation are taken into account to build semiautomatic matching approaches. The approaches establish a pre--processing for every available process mining technique that produces or annotates a process model, thereby reducing the manual effort for process analysts. While each of the presented approaches can be used in isolation, we also introduce a general framework for the integration of different matching approaches. The approaches have been evaluated in case studies with industry and using a large industry process model collection and simulated event logs. The evaluation demonstrates the effectiveness and efficiency of the approaches and their robustness towards nonconforming execution logs. N2 - Heutzutage werden Geschäftsprozesse verstärkt durch IT Services unterstützt, welche große Mengen an Ereignisdaten während der Prozessausführung generieren. Mit dem Ziel eines besseren Prozessverständnisses und einer möglichen Verbesserung können diese Daten mit Hilfe von Process–Mining–Techniken analysiert werden. Prozessmodelle können dabei automatisiert erstellt werden und die Prozessausführung kann auf ihre Übereinstimmung hin geprüft werden. Weiterhin können existierende Modelle durch wertvolle Informationen erweitert und verbessert werden, beispielsweise für eine Performanceanalyse. Während der Reifegrad der Algorithmen immer weiter ansteigt, stehen Process–Mining–Projekte immer noch vor dem Problem unterschiedlicher Abstraktionsebenen von Ereignisdaten und Prozessmodellaktivitäten. Das Mapping der aufgezeichneten Ereignisse zu den Aktivitäten eines gegebenen Prozessmodells ist ein essentieller Schritt für die Übereinstimmungsanalyse, Prozessmodellerweiterungen sowie auch für das Verständnis der Modelle aus einer automatisierten Prozesserkennung. Bereits existierende Ansätze abstrahieren Ereignisse auf automatisierte Art und Weise, welche die notwendigen Domänenkenntnisse für ein Mapping zu bestehenden Geschäftsprozessaktivitäten nicht berücksichtigt. Diese Techniken können hilfreich sein, um die Komplexität eines automatisiert erstellten Prozessmodells schnell zu verringern, sie eignen sich jedoch nicht für Übereinstimmungsprüfungen oder Modellerweiterungen. Zudem können solch automatisierte Verfahren zu irreführenden Ergebnissen führen, da sie nicht die bekannte Geschäftsterminologie verwenden. In dieser Dissertation entwickeln wir Ansätze, die ein Ereignislog auf die benötigte Abstraktionsebene bringen, welche typischerweise durch ein Prozessmodell gegeben ist. Daher ist das Ziel dieser Dissertation, die Ereignisse eines Ereignislogs den Aktivitäten eines Prozessmodells zuzuordnen. Um dieses Ziel zu erreichen, werden Verhaltens- und Sprachaspekte von Ereignislogs und Prozessmodellen sowie weitergehendes Domänenwissen einbezogen, um teilautomatisierte Zuordnungsansätze zu entwickeln. Die entwickelten Ansätze ermöglichen eine Vorverarbeitung von Ereignislogs, wodurch der notwendige manuelle Aufwand für den Einsatz von Process–Mining–Techniken verringert wird. Die vorgestellten Ansätze wurden mit Hilfe von Industrie-Case-Studies und simulierten Ereignislogs aus einer großen Prozessmodellkollektion evaluiert. Die Ergebnisse demonstrieren die Effektivität der Ansätze und ihre Robustheit gegenüber nicht-konformem Prozessverhalten. KW - process mining KW - conformance analysis KW - event abstraction KW - Process Mining KW - Übereinstimmungsanalyse KW - Ereignisabstraktion Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-84548 ER - TY - THES A1 - Vossenkuhl, Birgit T1 - Transmission of MRSA along the meat supply chain BT - A methodological concept from farm to fork N2 - Methicillin-resistente Staphylococcus aureus (MRSA) zählen zu den bedeutendsten antibiotikaresistenten Pathogenen, die vor allem in Krankenhäusern aber auch außerhalb von Einrichtungen des Gesundheitswesens weit verbreitet sind. Seit einigen Jahren ist eine neue Generation von MRSA auf dem Vormarsch, die vor allem Nutztierbestände als neue Nische besiedelt. Diese sogenannten Nutztier-assoziierten MRSA wurden wiederholt bei wirtschaftlich bedeutenden Nutztieren sowie daraus gewonnenem Fleisch nachgewiesen. Im Rahmen der vorliegenden Arbeit wurde ein methodischer Ansatz verfolgt, um die Hypothese einer möglichen Übertragung von Nutztier-assoziierten MRSA entlang der Lebensmittelkette vom Tier auf dessen Fleisch zu bestätigen. Angepasst an die Unterschiede in den verfügbaren Daten wurden dafür zwei neue Konzepte erstellt. Zur Analyse der Übertragung von MRSA entlang der Schlachtkette wurde ein mathematisches Modell des Schweineschlachtprozesses entwickelt, welches dazu geeignet ist, den Verlauf der MRSA-Prävalenz entlang der Schlachtkette zu quantifizieren sowie kritische Prozessschritte für eine MRSA-Übertragung zu identifizieren. Anhand von Prävalenzdaten ist es dem Modell möglich, die durchschnittlichen MRSA-Eliminations- und Kontaminationsraten jedes einzelnen Prozessschrittes zu schätzen, die anschließend in eine Monte-Carlo-Simulation einfließen. Im Ergebnis konnte gezeigt werden, dass es generell möglich ist, die MRSA Prävalenz im Laufe des Schlachtprozesses auf ein niedriges finales Niveau zwischen 0,15 bis 1,15% zu reduzieren. Vor allem das Brühen und Abflämmen der Schlachtkörper wurden als kritische Prozesse im Hinblick auf eine MRSA-Dekontamination identifiziert. In Deutschland werden regelmäßig MRSA-Prävalenz und Typisierungsdaten auf allen Stufen der Lebensmittelkette verschiedener Nutztiere erfasst. Um die MRSA-Daten dieser Querschnittstudie hinsichtlich einer möglichen Übertragung entlang der Kette zu analysieren, wurde ein neuer statistischer Ansatz entwickelt. Hierfür wurde eine Chi-Quadrat-Statistik mit der Berechnung des Czekanowski-Ähnlichkeitsindex kombiniert, um Unterschiede in der Verteilung stammspezifischer Eigenschaften zwischen MRSA aus dem Stall, von Karkassen nach der Schlachtung und aus Fleisch im Einzelhandel zu quantifizieren. Die Methode wurde am Beispiel der Putenfleischkette implementiert und zudem bei der Analyse der Kalbfleischkette angewendet. Die durchgehend hohen Ähnlichkeitswerte zwischen den einzelnen Proben weisen auf eine mögliche Übertragung von MRSA entlang der Lebensmittelkette hin. Die erarbeiteten Methoden sind nicht spezifisch bezüglich Prozessketten und Pathogenen. Sie bieten somit einen großen Anwendungsbereich und erweitern das Methodenspektrum zur Bewertung bakterieller Übertragungswege. N2 - Methicillin resistant Staphylococcus aureus (MRSA) is one of the most important antibiotic-resistant pathogens in hospitals and the community. Recently, a new generation of MRSA, the so called livestock associated (LA) MRSA, has emerged occupying food producing animals as a new niche. LA-MRSA can be regularly isolated from economically important live-stock species including corresponding meats. The present thesis takes a methodological approach to confirm the hypothesis that LA-MRSA are transmitted along the pork, poultry and beef production chain from animals at farm to meat on consumers` table. Therefore two new concepts were developed, adapted to differing data sets. A mathematical model of the pig slaughter process was developed which simulates the change in MRSA carcass prevalence during slaughter with special emphasis on identifying critical process steps for MRSA transmission. Based on prevalences as sole input variables the model framework is able to estimate the average value range of both the MRSA elimination and contamination rate of each of the slaughter steps. These rates are then used to set up a Monte Carlo simulation of the slaughter process chain. The model concludes that regardless of the initial extent of MRSA contamination low outcome prevalences ranging between 0.15 and 1.15 % can be achieved among carcasses at the end of slaughter. Thus, the model demonstrates that the standard procedure of pig slaughtering in principle includes process steps with the capacity to limit MRSA cross contamination. Scalding and singeing were identified as critical process steps for a significant reduction of superficial MRSA contamination. In the course of the German national monitoring program for zoonotic agents MRSA prevalence and typing data are regularly collected covering the key steps of different food production chains. A new statistical approach has been proposed for analyzing this cross sectional set of MRSA data with regard to show potential farm to fork transmission. For this purpose, chi squared statistics was combined with the calculation of the Czekanowski similarity index to compare the distributions of strain specific characteristics between the samples from farm, carcasses after slaughter and meat at retail. The method was implemented on the turkey and veal production chains and the consistently high degrees of similarity which have been revealed between all sample pairs indicate MRSA transmission along the chain. As the proposed methods are not specific to process chains or pathogens they offer a broad field of application and extend the spectrum of methods for bacterial transmission assessment. KW - MRSA KW - Antibiotikaresistenz KW - Modell KW - Lebensmittelkette KW - Übertragung KW - MRSA KW - Resistance KW - Model KW - Food Chain KW - Transmission Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85918 ER - TY - THES A1 - Bösche, Nina Kristine T1 - Detection of rare earth elements and rare earth oxides with hyperspectral spectroscopy T1 - Die Erkennung von Seltenerdelementen und Seltenerdoxiden mittels hyperspektraler Spektroskopie BT - near-field and spaceborne investigations in preparation of the EnMAP mission BT - Nahfeld und satellitengestützte Bildanalyse in Vorbereitung der EnMAP Mission N2 - The continuously increasing demand for rare earth elements in technical components of modern technologies, brings the detection of new deposits closer into the focus of global exploration. One promising method to globally map important deposits might be remote sensing, since it has been used for a wide range of mineral mapping in the past. This doctoral thesis investigates the capacity of hyperspectral remote sensing for the detection of rare earth element deposits. The definition and the realization of a fundamental database on the spectral characteristics of rare earth oxides, rare earth metals and rare earth element bearing materials formed the basis of this thesis. To investigate these characteristics in the field, hyperspectral images of four outcrops in Fen Complex, Norway, were collected in the near-field. A new methodology (named REEMAP) was developed to delineate rare earth element enriched zones. The main steps of REEMAP are: 1) multitemporal weighted averaging of multiple images covering the sample area; 2) sharpening the rare earth related signals using a Gaussian high pass deconvolution technique that is calibrated on the standard deviation of a Gaussian-bell shaped curve that represents by the full width of half maxima of the target absorption band; 3) mathematical modeling of the target absorption band and highlighting of rare earth elements. REEMAP was further adapted to different hyperspectral sensors (EO-1 Hyperion and EnMAP) and a new test site (Lofdal, Namibia). Additionally, the hyperspectral signatures of associated minerals were investigated to serve as proxy for the host rocks. Finally, the capacity and limitations of spectroscopic rare earth element detection approaches in general and of the REEMAP approach specifically were investigated and discussed. One result of this doctoral thesis is that eight rare earth oxides show robust absorption bands and, therefore, can be used for hyperspectral detection methods. Additionally, the spectral signatures of iron oxides, iron-bearing sulfates, calcite and kaolinite can be used to detect metasomatic alteration zones and highlight the ore zone. One of the key results of this doctoral work is the developed REEMAP approach, which can be applied from near-field to space. The REEMAP approach enables rare earth element mapping especially for noisy images. Limiting factors are a low signal to noise ratio, a reduced spectral resolution, overlaying materials, atmospheric absorption residuals and non-optimal illumination conditions. Another key result of this doctoral thesis is the finding that the future hyperspectral EnMAP satellite (with its currently published specifications, June 2015) will be theoretically capable to detect absorption bands of erbium, dysprosium, holmium, neodymium and europium, thulium and samarium. This thesis presents a new methodology REEMAP that enables a spatially wide and rapid hyperspectral detection of rare earth elements in order to meet the demand for fast, extensive and efficient rare earth exploration (from near-field to space). N2 - Die weltweit steigende Nachfrage nach seltenen Erden für technische Komponenten in modernen Technologien, rückt die Erkundung neuer Lagerstätten näher in den Fokus der globalen Exploration. Die Erkundung und Beschreibung neuer Lagerstätten mittels hyperspektraler Fernerkundung findet basierend auf Mineralkartierung bereits eine breite Anwendung. Diese Doktorarbeit befasst sich mit der Machbarkeit hyperspektraler Fernerkundung zur Detektion von Seltenerdelement-Vorkommen. Um dieser Fragestellung nachzukommen, wird eine grundlegende Datenbank der spektralen Eigenschaften von Seltenerdoxiden, Seltenerdmetallen und Seltenerdelement-haltigen Materialien hergestellt. Diese Eigenschaften wurden an vier Aufschlüssen des Fen Complexes in Norwegen hyperspektral analysiert. Auf dieser Grundlage wurde eine neue Methodik (REEMAP) entwickelt, die Seltenerdelement angereicherte Zonen im Aufschluss auffindet und kartiert. Die wichtigsten Schritte dieser Methode sind wie folgt: 1) multi-temporal gewichtete Mittelung mehrerer hyperspektraler Bilder des gleichen Ausschnittes; 2) Verstärkung des charakteristischen spektralen Merkmals unter Verwendung eines Hochpassfilterverfahrens, das auf der Standardabweichung einer Gaußkurve basiert die der gesuchten Absorptionsbande entspricht; 3) die mathematische Modellierung der gesuchten Absorptionsbande und thematische Klassifikation der Bildpixel. REEMAP wurde auf verschiedene Sensoren (EO-1 Hyperion und EnMAP) und ein neues Testgebiet (Lofdal, Namibia) re-kalibriert. Weiterhin wurde untersucht, inwiefern hyperspektrale Methoden zum Detektieren von Proxymineralen verwendet werden können. Die Limitationen der Seltenerd-Detektion mittels Spektroskopie im Allgemeinen und der Detektion unter Anwendung von REEMAP wurden erforscht und diskutiert. Ein Ergebnis dieser Arbeit ist, dass acht Seltenerdoxid Spektren eindeutig detektierbare Absorptionsbanden zeigen, die für eine Seltenerddetektion verwendet werden können. Zusätzlich können die spektralen Merkmale von Eisenoxiden, eisenhaltigen Sulfaten, Kalzit und Kaolinit verwendet werden, um metasomatische Alterationszonen und die Erzgänge zu erkennen. Eines der wichtigsten Ergebnisse dieser Doktorarbeit ist die Entwicklung der REEMAP Methode. Vor allem für verrauschte hyperspektrale Bilder zeigten die Ergebnisse unter der Verwendung von REEMAP eine höhere Detektionswahrscheinlichkeit. Neben dem Signal-zu-Rausch-Verhältnis des Bildes, sind die davon abhängige spektrale Auflösung, überdeckende Materialien, atmosphärische Effekte und Aufnahmen unter suboptimalen Lichtverhältnissen als weitere wichtige Limitation der Seltenerd-Detektion zu nennen. Ein weiteres wichtiges Ergebnis dieser Doktorarbeit ist, dass der zukünftige EnMAP Satellit (mit seinem aktuell veröffentlichten Spezifikationen, Juni 2015) theoretisch in der Lage sein wird die Absorptionsbanden von Erbium, Dysprosium, Holmium, Neodym, Europium, Thulium und Samarium zu detektieren. Meine Dissertation stellt eine neue fernerkundliche Methode (REEMAP) vor, die zur weiträumigen und schnellen hyperspektralen Detektion von seltenen Erden verwendet werden kann und somit hilfreich bei der Exploration seltener Erden sein kann. KW - remote sensing KW - rare earth elements KW - hyperspectral KW - EnMAP satellite KW - Fernerkundung KW - Seltenerdelemente KW - seltene Erden KW - Hyperspektral KW - EnMAP Satellit Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85363 ER -