TY - THES A1 - Šustr, David T1 - Molecular diffusion in polyelectrolyte multilayers N2 - Research on novel and advanced biomaterials is an indispensable step towards their applications in desirable fields such as tissue engineering, regenerative medicine, cell culture, or biotechnology. The work presented here focuses on such a promising material: polyelectrolyte multilayer (PEM) composed of hyaluronic acid (HA) and poly(L-lysine) (PLL). This gel-like polymer surface coating is able to accumulate (bio-)molecules such as proteins or drugs and release them in a controlled manner. It serves as a mimic of the extracellular matrix (ECM) in composition and intrinsic properties. These qualities make the HA/PLL multilayers a promising candidate for multiple bio-applications such as those mentioned above. The work presented aims at the development of a straightforward approach for assessment of multi-fractional diffusion in multilayers (first part) and at control of local molecular transport into or from the multilayers by laser light trigger (second part). The mechanism of the loading and release is governed by the interaction of bioactives with the multilayer constituents and by the diffusion phenomenon overall. The diffusion of a molecule in HA/PLL multilayers shows multiple fractions of different diffusion rate. Approaches, that are able to assess the mobility of molecules in such a complex system, are limited. This shortcoming motivated the design of a novel evaluation tool presented here. The tool employs a simulation-based approach for evaluation of the data acquired by fluorescence recovery after photobleaching (FRAP) method. In this approach, possible fluorescence recovery scenarios are primarily simulated and afterwards compared with the data acquired while optimizing parameters of a model until a sufficient match is achieved. Fluorescent latex particles of different sizes and fluorescein in an aqueous medium are utilized as test samples validating the analysis results. The diffusion of protein cytochrome c in HA/PLL multilayers is evaluated as well. This tool significantly broadens the possibilities of analysis of spatiotemporal FRAP data, which originate from multi-fractional diffusion, while striving to be widely applicable. This tool has the potential to elucidate the mechanisms of molecular transport and empower rational engineering of the drug release systems. The second part of the work focuses on the fabrication of such a spatiotemporarily-controlled drug release system employing the HA/PLL multilayer. This release system comprises different layers of various functionalities that together form a sandwich structure. The bottom layer, which serves as a reservoir, is formed by HA/PLL PEM deposited on a planar glass substrate. On top of the PEM, a layer of so-called hybrids is deposited. The hybrids consist of thermoresponsive poly(N-isopropylacrylamide) (PNIPAM) -based hydrogel microparticles with surface-attached gold nanorods. The layer of hybrids is intended to serve as a gate that controls the local molecular transport through the PEM–solution-interface. The possibility of stimulating the molecular transport by near-infrared (NIR) laser irradiation is being explored. From several tested approaches for the deposition of hybrids onto the PEM surface, the drying-based approach was identified as optimal. Experiments, that examine the functionality of the fabricated sandwich at elevated temperature, document the reversible volume phase transition of the PEM-attached hybrids while sustaining the sandwich stability. Further, the gold nanorods were shown to effectively absorb light radiation in the tissue- and cell-friendly NIR spectral region while transducing the energy of light into heat. The rapid and reversible shrinkage of the PEM-attached hybrids was thereby achieved. Finally, dextran was employed as a model transport molecule. It loads into the PEM reservoir in a few seconds with the partition constant of 2.4, while it spontaneously releases in a slower, sustained manner. The local laser irradiation of the sandwich, which contains the fluorescein isothiocyanate tagged dextran, leads to a gradual reduction of fluorescence intensity in the irradiated region. The release system fabricated employs renowned photoresponsivity of the hybrids in an innovative setting. The results of the research are a step towards a spatially-controlled on-demand drug release system that paves the way to spatiotemporally controlled drug release. The approaches developed in this work have the potential to elucidate the molecular dynamics in ECM and to foster engineering of multilayers with properties tuned to mimic the ECM. The work aims at spatiotemporal control over the diffusion of bioactives and their presentation to the cells. N2 - Die Forschung an neuartigen und komplexen Biomaterialien ist unabdingbar für deren Einsatz in begehrten Bereichen wie der Gewebezüchtung, regenerativen Medizin, Zellkultivierung und Biotechnologie. Die hier vorgelegte Arbeit beschäftigt sich eingehend mit einem dieser vielversprechenden Materialien: Polyelektrolytische Multilayers (PEM), die aus Hyaluronsäure (Hyaluronic Acid, HA) und Poly-L-Lysin (PLL) zusammengesetzt sind. Diese gelartige Polymerbeschichtung ermöglicht es, (Bio-) Moleküle wie z.B. Proteine oder Medikamente zu akkumulieren und diese kontrolliert wieder abzugeben. Durch ihre Zusammensetzung und intrinsischen Merkmale können die PEM der Imitation einer Extrazellulären Matrix (ECM) dienen. Diese Eigenschaften machen die HA/PLL-PEM zu einem Anwärter auf verschiedene Bio-Anwendungen, wie den oben genannten. Die vorliegende Arbeit zielt auf die Entwicklung eines Ansatzes zur Einschätzung der multi-fraktionellen Diffusion in Multilayers (1. Teil), und auf die Kontrolle des lokalen molekularen Transports in und aus den Multilayers durch Laser-Stimulation (2. Teil). Der Aufnahme- und Freisetzungsmechanismus wird bestimmt von der Wechselwirkung zwischen Bioaktiva und den Bestandteilen der Multilayers, sowie allgemein vom Diffusionsprozess. Der Diffusion eines Molekül in HA/PLL-PEM weist unterschiedliche Diffusionsraten einzelner Molekülbestandteile auf. Derzeit existieren nur wenige Ansätze zur Einschätzung der Mobilität von Molekülen in derart komplexen Systemen. Diesem Mangel will die vorliegende Arbeit durch das Design eines neuartigen Evaluations-Instruments abhelfen. Dieses Instrument bedient sich eines simulationsbasierten Ansatzes zur Evaluation von Daten, die durch die fluorescence recovery after photobleaching (FRAP) -Methode erfasst wurden. Der Ansatz simuliert zunächst mögliche Szenarien der Fluoreszenz-Rückbildung, um diese anschließend mit Messdaten zu vergleichen; dazu werden Modell-Parameter angepasst, um suffiziente Vergleichswerte zu erzielen. Fluoreszierende Latex-Partikel verschiedener Größe und eine Fluoresceinlösung wurden als Kontroll- und Vergleichs-Proben verwendet, um die Ergebnisse zu überprüfen. Zusätzlich wurde die Diffusion des Proteins Cytochrom C in eine HA/PLL-PEM ausgewertet. Dieses Instrument weitet die Möglichkeiten der Analyse von spatiotemporären FRAP-Daten, die aus der multi-fraktionellen Diffusion stammen, erheblich und gleichzeitig ist es vielseitig einsetzbar. Das Instrument hat das Potential, die Mechanismen des Molekültransports weiter zu erhellen, und eine gezielte Steuerung der Freisetzung medikamentöser Wirkstoffe zu ermöglichen. Der zweite Teil der Arbeit widmet sich der Erstellung eines Systems zur spatiotemporären Wirkstofffreisetzung, das sich die HA/PLL-PEM zunutze macht. Dieses Freisetzungssystem umfasst verschiedene Lagen mit jeweils unterschiedlichen Funktionsweisen, die zusammen ein „Sandwich“ bilden. Die zugrundeliegende Schicht aus HA/PLL-PEM auf einem planaren Glassubstrat dient als Reservoir. Auf diese PEM ist eine Schicht sogenannter Hybride aufgebracht. Die Hybride bestehen aus thermoresponsiven Poly-N-Isopropylacrylamid (PNIPAM) -basierten Hydrogel-Mikropartikeln auf deren Gold-Nanostäbchen gebunden sind. Die Hybridschicht dient in der räumlichen Kontrolle des lokalen Molekültransports als „Schlupfloch“ an der Schnittstelle von PEM und Lösung. Die Möglichkeit der Stimulation des molekülaren Transports durch Bestrahlung mit einem Nah-Infrarot-Laser (NIR) wird hier untersucht. Von den mehreren getesteten Ansätzen zur Aufbringung von Hybriden auf die PEM-Oberfläche stellte sich die Trocknung als beste Möglichkeit heraus. Funktionalitätskontrollen des hergestellten Sandwiches bei erhöhter Temperatur ergaben eine reversible Volumenphasenübergang der PEM-gebundenen Hybride, wobei die Sandwich-Struktur erhalten blieb. Weiterhin wurde eine effektive Lichtabsorption durch die Gold-Nanostäbchen in den gewebe- und zellschonenden NIR-Spektrumsbereich gezeigt, wobei die aufgenommene Lichtenergie in Wärme umgewandelt wurde. Dadurch wurde eine schnelle und reversible Schrumpfung der PEM-gebundenen Hybride erreicht. Zuguterletzt wird Dextran als Modellmolekül für den Transport eingesetzt. Dieses wird in wenigen Sekunden – mit einem Verteilungskoeffizient von 2,4 – in das PEM-Reservoir aufgenommen, während es auf langsamere, anhaltende Weise freigesetzt wird. Die lokale Laser-Bestrahlung des Dextran-FITC-haltigen Sandwiches bewirkte eine schrittweise Reduktion der Fluoreszenz-Intensität in der bestrahlten Region. Das hier vorgestellte Molekül-Freisetzungssystem verwendet die vielzitierte Photoresponsivität von Hybriden auf neuartige Weise. Die Ergebnisse der Untersuchung bedeuten einen Fortschritt in Richtung eines räumlich kontrollierten, nach Bedarf steuerbaren Freisetzungs-Systems, das wiederum den Weg zu einer spatiotemporären Kontrollierbarkeit der Wirkstoff-Freisetzung bereiten könnte. Die in dieser Arbeit entwickelten Ansätze ermöglichen ein besseres Verständnis der Dynamik in der ECM, sowie die Entwicklung ECM-ähnlicher Multilayers. Die Arbeit hat die spatiotemporäre Kontrolle der Diffusion von bioaktiven Stoffen und deren Präsentation gegenüber Zellen zum Ziel. T2 - Molekulare Diffusion in Polyelektrolyt-Multischichten KW - polyelectrolyte multilayers KW - diffusion KW - simulation KW - FRAP KW - microgel KW - drug release KW - PNIPAM KW - IR laser KW - assessment of the diffusion KW - mulifractional diffusion KW - spatially and temporally controlled drug release KW - ordering of particles on the surface KW - close packing KW - dichteste Packung KW - Diffusion KW - Einschätzung der Diffusion KW - Wirkstoff-Freisetzun KW - Mikrogel KW - multi-fraktionelle Diffusion KW - Ordnung der Partikel auf der Oberfläche KW - Polyelektrolyt-Multischichten KW - Simulation KW - räumlich und zeitlich kontrollierte Wirkstoff-Freisetzung KW - FRAP KW - IR laser KW - PNIPAM Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-489038 ER - TY - THES A1 - Šedová, Barbora T1 - Heterogeneous effects of weather and climate change on human migration T1 - Heterogene Auswirkungen von Wetter und Klimawandel auf menschliche Migration N2 - While estimated numbers of past and future climate migrants are alarming, the growing empirical evidence suggests that the association between adverse climate-related events and migration is not universally positive. This dissertation seeks to advance our understanding of when and how climate migration emerges by analyzing heterogeneous climatic influences on migration in low- and middle-income countries. To this end, it draws on established economic theories of migration, datasets from physical and social sciences, causal inference techniques and approaches from systematic literature review. In three of its five chapters, I estimate causal effects of processes of climate change on inequality and migration in India and Sub-Saharan Africa. By employing interaction terms and by analyzing sub-samples of data, I explore how these relationships differ for various segments of the population. In the remaining two chapters, I present two systematic literature reviews. First, I undertake a comprehensive meta-regression analysis of the econometric climate migration literature to summarize general climate migration patterns and explain the conflicting findings. Second, motivated by the broad range of approaches in the field, I examine the literature from a methodological perspective to provide best practice guidelines for studying climate migration empirically. Overall, the evidence from this dissertation shows that climatic influences on human migration are highly heterogeneous. Whether adverse climate-related impacts materialize in migration depends on the socio-economic characteristics of the individual households, such as wealth, level of education, agricultural dependence or access to adaptation technologies and insurance. For instance, I show that while adverse climatic shocks are generally associated with an increase in migration in rural India, they reduce migration in the agricultural context of Sub-Saharan Africa, where the average wealth levels are much lower so that households largely cannot afford the upfront costs of moving. I find that unlike local climatic shocks which primarily enhance internal migration to cities and hence accelerate urbanization, shocks transmitted via agricultural producer prices increase migration to neighboring countries, likely due to the simultaneous decrease in real income in nearby urban areas. These findings advance our current understanding by showing when and how economic agents respond to climatic events, thus providing explicit contexts and mechanisms of climate change effects on migration in the future. The resulting collection of findings can guide policy interventions to avoid or mitigate any present and future welfare losses from climate change-related migration choices. N2 - Während die geschätzten Zahlen zukünftiger Klimamigranten alarmierend sind, deuten die wachsenden empirischen Belege darauf hin, dass der Klimawandel nicht automatisch zu mehr Migration führt. Denn auch wenn klimabezogene Einflüsse die Entscheidung zur Migration zunehmend beeinflussen, wird diese durch eine Vielzahl von Faktoren, wie beispielsweise den sozioökonomischen und politischen Bedingungen, beeinflusst. Der Zusammenhang zwischen Klimawandel und Migration ist also stark kontextabhängig. Diese Dissertation besteht aus fünf Artikeln und zeigt, wann und wie Klimamigration entsteht, indem sie die heterogenen klimatischen Einflüsse in Entwicklungsländern untersucht. Gestützt auf ökonomische Migrationstheorien analysiere ich Datensätze aus den Natur- und Sozialwissenschaften mithilfe von Methodiken der ökonometrischen Kausalanalyse, der Geoinformationssysteme und der systematischen Literatursynthese. In drei von fünf Kapiteln schätze ich die kausalen Auswirkungen des Klimawandels auf Ungleichheit und Migration in Indien und Subsahara Afrika. Durch die Verwendung von Interaktionstermen und die Analyse von Teilstichproben untersuche ich in Regressionsmodellen, wie sich diese Beziehungen für verschiedene Bevölkerungsgruppen unterscheiden. In den verbleibenden zwei Kapiteln fasse ich die ökonometrische Literatur zur Klimamigration systematisch zusammen. Zunächst führe ich eine umfassende Meta-Regressionsanalyse durch, um die allgemeine Klimamigrationsmuster zusammenzufassen und die widersprüchliche Evidenz zu erklären. In einem zweiten Schritt untersuche ich die ökonometrische Klimamigrationsliteratur aus einer methodologischen Perspektive, um Best-Practice-Leitlinien für künftige empirische Analysen von Klimamigration bereitzustellen. Insgesamt bestätigen die Ergebnisse dieser Dissertation, dass die klimatischen Einflüsse auf menschliche Migration heterogen sind und von den sozioökonomischen Merkmalen der einzelnen Haushalte wie dem Wohlstand und Bildungsniveau, der Abhängigkeit von der Landwirtschaft oder dem Zugang zu Anpassungstechnologien und Versicherungen, mitbestimmt werden. Ich finde beispielsweise, dass ungünstige klimatische Schocks zu einem Migrationsanstieg im ländlichen Indien führen, sie aber die Migration im landwirtschaftlichen Subsahara Afrika, wo das durchschnittliche Einkommensniveau viel niedriger ist, verhindern. Ich habe zudem herausgefunden, dass im Gegensatz zu lokalen klimatischen Schocks, die in erster Linie die Binnenmigration in die Städte verstärken und damit die Urbanisierung beschleunigen, globale Schocks über landwirtschaftliche Erzeugerpreise die Abwanderung in benachbarte Länder antreiben. Diese Ergebnisse erweitern unser derzeitiges Verständnis, indem sie verdeutlichen, wann und wie Akteure auf unterschiedliche Klimaereignisse mit der Entscheidung zur Migration reagieren. Die daraus resultierenden Erkenntnisse können helfen, Entscheidungsträger auf drei wichtige Arten zu informieren. Erstens, wenn man weiß, wer die Klimamigranten sind und welche Destinationsziele sie wählen, wird Klimamigration vorhersehbarer und damit kontrollierbarer. Dies kann verhindern, dass sie zu einer humanitären Krise wird. Zweitens hilft die Identifizierung von Bevölkerungsgruppen, die nicht in der Lage sind, sich durch Migration an die veränderten klimatischen Bedingungen anzupassen, dabei, unfreiwillige Immobilität zu vermeiden, was wiederum auch eine potenzielle humanitären Krise verhindert. Drittens können all diese Informationen helfen, Kosten und Nutzen der Klima(im)mobilität genauer zu bewerten und so die Social Cost of Carbon genauer einzuschätzen. KW - migration KW - weather KW - climate change KW - agriculture KW - food prices KW - inequality KW - econometrics KW - Landwirtschaft KW - Klimawandel KW - Ökonometrie KW - Lebensmittelpreise KW - Ungleichheit KW - Migration KW - Wetter Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536733 ER - TY - THES A1 - Öztürk, Ugur T1 - Learning more to predict landslides T1 - Ein verbessertes Wissen zur Prognose von Hangrutschungen N2 - Landslides are frequent natural hazards in rugged terrain, when the resisting frictional force of the surface of rupture yields to the gravitational force. These forces are functions of geological and morphological factors, such as angle of internal friction, local slope gradient or curvature, which remain static over hundreds of years; whereas more dynamic triggering events, such as rainfall and earthquakes, compromise the force balance by temporarily reducing resisting forces or adding transient loads. This thesis investigates landslide distribution and orientation due to landslide triggers (e.g. rainfall) at different scales (6-4∙10^5 km^2) and aims to link rainfall movement with the landslide distribution. It additionally explores the local impacts of the extreme rainstorms on landsliding and the role of precursory stability conditions that could be induced by an earlier trigger, such as an earthquake. Extreme rainfall is a common landslide trigger. Although several studies assessed rainfall intensity and duration to study the distribution of thus triggered landslides, only a few case studies quantified spatial rainfall patterns (i.e. orographic effect). Quantifying the regional trajectories of extreme rainfall could aid predicting landslide prone regions in Japan. To this end, I combined a non-linear correlation metric, namely event synchronization, and radial statistics to assess the general pattern of extreme rainfall tracks over distances of hundreds of kilometers using satellite based rainfall estimates. Results showed that, although the increase in rainfall intensity and duration positively correlates with landslide occurrence, the trajectories of typhoons and frontal storms were insufficient to explain landslide distribution in Japan. Extreme rainfall trajectories inclined northwestwards and were concentrated along some certain locations, such as coastlines of southern Japan, which was unnoticed in the landslide distribution of about 5000 rainfall-triggered landslides. These landslides seemed to respond to the mean annual rainfall rates. Above mentioned findings suggest further investigation on a more local scale to better understand the mechanistic response of landscape to extreme rainfall in terms of landslides. On May 2016 intense rainfall struck southern Germany triggering high waters and landslides. The highest damage was reported at the Braunsbach, which is located on the tributary-mouth fan formed by the Orlacher Bach. Orlacher Bach is a ~3 km long creek that drains a catchment of about ~6 km^2. I visited this catchment in June 2016 and mapped 48 landslides along the creek. Such high landslide activity was not reported in the nearby catchments within ~3300 km^2, despite similar rainfall intensity and duration based on weather radar estimates. My hypothesis was that several landslides were triggered by rainfall-triggered flash floods that undercut hillslope toes along the Orlacher Bach. I found that morphometric features such as slope and curvature play an important role in landslide distribution on this micro scale study site (<10 km^2). In addition, the high number of landslides along the Orlacher Bach could also be boosted by accumulated damages on hillslopes due karst weathering over longer time scales. Precursory damages on hillslopes could also be induced by past triggering events that effect landscape evolution, but this interaction is hard to assess independently from the latest trigger. For example, an earthquake might influence the evolution of a landscape decades long, besides its direct impacts, such as landslides that follow the earthquake. Here I studied the consequences of the 2016 Kumamoto Earthquake (MW 7.1) that triggered some 1500 landslides in an area of ~4000 km^2 in central Kyushu, Japan. Topography, i.e. local slope and curvature, both amplified and attenuated seismic waves, thus controlling the failure mechanism of those landslides (e.g. progressive). I found that topography fails in explaining the distribution and the preferred orientation of the landslides after the earthquake; instead the landslides were concentrated around the northeast of the rupture area and faced mostly normal to the rupture plane. This preferred location of the landslides was dominated mainly by the directivity effect of the strike-slip earthquake, which is the propagation of wave energy along the fault in the rupture direction; whereas amplitude variations of the seismic radiation altered the preferred orientation. I suspect that the earthquake directivity and the asymmetry of seismic radiation damaged hillslopes at those preferred locations increasing landslide susceptibility. Hence a future weak triggering event, e.g. scattered rainfall, could further trigger landslides at those damaged hillslopes. N2 - Hangrutschungen treten häufig in steilem Gelände auf, wenn die Erdanziehungskraft die Scherkräfte an der Oberfläche übersteigt. Diese Kräfte beinhalten geologische und geomorphologische Faktoren wie den Reibungswinkel oder die Neigung und Krümmung von Hängen, die über Jahrhunderte statisch bleiben können. Dynamische Ereignisse wie Regenfälle und Erdbeben können hingegen das Kräftegleichgewicht beeinträchtigen, indem sie Widerstandskräfte vorübergehend reduzieren oder Lasten temporär hinzufügen. Diese Arbeit untersucht die Verteilung und Orientierung von Hangrutschungen in Abhängigkeit von Auslösern (z.B. Niederschlag) auf verschiedenen Skalenebenen (6-4∙10^5 km^2) und verknüpft die Bewegung des Niederschlagssystems mit der Hangrutschungsverteilung. Zudem werden lokale Auswirkungen von extremen Gewittern auf Hangrutschungen untersucht, sowie vorausgehende Stabilitätsbedingungen, die durch ein früheres Ereignis, beispielsweise ein Erdbeben, verändert werden können. Extremer Niederschlag ist ein weithin bekannter Auslöser für Hangrutschungen. Obwohl mehrere Studien die Verteilung von Hangrutschungen mit der Niederschlagsintensität und -dauer verglichen haben, beachteten nur wenige Fallstudien das räumliche Bewegungsmuster des Niederschlags, i.e. den orographischen Effekt. Eine solche Quantifizierung könnte die Vorhersage von hangrutschungsgefährdete Regionen in Japan verbessern. Hierfür habe ich ein nicht-lineares Korrelationsmaß (event synchronization) auf regionale Sturmbahnen in Japan angewendet, um deren räumliche Verteilung durch satellitengestützen Regenschätzungen nachzuvollziehen. Die durchgeführten Untersuchungen zeigten, dass sich die Verteilung von Hangrutschungen nur unzureichend mit den Zugbahnen von Taifunen und Sturmtiefen erklären lässt. Die Stabilität von Hängen scheint mehr durch mittlere Jahresniederschlagsmengen beeinflusst zu werden. Erzielte Ergebnisse zeigen, dass weitere Untersuchungen auf lokaler Ebene nötig sind, um die unmittelbare Auswirkungen von Extremniederschlägen auf Hangstabilität und -rutschungen besser zu verstehen. Im Mai 2016 kam es in Süddeutschland zu einem heftigen Gewitter, das Hochwasser und Hangrutschungen ausgelöst hat. Der höchste Schaden wurde in Braunsbach, dessen Zentrum sich am Zufluss des Orlacher Bachs befindet, gemeldet. Der Orlacher Bach ist ~3 lang und hat ein Einzugsgebiet von etwa ~6 km^2. Ich habe dieses Einzugsgebiet im Juni 2016 besucht und 48 Hangrutschungen entlang des Baches kartiert. Ich vermutete, dass mehrere Hangrutschungen durch Sturzfluten ausgelöst wurden, welche die Hänge entlang des Orlacher Baches unterspülten. Ich stellte fest, dass morphometrische Merkmale wie die lokale Hangneigung und -krümmung eine wichtige Rolle bei der Hangrutschungsverteilung auf dieser Mikroskala spielen (<10 km^2). Darüber hinaus könnte die hohe Anzahl von Hangrutschungen am Orlacher Bach auch durch Karstverwitterung über längere Zeiträume verstärkt werden. Zahlreiche in der Vergangenheit liegende Ereignisse können die Stabilität eines Hanges beeinflussen. Der Einfluss solcher Ereignisse ist nur sehr schwer unabhängig voneinander abschätzbar. Beispielseise könnte ein Erdbeben die Entwicklung einer Landschaft über Jahrzehnte hin beeinflussen. Hier erforsche ich die Folgen des Kumamoto-Erdbebens 2016 (MW 7.1) das im Zentrum von Kyushu, Japan, ca. 1500 Hangrutschungen in einem Gebiet von ~4000 km^2 ausgelöst hat. Die Topographie (Hangneigung und -krümmung) verstärkte schwächte seismische Wellen gleichermaßen ab, wodurch der Auslösemechanismus dieser Hangrutschungen (z.B. progressiv) gesteuert wird. Ich konnte belegen, dass die Topographie die Verteilung und die bevorzugte Ausrichtung der Hangrutsche nach dem Erdbeben nicht erklären kann; stattdessen waren die Hangrutschungen um den Nordosten des Bruchgebiets herum konzentriert und standen meist senkrecht zur Bruchfläche. Diese bevorzugte Lage der Erdrutsche wurde hauptsächlich durch den Richtwirkungseffekt des Blattverschiebung-Erdbebens dominiert. Bei diesem handelt es sich um die Ausbreitung der Wellenenergie entlang des Bruches in Bruchrichtung, während Amplitudenvariationen der seismischen Strahlung die bevorzugte Orientierung ändern. Ich vermute, dass die Richtwirkung des Erdbebens und die Asymmetrie der seismischen Strahlung die Hangneigung an diesen bevorzugten Stellen schädigten und die Anfälligkeit für Hangrutschungen erhöhten. Daher könnte ein zukünftiges schwaches Ereignis wie z.B. ein unbedeutender Niederschlag an diesen beschädigten Hängen weitere Hangrutschungen auslösen. KW - landslides KW - complex networks KW - event synchronization KW - typhoons KW - Kumamoto earthquake KW - Braunsbach flash flood KW - Hangrutschungen KW - komplexes Netzwerk KW - Synchronisation von Ereignissen KW - Taifune KW - Kumamoto Erdbeben KW - Braunsbach Sturzflut Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426439 ER - TY - THES A1 - Önel, Hakan T1 - Electron acceleration in a flare plasma via coronal circuits T1 - Elektronenbeschleunigung im Flareplasma modelliert mit koronalen Schaltkreisen N2 - The Sun is a star, which due to its proximity has a tremendous influence on Earth. Since its very first days mankind tried to "understand the Sun", and especially in the 20th century science has uncovered many of the Sun's secrets by using high resolution observations and describing the Sun by means of models. As an active star the Sun's activity, as expressed in its magnetic cycle, is closely related to the sunspot numbers. Flares play a special role, because they release large energies on very short time scales. They are correlated with enhanced electromagnetic emissions all over the spectrum. Furthermore, flares are sources of energetic particles. Hard X-ray observations (e.g., by NASA's RHESSI spacecraft) reveal that a large fraction of the energy released during a flare is transferred into the kinetic energy of electrons. However the mechanism that accelerates a large number of electrons to high energies (beyond 20 keV) within fractions of a second is not understood yet. The thesis at hand presents a model for the generation of energetic electrons during flares that explains the electron acceleration based on real parameters obtained by real ground and space based observations. According to this model photospheric plasma flows build up electric potentials in the active regions in the photosphere. Usually these electric potentials are associated with electric currents closed within the photosphere. However as a result of magnetic reconnection, a magnetic connection between the regions of different magnetic polarity on the photosphere can establish through the corona. Due to the significantly higher electric conductivity in the corona, the photospheric electric power supply can be closed via the corona. Subsequently a high electric current is formed, which leads to the generation of hard X-ray radiation in the dense chromosphere. The previously described idea is modelled and investigated by means of electric circuits. For this the microscopic plasma parameters, the magnetic field geometry and hard X-ray observations are used to obtain parameters for modelling macroscopic electric components, such as electric resistors, which are connected with each other. This model demonstrates that such a coronal electric current is correlated with large scale electric fields, which can accelerate the electrons quickly up to relativistic energies. The results of these calculations are encouraging. The electron fluxes predicted by the model are in agreement with the electron fluxes deduced from the measured photon fluxes. Additionally the model developed in this thesis proposes a new way to understand the observed double footpoint hard X-ray sources. N2 - Die Sonne ist ein Stern, der aufgrund seiner räumlichen Nähe einen großen Einfluss auf die Erde hat. Seit jeher hat die Menschheit versucht die "Sonne zu verstehen" und besonders im 20. Jahrhundert gelang es der Wissenschaft viele der offenen Fragen mittels Beobachtungen zu beantworten und mit Modellen zu beschreiben. Die Sonne ist ein aktiver Stern, dessen Aktivität sich in seinem magnetischen Zyklus ausdrückt, welcher in enger Verbindung zu den Sonnenfleckenzahlen steht. Flares spielen dabei eine besondere Rolle, da sie hohe Energien auf kurzen Zeitskalen freisetzen. Sie werden begleitet von erhöhter Strahlungsemission über das gesamte Spektrum hinweg und setzen darüber hinaus auch energetische Teilchen frei. Beobachtungen von harter Röntgenstrahlung (z.B. mit der RHESSI Raumsonde der NASA) zeigen, dass ein großer Teil der freigesetzten Energie in die kinetische Energie von Elektronen transferiert wird. Allerdings ist nach wie vor nicht verstanden, wie die Beschleunigung der vielen Elektronen auf hohe Energien (jenseits von 20 keV) in Bruchteilen einer Sekunde erfolgt. Die vorliegende Arbeit präsentiert ein Model für die Erzeugung von energetischen Elektronen während solarer Flares, das auf mit realen Beobachtungen gewonnenen Parametern basiert. Danach bauen photosphärische Plasmaströmungen elektrische Spannungen in den aktiven Regionen der Photosphäre auf. Für gewöhnlich sind diese Potentiale mit elektrischen Strömen verbunden, die innerhalb der Photosphäre geschlossen sind. Allerdings kann infolge von magnetischer Rekonnektion eine magnetische Verbindung in der Korona aufgebaut werden, die die Regionen von magnetisch unterschiedlicher Polarität miteinander verbindet. Wegen der deutlich höheren koronalen elektrischen Leitfähigkeit, kann darauf die photosphärische Spannungsquelle über die Korona geschlossen werden. Das auf diese Weise generierte elektrische Feld führt nachfolgend zur Erzeugung eines hohen elektrischen Stromes, der in der dichten Chromosphäre harte Röntgenstrahlung generiert. Die zuvor erläuterte Idee wird mit elektrischen Schaltkreisen modelliert und untersucht. Dafür werden die mikroskopischen Plasmaparameter, die Geometrie des Magnetfeldes und Beobachtungen der harten Röntgenstrahlung verwendet, um makroskopische elektronische Komponenten, wie z.B. elektrische Widerstände zu modellieren und miteinander zu verbinden. Es wird gezeigt, dass der auftretende koronale Strom mit hohen elektrischen Feldern verbunden ist, welche Elektronen schnell auf hohe relativistische Energien beschleunigen können. Die Ergebnisse dieser Berechnungen sind ermutigend. Die vorhergesagten Elektronenflüsse stehen im Einklang mit aus gemessenen Photonenflüssen gewonnenen Elektronenflüssen. Zudem liefert das Model einen neuen Ansatz für das Verständnis der harten Röntgendoppelquellen in den Fußpunkten. KW - Elektronenbeschleunigung KW - Flarephysik KW - koronale Stromsysteme KW - electron acceleration KW - physics of flares KW - coronal currents Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29035 ER - TY - THES A1 - Zöller, Gert T1 - Analyse raumzeitlicher Muster in Erdbebendaten N2 - Die vorliegende Arbeit beschäftigt sich mit der Charakterisierung von Seismizität anhand von Erdbebenkatalogen. Es werden neue Verfahren der Datenanalyse entwickelt, die Aufschluss darüber geben sollen, ob der seismischen Dynamik ein stochastischer oder ein deterministischer Prozess zugrunde liegt und was daraus für die Vorhersagbarkeit starker Erdbeben folgt. Es wird gezeigt, dass seismisch aktive Regionen häufig durch nichtlinearen Determinismus gekennzeichent sind. Dies schließt zumindest die Möglichkeit einer Kurzzeitvorhersage ein. Das Auftreten seismischer Ruhe wird häufig als Vorläuferphaenomen für starke Erdbeben gedeutet. Es wird eine neue Methode präsentiert, die eine systematische raumzeitliche Kartierung seismischer Ruhephasen ermöglicht. Die statistische Signifikanz wird mit Hilfe des Konzeptes der Ersatzdaten bestimmt. Als Resultat erhält man deutliche Korrelationen zwischen seismischen Ruheperioden und starken Erdbeben. Gleichwohl ist die Signifikanz dafür nicht hoch genug, um eine Vorhersage im Sinne einer Aussage über den Ort, die Zeit und die Stärke eines zu erwartenden Hauptbebens zu ermöglichen. KW - Erdbeben KW - nichtlineare Dynamik Y1 - 1999 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000122 ER - TY - THES A1 - Zurell, Damaris T1 - Integrating dynamic and statistical modelling approaches in order to improve predictions for scenarios of environmental change T1 - Integration dynamischer und statistischer Modellansätze zur Verbesserung von Arealvorhersagen für Szenarien globalen Wandels N2 - Species respond to environmental change by dynamically adjusting their geographical ranges. Robust predictions of these changes are prerequisites to inform dynamic and sustainable conservation strategies. Correlative species distribution models (SDMs) relate species’ occurrence records to prevailing environmental factors to describe the environmental niche. They have been widely applied in global change context as they have comparably low data requirements and allow for rapid assessments of potential future species’ distributions. However, due to their static nature, transient responses to environmental change are essentially ignored in SDMs. Furthermore, neither dispersal nor demographic processes and biotic interactions are explicitly incorporated. Therefore, it has often been suggested to link statistical and mechanistic modelling approaches in order to make more realistic predictions of species’ distributions for scenarios of environmental change. In this thesis, I present two different ways of such linkage. (i) Mechanistic modelling can act as virtual playground for testing statistical models and allows extensive exploration of specific questions. I promote this ‘virtual ecologist’ approach as a powerful evaluation framework for testing sampling protocols, analyses and modelling tools. Also, I employ such an approach to systematically assess the effects of transient dynamics and ecological properties and processes on the prediction accuracy of SDMs for climate change projections. That way, relevant mechanisms are identified that shape the species’ response to altered environmental conditions and which should hence be considered when trying to project species’ distribution through time. (ii) I supplement SDM projections of potential future habitat for black grouse in Switzerland with an individual-based population model. By explicitly considering complex interactions between habitat availability and demographic processes, this allows for a more direct assessment of expected population response to environmental change and associated extinction risks. However, predictions were highly variable across simulations emphasising the need for principal evaluation tools like sensitivity analysis to assess uncertainty and robustness in dynamic range predictions. Furthermore, I identify data coverage of the environmental niche as a likely cause for contrasted range predictions between SDM algorithms. SDMs may fail to make reliable predictions for truncated and edge niches, meaning that portions of the niche are not represented in the data or niche edges coincide with data limits. Overall, my thesis contributes to an improved understanding of uncertainty factors in predictions of range dynamics and presents ways how to deal with these. Finally I provide preliminary guidelines for predictive modelling of dynamic species’ response to environmental change, identify key challenges for future research and discuss emerging developments. N2 - Das Vorkommen von Arten wird zunehmend bedroht durch Klima- und Landnutzungswandel. Robuste Vorhersagen der damit verbundenen Arealveränderungen sind ausschlaggebend für die Erarbeitung dynamischer und nachhaltiger Naturschutzstrategien. Habitateignungsmodelle erstellen statistische Zusammenhänge zwischen dem Vorkommen einer Art und relevanten Umweltvariablen und erlauben zügige Einschätzungen potentieller Arealveränderungen. Dabei werden jedoch transiente Dynamiken weitgehend ignoriert sowie demographische Prozesse und biotische Interaktionen. Daher wurden Vorschläge laut, diese statistischen Modelle mit mechanistischeren Ansätzen zu koppeln. In der vorliegenden Arbeit zeige ich zwei verschiedene Möglichkeiten solcher Kopplung auf. (i) Ich beschreibe den sogenannten ‚Virtuellen Ökologen’-Ansatz als mächtiges Validierungswerkzeug, in dem mechanistische Modelle virtuelle Testflächen bieten zur Erforschung verschiedener Probenahmedesigns oder statistischer Methoden sowie spezifischer Fragestellungen. Auch verwende ich diesen Ansatz, um systematisch zu untersuchen wie sich transiente Dynamiken sowie Arteigenschaften und ökologische Prozesse auf die Vorhersagegüte von Habitateignungsmodellen auswirken. So kann ich entscheidende Prozesse identifizieren welche in zukünftigen Modellen Berücksichtigung finden sollten. (ii) Darauf aufbauend koppele ich Vorhersagen von Habitateignungsmodellen mit einem individuen-basierten Populationsmodell, um die Entwicklung des Schweizer Birkhuhnbestandes unter Klimawandel vorherzusagen. Durch die explizite Berücksichtigung der Wechselwirkungen zwischen Habitat und demographischer Prozesse lassen sich direktere Aussagen über Populationsentwicklung und damit verbundener Extinktionsrisiken treffen. Allerdings führen verschiedene Simulationen auch zu hoher Variabilität zwischen Vorhersagen, was die Bedeutung von Sensitivitätsanalysen unterstreicht, um Unsicherheiten und Robustheit von Vorhersagen einzuschätzen. Außerdem identifiziere ich Restriktionen in der Datenabdeckung des Umweltraumes als möglichen Grund für kontrastierende Vorhersagen verschiedener Habitateignungsmodelle. Wenn die Nische einer Art nicht vollständig durch Daten beschrieben ist, kann dies zu unrealistischen Vorhersagen der Art-Habitat-Beziehung führen. Insgesamt trägt meine Arbeit erheblich bei zu einem besseren Verständnis der Auswirkung verschiedenster Unsicherheitsfaktoren auf Vorhersagen von Arealveränderungen und zeigt Wege auf, mit diesen umzugehen. Abschließend erstelle ich einen vorläufigen Leitfaden für Vorhersagemodelle und identifiziere Kernpunkte für weitere Forschung auf diesem Gebiet. KW - species distribution models KW - dynamic population models KW - climate change KW - prediction KW - uncertainty KW - Habitatmodelle KW - dynamische Populationsmodelle KW - Klimawandel KW - Vorhersage KW - Unsicherheit Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-56845 ER - TY - THES A1 - Zuo, Zhe T1 - From unstructured to structured: Context-based named entity mining from text T1 - Von unstrukturiert zu strukturiert: Kontextbasierte Gewinnung benannter Entitäten von Text N2 - With recent advances in the area of information extraction, automatically extracting structured information from a vast amount of unstructured textual data becomes an important task, which is infeasible for humans to capture all information manually. Named entities (e.g., persons, organizations, and locations), which are crucial components in texts, are usually the subjects of structured information from textual documents. Therefore, the task of named entity mining receives much attention. It consists of three major subtasks, which are named entity recognition, named entity linking, and relation extraction. These three tasks build up an entire pipeline of a named entity mining system, where each of them has its challenges and can be employed for further applications. As a fundamental task in the natural language processing domain, studies on named entity recognition have a long history, and many existing approaches produce reliable results. The task is aiming to extract mentions of named entities in text and identify their types. Named entity linking recently received much attention with the development of knowledge bases that contain rich information about entities. The goal is to disambiguate mentions of named entities and to link them to the corresponding entries in a knowledge base. Relation extraction, as the final step of named entity mining, is a highly challenging task, which is to extract semantic relations between named entities, e.g., the ownership relation between two companies. In this thesis, we review the state-of-the-art of named entity mining domain in detail, including valuable features, techniques, evaluation methodologies, and so on. Furthermore, we present two of our approaches that focus on the named entity linking and relation extraction tasks separately. To solve the named entity linking task, we propose the entity linking technique, BEL, which operates on a textual range of relevant terms and aggregates decisions from an ensemble of simple classifiers. Each of the classifiers operates on a randomly sampled subset of the above range. In extensive experiments on hand-labeled and benchmark datasets, our approach outperformed state-of-the-art entity linking techniques, both in terms of quality and efficiency. For the task of relation extraction, we focus on extracting a specific group of difficult relation types, business relations between companies. These relations can be used to gain valuable insight into the interactions between companies and perform complex analytics, such as predicting risk or valuating companies. Our semi-supervised strategy can extract business relations between companies based on only a few user-provided seed company pairs. By doing so, we also provide a solution for the problem of determining the direction of asymmetric relations, such as the ownership_of relation. We improve the reliability of the extraction process by using a holistic pattern identification method, which classifies the generated extraction patterns. Our experiments show that we can accurately and reliably extract new entity pairs occurring in the target relation by using as few as five labeled seed pairs. N2 - Mit den jüngsten Fortschritten in den Gebieten der Informationsextraktion wird die automatisierte Extrahierung strukturierter Informationen aus einer unüberschaubaren Menge unstrukturierter Textdaten eine wichtige Aufgabe, deren manuelle Ausführung unzumutbar ist. Benannte Entitäten, (z.B. Personen, Organisationen oder Orte), essentielle Bestandteile in Texten, sind normalerweise der Gegenstand strukturierter Informationen aus Textdokumenten. Daher erhält die Aufgabe der Gewinnung benannter Entitäten viel Aufmerksamkeit. Sie besteht aus drei groen Unteraufgaben, nämlich Erkennung benannter Entitäten, Verbindung benannter Entitäten und Extraktion von Beziehungen. Diese drei Aufgaben zusammen sind der Grundprozess eines Systems zur Gewinnung benannter Entitäten, wobei jede ihre eigene Herausforderung hat und für weitere Anwendungen eingesetzt werden kann. Als ein fundamentaler Aspekt in der Verarbeitung natürlicher Sprache haben Studien zur Erkennung benannter Entitäten eine lange Geschichte, und viele bestehenden Ansätze erbringen verlässliche Ergebnisse. Die Aufgabe zielt darauf ab, Nennungen benannter Entitäten zu extrahieren und ihre Typen zu bestimmen. Verbindung benannter Entitäten hat in letzter Zeit durch die Entwicklung von Wissensdatenbanken, welche reiche Informationen über Entitäten enthalten, viel Aufmerksamkeit erhalten. Das Ziel ist es, Nennungen benannter Entitäten zu unterscheiden und diese mit dazugehörigen Einträgen in einer Wissensdatenbank zu verknüpfen. Der letzte Schritt der Gewinnung benannter Entitäten, die Extraktion von Beziehungen, ist eine stark anspruchsvolle Aufgabe, nämlich die Extraktion semantischer Beziehungen zwischen Entitäten, z.B. die Eigentümerschaft zwischen zwei Firmen. In dieser Doktorarbeit arbeiten wir den aktuellen Stand der Wissenschaft in den Domäne der Gewinnung benannter Entitäten auf, unter anderem wertvolle Eigenschaften und Evaluationsmethoden. Darüberhinaus präsentieren wir zwei Ansätze von uns, die jeweils ihren Fokus auf die Verbindung benannter Entitäten sowie der Aufgaben der Extraktion von Beziehungen legen. Um die Aufgabe der Verbindung benannter Entitäten zu lösen schlagen wir hier die Verbindungstechnik BEL vor, welche auf einer textuellen Bandbreite relevanter Begriffe agiert und Entscheidungen einer Kombination von einfacher Klassifizierer aggregiert. Jeder dieser Klassifizierer arbeitet auf einer zufällig ausgewählten Teilmenge der obigen Bandbreite. In umfangreichen Experimenten mit handannotierten sowie Vergleichsdatensätzen hat unser Ansatz andere Lösungen zur Verbindung benannter Entitäten, die auf dem Stand der aktuellen Technik beruhen, sowie in Bezug auf Qualität als auch Effizienz geschlagen. Für die Aufgabe der Extraktion von Beziehungen fokussieren wir uns auf eine bestimmte Gruppe schwieriger Beziehungstypen, nämlich die Geschäftsbeziehungen zwischen Firmen. Diese Beziehungen können benutzt werden, um wertvolle Erkenntnisse in das Zusammenspiel von Firmen zu gelangen und komplexe Analysen ausführen, beispielsweise die Risikovorhersage oder Bewertung von Firmen. Unsere teilbeaufsichtigte Strategie kann Geschäftsbeziehungen zwischen Firmen anhand nur weniger nutzergegebener Startwerte von Firmenpaaren extrahieren. Dadurch bieten wir auch eine Lösung für das Problem der Richtungserkennung asymmetrischer Beziehungen, beispielsweise der Eigentumsbeziehung. Wir verbessern die Verlässlichkeit des Extraktionsprozesses, indem wir holistische Musteridentifikationsmethoden verwenden, welche die erstellten Extraktionsmuster klassifizieren. Unsere Experimente zeigen, dass wir neue Entitätenpaare akkurat und verlässlich in der Zielbeziehung mit bereits fünf bezeichneten Startpaaren extrahieren können. KW - named entity mining KW - information extraction KW - natural language processing KW - Gewinnung benannter Entitäten KW - Informationsextraktion KW - maschinelle Verarbeitung natürlicher Sprache Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412576 ER - TY - THES A1 - Zuhr, Alexandra T1 - Proxy signal formation in palaeoclimate archives T1 - Proxy-Signalbildung in Paläoklimaarchiven BT - a characterisation of climate signal deposition and modification in marine sediments and polar ice BT - eine Charakterisierung der Ablagerung und Veränderung von Klimasignalen in Meeressedimenten und Polarem Ei N2 - Throughout the last ~3 million years, the Earth's climate system was characterised by cycles of glacial and interglacial periods. The current warm period, the Holocene, is comparably stable and stands out from this long-term cyclicality. However, since the industrial revolution, the climate has been increasingly affected by a human-induced increase in greenhouse gas concentrations. While instrumental observations are used to describe changes over the past ~200 years, indirect observations via proxy data are the main source of information beyond this instrumental era. These data are indicators of past climatic conditions, stored in palaeoclimate archives around the Earth. The proxy signal is affected by processes independent of the prevailing climatic conditions. In particular, for sedimentary archives such as marine sediments and polar ice sheets, material may be redistributed during or after the initial deposition and subsequent formation of the archive. This leads to noise in the records challenging reliable reconstructions on local or short time scales. This dissertation characterises the initial deposition of the climatic signal and quantifies the resulting archive-internal heterogeneity and its influence on the observed proxy signal to improve the representativity and interpretation of climate reconstructions from marine sediments and ice cores. To this end, the horizontal and vertical variation in radiocarbon content of a box-core from the South China Sea is investigated. The three-dimensional resolution is used to quantify the true uncertainty in radiocarbon age estimates from planktonic foraminifera with an extensive sampling scheme, including different sample volumes and replicated measurements of batches of small and large numbers of specimen. An assessment on the variability stemming from sediment mixing by benthic organisms reveals strong internal heterogeneity. Hence, sediment mixing leads to substantial time uncertainty of proxy-based reconstructions with error terms two to five times larger than previously assumed. A second three-dimensional analysis of the upper snowpack provides insights into the heterogeneous signal deposition and imprint in snow and firn. A new study design which combines a structure-from-motion photogrammetry approach with two-dimensional isotopic data is performed at a study site in the accumulation zone of the Greenland Ice Sheet. The photogrammetry method reveals an intermittent character of snowfall, a layer-wise snow deposition with substantial contributions by wind-driven erosion and redistribution to the final spatially variable accumulation and illustrated the evolution of stratigraphic noise at the surface. The isotopic data show the preservation of stratigraphic noise within the upper firn column, leading to a spatially variable climate signal imprint and heterogeneous layer thicknesses. Additional post-depositional modifications due to snow-air exchange are also investigated, but without a conclusive quantification of the contribution to the final isotopic signature. Finally, this characterisation and quantification of the complex signal formation in marine sediments and polar ice contributes to a better understanding of the signal content in proxy data which is needed to assess the natural climate variability during the Holocene. N2 - Während der letzten ~3 Millionen Jahre war das Klimasystem der Erde durch Zyklen von Glazialen und Interglazialen gekennzeichnet. Die aktuelle Warmperiode, das Holozän, ist vergleichsweise stabil und hebt sich von dieser langen Zyklizität ab. Seit der industriellen Revolution wird das Klima jedoch zunehmend durch einen vom Menschen verursachten Anstieg der Treibhausgaskonzentrationen beeinflusst. Während instrumentelle Beobachtungen die Veränderungen der letzten ~200 Jahre beschreiben können, liefern Proxydaten die meisten klimatischen Informationen für den Zeitraum vor diesen Beobachtungen. Proxies zeichnen vergangene Klimabedingungen auf und sind in Paläoklimaarchiven rund um die Erde gespeichert. Das Proxysignal wird durch eine Vielzahl an Prozessen beeinflusst, die unabhängig von den vorherrschenden klimatischen Bedingungen sind. Insbesondere bei sedimentären Archiven wie Meeressedimenten und Eisschilden kann es während oder nach der Ablagerung zu einer Umverteilung des Materials und einer Änderung des Signals kommen. Dies führt zu nicht-klimatischen Unsicherheiten in den Daten, was zuverlässige Rekonstruktionen auf lokalen oder kurzen zeitlichen Skalen erschwert. Diese Dissertation charakterisiert die Ablagerung des Klimasignals und quantifiziert die daraus resultierende archiv-interne Heterogenität und ihren Einfluss auf das beobachtete Proxysignal, um die Repräsentativität und Interpretation von Klimarekonstruktionen aus marinen Sedimenten und Eiskernen zu verbessern. Zu diesem Zweck wird die horizontale und vertikale Variabilität des Radiokarbongehalts in einem Sedimentkern aus dem Südchinesischen Meer untersucht. Die dreidimensionale Auflösung des Kastenbohrers wird genutzt, um die tatsächliche Unsicherheit in Alterabschätzung von planktonische Foraminiferen mittels der Radiokarbonmethode zu quantifizieren. Mit Hilfe von verschiedene Probenvolumina und wiederholten Messungen von kleinen und großen Anzahlen an Lebewesen wird eine Quantifizierung der Variabilität, die auf die Durchmischung des Sediments durch benthische Organismen zurückzuführen ist, durchgeführt. Die Durchmischung der Sedimente verursacht eine starke interne Heterogenität, was zu Fehlertermen, die zwei bis fünf Mal größer sind als bisher angenommen, und einer erheblichen zeitlichen Unsicherheit von Rekonstruktionen basierend auf Proxydaten führt. Eine zweite dreidimensionale Analyse liefert Einblicke in die heterogene Signalablagerung in Schnee und Firn. Hierzu wird ein neues Studiendesign in der Akkumulationszone des grönländischen Eisschilds angewandt, wobei ein Structure-from-Motion Photogrammetrie Ansatz mit zweidimensionalen Isotopendaten kombiniert wird. Die photogrammetrische Methode zeigt, dass die Akkumulation von Schnee sehr variable ist. Die Entwicklung der Schneeablagerung an der Oberfläche erfolgt primär schichtweise mit erheblichen Veränderungen durch eine windgestriebene Erosion und Umverteilung des Schnees. Diese Dynamik führt zu einer räumlich variablen Akkumulation und sratigraphischem Rauschens an der Oberfläche. Die heterogene Akkumulation bestimmt die räumliche Ablagerung der klimatischen Informationen, die in der Isotopenzusammensetzung des Schness enthalten ist. Stratigraphische Rauschen der Oberfläche bleibt in der oberen Firnsäule erhalten, was zu einem räumlich variablen Signaleindruck führt. Weiterhin werden zusätzliche Veränderungen nach der Ablagerung durch Austauschprozesse zwischen dem Schnee und der Atmosphäre untersucht, jedoch ohne eine schlüssige Quantifizierung dieses Beitrags zur endgültigen Isotopensignatur. Die Charakterisierung und Quantifizierung der komplexen und heterogenen Signalbildung in marinen Sedimenten und Gletschereis verbessert letztlich das Verständnis des Signalgehalts in Proxydaten und trägt dazu bei, die natürliche Klimavariabilität des Holozäns besser abzuschätzen. KW - polar ice KW - marine sediments KW - palaeoclimatology KW - signal formation KW - climatolgoy KW - Klimatologie KW - Meeressedimente KW - Paläoklimatologie KW - polares Eis KW - Signalbildung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-582864 ER - TY - THES A1 - Zou, Yong T1 - Exploring recurrences in quasiperiodic systems T1 - Untersuchung des Wiederkehrverhaltens in quasiperiodischen dynamischen Systemen N2 - In this work, some new results to exploit the recurrence properties of quasiperiodic dynamical systems are presented by means of a two dimensional visualization technique, Recurrence Plots(RPs). Quasiperiodicity is the simplest form of dynamics exhibiting nontrivial recurrences, which are common in many nonlinear systems. The concept of recurrence was introduced to study the restricted three body problem and it is very useful for the characterization of nonlinear systems. I have analyzed in detail the recurrence patterns of systems with quasiperiodic dynamics both analytically and numerically. Based on a theoretical analysis, I have proposed a new procedure to distinguish quasiperiodic dynamics from chaos. This algorithm is particular useful in the analysis of short time series. Furthermore, this approach demonstrates to be efficient in recognizing regular and chaotic trajectories of dynamical systems with mixed phase space. Regarding the application to real situations, I have shown the capability and validity of this method by analyzing time series from fluid experiments. N2 - In dieser Arbeit stelle ich neue Resultate vor, welche zeigen, wie man Rekurrenzeigenschaften quasiperiodischer, dynamischer Systeme für eine Datenanalyse ausnutzen kann. Die vorgestellten Algorithmen basieren auf einer zweidimensionalen Darstellungsmethode, den Rekurrenz-Darstellungen. Quasiperiodizität ist die einfachste Dynamik, die nicht-triviale Rekurrenzen zeigt und tritt häufig in nichtlinearen Systemen auf. Nicht-triviale Rekurrenzen wurden im Zusammenhang mit dem eingeschränkten Dreikörper-problem eingeführt. In dieser Arbeit, habe ich mehrere Systeme mit quasiperiodischem Verhalten analytisch untersucht. Die erhaltenen Ergebnisse helfen die Wiederkehreigenschaften dieser Systeme im Detail zu verstehen. Basierend auf den analytischen Resultaten, schlage ich einen neuen Algorithmus vor, mit dessen Hilfe selbst in kurzen Zeitreihen zwischen chaotischem und quasiperiodischem Verhalten unterschieden werden kann. Die vorgeschlagene Methode ist besonders effizient zur Unterscheidung regulärer und chaotischer Trajektorien mischender dynamischer Systeme.Die praktische Anwendbarkeit der vorgeschlagenen Analyseverfahren auf Messdaten, habe ich gezeigt, indem ich erfolgreich Zeitreihen aus fluid-dynamischen Experimenten untersucht habe. KW - Wiederkehrverhalten KW - quasiperiodisches dynamisches System KW - Recurrence Plot KW - recurrence KW - quasiperiodic dynamical systems KW - recurrence plots Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-16497 ER - TY - THES A1 - Zorn, Edgar Ulrich T1 - Monitoring lava dome growth and deformation with photogrammetric methods and modelling N2 - Lava domes are severely hazardous, mound-shaped extrusions of highly viscous lava and commonly erupt at many active stratovolcanoes around the world. Due to gradual growth and flank oversteepening, such lava domes regularly experience partial or full collapses, resulting in destructive and far-reaching pyroclastic density currents. They are also associated with cyclic explosive activity as the complex interplay of cooling, degassing, and solidification of dome lavas regularly causes gas pressurizations on the dome or the underlying volcano conduit. Lava dome extrusions can last from days to decades, further highlighting the need for accurate and reliable monitoring data. This thesis aims to improve our understanding of lava dome processes and to contribute to the monitoring and prediction of hazards posed by these domes. The recent rise and sophistication of photogrammetric techniques allows for the extraction of observational data in unprecedented detail and creates ideal tools for accomplishing this purpose. Here, I study natural lava dome extrusions as well as laboratory-based analogue models of lava dome extrusions and employ photogrammetric monitoring by Structure-from-Motion (SfM) and Particle-Image-Velocimetry (PIV) techniques. I primarily use aerial photography data obtained by helicopter, airplanes, Unoccupied Aircraft Systems (UAS) or ground-based timelapse cameras. Firstly, by combining a long time-series of overflight data at Volcán de Colima, México, with seismic and satellite radar data, I construct a detailed timeline of lava dome and crater evolution. Using numerical model, the impact of the extrusion on dome morphology and loading stress is further evaluated and an impact on the growth direction is identified, bearing important implications for the location of collapse hazards. Secondly, sequential overflight surveys at the Santiaguito lava dome, Guatemala, reveal surface motion data in high detail. I quantify the growth of the lava dome and the movement of a lava flow, showing complex motions that occur on different timescales and I provide insight into rock properties relevant for hazard assessment inferred purely by photogrammetric processing of remote sensing data. Lastly, I recreate artificial lava dome and spine growth using analogue modelling under controlled conditions, providing new insights into lava extrusion processes and structures as well as the conditions in which they form. These findings demonstrate the capabilities of photogrammetric data analyses to successfully monitor lava dome growth and evolution while highlighting the advantages of complementary modelling methods to explain the observed phenomena. The results presented herein further bear important new insights and implications for the hazards posed by lava domes. N2 - Lavadome sind kuppelförmige Aufstauungen aus zähflüssiger Lava und bilden sich häufig bei Eruptionen an aktiven Stratovulkanen. Sie stellen dabei oft eine erhebliche Gefahr für Menschen und Infrastruktur dar, weil Lavadome instabil werden können und bei einem Kollaps pyroklastische Ströme (auch Glutlawinen) erzeugen können. Diese können innerhalb von Minuten weite Flächen verwüsten, daher ist die Überwachung von Lavadomen und deren Wachstum mit genauen und zuverlässigen Daten von großer Bedeutung. In dieser Arbeit werden das Wachstum und die Bewegungen von Lavadomen mit fotogrammetrischen Methoden (Vermessungen anhand von Fotos) und mit Modellierungen in drei Teilstudien getestet und untersucht. Dazu wurden Daten sowohl an Lavadomen von Vulkanen in Mexiko und Guatemala als auch mittels künstlich erzeugter Dome im Labor erhoben. Hierbei wurden insbesondere das Structure-from-Motion-Verfahren, bei dem mithilfe einer Serie von Luftaufnahmen ein hochauflösendes 3D-Modell des Lavadoms und des Vulkans erstellt wird, und das Particle-Image-Velocimetry-Verfahren, bei dem aus einer Zeitreihe von Fotos kleinste Bewegungen detailliert gemessen werden können, verwendet. In der ersten Teilstudie wird aus einer Kombination von Überflugsbildern, Radardaten eines Satelliten, und seismischen Daten eine detaillierte Zeitreihe des Lavadom-Wachstums und der Kraterentwickelung am Volcán de Colima, Méxiko, erstellt. Anschließend werden die dabei erfassten Richtungen des Domwachstums mit numerischen Modellen auf Basis der fotogrammetrischen 3D-Modelle simuliert, welche zeigen, dass sich lokale Änderungen der Topografie auf die Wachstumsrichtung auswirken können. In der zweiten Teilstudie werden Drohnen in verschiedenen Zeitintervallen über einen Lavadom am Santa Maria Vulkan, Guatemala, geflogen. Die Überflugsdaten zeigen dabei Bewegungen sowohl an einem Lavastrom als auch ein Anschwellen des Doms mit jeweils unterschiedlichen Geschwindigkeiten. Ferner können die Daten genutzt werden um Oberflächentemperatur und die Viskosität (Zähflüssigkeit) der Lava zu vermessen, welche für die Gefahrenanalyse eine wichtige Rolle spielen. In der dritten Teilstudie werden künstliche Dom-Modelle mithilfe von Sand-Gips-Gemischen erzeugt. Diese können sowohl den Aufbau und Morphologie als auch die internen Strukturen von Lavadomen simulieren und anhand von Zeitraffer-Aufnahmen im Detail nachstellen. Die Ergebnisse zeigen, dass Fotogrammetrie und Modellierungen geeignete Mittel sind um Lavadome sowie deren Entstehungsprozesse und Gefahren zu verfolgen und neue Erkenntnisse zu gewinnen. T2 - Überwachung von Wachstum und Deformation an Lavadomen mit fotogrammetrischen Methoden und Modellierungen KW - Lava dome KW - Lavadom KW - Photogrammetry KW - Fotogrammetrie KW - Volcano KW - Vulkan KW - Analogue Model KW - Analogmodell Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-483600 ER - TY - THES A1 - Zona, Carlotta Isabella T1 - Visuo-linguistic integration for thematic-role assignment across speakers T1 - Visuell-linguistische Integration für die Zuweisung thematischer Rollen über Sprecher hinweg N2 - This dissertation examines the integration of incongruent visual-scene and morphological-case information (“cues”) in building thematic-role representations of spoken relative clauses in German. Addressing the mutual influence of visual and linguistic processing, the Coordinated Interplay Account (CIA) describes a mechanism in two steps supporting visuo-linguistic integration (Knoeferle & Crocker, 2006, Cog Sci). However, the outcomes and dynamics of integrating incongruent thematic-role representations from distinct sources have been investigated scarcely. Further, there is evidence that both second-language (L2) and older speakers may rely on non-syntactic cues relatively more than first-language (L1)/young speakers. Yet, the role of visual information for thematic-role comprehension has not been measured in L2 speakers, and only limitedly across the adult lifespan. Thematically unambiguous canonically ordered (subject-extracted) and noncanonically ordered (object-extracted) spoken relative clauses in German (see 1a-b) were presented in isolation and alongside visual scenes conveying either the same (congruent) or the opposite (incongruent) thematic relations as the sentence did. 1 a Das ist der Koch, der die Braut verfolgt. This is the.NOM cook who.NOM the.ACC bride follows This is the cook who is following the bride. b Das ist der Koch, den die Braut verfolgt. This is the.NOM cook whom.ACC the.NOM bride follows This is the cook whom the bride is following. The relative contribution of each cue to thematic-role representations was assessed with agent identification. Accuracy and latency data were collected post-sentence from a sample of L1 and L2 speakers (Zona & Felser, 2023), and from a sample of L1 speakers from across the adult lifespan (Zona & Reifegerste, under review). In addition, the moment-by-moment dynamics of thematic-role assignment were investigated with mouse tracking in a young L1 sample (Zona, under review). The following questions were addressed: (1) How do visual scenes influence thematic-role representations of canonical and noncanonical sentences? (2) How does reliance on visual-scene, case, and word-order cues vary in L1 and L2 speakers? (3) How does reliance on visual-scene, case, and word-order cues change across the lifespan? The results showed reliable effects of incongruence of visually and linguistically conveyed thematic relations on thematic-role representations. Incongruent (vs. congruent) scenes yielded slower and less accurate responses to agent-identification probes presented post-sentence. The recently inspected agent was considered as the most likely agent ~300ms after trial onset, and the convergence of visual scenes and word order enabled comprehenders to assign thematic roles predictively. L2 (vs. L1) participants relied more on word order overall. In response to noncanonical clauses presented with incongruent visual scenes, sensitivity to case predicted the size of incongruence effects better than L1-L2 grouping. These results suggest that the individual’s ability to exploit specific cues might predict their weighting. Sensitivity to case was stable throughout the lifespan, while visual effects increased with increasing age and were modulated by individual interference-inhibition levels. Thus, age-related changes in comprehension may stem from stronger reliance on visually (vs. linguistically) conveyed meaning. These patterns represent evidence for a recent-role preference – i.e., a tendency to re-assign visually conveyed thematic roles to the same referents in temporally coordinated utterances. The findings (i) extend the generalizability of CIA predictions across stimuli, tasks, populations, and measures of interest, (ii) contribute to specifying the outcomes and mechanisms of detecting and indexing incongruent representations within the CIA, and (iii) speak to current efforts to understand the sources of variability in sentence comprehension. N2 - Diese Dissertation untersucht die Integration inkongruenter visueller Szenen- und morphologisch-kasusbezogener Informationen ("Hinweise") beim Aufbau thematischer Rollenrepräsentationen gesprochener Relativsätze auf Deutsch. Das Coordinated Interplay Account (CIA) beschreibt einen Mechanismus in zwei Schritten zur Unterstützung der visuell-linguistischen Integration, der die wechselseitige Beeinflussung visueller und sprachlicher Verarbeitung adressiert (Knoeferle & Crocker, 2006, Cog Sci). Die Ergebnisse und Dynamiken der Integration inkongruenter thematischer Rollenrepräsentationen aus verschiedenen Quellen wurden jedoch kaum untersucht. Außerdem gibt es Hinweise darauf, dass sich sowohl Zweitsprachler (L2) als auch ältere Sprecher möglicherweise relativ stärker auf nicht-syntaktische Hinweise verlassen als Erstsprachler (L1)/jüngere Sprecher. Dennoch wurde die Rolle visueller Informationen für das Verständnis thematischer Rollen bei L2-Sprechern nicht gemessen und nur begrenzt über die gesamte Lebensspanne hinweg. Thematisch eindeutige, kanonisch geordnete (subjektausgezogene) und nichtkanonisch geordnete (objektausgezogene) gesprochene Relativsätze auf Deutsch (siehe 1a-b) wurden isoliert und zusammen mit visuellen Szenen präsentiert, die entweder dieselben (kongruente) oder entgegengesetzte (inkongruente) thematische Beziehungen wie der Satz vermittelten. Die relative Beitrag jedes Hinweises zur thematischen Rollenrepräsentation wurde durch die Identifizierung des Agenten bewertet. Genauigkeits- und Latenzdaten wurden nach dem Satz von einer Stichprobe von L1- und L2-Sprechern (Zona & Felser, 2023) sowie von einer Stichprobe von L1-Sprechern über die Lebensspanne hinweg (Zona & Reifegerste, in Überprüfung) gesammelt. Darüber hinaus wurden die momentane Dynamik der Zuweisung thematischer Rollen mit Mausverfolgung in einer jungen L1-Stichprobe untersucht (Zona, in Überprüfung). Die folgenden Fragen wurden adressiert: (1) Wie beeinflussen visuelle Szenen thematische Rollenrepräsentationen kanonischer und nichtkanonischer Sätze? (2) Wie variiert der Verlass auf visuelle Szenen, Kasus- und Wortstellungs-Hinweise bei L1- und L2-Sprechern? (3) Wie verändert sich der Verlass auf visuelle Szenen, Kasus- und Wortstellungs-Hinweise im Laufe des Lebens? Die Ergebnisse zeigten zuverlässige Effekte der Inkongruenz visuell und sprachlich vermittelter thematischer Beziehungen auf thematische Rollenrepräsentationen. Inkongruente (vs. kongruente) Szenen führten zu langsameren und weniger genauen Reaktionen auf Agentenidentifikationsproben, die nach dem Satz präsentiert wurden. Der kürzlich inspizierte Agent wurde etwa 300 ms nach Beginn des Versuchs als der wahrscheinlichste Agent betrachtet, und die Übereinstimmung von visuellen Szenen und Wortstellung ermöglichte es den Verstehenden, thematische Rollen vorherzusagen. L2-Teilnehmer (vs. L1) verließen sich insgesamt stärker auf die Wortstellung. Auf nichtkanonische Klauseln, die mit inkongruenten visuellen Szenen präsentiert wurden, sagte die Sensibilität für den Kasus die Größe der Inkongruenzeffekte besser vorher als die Einteilung in L1-L2. Diese Ergebnisse legen nahe, dass die Fähigkeit des Einzelnen, bestimmte Hinweise auszunutzen, ihr Gewicht vorhersagen könnte. Die Sensibilität für den Kasus blieb über die Lebensspanne hinweg stabil, während sich visuelle Effekte mit zunehmendem Alter verstärkten und durch individuelle Interferenz-Hemmungslevel moduliert wurden. Somit können altersbedingte Veränderungen im Verständnis von einer stärkeren Abhängigkeit von visuell (vs. sprachlich) vermittelter Bedeutung herrühren. Diese Muster stellen einen Beleg für eine Präferenz für kürzlich eingeführte Rollen dar - d. h. eine Tendenz, visuell vermittelte thematische Rollen den gleichen Referenten in zeitlich koordinierten Äußerungen neu zuzuweisen. Die Ergebnisse (i) erweitern die Verallgemeinerbarkeit der Vorhersagen des CIAs über Stimuli, Aufgaben, Populationen und Interessenmaße hinweg, (ii) tragen zur Spezifizierung der Ergebnisse und Mechanismen bei der Erkennung und Indizierung inkongruenter Repräsentationen innerhalb des CIAs bei und (iii) sprechen aktuelle Bemühungen an, die Quellen der Variabilität im Satzverständnis zu verstehen. KW - spoken sentence comprehension KW - visuo-linguistic integration KW - thematic-role assignment KW - Sprachverständnis KW - Zuweisung thematischer Rollen KW - visuell-linguistische Integration Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-631857 ER - TY - THES A1 - Zimmermann, Marc T1 - Multifunctional patchy silica particles via microcontact printing T1 - Multifunktionale Patchy Silika Partikel mithilfe des Mikrokontaktdruckverfahrens N2 - This research addressed the question, if it is possible to simplify current microcontact printing systems for the production of anisotropic building blocks or patchy particles, by using common chemicals while still maintaining reproducibility, high precision and tunability of the Janus-balance Chapter 2 introduced the microcontact printing materials as well as their defined electrostatic interactions. In particular polydimethylsiloxane stamps, silica particles and high molecular weight polyethylenimine ink were mainly used in this research. All of these components are commercially available in large quantities and affordable, which gives this approach a huge potential for further up-scaling developments. The benefits of polymeric over molecular inks was described including its flexible influence on the printing pressure. With this alteration of the µCP concept, a new method of solvent assisted particle release mechanism enabled the switch from two-dimensional surface modification to three-dimensional structure printing on colloidal silica particles, without changing printing parameters or starting materials. This effect opened the way to use the internal volume of the achieved patches for incorporation of nano additives, introducing additional physical properties into the patches without alteration of the surface chemistry. The success of this system and its achievable range was further investigated in chapter 3 by giving detailed information about patch geometry parameters including diameter, thickness and yield. For this purpose, silica particles in a size range between 1µm and 5µm were printed with different ink concentrations to change the Janus-balance of these single patched particles. A necessary intermediate step, consisting of air-plasma treatment, for the production of trivalent particles using "sandwich" printing was discovered and comparative studies concerning the patch geometry of single and double patched particles were conducted. Additionally, the usage of structured PDMS stamps during printing was described. These results demonstrate the excellent precision of this approach and opens the pathway for even greater accuracy as further parameters can be finely tuned and investigated, e.g. humidity and temperature during stamp loading. The performance of these synthesized anisotropic colloids was further investigated in chapter 4, starting with behaviour studies in alcoholic and aqueous dispersions. Here, the stability of the applied patches was studied in a broad pH range, discovering a release mechanism by disabling the electrostatic bonding between particle surface and polyelectrolyte ink. Furthermore, the absence of strong attractive forces between divalent particles in water was investigated using XPS measurements. These results lead to the conclusion that the transfer of small PDMS oligomers onto the patch surface is shielding charges, preventing colloidal agglomeration. However, based on this knowledge, further patch modifications for particle self-assembly were introduced including physical approaches using magnetic nano additives, chemical patch functionalization with avidin-biotin or the light responsive cyclodextrin-arylazopyrazoles coupling as well as particle surface modification for the synthesis of highly amphiphilic colloids. The successful coupling, its efficiency, stability and behaviour in different solvents were evaluated to find a suitable coupling system for future assembly experiments. Based on these results the possibility of more sophisticated structures by colloidal self-assembly is given. Certain findings needed further analysis to understand their underlying mechanics, including the relatively broad patch diameter distribution and the decreasing patch thickness for smaller silica particles. Mathematical assumptions for both effects are introduced in chapter 5. First, they demonstrate the connection between the naturally occurring particle size distribution and the broadening of the patch diameter, indicating an even higher precision for this µCP approach. Second, explaining the increase of contact area between particle and ink surface due to higher particle packaging, leading to a decrease in printing pressure for smaller particles. These calculations ultimately lead to the development of a new mechanical microcontact printing approach, using centrifugal forces for high pressure control and excellent parallel alignment of printing substrates. First results with this device and the comparison with previously conducted by-hand experiments conclude this research. It furthermore displays the advantages of such a device for future applications using a mechanical printing approach, especially for accessing even smaller nano particles with great precision and excellent yield. In conclusion, this work demonstrates the successful adjustment of the µCP approach using commercially available and affordable silica particles and polyelectrolytes for high flexibility, reduced costs and higher scale-up value. Furthermore, its was possible to increase the modification potential by introducing three-dimensional patches for additional functionalization volume. While keeping a high colloidal stability, different coupling systems showed the self-assembly capabilities of this toolbox for anisotropic particles. N2 - Diese Forschungsarbeit befasste sich mit der Frage, ob es möglich ist, bekannte Mikrokontaktdruckverfahren, zur Herstellung von anisotropen Bausteinen (Patchy Partikel), weiter zu vereinfachen. Dabei sollten gängige Chemikalien verwendet werden ohne einen Verlust in Reproduzierbarkeit, hoher Präzision und Feineinstellung der Janus-Balance zu erleiden. In Kapitel 2 wurden die verwendeten Mikrokontaktdruckmaterialien sowie deren elektrostatische Wechselwirkungen vorgestellt. Insbesondere handelte es sich dabei um Polydimethylsiloxan Stempel, Silikapartikel und hoch molekulare Polyethylenimin Tinte. All diese Produkte sind kommerziel in großen und bezahlbaren Mengen erhältlich. Nicht nur die Vorteile von polymeren Tinten im Gegensatz zu molekularen Tinten wurde beschrieben, sondern auch die hohe Flexibilität dieses Verfahrens bezüglich der verwendeten Druckkraft. Mit dieser Anpassung des Mikrokontaktdrucks, wurde eine neue Methode der Lösungsmittel unterstützten Partikelablösung ermöglicht, mit deren Hilfe ein einfaches Schalten zwischen zwei dimensionaler Oberflächenfunktionalisierung und drei dimensionalem Strukturdrucks möglich war, ohne Druckparameter oder Startchemikalien zu verändern. Dadurch konnte neu erschaffenes internes Volumen verwendet werden um Nanoadditive einzuführen und so zusätzliche physikalische Eigenschaften zu integrieren, ohne die Oberflächenchemie der Patches verändert wurde. Der Erfolg dieses Systems und seine erreichbaren Grenzen wurde gründlichst in Kapitel 3 erforscht, indem detaillierte Geometrieparameter der Patches einschließlich Durchmesser, Dicke und Ausbeute, erworben wurden. Hierfür wurden Silikapartikel in einem Größenbereich von 1µm bis 5µm mit unterschiedlichen Tintenkonzentrationen bedruckt, um Veränderungen erforschen zu können. Ein notwendiger Luftplasma Ätzschritt für die Produktion von trivalenten Partikeln, mit Hilfe des sogenannten ,,Sandwich‘‘-Drucks, wurde erläutert und vergleichende Untersuchen von einfach und zweifach modifizierten Bausteinen wurden durchgeführt. Zusätzlich dazu, wurde die Verwendung von strukturierten Stempel beschrieben. Die Ergebnisse verdeutlichen die exzellente Genauigkeit dieser Methode und öffnet den Weg um eine hoch höhere Präzision zu erreichen da weitere Parametere genau eingestellt und untersucht werden können, z.B. Luftfeuchtigkeit und Temperature während der Stempelbeladung. Die Performance der herstellten anisotropen Partikel wurde in Kapitel 4 mit Verhaltensstudien in alkoholischen und wässrigen Dispersionen getestet. Dabei wurde die Stabilität der Oberflächenfunktionalisierungen in einem breiten pH Bereich untersucht. Dadurch wurde ein Ablösungsmechanismus bei sehr hohen bzw. niedrigen pH-Werten entdeckt, der zur Deaktivierung elektrostatischer Wechselwirkungen zwischen Partikeloberfläche und Polyelektrolyte Tinte führte. Desweitern wurden die Abwesenheit starker Wechselwirkung der divalenten Partikel in Wasser mit Hilfe von XPS untersucht. Das Resultat zeigte, dass der Transfer kleinster PDMS Oligomere auf die Patchoberfläche zu einer Ladungsabschirmung führte. Dadurch konnte Agglomeration verhindert werden. Aufgrund dieser Ergebnisse wurden weitere Modifikationen für Partikelassemblierung durchgeführt. Hierfür wurde die Einführung von magnetischen Nanoadditiven, die Funktionalisierung mit Avidin-Biotin sowie dem Lichtschaltbaren Cyclodextrin-Arylazopyrazol Komplexen und die Partikeloberflächenfunktionalisierung zur Herstellung amphiphiler Teilchen untersucht. Die Effizienz der Kopplung, deren Stabilität sowie das Verhalten in unterschiedlichen Lösungsmittel wurde beschrieben. Basierend auf diesen Ergebnissen können noch anspruchsvollere Strukturen durch kolloidale Selbstassemblierung erzeugt werden. Einige Ergebnisse dieser Arbeit benötigten zusätzlicher Analyse um die zugrundeliegenden Mechaniken verstehen zu können. Dazu gehörte die relative hohe Streuung des Durchmessers für unterschiedliche Partikelsysteme, sowie das Ausdünnen des Patches mit kleineren Silikapartikeln. Mathematische Modelle in Kapitel 5 beschreiben beide Effekte. Dadurch war es möglich einen Zusammenhang zwischen der natürlichen Partikelgrößenverteilung sowie der Verbreitung des Patchdurchmessers festzustellen. Des Weiteren konnte eine Verkleinerung der Druckkraft durch eine Erhöhung der Packungsdichte für kleine Partikel beschrieben werden, wodurch eine Erklärung der Ausdünnung möglich war. All diese Berechnung führten schlussendlich zur Entwicklung eines neuen mechanischen Mikrokontaktdruckverfahrens, welches mit Hilfe von Zentrifugalkräften eine hohe Druckkontrolle und eine exzellente parallele Ausrichtung zwischen den Substraten ermöglicht. Erste Ergebnisse, sowie deren Vergleich mit bisher erhaltenen Resultaten schließen diese Forschung ab. Des Weiteren zeigt es die Vorteile einer solchen Vorrichtung für kommende Applikationen, besonders um noch kleinere Nanopartikel mit einer hohen Präzision modifizieren zu können. Zusammenfassend ist zu sagen, dass diese Forschung die erfolgreiche Anpassung des Mikrokontaktdruckverfahrens mit kommerziell erhältlichen und bezahlbaren Silikapartikeln und Polyelektrolyten demonstriert, um hohe Flexibilität, reduzierte Kosten und ein erweitertes Skalierungspotential zu bieten. Zusätzlich ist es gelungen, die Funktionalisierungsdichte zu erhöhen, indem drei dimensionaler Strukturdruck bisher ungenutztes Volumen schaffen konnte. Während eine hohe kolloidale Stabilität erhalten blieb, ist es gelungen unterschiedliche Kopplungssysteme zu nutzen, um das Selbstorganisationspotential dieser Toolbox für anisotrope Partikel aufzuzeigen. KW - patchy particles KW - microcontact printing KW - silica particles KW - anisotropic colloids KW - polyelectrolytes KW - Patchy Partikel KW - Mikrokontaktdruck KW - Silika Partikel KW - Anisotrope Kolloide KW - Polyelektrolyte Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427731 ER - TY - THES A1 - Zimmermann, Beate T1 - Spatial and temporal variability of the soil saturated hydraulic conductivity in gradients of disturbance T1 - Räumliche und zeitliche Variabilität der gesättigten Bodenwasserleitfähigkeit in Störungsgradienten N2 - As land-cover conversion continues to expand into ever more remote areas in the humid tropics, montane rainforests are increasingly threatened. In the south Ecuadorian Andes, they are not only subject to man-made disturbances but also to naturally occurring landslides. I was interested in the impact of this ecosystem dynamics on a key parameter of the hydrologic cycle, the soil saturated hydraulic conductivity (synonym: permeability; Ks from here on), because it is a sensitive indicator for soil disturbances. My general objective was to quantify the effects of the regional natural and human disturbances on the saturated hydraulic conductivity and to describe the resulting spatial-temporal patterns. The main hypotheses were: 1) disturbances cause an apparent displacement of the less permeable soil layer towards the surface, either due to a loss of the permeable surface soil after land-sliding, or as a consequence of the surface soil compaction under cattle pastures; 2) ‘recovery’ from disturbance, either because of landslide re-vegetation or because of secondary succession after pasture abandonment, involves an apparent displacement of the less permeable layer back towards the original depth an 3) disturbances cause a simplification of the Ks spatial structure, i.e. the spatially dependent random variation diminishes; the subsequent recovery entails the re-establishment of the original structure. In my first study, I developed a synthesis of recent geostatistical research regarding its applicability to soil hydraulic data, including exploratory data analysis and variogram estimation techniques; I subsequently evaluated the results in terms of spatial prediction uncertainty. Concerning the exploratory data analysis, my main results were: 1) Gaussian uni- and bivariate distributions of the log-transformed data; 2) the existence of significant local trends; 3) no need for robust estimation; 4) no anisotropic variation. I found partly considerable differences in covariance parameters resulting from different variogram estimation techniques, which, in the framework of spatial prediction, were mainly reflected in the spatial connectivity of the Ks-field. Ignoring the trend component and an arbitrary use of robust estimators, however, would have the most severe consequences in this respect. Regarding variogram modeling, I encouraged restricted maximum likelihood estimation because of its accuracy and independence on the selected lags needed for experimental variograms. The second study dealt with the Ks spatial-temporal pattern in the sequences of natural and man-made disturbances characteristic for the montane rainforest study area. To investigate the disturbance effects both on global means and the spatial structure of Ks, a combined design-and model-based sampling approach was used for field-measurements at soil depths of 12.5, 20, and 50 cm (n=30-150/depth) under landslides of different ages (2 and 8 years), under actively grazed pasture, fallows following pasture abandonment (2 to 25 years of age), and under natural forest. Concerning global means, our main findings were 1) global means of the soil permeability generally decrease with increasing soil depth; 2) no significant Ks differences can be observed among landslides and compared to the natural forest; 3) a distinct permeability decrease of two orders of magnitude occurs after forest conversion to pasture at shallow soil depths, and 4) the slow regeneration process after pasture abandonment requires at least one decade. Regarding the Ks spatial structure, we found that 1) disturbances affect the Ks spatial structure in the topsoil, and 2) the largest differences in spatial patterns are associated with the subsoil permeability. In summary, the regional landslide activity seems to affect soil hydrology to a marginal extend only, which is in contrast to the pronounced drop of Ks after forest conversion. We used this spatial-temporal information combined with local rain intensities to assess the partitioning of rainfall into vertical and lateral flowpaths under undisturbed, disturbed, and regenerating land-cover types in the third study. It turned out that 1) the montane rainforest is characterized by prevailing vertical flowpaths in the topsoil, which can switch to lateral directions below 20 cm depth for a small number of rain events, which may, however, transport a high portion of the annual runoff; 2) similar hydrological flowpaths occur under the landslides except for a somewhat higher probability of impermeable layer formation in the topsoil of a young landslide, and 3) pronounced differences in runoff components can be observed for the human disturbance sequence involving the development of near-surface impeding layers for 24, 44, and 8 % of rain events for pasture, a two-year-old fallow, and a ten-year-old fallow, respectively. N2 - Der tropische Bergregenwald in den Südecuadorianischen Anden unterliegt sowohl anthropogenen Eingriffen, d.h. der Umwandlung von Naturwald in Rinderweiden, als auch natürlichen Störungen in der Form von Hangrutschen. Ziel meiner Arbeit war es, die Auswirkungen dieser regionalen Störungsdynamik auf einen Schlüsselparameter des hydrologischen Kreislaufs, die gesättigte hydraulische Wasserleitfähigkeit (Ks), zu untersuchen und die resultierenden raum-zeitlichen Muster zu beschreiben. In der ersten Studie habe ich eine Synthese aktueller geostatistischer Forschung hinsichtlich ihrer Eignung für die Analyse bodenhydrologischer Daten entwickelt. Diese beinhaltet explorative Datenanalyse und verschiedene Techniken zur Schätzung der Kovarianzparameter; die Ergebnisse habe ich in Bezug auf die Ungenauigkeit räumlicher Vorhersagen bewertet. Es hat sich dabei herausgestellt, dass die Schätztechniken teilweise beachtliche Unterschiede in den Parametern hervorrufen, welche sich hauptsächlich in der räumlichen Konnektivität widergespiegeln. Die wichtigste Rolle im Zusammenhang mit der räumlichen Vorhersage kommt jedoch den vorgeordneten explorativen Analyseschritten zu. In der zweiten Studie habe ich mich mit der Beschreibung des raum-zeitlichen Muster der Wasserleitfähigkeit in den anthropogenen und natürlichen Störungsgradienten beschäftigt. Wichtigste Ergebnisse waren, dass es keine signifikanten Unterschiede der Wasserleitfähigkeit zwischen den verschieden alten Hangrutschen und dem Naturwald gibt. Daraus lässt sich schließen, dass die natürlichen Störungen im Untersuchungsgebiet lediglich marginale Auswirkungen auf die Bodenhydrology haben. Das steht in starkem Kontrast zum anthropogenen Störungskreislauf: die Wasserleitfähigkeit im Weideboden hat gegenüber dem Naturwald um zwei Größenordnungen abgenommen; eine „Erholung“ nach Nutzungsaufgabe scheint mindestens ein Jahrzehnt in Anspruch zu nehmen. Die räumlichen Abhängigkeit von Ks in den Oberböden von Wald und einer alten Brache ist stärker als in jenen der gestörten Flächen, was auf eine störungsbedingte Beeinträchtigung der räumlichen Struktur in geringer Bodentiefe schließen lässt. In der dritten Studie habe ich diese raum-zeitlichen Informationen mit dem örtlichen Niederschlagsregime in Verbindung gebracht, um Rückschlüsse auf die Auswirkungen der störungsbedingten Änderungen von Ks auf hydrologische Fließwege zu ziehen. Es hat sich gezeigt, dass im tropischen Bergregenwald und unter Hangrutschen ubiquitäre Tiefenversickerung dominiert, es allerdings zu einer Verschiebung in laterale Fließrichtungen für die seltenen intensiven Regenereignisse kommen kann. Anthropogene Störungen gehen mit einer um bis zu 50 Prozent erhöheren Wahrscheinlichkeit des Auftretens oberflächennaher Stauschichten einher, was die Bedeutung lateraler Fließwege erhöht. Dies trifft in vergleichbarer Größenordnung auch auf ein Vergleichsökosystem im Tieflandregenwald zu. KW - Bodenhydrologie KW - Tropen KW - Landnutzungswandel KW - Geostatistik KW - Abflussbildung KW - soil hydrology KW - tropics KW - landuse change KW - geostatistics KW - runoff generation Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-16402 ER - TY - THES A1 - Zimmermann, Alexander T1 - Rainfall redistribution and change of water quality in tropical forest canopies : patterns and persistence T1 - Umverteilung von Regenwasser und Änderung der Wasserqualität in Kronendächern Tropischer Wälder : Muster und Persistenz N2 - Motivations and research objectives: During the passage of rain water through a forest canopy two main processes take place. First, water is redistributed; and second, its chemical properties change substantially. The rain water redistribution and the brief contact with plant surfaces results in a large variability of both throughfall and its chemical composition. Since throughfall and its chemistry influence a range of physical, chemical and biological processes at or below the forest floor the understanding of throughfall variability and the prediction of throughfall patterns potentially improves the understanding of near-surface processes in forest ecosystems. This thesis comprises three main research objectives. The first objective is to determine the variability of throughfall and its chemistry, and to investigate some of the controlling factors. Second, I explored throughfall spatial patterns. Finally, I attempted to assess the temporal persistence of throughfall and its chemical composition. Research sites and methods: The thesis is based on investigations in a tropical montane rain forest in Ecuador, and lowland rain forest ecosystems in Brazil and Panama. The first two studies investigate both throughfall and throughfall chemistry following a deterministic approach. The third study investigates throughfall patterns with geostatistical methods, and hence, relies on a stochastic approach. Results and Conclusions: Throughfall is highly variable. The variability of throughfall in tropical forests seems to exceed that of many temperate forests. These differences, however, do not solely reflect ecosystem-inherent characteristics, more likely they also mirror management practices. Apart from biotic factors that influence throughfall variability, rainfall magnitude is an important control. Throughfall solute concentrations and solute deposition are even more variable than throughfall. In contrast to throughfall volumes, the variability of solute deposition shows no clear differences between tropical and temperate forests, hence, biodiversity is not a strong predictor of solute deposition heterogeneity. Many other factors control solute deposition patterns, for instance, solute concentration in rainfall and antecedent dry period. The temporal variability of the latter factors partly accounts for the low temporal persistence of solute deposition. In contrast, measurements of throughfall volume are quite stable over time. Results from the Panamanian research site indicate that wet and dry areas outlast consecutive wet seasons. At this research site, throughfall exhibited only weak or pure nugget autocorrelation structures over the studies lag distances. A close look at the geostatistical tools at hand provided evidence that throughfall datasets, in particular those of large events, require robust variogram estimation if one wants to avoid outlier removal. This finding is important because all geostatistical throughfall studies that have been published so far analyzed their data using the classical, non-robust variogram estimator. N2 - Motivation und Zielsetzung: Wenn Regen durch ein Kronendach fällt lassen sich zwei Prozesse beobachten: das Regenwasser wird umverteilt und die chemische Qualität des Wassers verändert sich erheblich. Die Prozesse im Kronenraum resultieren in einer hohen Variabilität des Bestandsniederschlags und dessen chemischer Zusammensetzung. Bestandsniederschlag beeinflusst eine Reihe von physikalischen, chemischen und biologischen Prozessen am Waldboden. Daher können Untersuchungen zur Variabilität und zu Mustern im Bestandsniederschlag helfen, bodennahe Prozesse besser zu verstehen. Diese Dissertation behandelt hauptsächlich drei Aspekte. Erstens, die Arbeit beschäftigt sich mit der Erfassung der Variabilität im Bestandsniederschlag und dessen chemischer Zusammensetzung, zudem werden Einflussfaktoren dieser Variabilität untersucht. Des Weiteren beschäftigt sich die Arbeit mit räumlichen Mustern des Bestandsniederschlagswassers, und drittens wird die zeitliche Stabilität des Bestandsniederschlags und dessen chemischer Zusammensetzung betrachtet. Untersuchungsgebiete und Methoden: Diese Dissertation basiert auf Untersuchungen in einem tropischen Bergregenwald in Ecuador, sowie Studien in tropischen Tieflandregenwäldern in Brasilien und Panama. Die ersten zwei Studien untersuchen Bestandsniederschlag und dessen chemische Zusammensetzung mit Hilfe deterministischer Methoden. Die Arbeit in Panama nutzt geostatistische Methoden zur Beschreibung von Bestandsniederschlagsmustern und verfolgt somit einen stochastischen Ansatz. Ergebnisse und Schlussfolgerungen: Die Variabilität des Bestandsniederschlages ist hoch; das heißt, die Menge des auf den Waldboden tropfenden Wassers kann sich je nach Standort stark unterscheiden. Diese räumliche Variabilität des Bestandsniederschlags ist in tropischen Wäldern höher als in vielen gemäßigten Waldökosystemen, was nicht allein auf verschiedenen Eigenschaften der Ökosysteme zurückzuführen ist. Vielmehr erklären sich die Unterschiede auch aus verschiedenen Waldnutzungen. Abgesehen von biologischen Faktoren beeinflusst die Regenmenge die Variabilität des Bestandsniederschlags erheblich. Die chemische Zusammensetzung des Bestandsniederschlags weist eine noch höhere Variabilität als der Bestandsniederschlag selbst auf. Unterschiede zwischen tropischen und gemäßigten Wäldern lassen sich hier allerdings nicht erkennen, weshalb die hohe Diversität tropischer Ökosysteme die Heterogenität der chemischen Zusammensetzung des Bestandsniederschlags nicht ausreichend erklärt. Eine Vielzahl anderer Faktoren kontrolliert deshalb die Variabilität der Bestandsniederschlagschemie, beispielsweise die Konzentration gelöster Stoffe im Regenwasser oder die Dauer von Trockenperioden. Deren hohe temporale Variabilität ist verantwortlich für die geringe zeitliche Stabilität von Depositionsmessungen. Im Gegensatz dazu ist die temporale Persistenz von Messungen der Bestandsniederschlagsmenge hoch. Insbesondere die Ergebnisse aus Panama zeigen, dass feuchte und trockene Messpunkte über einen Zeitraum von zwei Regenzeiten fortbestehen. Die räumlichen Bestandsniederschlagsmuster im letztgenannten Untersuchungsgebiet sind schwach bzw. weisen die Struktur eines reinen Nugget-Models auf. Die geostatistische Analyse zeigt, dass vor allem die Daten großer Regenereignisse eine robuste Modellierung des Variogramms erfordern, wenn die willkürliche Entfernung von Fernpunkten in den Daten vermieden werden soll. Dieses Resultat ist insbesondere deshalb von Bedeutung, da alle bisherigen Bestandsniederschlagsstudien den klassischen, nicht-robusten Schätzer benutzen, obwohl das Auftreten von Extremwerten in Bestandsniederschlagsdaten für viele Ökosysteme zu erwarten ist. KW - Bestandsniederschlag KW - Stoffdeposition KW - tropische Waldökosysteme KW - Geostatistik KW - throughfall KW - solute deposition KW - tropical forests KW - geostatistics Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-32556 ER - TY - THES A1 - Zillmer, Rüdiger T1 - Statistical properties and scaling of the Lyapunov exponents in stochastic systems N2 - Die vorliegende Arbeit umfaßt drei Abhandlungen, welche allgemein mit einer stochastischen Theorie für die Lyapunov-Exponenten befaßt sind. Mit Hilfe dieser Theorie werden universelle Skalengesetze untersucht, die in gekoppelten chaotischen und ungeordneten Systemen auftreten. Zunächst werden zwei zeitkontinuierliche stochastische Modelle für schwach gekoppelte chaotische Systeme eingeführt, um die Skalierung der Lyapunov-Exponenten mit der Kopplungsstärke ('coupling sensitivity of chaos') zu untersuchen. Mit Hilfe des Fokker-Planck-Formalismus werden Skalengesetze hergeleitet, die von Ergebnissen numerischer Simulationen bestätigt werden. Anschließend wird gezeigt, daß 'coupling sensitivity' im Fall gekoppelter ungeordneter Ketten auftritt, wobei der Effekt sich durch ein singuläres Anwachsen der Lokalisierungslänge äußert. Numerische Ergebnisse für gekoppelte Anderson-Modelle werden bekräftigt durch analytische Resultate für gekoppelte raumkontinuierliche Schrödinger-Gleichungen. Das resultierende Skalengesetz für die Lokalisierungslänge ähnelt der Skalierung der Lyapunov-Exponenten gekoppelter chaotischer Systeme. Schließlich wird die Statistik der exponentiellen Wachstumsrate des linearen Oszillators mit parametrischem Rauschen studiert. Es wird gezeigt, daß die Verteilung des zeitabhängigen Lyapunov-Exponenten von der Normalverteilung abweicht. Mittels der verallgemeinerten Lyapunov-Exponenten wird der Parameterbereich bestimmt, in welchem die Abweichungen von der Normalverteilung signifikant sind und Multiskalierung wesentlich wird. N2 - This work incorporates three treatises which are commonly concerned with a stochastic theory of the Lyapunov exponents. With the help of this theory universal scaling laws are investigated which appear in coupled chaotic and disordered systems. First, two continuous-time stochastic models for weakly coupled chaotic systems are introduced to study the scaling of the Lyapunov exponents with the coupling strength (coupling sensitivity of chaos). By means of the the Fokker-Planck formalism scaling relations are derived, which are confirmed by results of numerical simulations. Next, coupling sensitivity is shown to exist for coupled disordered chains, where it appears as a singular increase of the localization length. Numerical findings for coupled Anderson models are confirmed by analytic results for coupled continuous-space Schrödinger equations. The resulting scaling relation of the localization length resembles the scaling of the Lyapunov exponent of coupled chaotic systems. Finally, the statistics of the exponential growth rate of the linear oscillator with parametric noise are studied. It is shown that the distribution of the finite-time Lyapunov exponent deviates from a Gaussian one. By means of the generalized Lyapunov exponents the parameter range is determined where the non-Gaussian part of the distribution is significant and multiscaling becomes essential. KW - Lyapunov-Exponenten KW - Chaos KW - ungeordnete Systeme KW - Lokalisierung KW - stochastische Systeme KW - 'coupling sensitivity' KW - parametrisch erregter Oszillator KW - Lyapunov exponents KW - chaos KW - disordered systems KW - localization KW - stochastic systems KW - coupling sensitivity KW - parametrically excited oscillator Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001147 ER - TY - THES A1 - Ziese, Ramona T1 - Geometric electroelasticity T1 - Geometrische Elektroelastizität N2 - In this work a diffential geometric formulation of the theory of electroelasticity is developed which also includes thermal and magnetic influences. We study the motion of bodies consisting of an elastic material that are deformed by the influence of mechanical forces, heat and an external electromagnetic field. To this end physical balance laws (conservation of mass, balance of momentum, angular momentum and energy) are established. These provide an equation that describes the motion of the body during the deformation. Here the body and the surrounding space are modeled as Riemannian manifolds, and we allow that the body has a lower dimension than the surrounding space. In this way one is not (as usual) restricted to the description of the deformation of three-dimensional bodies in a three-dimensional space, but one can also describe the deformation of membranes and the deformation in a curved space. Moreover, we formulate so-called constitutive relations that encode the properties of the used material. Balance of energy as a scalar law can easily be formulated on a Riemannian manifold. The remaining balance laws are then obtained by demanding that balance of energy is invariant under the action of arbitrary diffeomorphisms on the surrounding space. This generalizes a result by Marsden and Hughes that pertains to bodies that have the same dimension as the surrounding space and does not allow the presence of electromagnetic fields. Usually, in works on electroelasticity the entropy inequality is used to decide which otherwise allowed deformations are physically admissible and which are not. It is alsoemployed to derive restrictions to the possible forms of constitutive relations describing the material. Unfortunately, the opinions on the physically correct statement of the entropy inequality diverge when electromagnetic fields are present. Moreover, it is unclear how to formulate the entropy inequality in the case of a membrane that is subjected to an electromagnetic field. Thus, we show that one can replace the use of the entropy inequality by the demand that for a given process balance of energy is invariant under the action of arbitrary diffeomorphisms on the surrounding space and under linear rescalings of the temperature. On the one hand, this demand also yields the desired restrictions to the form of the constitutive relations. On the other hand, it needs much weaker assumptions than the arguments in physics literature that are employing the entropy inequality. Again, our result generalizes a theorem of Marsden and Hughes. This time, our result is, like theirs, only valid for bodies that have the same dimension as the surrounding space. N2 - In der vorliegenden Arbeit wird eine diffentialgeometrische Formulierung der Elektroelastizitätstheorie entwickelt, die auch thermische und magnetische Einflüsse berücksichtigt. Hierbei wird die Bewegung von Körpern untersucht, die aus einem elastischen Material bestehen und sich durch mechanische Kräfte, Wärmezufuhr und den Einfluss eines äußeren elektromagnetischen Feldes verformen. Dazu werden physikalische Bilanzgleichungen (Massenerhaltung, Impuls-, Drehimpuls- und Energiebilanz) aufgestellt, um mit deren Hilfe eine Gleichung zu formulieren, die die Bewegung des Körpers während der Deformation beschreibt. Dabei werden sowohl der Körper als auch der umgebende Raum als Riemannsche Mannigfaltigkeiten modelliert, wobei zugelassen ist, dass der Körper eine geringere Dimension hat als der ihn umgebende Raum. Auf diese Weise kann man nicht nur - wie sonst üblich - die Deformation dreidimensionaler Körper im dreidimensionalen euklidischen Raum beschreiben, sondern auch die Deformation von Membranen und die Deformation innerhalb eines gekrümmten Raums. Weiterhin werden sogenannte konstitutive Gleichungen formuliert, die die Eigenschaften des verwendeten Materials kodieren. Die Energiebilanz ist eine skalare Gleichung und kann daher leicht auf Riemannschen Mannigfaltigkeiten formuliert werden. Es wird gezeigt, dass die Forderung der Invarianz der Energiebilanz unter der Wirkung von beliebigen Diffeomorphismen auf den umgebenden Raum bereits die restlichen Bilanzgleichungen impliziert. Das verallgemeinert ein Resultat von Marsden und Hughes, das nur für Körper anwendbar ist, die die selbe Dimension wie der umgebende Raum haben und keine elektromagnetischen Felder berücksichtigt. Üblicherweise wird in Arbeiten über Elektroelastizität die Entropieungleichung verwendet, um zu entscheiden, welche Deformationen physikalisch zulässig sind und welche nicht. Sie wird außerdem verwendet, um Einschränkungen für die möglichen Formen von konstitutiven Gleichungen, die das Material beschreiben, herzuleiten. Leider gehen die Meinungen über die physikalisch korrekte Formulierung der Entropieungleichung auseinander sobald elektromagnetische Felder beteiligt sind. Weiterhin ist unklar, wie die Entropieungleichung für den Fall einer Membran, die einem elektromagnetischen Feld ausgesetzt ist, formuliert werden muss. Daher zeigen wir, dass die Benutzung der Entropieungleichung ersetzt werden kann durch die Forderung, dass für einen gegebenen Prozess die Energiebilanz invariant ist unter der Wirkung eines beliebigen Diffeomorphimus' auf den umgebenden Raum und der linearen Reskalierung der Temperatur. Zum einen liefert diese Forderung die gewünschten Einschränkungen für die Form der konstitutiven Gleichungen, zum anderen benoetigt sie viel schwächere Annahmen als die übliche Argumentation mit der Entropieungleichung, die man in der Physikliteratur findet. Unser Resultat ist dabei wieder eine Verallgemeinerung eines Theorems von Marsden und Hughes, wobei es, so wie deren Resultat, nur für Körper gilt, die als offene Teilmengen des dreidimensionalen euklidischen Raums modelliert werden können. KW - Elastizität KW - Elektrodynamik KW - Mannigfaltigkeit KW - konstitutive Gleichungen KW - Bewegungsgleichung KW - elasticity KW - electrodynamics KW - manifold KW - constitutive relations KW - equation of motion Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72504 ER - TY - THES A1 - Ziemann, Niklas T1 - Four essays on the role of distance for economic decision-making T1 - Vier Studien zur Rolle von Distanzen für ökonomisches Entscheidungsverhalten N2 - Distances affect economic decision-making in numerous situations. The time at which we make a decision about future consumption has an impact on our consumption behavior. The spatial distance to employer, school or university impacts the place where we live and vice versa. The emotional closeness to other individuals influences our willingness to give money to them. This cumulative thesis aims to enrich the literature on the role of distance for economic decision-making. Thereby, each of my research projects sheds light on the impact of one kind of distance for efficient decision-making. N2 - Distanzen beeinflussen ökonomische Entscheidungen in vielen Situationen. Der Zeitpunkt an dem wir uns für zukünftige Ausgaben entscheiden, beeinflusst unser Konsumverhalten. Die räumliche Distanz zum Arbeitsgeber, zur Schule oder Universität beeinflusst die Wahl unseres Wohnortes und umgekehrt. Die emotionale Nähe zu anderen Menschen entscheidet darüber, ob wir diese finanziell unterstützen. Mit dieser kumulativen Doktorarbeit möchte ich die Literatur, die sich mit der Rolle von Distanzen für ökonomisches Entscheidungsverhalten beschäftigt, bereichern. Ich schaue mir in jedem meiner Forschungsprojekt an, wie eine Art von Distanz die Effizienz von Entscheidungen beeinflusst. KW - lab experiment KW - individual choices KW - Distanz KW - individuelle Entscheidungen KW - Laborexperiment KW - distance Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-591073 ER - TY - THES A1 - Ziehe, Andreas T1 - Blind source separation based on joint diagonalization of matrices with applications in biomedical signal processing T1 - Blinde Signalquellentrennung beruhend auf simultaner Diagonalisierung von Matrizen mit Anwendungen in der biomedizinischen Signalverarbeitung T1 - Blinde Signalquellentrennung beruhend auf simultaner Diagonalisierung von Matrizen mit Anwendungen in der biomedizinischen Signalverarbeitung N2 - This thesis is concerned with the solution of the blind source separation problem (BSS). The BSS problem occurs frequently in various scientific and technical applications. In essence, it consists in separating meaningful underlying components out of a mixture of a multitude of superimposed signals. In the recent research literature there are two related approaches to the BSS problem: The first is known as Independent Component Analysis (ICA), where the goal is to transform the data such that the components become as independent as possible. The second is based on the notion of diagonality of certain characteristic matrices derived from the data. Here the goal is to transform the matrices such that they become as diagonal as possible. In this thesis we study the latter method of approximate joint diagonalization (AJD) to achieve a solution of the BSS problem. After an introduction to the general setting, the thesis provides an overview on particular choices for the set of target matrices that can be used for BSS by joint diagonalization. As the main contribution of the thesis, new algorithms for approximate joint diagonalization of several matrices with non-orthogonal transformations are developed. These newly developed algorithms will be tested on synthetic benchmark datasets and compared to other previous diagonalization algorithms. Applications of the BSS methods to biomedical signal processing are discussed and exemplified with real-life data sets of multi-channel biomagnetic recordings. N2 - Diese Arbeit befasst sich mit der Lösung des Problems der blinden Signalquellentrennung (BSS). Das BSS Problem tritt häufig in vielen wissenschaftlichen und technischen Anwendungen auf. Im Kern besteht das Problem darin, aus einem Gemisch von überlagerten Signalen die zugrundeliegenden Quellsignale zu extrahieren. In wissenschaftlichen Publikationen zu diesem Thema werden hauptsächlich zwei Lösungsansätze verfolgt: Ein Ansatz ist die sogenannte "Analyse der unabhängigen Komponenten", die zum Ziel hat, eine lineare Transformation V der Daten X zu finden, sodass die Komponenten Un der transformierten Daten U = V X (die sogenannten "independent components") so unabhängig wie möglich sind. Ein anderer Ansatz beruht auf einer simultanen Diagonalisierung mehrerer spezieller Matrizen, die aus den Daten gebildet werden. Diese Möglichkeit der Lösung des Problems der blinden Signalquellentrennung bildet den Schwerpunkt dieser Arbeit. Als Hauptbeitrag der vorliegenden Arbeit präsentieren wir neue Algorithmen zur simultanen Diagonalisierung mehrerer Matrizen mit Hilfe einer nicht-orthogonalen Transformation. Die neu entwickelten Algorithmen werden anhand von numerischen Simulationen getestet und mit bereits bestehenden Diagonalisierungsalgorithmen verglichen. Es zeigt sich, dass unser neues Verfahren sehr effizient und leistungsfähig ist. Schließlich werden Anwendungen der BSS Methoden auf Probleme der biomedizinischen Signalverarbeitung erläutert und anhand von realistischen biomagnetischen Messdaten wird die Nützlichkeit in der explorativen Datenanalyse unter Beweis gestellt. KW - Signaltrennung KW - Mischung KW - Diagonalisierung KW - Bioelektrisches Signal KW - Magnetoencephalographie KW - Elektroencephalographie KW - Signalquellentrennung KW - Matrizen-Eigenwertaufgabe KW - Simultane Diagonalisierung KW - Optimierungsproblem KW - blind source separation KW - BSS KW - ICA KW - independent component analysis KW - approximate joint diagonalization KW - EEG KW - MEG Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5694 ER - TY - THES A1 - Ziegler, Moritz O. T1 - The 3D in-situ stress field and its changes in geothermal reservoirs T1 - Das 3D in-situ Spannungsfeld und seine Änderungen in Geothermiereservoiren N2 - Information on the contemporary in-situ stress state of the earth’s crust is essential for geotechnical applications and physics-based seismic hazard assessment. Yet, stress data records for a data point are incomplete and their availability is usually not dense enough to allow conclusive statements. This demands a thorough examination of the in-situ stress field which is achieved by 3D geomechanicalnumerical models. However, the models spatial resolution is limited and the resulting local stress state is subject to large uncertainties that confine the significance of the findings. In addition, temporal variations of the in-situ stress field are naturally or anthropogenically induced. In my thesis I address these challenges in three manuscripts that investigate (1) the current crustal stress field orientation, (2) the 3D geomechanical-numerical modelling of the in-situ stress state, and (3) the phenomenon of injection induced temporal stress tensor rotations. In the first manuscript I present the first comprehensive stress data compilation of Iceland with 495 data records. Therefore, I analysed image logs from 57 boreholes in Iceland for indicators of the orientation of the maximum horizontal stress component. The study is the first stress survey from different kinds of stress indicators in a geologically very young and tectonically active area of an onshore spreading ridge. It reveals a distinct stress field with a depth independent stress orientation even very close to the spreading centre. In the second manuscript I present a calibrated 3D geomechanical-numerical modelling approach of the in-situ stress state of the Bavarian Molasse Basin that investigates the regional (70x70x10km³) and local (10x10x10km³) stress state. To link these two models I develop a multi-stage modelling approach that provides a reliable and efficient method to derive from the larger scale model initial and boundary conditions for the smaller scale model. Furthermore, I quantify the uncertainties in the models results which are inherent to geomechanical-numerical modelling in general and the multi-stage approach in particular. I show that the significance of the models results is mainly reduced due to the uncertainties in the material properties and the low number of available stress magnitude data records for calibration. In the third manuscript I investigate the phenomenon of injection induced temporal stress tensor rotation and its controlling factors. I conduct a sensitivity study with a 3D generic thermo-hydro-mechanical model. I show that the key control factors for the stress tensor rotation are the permeability as the decisive factor, the injection rate, and the initial differential stress. In particular for enhanced geothermal systems with a low permeability large rotations of the stress tensor are indicated. According to these findings the estimation of the initial differential stress in a reservoir is possible provided the permeability is known and the angle of stress rotation is observed. I propose that the stress tensor rotations can be a key factor in terms of the potential for induced seismicity on pre-existing faults due to the reorientation of the stress field that changes the optimal orientation of faults. N2 - Kenntnis des derzeitigen in-situ Spannungszustandes der Erdkruste ist essenziell für geotechnische Anwendungen und seismische Gefährdungsabschätzungen, welche auf physikalischen Beobachtungen basieren. Jedoch sind die Spannungsinformationen jedes Datenpunktes unvollständig und die Menge an vorhandenen Datenpunkten ist normalerweise nicht groß genug, um schlüssige Ergebnisse zu erzielen. Daher ist eine eingehende Untersuchung des in-situ Spannungsfeldes, welche durch 3D geomechanisch-numerische Modellierung geleistet wird, erforderlich. Jedoch ist die räumliche Auflösung der Modelle begrenzt und der resultierende Spannungszustand ist großen Unsicherheiten unterworfen, welche die Aussagekraft der Ergebnisse beschränken. Zusätzlich gibt es zeitliche Änderungen des Spannungsfeldes, welche durch natürliche Prozesse bedingt oder menschengemacht sind. In meiner Dissertation behandle ich diese Herausforderungen in drei Manuskripten, welche (1) die Orientierung des derzeitigen Spannungszustandes, (2) die 3D geomechanisch-numerische Modellierung des in-situ Spannungszustandes und (3) das Phänomen injektionsinduzierter zeitlicher Rotationen des Spannungstensors zum Thema haben. In dem ersten Manuskript präsentiere ich die erste umfassende Spannungsdatensammlung von Island mit insgesamt 495 Einträgen. Dafür habe ich Bilddatenlogs aus 57 Bohrlöchern in Island auf Indikatoren der maximalen horizontalen Spannungsorientierung hin untersucht. Diese Studie ist die erste ganzheitliche Spannungsuntersuchung, welche sich auf verschiedene Indikatoren der Spannungsorientierung stützt und in einem geologisch sehr jungen und tektonisch aktiven Gebiet auf einem Mittelozeanischen Rücken an Land liegt. Es zeigt sich, dass selbst sehr nahe an der Plattengrenze eine tiefenunabhängige, eindeutige Spannungsorientierung existiert. In dem zweiten Manuskript präsentiere ich einen kalibrierten 3D geomechanisch-numerischen Modellierungsansatz des in-situ Spannungszustandes des bayrischen Molassebeckens welches den regionalen (70x70x10km³) und den lokalen (10x10x10km³) Spannungszustand untersucht. Um diese zwei Modelle zu verbinden, habe ich ein mehrstufigen Modellansatz entworfen, welcher eine zuverlässige und effiziente Methode darstellt um Randbedingungen und Initialbedingungen für das kleinere Modell aus dem größeren Modell abzuleiten. Des Weiteren quantifiziere ich die Unsicherheiten in den Modellergebnissen, welche im Allgemeinen durch geomechanisch-numerische Modellierung und im Speziellen durch den Mehrstufenansatz entstehen. Ich zeige, dass die Signifikanz der Modellergebnisse hauptsächlich durch die Unsicherheiten in den Materialeigenschaften sowie der geringen Anzahl vorhandener Spannungsmagnitudendaten zur Kalibrierung reduziert wird. In dem dritten Manuskript untersuche ich das Phänomen injektionsinduzierter zeitlicher Rotationen des Spannungstensors und deren kontrollierende Parameter. Ich führe eine Sensitivitätsanalyse mit einem generischen 3D thermo-hydro-mechanischen Modell durch. Darin zeige ich, dass die Schlüsselparameter, welche die Rotationen des Spannungstensors kontrollieren, die Permeabilität des Reservoirgesteins als der entscheidende Faktor, die Injektionsrate und die initiale Differenzspannung sind. Insbesondere für geothermische Systeme nach dem Hot-Dry-Rock-Verfahren mit einer geringen Permeabilität weisen die Ergebnisse auf große Rotationen des Spannungstensors hin. Gemäß diesen Ergebnissen kann die initiale Differenzspannung in einem Reservoir abgeschätzt werden, sollte die Permeabilität bekannt sein und der Winkel der Spannungsrotation beobachtet werden. Ich schlage vor, dass Spannungsrotationen ein Schlüsselfaktor in Bezug auf das Potenzial für induzierte Seismizität sind, welche auf prä-existierenden Störungen entsteht, die durch die Reorientierung des Spannungsfeldes optimal orientiert werden. KW - stress KW - stress changes KW - induced seismicity KW - geothermal KW - geomechanical modelling KW - Spannung KW - Spannungsänderungen KW - induzierte Seismizität KW - Geothermie KW - geomechanische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403838 ER - TY - THES A1 - Zieger, Tobias T1 - Self-adaptive data quality BT - automating duplicate detection N2 - Carrying out business processes successfully is closely linked to the quality of the data inventory in an organization. Lacks in data quality lead to problems: Incorrect address data prevents (timely) shipments to customers. Erroneous orders lead to returns and thus to unnecessary effort. Wrong pricing forces companies to miss out on revenues or to impair customer satisfaction. If orders or customer records cannot be retrieved, complaint management takes longer. Due to erroneous inventories, too few or too much supplies might be reordered. A special problem with data quality and the reason for many of the issues mentioned above are duplicates in databases. Duplicates are different representations of same real-world objects in a dataset. However, these representations differ from each other and are for that reason hard to match by a computer. Moreover, the number of required comparisons to find those duplicates grows with the square of the dataset size. To cleanse the data, these duplicates must be detected and removed. Duplicate detection is a very laborious process. To achieve satisfactory results, appropriate software must be created and configured (similarity measures, partitioning keys, thresholds, etc.). Both requires much manual effort and experience. This thesis addresses automation of parameter selection for duplicate detection and presents several novel approaches that eliminate the need for human experience in parts of the duplicate detection process. A pre-processing step is introduced that analyzes the datasets in question and classifies their attributes semantically. Not only do these annotations help understanding the respective datasets, but they also facilitate subsequent steps, for example, by selecting appropriate similarity measures or normalizing the data upfront. This approach works without schema information. Following that, we show a partitioning technique that strongly reduces the number of pair comparisons for the duplicate detection process. The approach automatically finds particularly suitable partitioning keys that simultaneously allow for effective and efficient duplicate retrieval. By means of a user study, we demonstrate that this technique finds partitioning keys that outperform expert suggestions and additionally does not need manual configuration. Furthermore, this approach can be applied independently of the attribute types. To measure the success of a duplicate detection process and to execute the described partitioning approach, a gold standard is required that provides information about the actual duplicates in a training dataset. This thesis presents a technique that uses existing duplicate detection results and crowdsourcing to create a near gold standard that can be used for the purposes above. Another part of the thesis describes and evaluates strategies how to reduce these crowdsourcing costs and to achieve a consensus with less effort. N2 - Die erfolgreiche Ausführung von Geschäftsprozessen ist eng an die Datenqualität der Datenbestände in einer Organisation geknüpft. Bestehen Mängel in der Datenqualität, kann es zu Problemen kommen: Unkorrekte Adressdaten verhindern, dass Kunden (rechtzeitig) beliefert werden. Fehlerhafte Bestellungen führen zu Reklamationen und somit zu unnötigem Aufwand. Falsche Preisauszeichnungen zwingen Unternehmen, auf Einnahmen zu verzichten oder gefährden die Kundenzufriedenheit. Können Bestellungen oder Kundendaten nicht gefunden werden, verlängert sich die Abarbeitung von Beschwerden. Durch fehlerhafte Inventarisierung wird zu wenig oder zu viel Nachschub bestellt. Ein spezielles Datenqualitätsproblem und der Grund für viele der genannten Datenqualitätsprobleme sind Duplikate in Datenbanken. Duplikate sind verschiedene Repräsentationen derselben Realweltobjekte im Datenbestand. Allerdings unterscheiden sich diese Repräsentationen voneinander und sind so für den Computer nur schwer als zusammengehörig zu erkennen. Außerdem wächst die Anzahl der zur Aufdeckung der Duplikate benötigten Vergleiche quadratisch mit der Datensatzgröße. Zum Zwecke der Datenreinigung müssen diese Duplikate erkannt und beseitigt werden. Diese Duplikaterkennung ist ein sehr aufwändiger Prozess. Um gute Ergebnisse zu erzielen, ist die Erstellung von entsprechender Software und das Konfigurieren vieler Parameter (Ähnlichkeitsmaße, Partitionierungsschlüssel, Schwellwerte usw.) nötig. Beides erfordert viel manuellen Aufwand und Erfahrung. Diese Dissertation befasst sich mit dem Automatisieren der Parameterwahl für die Duplikaterkennung und stellt verschiedene neuartige Verfahren vor, durch die Teile des Duplikaterkennungsprozesses ohne menschliche Erfahrung gestaltet werden können. Es wird ein Vorverarbeitungsschritt vorgestellt, der die betreffenden Datensätze analysiert und deren Attribute automatisch semantisch klassifiziert. Durch diese Annotationen wird nicht nur das Verständnis des Datensatzes verbessert, sondern es werden darüber hinaus die folgenden Schritte erleichtert, zum Beispiel können so geeignete Ähnlichkeitsmaße ausgewählt oder die Daten normalisiert werden. Dabei kommt der Ansatz ohne Schemainformationen aus. Anschließend wird ein Partitionierungsverfahren gezeigt, das die Anzahl der für die Duplikaterkennung benötigten Vergleiche stark reduziert. Das Verfahren findet automatisch besonders geeignete Partitionierungsschlüssel, die eine gleichzeitig effektive und effiziente Duplikatsuche ermöglichen. Anhand einer Nutzerstudie wird gezeigt, dass die so gefundenen Partitionierungsschlüssel Expertenvorschlägen überlegen sind und zudem keine menschliche Konfiguration benötigen. Außerdem lässt sich das Verfahren unabhängig von den Attributtypen anwenden. Zum Messen des Erfolges eines Duplikaterkennungsverfahrens und für das zuvor beschriebene Partitionierungsverfahren ist ein Goldstandard nötig, der Auskunft über die zu findenden Duplikate gibt. Die Dissertation stellt ein Verfahren vor, das anhand mehrerer vorhandener Duplikaterkennungsergebnisse und dem Einsatz von Crowdsourcing einen Nahezu-Goldstandard erzeugt, der für die beschriebenen Zwecke eingesetzt werden kann. Ein weiterer Teil der Arbeit beschreibt und evaluiert Strategien, wie die Kosten dieses Crowdsourcingeinsatzes reduziert werden können und mit geringerem Aufwand ein Konsens erreicht wird. KW - data quality KW - Datenqualität KW - Duplikaterkennung KW - duplicate detection KW - Machine Learning KW - Information Retrieval KW - Automatisierung KW - automation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410573 ER - TY - THES A1 - Ziege, Ricardo T1 - Growth dynamics and mechanical properties of E. coli biofilms T1 - Wachstumsdynamik und mechanische Eigenschaften von E. coli Biofilmen N2 - Biofilms are complex living materials that form as bacteria get embedded in a matrix of self-produced protein and polysaccharide fibres. The formation of a network of extracellular biopolymer fibres contributes to the cohesion of the biofilm by promoting cell-cell attachment and by mediating biofilm-substrate interactions. This sessile mode of bacteria growth has been well studied by microbiologists to prevent the detrimental effects of biofilms in medical and industrial settings. Indeed, biofilms are associated with increased antibiotic resistance in bacterial infections, and they can also cause clogging of pipelines or promote bio-corrosion. However, biofilms also gained interest from biophysics due to their ability to form complex morphological patterns during growth. Recently, the emerging field of engineered living materials investigates biofilm mechanical properties at multiple length scales and leverages the tools of synthetic biology to tune the functions of their constitutive biopolymers. This doctoral thesis aims at clarifying how the morphogenesis of Escherichia coli (E. coli) biofilms is influenced by their growth dynamics and mechanical properties. To address this question, I used methods from cell mechanics and materials science. I first studied how biological activity in biofilms gives rise to non-uniform growth patterns. In a second study, I investigated how E. coli biofilm morphogenesis and its mechanical properties adapt to an environmental stimulus, namely the water content of their substrate. Finally, I estimated how the mechanical properties of E. coli biofilms are altered when the bacteria express different extracellular biopolymers. On nutritive hydrogels, micron-sized E. coli cells can build centimetre-large biofilms. During this process, bacterial proliferation and matrix production introduce mechanical stresses in the biofilm, which release through the formation of macroscopic wrinkles and delaminated buckles. To relate these biological and mechanical phenomena, I used time-lapse fluorescence imaging to track cell and matrix surface densities through the early and late stages of E. coli biofilm growth. Colocalization of high cell and matrix densities at the periphery precede the onset of mechanical instabilities at this annular region. Early growth is detected at this outer annulus, which was analysed by adding fluorescent microspheres to the bacterial inoculum. But only when high rates of matrix production are present in the biofilm centre, does overall biofilm spreading initiate along the solid-air interface. By tracking larger fluorescent particles for a long time, I could distinguish several kinematic stages of E. coli biofilm expansion and observed a transition from non-linear to linear velocity profiles, which precedes the emergence of wrinkles at the biofilm periphery. Decomposing particle velocities to their radial and circumferential components revealed a last kinematic stage, where biofilm movement is mostly directed towards the radial delaminated buckles, which verticalize. The resulting compressive strains computed in these regions were observed to substantially deform the underlying agar substrates. The co-localization of higher cell and matrix densities towards an annular region and the succession of several kinematic stages are thus expected to promote the emergence of mechanical instabilities at the biofilm periphery. These experimental findings are predicted to advance future modelling approaches of biofilm morphogenesis. E. coli biofilm morphogenesis is further anticipated to depend on external stimuli from the environment. To clarify how the water could be used to tune biofilm material properties, we quantified E. coli biofilm growth, wrinkling dynamics and rigidity as a function of the water content of the nutritive substrates. Time-lapse microscopy and computational image analysis revealed that substrates with high water content promote biofilm spreading kinetics, while substrates with low water content promote biofilm wrinkling. The wrinkles observed on biofilm cross-sections appeared more bent on substrates with high water content, while they tended to be more vertical on substrates with low water content. Both wet and dry biomass, accumulated over 4 days of culture, were larger in biofilms cultured on substrates with high water content, despite extra porosity within the matrix layer. Finally, the micro-indentation analysis revealed that substrates with low water content supported the formation of stiffer biofilms. This study shows that E. coli biofilms respond to the water content of their substrate, which might be used for tuning their material properties in view of further applications. Biofilm material properties further depend on the composition and structure of the matrix of extracellular proteins and polysaccharides. In particular, E. coli biofilms were suggested to present tissue-like elasticity due to a dense fibre network consisting of amyloid curli and phosphoethanolamine-modified cellulose. To understand the contribution of these components to the emergent mechanical properties of E. coli biofilms, we performed micro-indentation on biofilms grown from bacteria of several strains. Besides showing higher dry masses, larger spreading diameters and slightly reduced water contents, biofilms expressing both main matrix components also presented high rigidities in the range of several hundred kPa, similar to biofilms containing only curli fibres. In contrast, a lack of amyloid curli fibres provides much higher adhesive energies and more viscoelastic fluid-like material behaviour. Therefore, the combination of amyloid curli and phosphoethanolamine-modified cellulose fibres implies the formation of a composite material whereby the amyloid curli fibres provide rigidity to E. coli biofilms, whereas the phosphoethanolamine-modified cellulose rather acts as a glue. These findings motivate further studies involving purified versions of these protein and polysaccharide components to better understand how their interactions benefit biofilm functions. All three studies depict different aspects of biofilm morphogenesis, which are interrelated. The first work reveals the correlation between non-uniform biological activities and the emergence of mechanical instabilities in the biofilm. The second work acknowledges the adaptive nature of E. coli biofilm morphogenesis and its mechanical properties to an environmental stimulus, namely water. Finally, the last study reveals the complementary role of the individual matrix components in the formation of a stable biofilm material, which not only forms complex morphologies but also functions as a protective shield for the bacteria it contains. Our experimental findings on E. coli biofilm morphogenesis and their mechanical properties can have further implications for fundamental and applied biofilm research fields. N2 - Biofilme sind komplexe lebende Materialien, die sich bilden, wenn Bakterien in eine Matrix aus selbstproduzierten Protein- und Polysaccharidfasern eingebettet werden. Die Bildung eines Netzwerks aus extrazellulären Biopolymerfasern trägt zum Zusammenhalt des Biofilms bei, indem sie die Zell-Zell-Anhaftung fördert und die Wechselwirkungen zwischen Biofilm und Substrat vermittelt. Diese sessile Form des Bakterienwachstums wurde von Mikrobiologen eingehend untersucht, um die schädlichen Auswirkungen von Biofilmen in der Medizin und Industrie zu verhindern. Biofilme werden nämlich mit einer erhöhten Antibiotikaresistenz bei bakteriellen Infektionen in Verbindung gebracht, und sie können auch zur Verstopfung von Rohrleitungen führen oder Biokorrosion fördern. Biofilme sind jedoch auch für die Biophysik von Interesse, da sie während ihres Wachstums komplexe morphologische Muster bilden können. In jüngster Zeit werden auf dem aufstrebenden Gebiet der künstlich hergestellten lebenden Materialien die mechanischen Eigenschaften von Biofilmen auf verschiedenen Längenskalen untersucht und die Werkzeuge der synthetischen Biologie genutzt, um die Funktionen ihrer konstitutiven Biopolymere zu beeinflussen. In dieser Doktorarbeit soll geklärt werden, wie die Morphogenese von Escherichia coli (E. coli)-Biofilmen durch deren Wachstumsdynamik und mechanische Eigenschaften beeinflusst wird. Um dieser Frage nachzugehen, habe ich Methoden aus der Zellmechanik und der Materialwissenschaft verwendet. Zunächst habe ich untersucht, wie die biologische Aktivität in Biofilmen zu ungleichmäßigen Wachstumsmustern führt. In einer zweiten Studie untersuchte ich, wie sich die Morphogenese von E. coli-Biofilmen und ihre mechanischen Eigenschaften an einen Umweltstimulus, nämlich den Wassergehalt des Substrats, anpassen. Schließlich habe ich abgeschätzt, wie sich die mechanischen Eigenschaften von E. coli-Biofilmen verändern, wenn die Bakterien verschiedene extrazelluläre Biopolymere exprimieren. Auf nährstoffhaltigen Hydrogelen können mikrometergroße E. coli-Zellen zentimetergroße Biofilme bilden. Während dieses Prozesses führen die bakterielle Vermehrung und die Matrixproduktion zu mechanischen Spannungen im Biofilm, die sich durch die Bildung von makroskopischen Falten und delaminierten Knicken entladen. Um diese biologischen und mechanischen Phänomene miteinander in Beziehung zu setzen, habe ich mit Hilfe von Zeitraffer-Fluoreszenzaufnahmen die Zell- und Matrixoberflächendichte in den frühen und späten Phasen des E. coli-Biofilmwachstums verfolgt. Die Kolokalisierung hoher Zell- und Matrixdichten an der Peripherie geht dem Auftreten mechanischer Instabilitäten in diesem ringförmigen Bereich voraus. An diesem äußeren Ring wird ein frühes Wachstum festgestellt, das durch Zugabe von fluoreszierenden Mikrokugeln zum bakteriellen Inokulum analysiert wurde. Aber nur wenn im Zentrum des Biofilms hohe Raten der Matrixproduktion vorhanden sind, beginnt die Ausbreitung des gesamten Biofilms entlang der Feststoff-Luft-Grenzfläche. Indem ich größere fluoreszierende Partikel über einen längeren Zeitraum verfolgte, konnte ich mehrere kinematische Stadien der E. coli-Biofilmexpansion unterscheiden und einen Übergang von nichtlinearen zu linearen Geschwindigkeitsprofilen beobachten, der dem Auftreten von Falten an der Biofilmperipherie vorausgeht. Die Zerlegung der Partikelgeschwindigkeiten in ihre radialen und umlaufenden Komponenten ergab ein letztes kinematisches Stadium, in dem die Bewegung des Biofilms hauptsächlich auf die radialen delaminierten Knicke gerichtet ist, die sich vertikalisieren. Die in diesen Regionen berechneten Druckspannungen verformen die darunter liegenden Agarsubstrate erheblich. Die gleichzeitige Ansammlung höherer Zell- und Matrixdichten in einer ringförmigen Region und die Abfolge mehrerer kinematischer Stadien dürften somit das Entstehen mechanischer Instabilitäten an der Biofilm-Peripherie fördern. Diese experimentellen Ergebnisse werden voraussichtlich zukünftige Modellierungsansätze der Biofilmmorphogenese voranbringen. Die Morphogenese des E. coli-Biofilms wird voraussichtlich auch von externen Stimuli aus der Umwelt abhängen. Um zu klären, wie das Wasser zur Einstellung der Materialeigenschaften von Biofilmen genutzt werden könnte, haben wir das Wachstum, die Faltenbildung und die Steifigkeit von E. coli-Biofilmen in Abhängigkeit vom Wassergehalt der Nährsubstrate quantifiziert. Zeitraffermikroskopie und computergestützte Bildanalyse zeigten, dass Substrate mit hohem Wassergehalt die Ausbreitungskinetik des Biofilms fördern, während Substrate mit niedrigem Wassergehalt die Faltenbildung des Biofilms begünstigen. Die auf Biofilm-Querschnitten beobachteten Falten erschienen auf Substraten mit hohem Wassergehalt stärker gebogen, während sie auf Substraten mit niedrigem Wassergehalt eher vertikal verliefen. Sowohl die feuchte als auch die trockene Biomasse, die während der 4-tägigen Kultur akkumuliert wurde, war in Biofilmen, die auf Substraten mit hohem Wassergehalt gezüchtet wurden, größer, trotz der zusätzlichen Porosität innerhalb der Matrixschicht. Schließlich ergab die Mikroindentationsanalyse, dass Substrate mit niedrigem Wassergehalt die Bildung von steiferen Biofilmen begünstigten. Diese Studie zeigt, dass E. coli-Biofilme auf den Wassergehalt ihres Substrats reagieren, was für die Abstimmung ihrer Materialeigenschaften im Hinblick auf weitere Anwendungen genutzt werden könnte. Die Materialeigenschaften von Biofilmen hängen außerdem von der Zusammensetzung und Struktur der Matrix aus extrazellulären Proteinen und Polysacchariden ab. Insbesondere wurde vermutet, dass E. coli-Biofilme aufgrund eines dichten Fasernetzwerks aus Amyloid-Curli und Phosphoethanolamin-modifizierter Cellulose eine gewebeähnliche Elastizität aufweisen. Um den Beitrag dieser Komponenten zu den entstehenden mechanischen Eigenschaften von E. coli-Biofilmen zu verstehen, führten wir an Biofilmen, die aus Bakterien verschiedener Stämme gewachsen waren, Mikroeindrücke durch. Biofilme, die beide Hauptmatrixkomponenten enthalten, wiesen nicht nur eine höhere Trockenmasse, einen größeren Ausbreitungsdurchmesser und einen leicht verringerten Wassergehalt auf, sondern auch eine hohe Steifigkeit im Bereich von mehreren hundert kPa, ähnlich wie Biofilme, die nur Curli-Fasern enthalten. Das Fehlen von Amyloid-Curli-Fasern führt dagegen zu deutlich höheren Adhäsionsenergien und einem viskoelastischeren, flüssigkeitsähnlichen Materialverhalten. Die Kombination von Amyloid-Curli-Fasern und Phosphoethanolamin-modifizierten Cellulosefasern impliziert daher die Bildung eines Verbundmaterials, bei dem die Amyloid-Curli-Fasern den E. coli-Biofilmen Steifigkeit verleihen, während die Phosphoethanolamin-modifizierte Cellulose eher als Klebstoff wirkt. Diese Ergebnisse motivieren zu weiteren Studien mit gereinigten Versionen dieser Protein- und Polysaccharidkomponenten, um besser zu verstehen, wie ihre Interaktionen die Funktionen des Biofilms unterstützen. Alle drei Studien zeigen verschiedene Aspekte der Biofilm-Morphogenese, die miteinander verbunden sind. Die erste Arbeit zeigt den Zusammenhang zwischen ungleichmäßigen biologischen Aktivitäten und dem Auftreten mechanischer Instabilitäten im Biofilm auf. Die zweite Arbeit bestätigt die Anpassungsfähigkeit der Morphogenese des E. coli-Biofilms und seiner mechanischen Eigenschaften an einen Umweltreiz, nämlich Wasser. Die letzte Studie schließlich zeigt die komplementäre Rolle der einzelnen Matrixkomponenten bei der Bildung eines stabilen Biofilmmaterials, das nicht nur komplexe Morphologien bildet, sondern auch als Schutzschild für die darin enthaltenen Bakterien fungiert. Unsere experimentellen Erkenntnisse über die Morphogenese von E. coli-Biofilmen und ihre mechanischen Eigenschaften können weitere Auswirkungen auf grundlegende und angewandte Biofilm-Forschungsbereiche haben. KW - biofilm KW - E. coli KW - living materials KW - mechanobiology KW - E. coli KW - Biofilm KW - lebende Materialien KW - Mechanobiologie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559869 ER - TY - THES A1 - Zickfeld, Kirsten T1 - Modeling large-scale singular climate events for integrated assessment N2 - Erkenntnisse aus paläoklimatologischen Studien, theoretischen Betrachtungen und Modellsimulationen deuten darauf hin, dass anthropogene Emissionen von Treibhausgasen und Aerosolen zu großskaligen, singulären Klimaereignissen führen könnten. Diese bezeichnen stark nichtlineare, abrupte Klimaänderungen, mit regionalen bis hin zu globalen Auswirkungen. Ziel dieser Arbeit ist die Entwicklung von Modellen zweier maßgeblicher Komponenten des Klimasystems, die singuläres Verhalten aufweisen könnten: die atlantische thermohaline Zirkulation (THC) und der indische Monsun. Diese Modelle sind so konzipiert, dass sie den Anforderungen der "Integrated Assessment"-Modellierung genügen, d.h., sie sind realistisch, recheneffizient, transparent und flexibel. Das THC-Modell ist ein einfaches, interhemisphärisches Boxmodell, das anhand von Daten kalibriert wird, die mit einem gekoppelten Klimamodell mittlerer Komplexität erzeugt wurden. Das Modell wird durch die globale Mitteltemperatur angetrieben, die mit Hilfe eines linearen Downscaling-Verfahrens in regionale Wärme- und Süßwasserflüsse übersetzt wird. Die Ergebnisse einer Vielzahl von zeitabhängigen Simulationen zeigen, dass das Modell in der Lage ist, maßgebliche Eigenschaften des Verhaltens komplexer Klimamodelle wiederzugeben, wie die Sensitivität bezüglich des Ausmaßes, der regionalen Verteilung und der Rate der Klimaänderung. Der indische Monsun wird anhand eines neuartigen eindimensionalen Boxmodells der tropischen Atmosphäre beschrieben. Dieses enthält Parmetrisierungen der Oberflächen- und Strahlungsflüsse, des hydrologischen Kreislaufs und derHydrologie der Landoberfläche. Trotz des hohen Idealisierungsgrades ist das Modell in der Lage, relevante Aspekte der beobachteten Monsundynamik, wie z.B. den Jahresgang des Niederschlags und das Eintritts- sowie Rückzugsdatum des Sommermonsuns, zufrieden stellend zu simulieren. Außerdem erfasst das Modell die Sensitivitätdes Monsuns bezüglich Änderungen der Treibhausgas- und Aerosolkonzentrationen, die aus komplexeren Modellen bekannt sind. Eine vereinfachte Version des Monsunmodells wird für die Untersuchung des qualitativen Systemverhaltens in Abhängigkeit von Änderungen der Randbedingungen eingesetzt. Das bemerkenswerteste Ergebnis ist das Auftreten einer Sattelknotenbifurkation des Sommermonsuns für kritische Werte der Albedo oder der Sonneneinstrahlung. Darüber hinaus weist das Modell zwei stabile Zustände auf: neben dem niederschlagsreichen Sommermonsun besteht ein Zustand, der sich durch einen schwachen hydrologischen Kreislauf auszeichnet. Das Beachtliche an diesen Ergebnissen ist, dass anthropogene Störungen der plantetaren Albedo, wie Schwefelemissionen und/oder Landnutzungsänderungen, zu einer Destabilisierung des indischen Monsuns führen könnten. Das THC-Boxmodell findet exemplarische Anwendung in einem "Integrated Assessment" von Klimaschutzstrategien. Basierend auf dem konzeptionellen und methodischen Gerüst des Leitplankenansatzes werden Emissionskorridore (d.h. zulässige Spannen an CO2-Emissionen) berechnet, die das Risiko eines THC-Zusammenbruchs begrenzen sowie sozioökonomische Randbedingungen berücksichtigen. Die Ergebnisse zeigen u.a. eine starke Abhängigkeit der Breite der Emissionskorridore von der Klima- und hydrologischen Sensitivität. Für kleine Werte einer oder beider Sensitivitäten liegt der obere Korridorrand bei weit höheren Emissionswerten als jene, die von plausiblen Emissionsszenarien für das 21. Jahrhundert erreicht werden. Für große Werte der Sensitivitäten hingegen, verlassen schon niedrige Emissionsszenarien den Korridor in den frühen Jahrzehnten des 21. Jahrhunderts. Dies impliziert eine Abkehr von den gegenwärtigen Emissionstrends innherhalb der kommenden Jahrzehnte, wenn das Risko eines THC Zusammenbruchs gering gehalten werden soll. Anhand einer Vielzahl von Anwendungen - von Sensitivitäts- über Bifurkationsanalysen hin zu integrierter Modellierung - zeigt diese Arbeit den Wert reduzierter Modelle auf. Die Ergebnisse und die daraus zu ziehenden Schlussfolgerungen liefern einen wertvollen Beitrag zu der wissenschaftlichen und politischen Diskussion bezüglich der Folgen des anthropogenen Klimawandels und der langfristigen Klimaschutzziele. N2 - Concerns have been raised that anthropogenic climate change could lead to large-scale singular climate events, i.e., abrupt nonlinear climate changes with repercussions on regional to global scales. One central goal of this thesis is the development of models of two representative components of the climate system that could exhibit singular behavior: the Atlantic thermohaline circulation (THC) and the Indian monsoon. These models are conceived so as to fulfill the main requirements of integrated assessment modeling, i.e., reliability, computational efficiency, transparency and flexibility. The model of the THC is an interhemispheric four-box model calibrated against data generated with a coupled climate model of intermediate complexity. It is designed to be driven by global mean temperature change which is translated into regional fluxes of heat and freshwater through a linear down-scaling procedure. Results of a large number of transient climate change simulations indicate that the reduced-form THC model is able to emulate key features of the behavior of comprehensive climate models such as the sensitivity of the THC to the amount, regional distribution and rate of change in the heat and freshwater fluxes. The Indian monsoon is described by a novel one-dimensional box model of the tropical atmosphere. It includes representations of the radiative and surface fluxes, the hydrological cycle and surface hydrology. Despite its high degree of idealization, the model satisfactorily captures relevant aspects of the observed monsoon dynamics, such as the annual course of precipitation and the onset and withdrawal of the summer monsoon. Also, the model exhibits the sensitivity to changes in greenhouse gas and sulfate aerosol concentrations that are known from comprehensive models. A simplified version of the monsoon model is employed for the identification of changes in the qualitative system behavior against changes in boundary conditions. The most notable result is that under summer conditions a saddle-node bifurcation occurs at critical values of the planetary albedo or insolation. Furthermore, the system exhibits two stable equilibria: besides the wet summer monsoon, a stable state exists which is characterized by a weak hydrological cycle. These results are remarkable insofar, as they indicate that anthropogenic perturbations of the planetary albedo such as sulfur emissions and/or land-use changes could destabilize the Indian summer monsoon. The reduced-form THC model is employed in an exemplary integrated assessment application. Drawing on the conceptual and methodological framework of the tolerable windows approach, emissions corridors (i.e., admissible ranges of CO2- emissions) are derived that limit the risk of a THC collapse while considering expectations about the socio-economically acceptable pace of emissions reductions. Results indicate, for example, a large dependency of the width of the emissions corridor on climate and hydrological sensitivity: for low values of climate and/or hydrological sensitivity, the corridor boundaries are far from being transgressed by any plausible emissions scenario for the 21st century. In contrast, for high values of both quantities low non-intervention scenarios leave the corridor already in the early decades of the 21st century. This implies that if the risk of a THC collapse is to be kept low, business-as-usual paths would need to be abandoned within the next two decades. All in all, this thesis highlights the value of reduced-form modeling by presenting a number of applications of this class of models, ranging from sensitivity and bifurcation analysis to integrated assessment. The results achieved and conclusions drawn provide a useful contribution to the scientific and policy debate about the consequences of anthropogenic climate change and the long-term goals of climate protection. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2003/2004. KW - Nichtlineare Dynamik KW - 'Reduced-Form' Modellierung KW - Thermohaline Atlantikzirkulation KW - Indischer Monsun KW - Integrated Assessment KW - Nonlinear Dynamics KW - Reduced-Form Modeling KW - Atlantic Thermohaline Circulation KW - Indian Monsoon KW - Integrated Assessment Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001176 ER - TY - THES A1 - Zhou, Xiangqian T1 - Modeling of spatially distributed nitrate transport to investigate the effects of drought and river restoration in the Bode catchment, Central Germany N2 - The European Water Framework Directive (WFD) has identified river morphological alteration and diffuse pollution as the two main pressures affecting water bodies in Europe at the catchment scale. Consequently, river restoration has become a priority to achieve the WFD's objective of good ecological status. However, little is known about the effects of stream morphological changes, such as re-meandering, on in-stream nitrate retention at the river network scale. Therefore, catchment nitrate modeling is necessary to guide the implementation of spatially targeted and cost-effective mitigation measures. Meanwhile, Germany, like many other regions in central Europe, has experienced consecutive summer droughts from 2015-2018, resulting in significant changes in river nitrate concentrations in various catchments. However, the mechanistic exploration of catchment nitrate responses to changing weather conditions is still lacking. Firstly, a fully distributed, process-based catchment Nitrate model (mHM-Nitrate) was used, which was properly calibrated and comprehensively evaluated at numerous spatially distributed nitrate sampling locations. Three calibration schemes were designed, taking into account land use, stream order, and mean nitrate concentrations, and they varied in spatial coverage but used data from the same period (2011–2019). The model performance for discharge was similar among the three schemes, with Nash-Sutcliffe Efficiency (NSE) scores ranging from 0.88 to 0.92. However, for nitrate concentrations, scheme 2 outperformed schemes 1 and 3 when compared to observed data from eight gauging stations. This was likely because scheme 2 incorporated a diverse range of data, including low discharge values and nitrate concentrations, and thus provided a better representation of within-catchment heterogenous. Therefore, the study suggests that strategically selecting gauging stations that reflect the full range of within-catchment heterogeneity is more important for calibration than simply increasing the number of stations. Secondly, the mHM-Nitrate model was used to reveal the causal relations between sequential droughts and nitrate concentration in the Bode catchment (3200 km2) in central Germany, where stream nitrate concentrations exhibited contrasting trends from upstream to downstream reaches. The model was evaluated using data from six gauging stations, reflecting different levels of runoff components and their associated nitrate-mixing from upstream to downstream. Results indicated that the mHM-Nitrate model reproduced dynamics of daily discharge and nitrate concentration well, with Nash-Sutcliffe Efficiency ≥ 0.73 for discharge and Kling-Gupta Efficiency ≥ 0.50 for nitrate concentration at most stations. Particularly, the spatially contrasting trends of nitrate concentration were successfully captured by the model. The decrease of nitrate concentration in the lowland area in drought years (2015-2018) was presumably due to (1) limited terrestrial export loading (ca. 40% lower than that of normal years 2004-2014), and (2) increased in-stream retention efficiency (20% higher in summer within the whole river network). From a mechanistic modelling perspective, this study provided insights into spatially heterogeneous flow and nitrate dynamics and effects of sequential droughts, which shed light on water-quality responses to future climate change, as droughts are projected to be more frequent. Thirdly, this study investigated the effects of stream restoration via re-meandering on in-stream nitrate retention at network-scale in the well-monitored Bode catchment. The mHM-Nitrate model showed good performance in reproducing daily discharge and nitrate concentrations, with median Kling-Gupta values of 0.78 and 0.74, respectively. The mean and standard deviation of gross nitrate retention efficiency, which accounted for both denitrification and assimilatory uptake, were 5.1 ± 0.61% and 74.7 ± 23.2% in winter and summer, respectively, within the stream network. The study found that in the summer, denitrification rates were about two times higher in lowland sub-catchments dominated by agricultural lands than in mountainous sub-catchments dominated by forested areas, with median ± SD of 204 ± 22.6 and 102 ± 22.1 mg N m-2 d-1, respectively. Similarly, assimilatory uptake rates were approximately five times higher in streams surrounded by lowland agricultural areas than in those in higher-elevation, forested areas, with median ± SD of 200 ± 27.1 and 39.1 ± 8.7 mg N m-2 d-1, respectively. Therefore, restoration strategies targeting lowland agricultural areas may have greater potential for increasing nitrate retention. The study also found that restoring stream sinuosity could increase net nitrate retention efficiency by up to 25.4 ± 5.3%, with greater effects seen in small streams. These results suggest that restoration efforts should consider augmenting stream sinuosity to increase nitrate retention and decrease nitrate concentrations at the catchment scale. N2 - Die Europäische Wasserrahmenrichtlinie hat die morphologischen Veränderungen der Flüsse und die diffuse Verschmutzung als die Hauptprobleme der Gewässer in Europa identifiziert. Um diese Probleme anzugehen, hat die Renaturierung von Fließgewässern hohe Priorität. Es ist jedoch nur wenig darüber bekannt, wie sich Veränderungen der Flussform, wie z. B. die Re-Mäanderung, auf die Nitratrückhaltung im Fließgewässer auswirken. Deutschland hat in den letzten Jahren Dürreperioden erlebt, die zu Veränderungen der Nitratkonzentration in den Fließgewässern geführt haben. Es gibt jedoch nur wenig Erkenntnisse darüber, wie sich diese Dürreperioden auf die Nitratkonzentration auswirken. Zur Untersuchung dieser Einflüsse kann eine Modellierung des Nitrat-Transports und -Rückhalts in Einzugsgebieten wichtige Hinweise zu wirksamen Reduzierungsmaßnahmen liefern. In dieser Studie wurde ein prozessbasiertes hydrologisches Wasserqualitätsmodell (mHM-Nitrate) verwendet, um die Nitratdynamik im Einzugsgebiet der Bode (3200 km2) zu simulieren. Das Modell wurde anhand von Daten aus verschiedenen Teileinzugsgebieten kalibriert und bewertet. Es wurden drei Kalibrierungsvarianten entwickelt, die die Flächennutzung, die Ordnung der Fließgewässer und die mittleren Nitratkonzentrationen mit unterschiedlichem Detaillierungsgrad berücksichtigten. Die Modellierungsgüte für den Abfluss war bei allen drei Kalibrierungsvarianten ähnlich, während sich bei den Nitratkonzentrationen deutliche Unterschiede ergaben. Die Studie zeigte, dass die Auswahl von Messstationen, die die charakteristischen Gebietseigenschaften widerspiegeln, für die Nitrat-Kalibrierung wichtiger ist als die reine Anzahl der Messstationen. Das Modell wurde auch verwendet, um die Beziehung zwischen Dürreperioden und der Nitratdynamik im Bodegebiet zu untersuchen. Das Modell gab die Dynamik von Abfluss und Nitrat sehr gut wider und erfasste hierbei auch die räumlichen Unterschiede in den Nitratkonzentrationen sehr gut. Die Studie ergab, dass Dürreperioden zu niedrigeren Nitratkonzentrationen in den landwirtschaftlich genutzten Gebieten im Tiefland führten, was auf einen geringeren terrestrischen Export und einen erhöhten Rückhalt in den Fließgewässern zurückzuführen war. Die Untersuchung liefert Erkenntnisse über die Auswirkungen von Dürren auf den Nitrataustrag, was für das Verständnis der Auswirkungen des künftigen Klimawandels wichtig ist. Darüber hinaus untersuchte die Studie die Auswirkungen der Renaturierung von Fließgewässern, insbesondere der Re-Mäanderung, auf die Nitratrückhaltung im Fließgewässernetz. Die Untersuchung zeigte, dass der gewässerinterne Nitratrückhalt in landwirtschaftlichen Tieflandgebieten höher war als in bewaldeten Gebieten. Die Wiederherstellung natürlich meandrierender Fließgewässer erhöhte die Nitratretention und verringerte die Nitratkonzentration im Fließgewässer, insbesondere in kleinen Bächen in landwirtschaftlichen Gebieten. Dies deutet darauf hin, dass bei Sanierungsmaßnahmen die Erhöhung der Gewässersinuosität berücksichtigt werden sollte, um den Nitratrückhalt und die Wasserqualität insbesondere in den Teiflandgebieten zu erhöhen. KW - multi-site calibration KW - spatiotemporal validation KW - uncertainty KW - parameter transferability KW - drought KW - catchment hydrology Water quality model KW - river restoration KW - stream sinuosity KW - mHM-Nitrate model KW - stream denitrification KW - assimilatory uptake KW - Kalibrierung an mehreren Standorten KW - räumlich-zeitliche Validierung KW - Ungewissheit KW - Übertragbarkeit der Parameter KW - Dürre KW - Einzugsgebietshydrologie Wasserqualitätsmodell KW - Restaurierung von Flüssen KW - Strömungsneigung KW - mHM-Nitrat-Modell KW - Bachdenitrifikation KW - assimilatorische Aufnahme Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-621059 ER - TY - THES A1 - Zhou, Bin T1 - On the assessment of surface urban heat island T1 - Bewertung des urbanen Hitzeinseleffekts BT - size, urban form, and seasonality BT - Stadtgröße, Stadtform, und Seasonalität N2 - Inwiefern Städte unter den Megatrends der Urbanisierung und des Klimawandels nachhaltig gestaltet werden können, bleibt umstritten. Dies ist zum Teil auf unzureichende Kenntnisse der Mensch-Umwelt-Interaktionen zurückzuführen. Als die am vollständigsten dokumentierte anthropogene Klimamodifikation ruft der Urbane Hitzeinsel (UHI) Effekt weltweit Sorgen hinsichtlich der Gesundheit der Bevölkerung hervor. Dazu kommt noch ein immer häufigeres und intensiveres Auftreten von Hitzewellen, wodurch das Wohlbefinden der Stadtbewohner weiter beeinträchtigt wird. Trotz eines deutlichen Anstiegs der Zahl der UHI-bezogenen Veröffentlichungen in den letzten Jahrzehnten haben die unterschiedlichen Definitionen von städtischen und ländlichen Gebieten in bisherigen Studien die allgemeine Vergleichbarkeit der Resultate stark erschwert. Darüber hinaus haben nur wenige Studien den UHI-Effekt und seine Einflussfaktoren anhand einer Kombination der Landnutzungsdaten und der thermischen Fernerkundung systematisch untersucht. Diese Arbeit stellt einen allgemeinen Rahmen zur Quantifizierung von UHI-Intensitäten mittels eines automatisierten Algorithmus vor, wobei Städte als Agglomerationen maximal räumlicher Kontinuität basierend auf Landnutzungsdaten identifiziert, sowie deren ländliche Umfelder analog definiert werden. Durch Verknüpfung der Landnutzungsdaten mit Landoberflächentemperaturen von Satelliten kann die UHI-Intensität robust und konsistent berechnet werden. Anhand dieser Innovation wurde nicht nur der Zusammenhang zwischen Stadtgröße und UHI-Intensität erneut untersucht, sondern auch die Auswirkungen der Stadtform auf die UHI-Intensität quantifiziert. Diese Arbeit leistet vielfältige Beiträge zum tieferen Verständnis des UHI-Phänomens. Erstens wurde eine log-lineare Beziehung zwischen UHI-Intensität und Stadtgröße unter Berücksichtigung der 5,000 europäischen Städte bestätigt. Werden kleinere Städte auch berücksichtigt, ergibt sich eine log-logistische Beziehung. Zweitens besteht ein komplexes Zusammenspiel zwischen der Stadtform und der UHI-Intensität: die Stadtgröße stellt den stärksten Einfluss auf die UHI-Intensität dar, gefolgt von der fraktalen Dimension und der Anisometrie. Allerdings zeigen ihre relativen Beiträge zur UHI-Intensität eine regionale Heterogenität, welche die Bedeutung räumlicher Muster während der Umsetzung von UHI-Anpassungsmaßnahmen hervorhebt. Des Weiteren ergibt sich eine neue Saisonalität der UHI-Intensität für individuelle Städte in Form von Hysteresekurven, die eine Phasenverschiebung zwischen den Zeitreihen der UHI-Intensität und der Hintergrundtemperatur andeutet. Diese Saisonalität wurde anhand von Luft- und Landoberflächentemperaturen untersucht, indem die Satellitenbeobachtung und die Modellierung der urbanen Grenzschicht mittels des UrbClim-Modells kombiniert wurden. Am Beispiel von London ist die Diskrepanz der Saisonalitäten zwischen den beiden Temperaturen vor allem auf die mit der einfallenden Sonnenstrahlung verbundene Besonderheit der Landoberflächentemperatur zurückzuführen. Darüber hinaus spielt das regionale Klima eine wichtige Rolle bei der Entwicklung der UHI. Diese Arbeit ist eine der ersten Studien dieser Art, die eine systematische und statistische Untersuchung des UHI-Effektes ermöglicht. Die Ergebnisse sind von besonderer Bedeutung für die allgemeine räumliche Planung und Regulierung auf Meso- und Makroebenen, damit sich Vorteile der rapiden Urbanisierung nutzbar machen und zeitgleich die folgende Hitzebelastung proaktiv vermindern lassen. N2 - To what extent cities can be made sustainable under the mega-trends of urbanization and climate change remains a matter of unresolved scientific debate. Our inability in answering this question lies partly in the deficient knowledge regarding pivotal humanenvironment interactions. Regarded as the most well documented anthropogenic climate modification, the urban heat island (UHI) effect – the warmth of urban areas relative to the rural hinterland – has raised great public health concerns globally. Worse still, heat waves are being observed and are projected to increase in both frequency and intensity, which further impairs the well-being of urban dwellers. Albeit with a substantial increase in the number of publications on UHI in the recent decades, the diverse urban-rural definitions applied in previous studies have remarkably hampered the general comparability of results achieved. In addition, few studies have attempted to synergize the land use data and thermal remote sensing to systematically assess UHI and its contributing factors. Given these research gaps, this work presents a general framework to systematically quantify the UHI effect based on an automated algorithm, whereby cities are defined as clusters of maximum spatial continuity on the basis of land use data, with their rural hinterland being defined analogously. By combining land use data with spatially explicit surface skin temperatures from satellites, the surface UHI intensity can be calculated in a consistent and robust manner. This facilitates monitoring, benchmarking, and categorizing UHI intensities for cities across scales. In light of this innovation, the relationship between city size and UHI intensity has been investigated, as well as the contributions of urban form indicators to the UHI intensity. This work delivers manifold contributions to the understanding of the UHI, which have complemented and advanced a number of previous studies. Firstly, a log-linear relationship between surface UHI intensity and city size has been confirmed among the 5,000 European cities. The relationship can be extended to a log-logistic one, when taking a wider range of small-sized cities into account. Secondly, this work reveals a complex interplay between UHI intensity and urban form. City size is found to have the strongest influence on the UHI intensity, followed by the fractality and the anisometry. However, their relative contributions to the surface UHI intensity depict a pronounced regional heterogeneity, indicating the importance of considering spatial patterns of UHI while implementing UHI adaptation measures. Lastly, this work presents a novel seasonality of the UHI intensity for individual clusters in the form of hysteresis-like curves, implying a phase shift between the time series of UHI intensity and background temperatures. Combining satellite observation and urban boundary layer simulation, the seasonal variations of UHI are assessed from both screen and skin levels. Taking London as an example, this work ascribes the discrepancies between the seasonality observed at different levels mainly to the peculiarities of surface skin temperatures associated with the incoming solar radiation. In addition, the efforts in classifying cities according to their UHI characteristics highlight the important role of regional climates in determining the UHI. This work serves as one of the first studies conducted to systematically and statistically scrutinize the UHI. The outcomes of this work are of particular relevance for the overall spatial planning and regulation at meso- and macro levels in order to harness the benefits of rapid urbanization, while proactively minimizing its ensuing thermal stress. KW - urban heat island effect KW - surface urban heat island effect KW - UHI KW - urban form KW - der Urbane Hitzeinsel Effekt KW - der Städtische Wärmeinseleffekt KW - der Urbane Hitzeinsel Effekt basierend auf Landoberflächentemperatur KW - UHI KW - die Stadtform Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404383 ER - TY - THES A1 - Zheng, Chunming T1 - Bursting and synchronization in noisy oscillatory systems T1 - Bursting und Synchronisation in verrauschten, oszillierenden Systemen N2 - Noise is ubiquitous in nature and usually results in rich dynamics in stochastic systems such as oscillatory systems, which exist in such various fields as physics, biology and complex networks. The correlation and synchronization of two or many oscillators are widely studied topics in recent years. In this thesis, we mainly investigate two problems, i.e., the stochastic bursting phenomenon in noisy excitable systems and synchronization in a three-dimensional Kuramoto model with noise. Stochastic bursting here refers to a sequence of coherent spike train, where each spike has random number of followers due to the combined effects of both time delay and noise. Synchronization, as a universal phenomenon in nonlinear dynamical systems, is well illustrated in the Kuramoto model, a prominent model in the description of collective motion. In the first part of this thesis, an idealized point process, valid if the characteristic timescales in the problem are well separated, is used to describe statistical properties such as the power spectral density and the interspike interval distribution. We show how the main parameters of the point process, the spontaneous excitation rate, and the probability to induce a spike during the delay action can be calculated from the solutions of a stationary and a forced Fokker-Planck equation. We extend it to the delay-coupled case and derive analytically the statistics of the spikes in each neuron, the pairwise correlations between any two neurons, and the spectrum of the total output from the network. In the second part, we investigate the three-dimensional noisy Kuramoto model, which can be used to describe the synchronization in a swarming model with helical trajectory. In the case without natural frequency, the Kuramoto model can be connected with the Vicsek model, which is widely studied in collective motion and swarming of active matter. We analyze the linear stability of the incoherent state and derive the critical coupling strength above which the incoherent state loses stability. In the limit of no natural frequency, an exact self-consistent equation of the mean field is derived and extended straightforward to any high-dimensional case. N2 - Rauschen ist in der Natur allgegenwärtig und führt zu einer reichen Dynamik in stochastischen Systemen von gekoppelten Oszillatoren, die in so unterschiedlichen Bereichen wie Physik, Biologie und in komplexen Netzwerken existieren. Korrelation und Synchronisation von zwei oder vielen Oszillatoren ist in den letzten Jahren ein aktives Forschungsfeld. In dieser Arbeit untersuchen wir hauptsächlich zwei Probleme, d.h. das stochastische Burst-Phänomen in verrauschten anregbaren Systemen und die Synchronisation in einem dreidimensionalen Kuramoto-Modell mit Rauschen. Stochastisches Bursting bezieht sich hier auf eine Folge von kohärenten Spike-Zügen, bei denen jeder Spike aufgrund der kombinierten Effekte von Zeitverzögerung und Rauschen eine zufällige Anzahl von Folge Spikes aufweist. Die Synchronisation als universelles Phänomen in nichtlinearen dynamischen Systemen kann anhand des Kuramoto-Modells, einem grundlegenden Modell bei der gekoppelter Oszillatoren und kollektiver Bewegung, gut demonstriert und analysiert werden. Im ersten Teil dieser Arbeit wird ein idealisierter Punktprozess betrachtet, der gültig ist, wenn die charakteristischen Zeitskalen im Problem gut voneinander getrennt sind,um statistische Eigenschaften wie die spektrale Leistungsdichte und die Intervallverteilung zwischen Neuronen Impulsen zu beschreiben. Wir zeigen, wie die Hauptparameter des Punktprozesses, die spontane Anregungsrate und die Wahrscheinlichkeit, während der Verzögerungsaktion einen Impuls zu induzieren, aus den Lösungen einer stationären und einer getriebenen Fokker-Planck-Gleichung berechnet werden können. Wir erweitern dieses Ergebnis auf den verzögerungsgekoppelten Fall und leiten analytisch die Statistiken der Impulse in jedem Neuron, die paarweisen Korrelationen zwischen zwei beliebigen Neuronen und das Spektrum der Zeitreihe alle Impulse aus dem Netzwerk ab. Im zweiten Teil untersuchen wir das dreidimensionale verrauschte Kuramoto-Modell, mit dem die Synchronisation eines Schwarmmodells mit schraubenförmigen Flugbahnen beschrieben werden kann. Im Fall ohne Eigenfrequenz jedes Teilchensist das System äquivalent zum Vicsek Modell, welches in der Beschreibung der kollektiven Bewegung von Schwärmen und aktiver Materie eine breite Anwendung findet. Wir analysieren die lineare Stabilität des inkohärenten Zustands und leiten die kritische Kopplungsstärke ab, oberhalb derer der inkohärente Zustand an Stabilität verliert. Im Fall ohne Eigenfrequenz wird eine exakte selbstkonsistente Gleichung für das mittlere Feld abgeleitet und direkt für höherdimensionale Bewegungen verallgemeinert. KW - Synchronization KW - Kuramoto model KW - Oscillation KW - stochastic bursting KW - Synchronisation KW - Kuramoto-Modell KW - Oszillatoren KW - Stochastisches Bursting Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-500199 ER - TY - THES A1 - Zhelavskaya, Irina T1 - Modeling of the Plasmasphere Dynamics T1 - Modellierung der Plasmasphärendynamik N2 - The plasmasphere is a dynamic region of cold, dense plasma surrounding the Earth. Its shape and size are highly susceptible to variations in solar and geomagnetic conditions. Having an accurate model of plasma density in the plasmasphere is important for GNSS navigation and for predicting hazardous effects of radiation in space on spacecraft. The distribution of cold plasma and its dynamic dependence on solar wind and geomagnetic conditions remain, however, poorly quantified. Existing empirical models of plasma density tend to be oversimplified as they are based on statistical averages over static parameters. Understanding the global dynamics of the plasmasphere using observations from space remains a challenge, as existing density measurements are sparse and limited to locations where satellites can provide in-situ observations. In this dissertation, we demonstrate how such sparse electron density measurements can be used to reconstruct the global electron density distribution in the plasmasphere and capture its dynamic dependence on solar wind and geomagnetic conditions. First, we develop an automated algorithm to determine the electron density from in-situ measurements of the electric field on the Van Allen Probes spacecraft. In particular, we design a neural network to infer the upper hybrid resonance frequency from the dynamic spectrograms obtained with the Electric and Magnetic Field Instrument Suite and Integrated Science (EMFISIS) instrumentation suite, which is then used to calculate the electron number density. The developed Neural-network-based Upper hybrid Resonance Determination (NURD) algorithm is applied to more than four years of EMFISIS measurements to produce the publicly available electron density data set. We utilize the obtained electron density data set to develop a new global model of plasma density by employing a neural network-based modeling approach. In addition to the location, the model takes the time history of geomagnetic indices and location as inputs, and produces electron density in the equatorial plane as an output. It is extensively validated using in-situ density measurements from the Van Allen Probes mission, and also by comparing the predicted global evolution of the plasmasphere with the global IMAGE EUV images of He+ distribution. The model successfully reproduces erosion of the plasmasphere on the night side as well as plume formation and evolution, and agrees well with data. The performance of neural networks strongly depends on the availability of training data, which is limited during intervals of high geomagnetic activity. In order to provide reliable density predictions during such intervals, we can employ physics-based modeling. We develop a new approach for optimally combining the neural network- and physics-based models of the plasmasphere by means of data assimilation. The developed approach utilizes advantages of both neural network- and physics-based modeling and produces reliable global plasma density reconstructions for quiet, disturbed, and extreme geomagnetic conditions. Finally, we extend the developed machine learning-based tools and apply them to another important problem in the field of space weather, the prediction of the geomagnetic index Kp. The Kp index is one of the most widely used indicators for space weather alerts and serves as input to various models, such as for the thermosphere, the radiation belts and the plasmasphere. It is therefore crucial to predict the Kp index accurately. Previous work in this area has mostly employed artificial neural networks to nowcast and make short-term predictions of Kp, basing their inferences on the recent history of Kp and solar wind measurements at L1. We analyze how the performance of neural networks compares to other machine learning algorithms for nowcasting and forecasting Kp for up to 12 hours ahead. Additionally, we investigate several machine learning and information theory methods for selecting the optimal inputs to a predictive model of Kp. The developed tools for feature selection can also be applied to other problems in space physics in order to reduce the input dimensionality and identify the most important drivers. Research outlined in this dissertation clearly demonstrates that machine learning tools can be used to develop empirical models from sparse data and also can be used to understand the underlying physical processes. Combining machine learning, physics-based modeling and data assimilation allows us to develop novel methods benefiting from these different approaches. N2 - Die Plasmasphäre ist eine die Erde umgebende dynamische Region aus kaltem, dichtem Plasma. Ihre Form und Größe sind sehr anfällig für Schwankungen der solaren und geomagnetischen Bedingungen. Ein präzises Modell der Plasmadichte in der Plasmasphäre ist wichtig für die GNSS-Navigation und für die Vorhersage gefährlicher Auswirkungen der kosmischen Strahlung auf Raumfahrzeuge. Die Verteilung des kalten Plasmas und seine dynamische Abhängigkeit vom Sonnenwind und den geomagnetischen Bedingungen sind jedoch nach wie vor nur unzureichend quantifiziert. Bestehende empirische Modelle der Plasmadichte sind in der Regel zu stark vereinfacht, da sie auf statistischen Durchschnittswerten statischer Parameter basieren. Das Verständnis der globalen Dynamik der Plasmasphäre anhand von Beobachtungen aus dem Weltraum bleibt eine Herausforderung, da vorhandene Dichtemessungen spärlich sind und sich auf Orte beschränken, an denen Satelliten In-situ-Beobachtungen liefern können. In dieser Dissertation zeigen wir, wie solche spärlichen Elektronendichtemessungen verwendet werden können, um die globale Elektronendichteverteilung in der Plasmasphäre zu rekonstruieren und ihre dynamische Abhängigkeit vom Sonnenwind und den geomagnetischen Bedingungen zu erfassen. Zunächst entwickeln wir einen automatisierten Algorithmus zur Bestimmung der Elektronendichte aus In-situ-Messungen des elektrischen Feldes der Van Allen Probes Raumsonden. Insbesondere entwerfen wir ein neuronales Netzwerk, um die obere Hybridresonanzfrequenz aus den dynamischen Spektrogrammen abzuleiten, die wir durch die Instrumentensuite „Electric and Magnetic Field Instrument Suite“ (EMFISIS) erhielten, welche dann zur Berechnung der Elektronenzahldichte verwendet wird. Der entwickelte „Neural-network-based Upper Hybrid Resonance Determination“ (NURD)-Algorithmus wird auf mehr als vier Jahre der EMFISIS-Messungen angewendet, um den öffentlich verfügbaren Elektronendichte-Datensatz zu erstellen. Wir verwenden den erhaltenen Elektronendichte-Datensatz, um ein neues globales Modell der Plasmadichte zu entwickeln, indem wir einen auf einem neuronalen Netzwerk basierenden Modellierungsansatz verwenden. Zusätzlich zum Ort nimmt das Modell den zeitlichen Verlauf der geomagnetischen Indizes und des Ortes als Eingabe und erzeugt als Ausgabe die Elektronendichte in der äquatorialebene. Dies wird ausführlich anhand von In-situ-Dichtemessungen der Van Allen Probes-Mission und durch den Vergleich der vom Modell vorhergesagten globalen Entwicklung der Plasmasphäre mit den globalen IMAGE EUV-Bildern der He+ -Verteilung validiert. Das Modell reproduziert erfolgreich die Erosion der Plasmasphäre auf der Nachtseite sowie die Bildung und Entwicklung von Fahnen und stimmt gut mit den Daten überein. Die Leistung neuronaler Netze hängt stark von der Verfügbarkeit von Trainingsdaten ab, die für Intervalle hoher geomagnetischer Aktivität nur spärlich vorhanden sind. Um zuverlässige Dichtevorhersagen während solcher Intervalle zu liefern, können wir eine physikalische Modellierung verwenden. Wir entwickeln einen neuen Ansatz zur optimalen Kombination der neuronalen Netzwerk- und physikbasierenden Modelle der Plasmasphäre mittels Datenassimilation. Der entwickelte Ansatz nutzt sowohl die Vorteile neuronaler Netze als auch die physikalischen Modellierung und liefert zuverlässige Rekonstruktionen der globalen Plasmadichte für ruhige, gestörte und extreme geomagnetische Bedingungen. Schließlich erweitern wir die entwickelten auf maschinellem Lernen basierten Werkzeuge und wenden sie auf ein weiteres wichtiges Problem im Bereich des Weltraumwetters an, die Vorhersage des geomagnetischen Index Kp. Der Kp-Index ist einer der am häufigsten verwendeten Indikatoren für Weltraumwetterwarnungen und dient als Eingabe für verschiedene Modelle, z.B. für die Thermosphäre, die Strahlungsgürtel und die Plasmasphäre. Es ist daher wichtig, den Kp-Index genau vorherzusagen. Frühere Arbeiten in diesem Bereich verwendeten hauptsächlich künstliche neuronale Netze, um Kurzzeit-Kp-Vorhersagen zu treffen, wobei deren Schlussfolgerungen auf der jüngsten Vergangenheit von Kp- und Sonnenwindmessungen am L1-Punkt beruhten. Wir analysieren, wie sich die Leistung neuronaler Netze im Vergleich zu anderen Algorithmen für maschinelles Lernen verhält, um kurz- und längerfristige Kp-Voraussagen von bis zu 12 Stunden treffen zu können. Zusätzlich untersuchen wir verschiedene Methoden des maschinellen Lernens und der Informationstheorie zur Auswahl der optimalen Eingaben für ein Vorhersagemodell von Kp. Die entwickelten Werkzeuge zur Merkmalsauswahl können auch auf andere Probleme in der Weltraumphysik angewendet werden, um die Eingabedimensionalität zu reduzieren und die wichtigsten Treiber zu identifizieren. Die in dieser Dissertation skizzierten Untersuchungen zeigen deutlich, dass Werkzeuge für maschinelles Lernen sowohl zur Entwicklung empirischer Modelle aus spärlichen Daten als auch zum Verstehen zugrunde liegender physikalischer Prozesse genutzt werden können. Die Kombination von maschinellem Lernen, physikbasierter Modellierung und Datenassimilation ermöglicht es uns, kombinierte Methoden zu entwickeln, die von unterschiedlichen Ansätzen profitieren. KW - Plasmasphere KW - Inner magnetosphere KW - Neural networks KW - Machine learning KW - Modeling KW - Kp index KW - Geomagnetic activity KW - Data assimilation KW - Validation KW - IMAGE EUV KW - Kalman filter KW - Plasmasphäre KW - Innere Magnetosphäre KW - Neuronale Netze KW - Maschinelles Lernen KW - Modellieren KW - Forecasting KW - Kp-Index KW - Geomagnetische Aktivität KW - Datenassimilation KW - Validierung KW - Kalman Filter KW - Prognose Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-482433 ER - TY - THES A1 - Zhang, Xiaolin T1 - Evaluation of nitrogen dynamics in high-order streams and rivers based on high-frequency monitoring T1 - Bewertung der Stickstoffdynamik in Fliessgewässern 4.-6. Ordnung auf der Grundlage zeitlich hochaufgelöster Sensormessungen N2 - Nutrient storage, transform and transport are important processes for achieving environmental and ecological health, as well as conducting water management plans. Nitrogen is one of the most noticeable elements due to its impacts on tremendous consequences of eutrophication in aquatic systems. Among all nitrogen components, researches on nitrate are blooming because of widespread deployments of in-situ high-frequency sensors. Monitoring and studying nitrate can become a paradigm for any other reactive substances that may damage environmental conditions and cause economic losses. Identifying nitrate storage and its transport within a catchment are inspiring to the management of agricultural activities and municipal planning. Storm events are periods when hydrological dynamics activate the exchange between nitrate storage and flow pathways. In this dissertation, long-term high-frequency monitoring data at three gauging stations in the Selke river were used to quantify event-scale nitrate concentration-discharge (C-Q) hysteretic relationships. The Selke catchment is characterized into three nested subcatchments by heterogeneous physiographic conditions and land use. With quantified hysteresis indices, impacts of seasonality and landscape gradients on C-Q relationships are explored. For example, arable area has deep nitrate legacy and can be activated with high intensity precipitation during wetting/wet periods (i.e., the strong hydrological connectivity). Hence, specific shapes of C-Q relationships in river networks can identify targeted locations and periods for agricultural management actions within the catchment to decrease nitrate output into downstream aquatic systems like the ocean. The capacity of streams for removing nitrate is of both scientific and social interest, which makes the quantification motivated. Although measurements of nitrate dynamics are advanced compared to other substances, the methodology to directly quantify nitrate uptake pathways is still limited spatiotemporally. The major problem is the complex convolution of hydrological and biogeochemical processes, which limits in-situ measurements (e.g., isotope addition) usually to small streams with steady flow conditions. This makes the extrapolation of nitrate dynamics to large streams highly uncertain. Hence, understanding of in-stream nitrate dynamic in large rivers is still necessary. High-frequency monitoring of nitrate mass balance between upstream and downstream measurement sites can quantitatively disentangle multi-path nitrate uptake dynamics at the reach scale (3-8 km). In this dissertation, we conducted this approach in large stream reaches with varying hydro-morphological and environmental conditions for several periods, confirming its success in disentangling nitrate uptake pathways and their temporal dynamics. Net nitrate uptake, autotrophic assimilation and heterotrophic uptake were disentangled, as well as their various diel and seasonal patterns. Natural streams generally can remove more nitrate under similar environmental conditions and heterotrophic uptake becomes dominant during post-wet seasons. Such two-station monitoring provided novel insights into reach-scale nitrate uptake processes in large streams. Long-term in-stream nitrate dynamics can also be evaluated with the application of water quality model. This is among the first time to use a data-model fusion approach to upscale the two-station methodology in large-streams with complex flow dynamics under long-term high-frequency monitoring, assessing the in-stream nitrate retention and its responses to drought disturbances from seasonal to sub-daily scale. Nitrate retention (both net uptake and net release) exhibited substantial seasonality, which also differed in the investigated normal and drought years. In the normal years, winter and early spring seasons exhibited extensive net releases, then general net uptake occurred after the annual high-flow season at later spring and early summer with autotrophic processes dominating and during later summer-autumn low-flow periods with heterotrophy-characteristics predominating. Net nitrate release occurred since late autumn until the next early spring. In the drought years, the late-autumn net releases were not so consistently persisted as in the normal years and the predominance of autotrophic processes occurred across seasons. Aforementioned comprehensive results of nitrate dynamics on stream scale facilitate the understanding of instream processes, as well as raise the importance of scientific monitoring schemes for hydrology and water quality parameters. N2 - Die Speicherung, Umwandlung und der Transport von Nährstoffen sind wichtige Prozesse, welche den ökologische Status der Fließgewässer bestimmen. Aufgrund seiner Auswirkungen auf die Eutrophierung von aquatischen Systemen ist hierbei Stickstoff eines der wichtigsten Elemente. Durch neue Entwicklungen in der Sensortechnik zeigt die Forschung zum Nitrat derzeit eine besonders große Dynamik. In dieser Dissertation werden die hysteretischen Beziehungen zwischen Nitratkonzentration und Abfluss (C-Q) an drei Pegeln der Selke im Bodegebiet analysiert, um die Dynamik von Nitratspeicherung und -transport während Hochwasserereignissen in einem genesteten Einzugsgebiet zu untersuchen. Verschiedene Kombinationen der C-Q-Hysterese-Indizes deuten auf unterschiedliche Muster des Nitrat-Transports und seiner Einflussfaktoren hin. Die Hysterese im Uhrzeigersinn tritt eher während der Trockenzeit auf, was auf eine geringe hydrologische Konnektivität vom Land zum Fließgewässer auf den Export distaler Nitratquellen hinweist. Im untersten Einzugsgebiet der Selke dominieren Verdünnungseffekte, die möglicherweise durch Abflüsse aus flussaufwärts gelegenen Teileinzugsgebieten während der Niederschlagsereignisse oder durch schnelle Abflüsse von befestigten Flächen beeinflusst wurden. Unterschiede in der Reaktion des Nitratexports auf Abflussereignisse können während sommerlicher Trockenperioden verstärkt werden, wenn sich die hydrologische Konnektivität und die biogeochemischen Prozesse stark verändern. Daher können spezifische Formen von C-Q-Beziehungen in Fließgewässern zur Verortung und Bestimmung von Zeiträume für landwirtschaftliche Bewirtschaftungsmaßnahmen innerhalb des Wassereinzugsgebiets genutzt werden, um den Nitrateintrag in die Fließ- und Standgewässer zu verringern. Die Fähigkeit von Fließgewässern, Nitrat zu entfernen, ist sowohl von wissenschaftlichem als auch von gesellschaftlichem Interesse. Obwohl die Untersuchungen der Nitratdynamik im Vergleich zu anderen Wasserinhaltsstoffen fortgeschritten sind, ist die Methodik zur direkten Quantifizierung der Nitrataufnahme- und -retention räumlich und zeitlich nicht vollständig verstanden. Das Hauptproblem ist die komplexe Verflechtung von hydrologischen und biogeochemischen Prozessen. In-situ-Messungen (z. B. Isotopenanreicherung) sind aufgrund methodischer Beschränkungen in der Regel auf kleine Fließgewässer mit konstanten Strömungsverhältnissen beschränkt. Dadurch ist die Extrapolation der Nitratdynamik auf große Bäche und kleine Flüsse mit großen Unsicherheiten behaftet. Daher bestehen große Defizite beim Verständnis der Nitratdynamik in größeren Fließgewässer. Die hochfrequente Messung der Nitrat-Massenbilanz zwischen flussaufwärts und flussabwärts gelegenen Messstellen kann die Dynamik der Nitrataufnahme über unterschiedliche Aufnahme- und Retentionspfade anhand der gezielten Untersuchung von Gewässerabschnitten (3-8 km) quantitativ erfassen. In dieser Dissertation wurde dieser Ansatz in Fließgewässern mittlerer Größe mit unterschiedlichen hydro-morphologischen und saisonalen Bedingungen eingesetzt. Die Ergebnisse erlaubten eine Aufschlüsselung der unterschiedlichen Nitrataufnahmewege und ihrer zeitlichen Dynamik. Die Netto-Nitrataufnahme, die autotrophe Assimilation und die heterotrophe Aufnahme sowie ihre unterschiedlichen tages- und jahreszeitlichen Muster konnten analysiert werden. Natürliche Fließgewässer können im Allgemeinen unter ähnlichen Umweltbedingungen mehr Nitrat entfernen als anthropogen überprägte Fließgewässer. Es konnte gezeigt werden, dass die heterotrophe Aufnahme während der trockenen Jahreszeit dominiert. Auf der Basis von gezielten Untersuchungen von Gewässerabschnitten lieferte die Zwei-Stationen-Methode neue Einblicke in die Prozesse der Nitrataufnahme in größeren Fließgewässern. Die langfristige Nitratdynamik in Fließgewässern kann auch durch die zusätzliche Anwendung von Wasserqualitätsmodellen analysiert werden. Dies ist eines der ersten Forschungsvorhaben, bei dem die Zwei-Stationen-Methode in größeren Fließgewässern mit komplexer Strömungsdynamik im Rahmen einer zeitliche hochaufgelösten Langzeitüberwachung eingesetzt wird, um den Nitratrückhalt im Fließgewässer und den Einfluss von Niedrigwasserbedingungen hinsichtlich saisonaler und diurnaler Zeitskalen zu untersuchen. Der Nitratrückhalt (sowohl die Nettoaufnahme als auch die Nettoabgabe) wies erhebliche saisonale Schwankungen auf, die sich auch in den untersuchten normalen Jahren und Jahren mit ausgeprägten Niedrigwasserbedingungen unterschieden. In den normalen Jahren kam es im Winter und zu Beginn des Frühjahrs zu einer umfangreichen Freisetzung von Stickstoff, während die Nettoaufnahme nach der jährlichen abflussreichen Winterperiode im späteren Frühjahr und im Frühsommer am höchsten war, wobei autotrophe Prozesse dominierten. Während der Niedrigwasserperioden im Spätsommer und Herbst dominierte bei der Netto-Stickstoffretention die heterotrophe Aufnahme. Die Netto-Nitratfreisetzung erfolgte vom Spätherbst bis zum folgenden Frühjahr. In den Dürrejahren war die Netto-Nitratfreisetzung im Spätherbst weniger konstant wie in den Normaljahren, und die autotrophen Prozesse dominierten über die Jahreszeiten hinweg. Diese umfassenden Ergebnisse der Nitratdynamik in größeren Fließgewässern verbessern das Verständnis von gewässerinternen Umsetzungsprozessen und zeigen die Möglichkeiten auf, die der gezielte Einsatz von zeitlich hochaufgelöster Sensormessungen in der Gewässerüberwachung bieten kann. KW - high-frequency monitoring KW - in-stream nitrogen dynamics KW - high-order streams and rivers KW - Bäche und Flüsse hoher Ordnung KW - Stickstoffdynamik in Fliessgewässern KW - zeitlich hochaufgelöste Sensormessungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-607642 ER - TY - THES A1 - Zhang, Jianrui T1 - Completely water-based emulsions as compartmentalized systems via pickering stabilization N2 - Completely water-based systems are of interest for the development of novel material for various reasons: On one hand, they provide benign environment for biological systems and on the other hand they facilitate effective molecular transport in a membrane-free environment. In order to investigate the general potential of aqueous two-phase systems (ATPSs) for biomaterials and compartmentalized systems, various solid particles were applied to stabilize all-aqueous emulsion droplets. The target ATPS to be investigated should be prepared via mixing of two aqueous solutions of water-soluble polymers, which turn biphasic when exceeding a critical polymer concentration. Hydrophilic polymers with a wide range of molar mass such as dextran/poly(ethylene glycol) (PEG) can therefore be applied. Solid particles adsorbed at the interfaces can be exceptionally efficient stabilizers forming so-called Pickering emulsions, and nanoparticles can bridge the correlation length of polymer solutions and are thereby the best option for water-in-water emulsions. The first approach towards the investigation of ATPS was conducted with all aqueous dextran-PEG emulsions in the presence of poly(dopamine) particles (PDP) in Chapter 4. The water-in-water emulsions were formed with a PEG/dextran system via utilizing PDP as stabilizers. Studies of the formed emulsions were performed via laser scanning confocal microscope (CLSM), optical microscope (OM), cryo-scanning electron microscope (SEM) and tensiometry. The stable emulsions (at least 16 weeks) were demulsified easily via dilution or surfactant addition. Furthermore, the solid PDP at the water-water interface were crosslinked in order to inhibit demulsification of the Pickering emulsion. Transmission electron microscope (TEM) and scanning electron microscope (SEM) were used to visualize the morphology of PDP before and after crosslinking. PDP stabilized water-in-water emulsions were utilized in the following Chapter 5 to form supramolecular compartmentalized hydrogels. Here, hydrogels were prepared in pre-formed water-in-water emulsions and gelled via α-cyclodextrin-PEG (α-CD-PEG) inclusion complex formation. Studies of the formed complexes were performed via X-ray powder diffraction (XRD) and the mechanical properties of the hydrogels were measured with oscillatory shear rheology. In order to verify the compartmentalized state and its triggered decomposition, hydrogels and emulsions were assessed via OM, SEM and CLSM. The last chapter broadens the investigations from the previous two systems by utilizing various carbon nitrides (CN) as different stabilizers in ATPS. CN introduces another way to trigger demulsification, namely irradiation with visible light. Therefore, emulsification and demulsification with various triggers were probed. The investigated all aqueous multi-phase systems will act as model for future fabrication of biocompatible materials, cell micropatterning as well as separation of compartmentalized systems. N2 - Komplett wässrige Systeme sind aus vielerlei Hinsicht interessant für die Entwicklung neuer Materialien: Zum Einen eignet sich die wässrige Umgebung für Anwendung in biologischen System und zum Anderen ermöglicht eine Membran-freie Umgebung erleichterten Stofftransport. In dieser Arbeit wurden verschiedene Partikeltypen zur Stabilisierung von Wasser-in-Wasser Emulsionströpfchen eingesetzt, um das Potenzial von ATPSs (Aqueous two-phase systems (DE: Wässrige Zweiphasensysteme)) für Biomaterialien und kompartmentalisierte Systeme zu untersuchen. Das zu untersuchende ATPS sollte durch Mischen von zwei wässrigen Lösungen wasserlöslicher Polymere hergestellt werden und bei Überschreiten einer kritischen Polymerkonzentration zweiphasig werden. Als hydrophile Polymer wurden Dextran und Poly(ethylenglycol) (PEG) für die Bildung des ATPS angewendet. Die Grenzfläche zwischen den beiden Phasen in ATPSs ist undefiniert und erstreckt sich über einen Bereich, deshalb müssen Partikel für die Stabilisierung des ATPS eingesetzt werden. Die an den Grenzflächen adsorbierten Partikel können effizient als Stabilisatoren fungieren und die sogenannten Pickering-Emulsionen bilden. Der erste Ansatz der Untersuchung von Wasser-in-Wasser Emulsionen wurde mit dem Dextran-PEG-System in Gegenwart von Poly(dopamin)-Partikeln (PDP) als Stabilisatoren durchgeführt. Die bis zu 16 Wochen stabilen Emulsionen konnten mittels Verdünnung oder Tensidzugabe gebrochen werden. Weiterhin wurde die stabilisierenden PDP vernetzt, um eine Deemulgierung der Pickering-Emulsion zu verhindern. Des Weiteren wurden PDP stabiliserte Emulsionen verwednet, um supramolekulare kompartmentalisierte Hydrogele herzustellen. Hier wurden Hydrogele in vorgeformten Wasser-in-Wasser-Emulsionen hergestellt und über die Bildung des α-Cyclodextrin-PEG Komplexes geliert. Die gebildeten Komplexe wurden mittels XRD erforscht und die mechanischen Eigenschaften der Hydrogele mit Rheologie gemessen. Zuletzt wurde die Forschung der zwei vorherigen erwähnten Systemen erweitert, indem verschiedene Kohlenstoffnitride (CN) als Stabilisatoren in ATPS verwendet wurden. Der Einsatz von CN ermöglichte dabei einen weiteren Stimulus zur Deemulgierung, nämlich sichtbares Licht. So wurden Emulgierung und Deemulgierung mit verschiedenen äußeren Reizen untersucht. Die verschiedenen Wasser-in-Wasser Emulsionen werden ein Modell für die zukünftige Herstellung biokompatibler Materialien, die örtlche Zellstrukturierung sowie die Trennung von Kompartimentsystemen liefern. T2 - Vollständig wasserbasierte Pickeringemulsionen als Kompartimentsysteme KW - emulsion KW - water-in-water KW - ATPS KW - Emulsionen KW - Wasser-in-Wasser Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-476542 ER - TY - THES A1 - Zhang, Bo T1 - Magnetic fields near microstructured surfaces : application to atom chips T1 - Magnetische Felder in der Nähe von microstrukturierten Oberflächen : Anwendung auf Atomchips N2 - Microfabricated solid-state surfaces, also called atom chip', have become a well-established technique to trap and manipulate atoms. This has simplified applications in atom interferometry, quantum information processing, and studies of many-body systems. Magnetic trapping potentials with arbitrary geommetries are generated with atom chip by miniaturized current-carrying conductors integrated on a solid substrate. Atoms can be trapped and cooled to microKelvin and even nanoKelvin temperatures in such microchip trap. However, cold atoms can be significantly perturbed by the chip surface, typically held at room temperature. The magnetic field fluctuations generated by thermal currents in the chip elements may induce spin flips of atoms and result in loss, heating and decoherence. In this thesis, we extend previous work on spin flip rates induced by magnetic noise and consider the more complex geometries that are typically encountered in atom chips: layered structures and metallic wires of finite cross-section. We also discuss a few aspects of atom chips traps built with superconducting structures that have been suggested as a means to suppress magnetic field fluctuations. The thesis describes calculations of spin flip rates based on magnetic Green functions that are computed analytically and numerically. For a chip with a top metallic layer, the magnetic noise depends essentially on the thickness of that layer, as long as the layers below have a much smaller conductivity. Based on this result, scaling laws for loss rates above a thin metallic layer are derived. A good agreement with experiments is obtained in the regime where the atom-surface distance is comparable to the skin depth of metal. Since in the experiments, metallic layers are always etched to separate wires carrying different currents, the impact of the finite lateral wire size on the magnetic noise has been taken into account. The local spectrum of the magnetic field near a metallic microstructure has been investigated numerically with the help of boundary integral equations. The magnetic noise significantly depends on polarizations above flat wires with finite lateral width, in stark contrast to an infinitely wide wire. Correlations between multiple wires are also taken into account. In the last part, superconducting atom chips are considered. Magnetic traps generated by superconducting wires in the Meissner state and the mixed state are studied analytically by a conformal mapping method and also numerically. The properties of the traps created by superconducting wires are investigated and compared to normal conducting wires: they behave qualitatively quite similar and open a route to further trap miniaturization, due to the advantage of low magnetic noise. We discuss critical currents and fields for several geometries. N2 - Mikrotechnologische Oberflächen, sogenannte Atomchips, sind eine etablierte Methode zum Speichern und Manipulieren von Atomen geworden. Das hat Anwendungen in der Atom-Interferometrie, Quanteninformationsverarbeitung und Vielteilchensystemen vereinfacht. Magnetische Fallenpotentiale mit beliebigen Geometrien werden durch Atomchips mit miniaturisierten stromführenden Leiterbahnen auf einer Festkörperunterlage realisiert. Atome können bei Temperaturen im $\mu$ K oder sogar nK-Bereich in einer solchen Falle gespeichert und gekühlt werden. Allerdings können kalte Atome signifikant durch die Chip-Oberfläche gestört werden, die sich typischerweise auf Raumtemperatur befindet. Die durch thermische Ströme im Chip erzeugten magnetischen Feldfluktuationen können Spin-Flips der Atome induzieren und Verlust, Erwärmung und Dekohärenz zur Folge haben. In dieser Dissertation erweitern wir frühere Arbeiten über durch magnetisches Rauschen induzierte Spin-Flip-Ratenund betrachten kompliziertere Geometrien, wie sie typischerweise auf einem Atom-Chip anzutreffen sind: Geschichtete Strukturen und metallische Leitungen mit endlichem Querschnitt. Wir diskutieren auch einige Aspekte von Aomchips aus Supraleitenden Strukturen die als Mittel zur Unterdrückung magnetischer Feldfluktuationen vorgeschlagen wurden. Die Arbeit beschreibt analytische und numerische Rechnungen von Spin-Flip Raten auf Grundlage magnetischer Greensfunktionen. Für einen Chip mit einem metallischen Top-Layer hängt das magnetische Rauschen hauptsächlich von der Dicke des Layers ab, solange die unteren Layer eine deutlich kleinere Leitfähigkeit haben. Auf Grundlage dieses Ergebnisses werden Skalengesetze für Verlustraten über einem dünnen metallischen Leiter hergeleitet. Eine gute Übereinstimmung mit Experimenten wird in dem Bereich erreicht, wo der Abstand zwischen Atom und Oberfläche in der Größenordnung der Eindringtiefe des Metalls ist. Da in Experimenten metallische Layer immer geätzt werden, um verschiedene stromleitende Bahnen vonenander zu trennen, wurde der Einfluß eines endlichen Querschnittsauf das magnetische Rauschen berücksichtigt. Das lokale Spektrum des magnetischen Feldes in der Nähe einer metallischen Mikrostruktur wurde mit Hilfe von Randintegralen numerisch untersucht. Das magnetische Rauschen hängt signifikant von der Polarisierung über flachen Leiterbahnen mit endlichem Querschnitt ab, im Unterschied zu einem unendlich breiten Leiter. Es wurden auch Korrelationen zwischen mehreren Leitern berücksichtigt. Im letzten Teil werden supraleitende Atomchips betrachtet. Magnetische Fallen, die von supraleitenden Bahnen im Meissner Zustand und im gemischten Zustand sind werden analytisch durch die Methode der konformen Abbildung und numerisch untersucht. Die Eigenschaften der durch supraleitende Bahnen erzeugten Fallen werden erforscht und mit normal leitenden verglichen: Sie verhalten sich qualitativ sehr ähnlich und öffnen einen Weg zur weiteren Miniaturisierung von Fallen, wegen dem Vorteil von geringem magnetischem Rauschen. Wir diskutieren kritische Ströme und Felder für einige Geometrien. KW - Magnetische Felder KW - Atom chip KW - Supraleiter KW - magnetisches Rauschen KW - microstrukturierte Oberfläche KW - magnetic fields KW - atom chip KW - superconductors KW - magnetic noise KW - microstructured surface Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-28984 ER - TY - THES A1 - Zhang, Baichen T1 - Dissection of phloem transport in cucurbitaceae by metabolomic analysis T1 - Analyse des Phloemtransports bei Cucurbitaceae mittels Metabolomics N2 - This thesis aimed to investigate several fundamental and perplexing questions relating to the phloem loading and transport mechanisms of Cucurbita maxima, by combining metabolomic analysis with cell biological techniques. This putative symplastic loading species has long been used for experiments on phloem anatomy, phloem biochemistry, phloem transport physiology and phloem signalling. Symplastic loading species have been proposed to use a polymer trapping mechanism to accumulate RFO (raffinose family oligosaccharides) sugars to build up high osmotic pressure in minor veins which sustains a concentration gradient that drives mass flow. However, extensive evidence indicating a low sugar concentration in their phloem exudates is a long-known problem that conflicts with this hypothesis. Previous metabolomic analysis shows the concentration of many small molecules in phloem exudates is higher than that of leaf tissues, which indicates an active apoplastic loading step. Therefore, in the view of the phloem metabolome, a symplastic loading mechanism cannot explain how small molecules other than RFO sugars are loaded into phloem. Most studies of phloem physiology using cucurbits have neglected the possible functions of vascular architecture in phloem transport. It is well known that there are two phloem systems in cucurbits with distinctly different anatomical features: central phloem and extrafascicular phloem. However, mistaken conclusions on sources of cucurbit phloem exudation from previous reports have hindered consideration of the idea that there may be important differences between these two phloem systems. The major results are summarized as below: 1) O-linked glycans in C.maxima were structurally identified as beta-1,3 linked glucose polymers, and the composition of glycans in cucurbits was found to be species-specific. Inter-species grafting experiments proved that these glycans are phloem mobile and transported uni-directionally from scion to stock. 2) As indicated by stable isotopic labelling experiments, a considerable amount of carbon is incorporated into small metabolites in phloem exudates. However, the incorporation of carbon into RFO sugars is much faster than for other metabolites. 3) Both CO2 labelling experiments and comparative metabolomic analysis of phloem exudates and leaf tissues indicated that metabolic processes other than RFO sugar metabolism play an important role in cucurbit phloem physiology. 4) The underlying assumption that the central phloem of cucurbits continuously releases exudates after physical incision was proved wrong by rigorous experiments including direct observation by normal microscopy and combined multiple-microscopic methods. Errors in previous experimental confirmation of phloem exudation in cucurbits are critically discussed. 5) Extrafascicular phloem was proved to be functional, as indicated by phloem-mobile carboxyfluorescein tracer studies. Commissural sieve tubes interconnect phloem bundles into a complete super-symplastic network. 6) Extrafascicular phloem represents the main source of exudates following physical incision. The major transported metabolites by these extrafacicular phloem are non-sugar compounds including amino acids, O-glycans, amines. 7) Central phloem contains almost exclusively RFO sugars, the estimated amount of which is up to 1 to 2 molar. The major RFO sugar present in central phloem is stachyose. 8) Cucurbits utilize two structurally different phloem systems for transporting different group of metabolites (RFO sugars and non-RFO sugar compounds). This implies that cucurbits may use spatially separated loading mechanisms (apoplastic loading for extrafascicular phloem and symplastic loading for central phloem) for supply of nutrients to sinks. 9) Along the transport systems, RFO sugars were mainly distributed within central phloem tissues. There were only small amounts of RFO sugars present in xylem tissues (millimolar range) and trace amounts of RFO sugars in cortex and pith. The composition of small molecules in external central phloem is very different from that in internal central phloem. 10) Aggregated P-proteins were manually dissected from central phloem and analysed by both SDS-PAGE and mass spectrometry. Partial sequences of peptides were obtained by QTOF de novo sequencing from trypsin digests of three SDS-PAGE bands. None of these partial sequences shows significant homology to known cucurbit phloem proteins or other plant proteins. This proves that these central phloem proteins are a completely new group of proteins different from those in extrafascicular phloem. The extensively analysed P-proteins reported in literature to date are therefore now shown to arise from extrafascicular phloem and not central phloem, and therefore do not appear to be involved in the occlusion processes in central phloem. N2 - Phloem transportiert ein ausgedehntes Spektrum an Molekülen zwischen Pflanzenorganen, um Wachstum und Entwicklung zu koordinieren. Folglich ist eine umfassende und unvoreingenommene Metabolom-Analyse notwendig, um unser Verständnis über den Transport von Stoffwechselprodukten sowie über Phloemtransport zu vertiefen. Phloemexsudate von Kürbispflanzen werden unter Verwendung der Metabolom-Analyse analysiert. Bei diesen Pflanzen wird angenommen, dass sie symplastische Beladungswege verwenden, um Photoassmilate als Ausgangsschritt des Phloemtransportes zu konzentrieren. Zwei neue Familien Callose-verwandter Substanzen, 1,3-Overknüpfte Glycane, sowie eine Reihe anderer kleinerer Metabolite werden in den Phloemexsudaten detektiert. Metabolom-Daten und physiologische Experimente widersprechen früher berichtetem Verständnis des Phloemexsudationsprozesses in Kürbispflanzen. Folglich bestätigt sich der Phloemexsudationsprozeß durch Kombination unterschiedlicher mikroskopischer Techniken. Kürbispflanzen besitzen zwei Phloemsysteme mit eindeutigen anatomischen Eigenschaften. Es zeigt sich, daß Phloemexsudate in Kürbissen hauptsächlich vom extrafaszikulären Phloem, nicht vom zentralen Phloem, stammen. In den letzten Jahrzehnten wurde gewöhnlich mißverstanden, daß Phloemexsudate vom zentralen Phloem stammen. Die eindeutigen metabolischen Profile der unterschiedlichen Phloemsysteme, die durch Metabolom-Analysen in der räumlichen Auflösung beobachtet werden, bestätigen die unterschiedlichen physiologischen Funktionen der zwei unterschiedlichen Phloemsysteme: das zentrale Phloem transportiert hauptsächlich Zucker, während das extrafaszikuläre Phloem ein ausgedehntes Spektrum von Metaboliten transportiert. Es kann auch ein unterschiedliches metabolisches Profil kleiner Moleküle zwischen internem und externem zentralem Phloem beobachtet werden. Von Strukturproteinen des zentralen Phloems wurden auch Proben genommen und mittels Massenspektrometrie analysiert. Diese Proteine erweisen sich als neuartige Proteine, die sich zu denen im extrafaszikulären Phloem unterscheiden. Dies bestätigt ferner den Funktionsunterschied der unterschiedlichen Phloemsysteme in Kürbispflanzen. Basierend auf diesen neuartigen Entdeckungen des Phloem-Metaboloms und dem vorhergehenden Wissen über den Phloemtransport in Kürbispflanzen, wird ein neues Modell vorgeschlagen, um den Mechanismus des Phloemtransports in der symplastischen Beladung zu verstehen. KW - phloem KW - metabolomics KW - cucurbits KW - phloem proteins KW - phloem KW - symplastic loading KW - metabolomic analysis KW - p-proteins KW - phloem architecture Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-6644 ER - TY - THES A1 - Zeuschner, Steffen Peer T1 - Magnetoacoustics observed with ultrafast x-ray diffraction N2 - In the present thesis I investigate the lattice dynamics of thin film hetero structures of magnetically ordered materials upon femtosecond laser excitation as a probing and manipulation scheme for the spin system. The quantitative assessment of laser induced thermal dynamics as well as generated picosecond acoustic pulses and their respective impact on the magnetization dynamics of thin films is a challenging endeavor. All the more, the development and implementation of effective experimental tools and comprehensive models are paramount to propel future academic and technological progress. In all experiments in the scope of this cumulative dissertation, I examine the crystal lattice of nanoscale thin films upon the excitation with femtosecond laser pulses. The relative change of the lattice constant due to thermal expansion or picosecond strain pulses is directly monitored by an ultrafast X-ray diffraction (UXRD) setup with a femtosecond laser-driven plasma X-ray source (PXS). Phonons and spins alike exert stress on the lattice, which responds according to the elastic properties of the material, rendering the lattice a versatile sensor for all sorts of ultrafast interactions. On the one hand, I investigate materials with strong magneto-elastic properties; The highly magnetostrictive rare-earth compound TbFe2, elemental Dysprosium or the technological relevant Invar material FePt. On the other hand I conduct a comprehensive study on the lattice dynamics of Bi1Y2Fe5O12 (Bi:YIG), which exhibits high-frequency coherent spin dynamics upon femtosecond laser excitation according to the literature. Higher order standing spinwaves (SSWs) are triggered by coherent and incoherent motion of atoms, in other words phonons, which I quantified with UXRD. We are able to unite the experimental observations of the lattice and magnetization dynamics qualitatively and quantitatively. This is done with a combination of multi-temperature, elastic, magneto-elastic, anisotropy and micro-magnetic modeling. The collective data from UXRD, to probe the lattice, and time-resolved magneto-optical Kerr effect (tr-MOKE) measurements, to monitor the magnetization, were previously collected at different experimental setups. To improve the precision of the quantitative assessment of lattice and magnetization dynamics alike, our group implemented a combination of UXRD and tr-MOKE in a singular experimental setup, which is to my knowledge, the first of its kind. I helped with the conception and commissioning of this novel experimental station, which allows the simultaneous observation of lattice and magnetization dynamics on an ultrafast timescale under identical excitation conditions. Furthermore, I developed a new X-ray diffraction measurement routine which significantly reduces the measurement time of UXRD experiments by up to an order of magnitude. It is called reciprocal space slicing (RSS) and utilizes an area detector to monitor the angular motion of X-ray diffraction peaks, which is associated with lattice constant changes, without a time-consuming scan of the diffraction angles with the goniometer. RSS is particularly useful for ultrafast diffraction experiments, since measurement time at large scale facilities like synchrotrons and free electron lasers is a scarce and expensive resource. However, RSS is not limited to ultrafast experiments and can even be extended to other diffraction techniques with neutrons or electrons. N2 - In der vorliegenden Arbeit untersuche ich die Gitterdynamik von magnetisch geordneten und dünnen Filmen, deren Spinsystem mit Femtosekunden-Laserpulsen angeregt und untersucht wird. Die Quantifizierung der laserinduzierten thermischen Dynamik, der erzeugten Pikosekunden-Schallpulse sowie deren jeweiliger Einfluss auf die Magnetisierungsdynamik ist ein schwieriges Unterfangen. Umso mehr ist die Entwicklung und Anwendung von effizienten experimentellen Konzepten und umfangreichen Modellen grundlegend für das Antreiben des zukünftigen wissenschaftlichen und technologischen Fortschritt. In jedem Experiment dieser kummulativen Dissertation untersuche ich das Kristallgitter von Nanometer dünnen Filmen nach der Anregung mit Femtosekunden-Laserpulsen. Die relative Änderung der Gitterkonstante, hervorgerufen durch thermische Ausdehnung oder Pikosekunden-Schallpulse, wird dabei direkt mittels ultraschneller Röntgenbeugung (UXRD) gemessen. Der Aufbau nutzt zur Bereitstellung von ultrakurzen Röntgenpulsen eine lasergetriebene Plasma-Röntgenquelle (PXS). Phononen und Spins üben gleichermaßen einen Druck auf das Gitter aus, welches entsprechend der elastsischen Eigenschaften des Materials reagiert, was das Gitter zu einem vielseitigen Sensor für ultraschenlle Wechselwirkungen macht. Zum einen untersuche ich Materialien mit starken magnetoelastischen Eigentschaften: die stark magnetostriktive Seltenen-Erden-Verbindung TbFe2, elementares Dysprosium oder das technologisch relavante Invar-Material FePt. Zum anderen habe ich eine umfangreiche Studie der Gitterdynamik von Bi1Y2Fe5O12 (Bi:YIG) angestellt, in dem der Literatur zufolge hochfrequente kohärente Spindynamiken durch Femtosekunden-Laseranregung zu beobachten sind. Diese stehenden Spinwellen (SSWs) höherer Ordnung entstehen durch die kohärente und inkohärente Bewegung von Atomen, in anderen Worten Phononen, welche ich durch UXRD vermessen habe. Somit sind wir in der Lage, die experimentellen Beobachtungen der Gitter- und Spindynamik qualitativ und quantitativ zu vereinigen. Dies geschieht durch eine Kombination von Viel-Temperatur- und Anisotropiemodellierung sowie elastische, magnetoelastische, und mikromagnetsiche Modelle. Die gemeinsamen Daten von UXRD und der zeitaufgelösten magnetooptischen Kerr-Effekt Messungen (tr-MOKE), um jeweils die Gitter- und Spindynamik zu messen, wurden in der Vergangenheit noch an unterschiedlichen experimentellen Aufbauten gemessen. Um die Quantifizierung präziser zu gestalten, haben wir in unserer Arbeitsgruppe UXRD und tr-MOKE in einem einzigen Aufbau kombiniert, welcher somit meines Wissens der erste seiner Art ist. Ich half bei dem Entwurf und der Inbetriebnahme des neuen Aufbaus, welcher die gleichzeitige Messung von Gitter- und Spindynamik auf einer ultraschnellen Zeitskala unter identischen Anregungsbedingungen ermöglicht. Außerdem entwickelte ich eine neue Messroutine für Röntgenbeugung, welche die Messzeit von UXRD-Experimenten um bis zu einer Größenordnungen reduziert. Es nennt sich das Schneiden des reziproken Raumes (reciprocal space slicing, RSS) und nutzt den Vorteil von Flächendetektoren die Bewegung von Beugungsreflexen zu detektieren, was von einer Änderung der Gitterkonstante einhergeht, ohne zeitintensive Scans der Beugungswinkel mit dem Goniometer durchzuführen. RSS ist besonders nützlich für ultraschnelle Beugungsexperimente, weil die Messzeit an Großgeräten wie Synchrotrons oder Freie Elektronen Laser eine seltene und teure Ressource ist. Darüber hinaus ist RSS nicht zwangsläufig auf die Anwendung in ultraschnellen Experimenten beschränkt und kann sogar auf andere Beugungsexperimente, wie die mit Neutronen und Elektronen, ausgeweitet werden. KW - ultrafast KW - X-ray diffraction KW - thin films KW - magnetoelasticity KW - ultraschnell KW - Röntgenbeugung KW - dünne Filme KW - Magnetoelastizität Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561098 ER - TY - THES A1 - Zenichowski, Karl T1 - Quantum dynamical study of Si(100) surface-mounted, STM-driven switches at the atomic and molecular scale T1 - Quantendynamische Untersuchung von Si(100) Oberflächen-gebundenen, STM-gesteuerten atomaren und molekularen Schaltern N2 - The aim of this thesis is the quantum dynamical study of two examples of scanning tunneling microscope (STM)-controllable, Si(100)(2x1) surface-mounted switches of atomic and molecular scale. The first example considers the switching of single H-atoms between two dangling-bond chemisorption sites on a Si-dimer of the Si(100) surface (Grey et al., 1996). The second system examines the conformational switching of single 1,5-cyclooctadiene molecules chemisorbed on the Si(100) surface (Nacci et al., 2008). The temporal dynamics are provided by the propagation of the density matrix in time via an according set of equations of motion (EQM). The latter are based on the open-system density matrix theory in Lindblad form. First order perturbation theory is used to evaluate those transition rates between vibrational levels of the system part. In order to account for interactions with the surface phonons, two different dissipative models are used, namely the bilinear, harmonic and the Ohmic bath model. IET-induced vibrational transitions in the system are due to the dipole- and the resonance-mechanism. A single surface approach is used to study the influence of dipole scattering and resonance scattering in the below-threshold regime. Further, a second electronic surface was included to study the resonance-induced switching in the above-threshold regime. Static properties of the adsorbate, e.g., potentials and dipole function and potentials, are obtained from quantum chemistry and used within the established quantum dynamical models. N2 - Die vorliegende Doktorarbeit befasst sich mit kleinsten schaltbaren Einheiten in Form des Moleküls Cyclooctadien (COD) und dem Wasserstoff-Atom, die chemisch fest mit einer Oberfläche aus kristallinem Silizium verbunden sind. Jeder dieser Schalter kann mittels einer winzigen Spitze, eines so genannten Rastertunnelmikroskops (RTM), von atomarem Durchmesser in zwei unterscheidbare und stabile Schaltpositionen gebracht werden. Dabei besteht das Schalten entweder in einer Änderung der Geometrie des molekularen Schalters oder im Brechen und Neu-knüpfen chemischer Bindungen. Dabei ist es entscheidend, dass durch die geringe Grösse dieser Schalter eine hohe Anzahl dieser Schalter auf einer Oberfläche deponiert werden können. Mit der in den Schaltern speicherbaren Informationen an oder aus, 0 oder 1 ließen sich sehr hohe Speicherkapazitäten erreichen. Vor einer Anwendung dieser Art ist es wichtig zunächst ein grundlegendes Verständnis der Schaltprozesse auf der Oberfläche zu gewinnen. Wenn alle wesentlichen Faktoren berücksichtigt wurden und der Mechanismus des Schaltens verstanden ist, kann das Ergebnis des Experiments mit Hilfe eines theoretischen Modells vorhergesagt werden. Für die Handhabbarkeit muss sich das theoretisches Modell auf wesentliche Einflüsse beschränken und diese so einfach wie möglich beschreiben. So wurde die simultane Bewegung der 12 Atome des COD in die Bewegung eines gemittelten Massenpunktes entlang von einer oder von zwei räumlichen Freiheitsgraden übersetzt. Dabei kann der Massenpunkt im klassischen Bild anschaulich als eine rollende Kugel beschrieben werden, die in einer Seite einer Doppelmulde gefangen ist. Die Kugel kann durch äußere Anregung zum Schwingen gebracht werden und schließlich über eine Barriere in die benachbarte Mulde schalten. Nun muss die Schwingung der Kugel gebremst werden, um ein Zurück-Schwingen der Kugel zu verhindern. Die Anregung erfolgt durch elektrische Ladungen die von der Spitze des RTM zur Oberfläche wandern oder durch eine schwingende, d.h. warme Oberfläche. Das Bremsen wird über die elastische Bindung zu einer kalten Oberfläche vermittelt. Um Quanteneffekte wie das Tunneln der Kugel durch die Barriere zu beschreiben wurde die Kugel durch ein Wellenpaket beschrieben und dessen Aufenthaltswahrscheinlichkeit in der Doppelmulde untersucht. Im Fall des Wasserstoffatoms war die experimentelle Prüfung des entworfenen Modells für ein Schalten bei starkem Strom leider nicht möglich. Für das COD Molekül konnte jedoch nicht nur die Übereinstimmung mit den experimentellen Befunden, sondern im Fall des Schaltens in Abhängigkeit der Oberflächentemperatur auch die Vorhersagefähigkeit des Modells unter Beweis gestellt werden. KW - Kerndynamik KW - molekulare Schalter KW - Nanotechnologie KW - STM KW - Oberflächen KW - Quantum dynamics KW - molecular switches KW - nanotechnology KW - STM KW - surfaces Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62156 ER - TY - THES A1 - Zemanová, Lucia T1 - Structure-function relationship in hierarchical model of brain networks T1 - Das Verhältnis von Struktur und Funktion in hierarchischem Model der Hirn-Netzwerken N2 - The mammalian brain is, with its numerous neural elements and structured complex connectivity, one of the most complex systems in nature. Recently, large-scale corticocortical connectivities, both structural and functional, have received a great deal of research attention, especially using the approach of complex networks. Here, we try to shed some light on the relationship between structural and functional connectivities by studying synchronization dynamics in a realistic anatomical network of cat cortical connectivity. We model the cortical areas by a subnetwork of interacting excitable neurons (multilevel model) and by a neural mass model (population model). With weak couplings, the multilevel model displays biologically plausible dynamics and the synchronization patterns reveal a hierarchical cluster organization in the network structure. We can identify a group of brain areas involved in multifunctional tasks by comparing the dynamical clusters to the topological communities of the network. With strong couplings of multilevel model and by using neural mass model, the dynamics are characterized by well-defined oscillations. The synchronization patterns are mainly determined by the node intensity (total input strengths of a node); the detailed network topology is of secondary importance. The biologically improved multilevel model exhibits similar dynamical patterns in the two regimes. Thus, the study of synchronization in a multilevel complex network model of cortex can provide insights into the relationship between network topology and functional organization of complex brain networks. N2 - Das Gehirn von Säugetieren stellt mit seinen zahlreichen, hochgradig vernetzten Neuronen ein natürliches Netzwerk von immenser Komplexität dar. In der jüngsten Vergangenheit sind die großflächige kortikale Konnektivitäten, sowohl unter strukturellen wie auch funktionalen Gesichtspunkten, in den Fokus der Forschung getreten. Die Verwendung von komplexe Netzwerke spielt hierbei eine entscheidende Rolle. In der vorliegenden Dissertation versuchen wir, das Verhältnis von struktureller und funktionaler Konnektivität durch Untersuchung der Synchronisationsdynamik anhand eines realistischen Modells der Konnektivität im Kortex einer Katze näher zu beleuchten. Wir modellieren die Kortexareale durch ein Subnetzwerk interagierender, erregbarer Neuronen (multilevel model) und durch ein Modell von Neuronenensembles (population model). Bei schwacher Kopplung zeigt das multilevel model eine biologisch plausible Dynamik und die Synchronisationsmuster lassen eine hierarchische Organisation der Netzwerkstruktur erkennen. Indem wir die dynamischen Cluster mit den topologischen Einheiten des Netzwerks vergleichen, sind wir in der Lage die Hirnareale, die an der Bewältigung komplexer Aufgaben beteiligt sind, zu identifizieren. Bei starker Kopplung im multilevel model und unter Verwendung des Ensemblemodells weist die Dynamik klare Oszillationen auf. Die Synchronisationsmuster werden hauptsächlich durch die Eingangsstärke an den einzelnen Knoten bestimmt, während die genaue Netzwerktopologie zweitrangig ist. Eine Erweiterung des Modells auf andere biologisch relevante Faktoren bestätigt die vorherigen Ergebnisse. Die Untersuchung der Synchronisation in einem multilevel model des Kortex ermöglicht daher tiefere Einblicke in die Zusammenhänge zwischen Netzwerktopologie und funktionaler Organisation in komplexen Hirn-Netzwerken. KW - komplexe Hirnnetzwerke KW - Verhältnis der Struktur und Funktion KW - hierarchisches Model KW - Synchronization KW - complex brain networks KW - structur-function relationship KW - hierarchical model KW - synchronization Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18400 ER - TY - THES A1 - Zeitz, Maria T1 - Modeling the future resilience of the Greenland Ice Sheet T1 - Numerische Modellierung der zukünftigen Resilienz des grönländischen Eisschildes BT - from the flow of ice to the interplay of feedbacks N2 - The Greenland Ice Sheet is the second-largest mass of ice on Earth. Being almost 2000 km long, more than 700 km wide, and more than 3 km thick at the summit, it holds enough ice to raise global sea levels by 7m if melted completely. Despite its massive size, it is particularly vulnerable to anthropogenic climate change: temperatures over the Greenland Ice Sheet have increased by more than 2.7◦C in the past 30 years, twice as much as the global mean temperature. Consequently, the ice sheet has been significantly losing mass since the 1980s and the rate of loss has increased sixfold since then. Moreover, it is one of the potential tipping elements of the Earth System, which might undergo irreversible change once a warming threshold is exceeded. This thesis aims at extending the understanding of the resilience of the Greenland Ice Sheet against global warming by analyzing processes and feedbacks relevant to its centennial to multi-millennial stability using ice sheet modeling. One of these feedbacks, the melt-elevation-feedback is driven by the temperature rise with decreasing altitudes: As the ice sheet melts, its thickness and surface elevation decrease, exposing the ice surface to warmer air and thus increasing the melt rates even further. The glacial isostatic adjustment (GIA) can partly mitigate this melt-elevation feedback as the bedrock lifts in response to an ice load decrease, forming the negative GIA feedback. In my thesis, I show that the interaction between these two competing feedbacks can lead to qualitatively different dynamical responses of the Greenland Ice Sheet to warming – from permanent loss to incomplete recovery, depending on the feedback parameters. My research shows that the interaction of those feedbacks can initiate self-sustained oscillations of the ice volume while the climate forcing remains constant. Furthermore, the increased surface melt changes the optical properties of the snow or ice surface, e.g. by lowering their albedo, which in turn enhances melt rates – a process known as the melt-albedo feedback. Process-based ice sheet models often neglect this melt-albedo feedback. To close this gap, I implemented a simplified version of the diurnal Energy Balance Model, a computationally efficient approach that can capture the first-order effects of the melt-albedo feedback, into the Parallel Ice Sheet Model (PISM). Using the coupled model, I show in warming experiments that the melt-albedo feedback almost doubles the ice loss until the year 2300 under the low greenhouse gas emission scenario RCP2.6, compared to simulations where the melt-albedo feedback is neglected, and adds up to 58% additional ice loss under the high emission scenario RCP8.5. Moreover, I find that the melt-albedo feedback dominates the ice loss until 2300, compared to the melt-elevation feedback. Another process that could influence the resilience of the Greenland Ice Sheet is the warming induced softening of the ice and the resulting increase in flow. In my thesis, I show with PISM how the uncertainty in Glen’s flow law impacts the simulated response to warming. In a flow line setup at fixed climatic mass balance, the uncertainty in flow parameters leads to a range of ice loss comparable to the range caused by different warming levels. While I focus on fundamental processes, feedbacks, and their interactions in the first three projects of my thesis, I also explore the impact of specific climate scenarios on the sea level rise contribution of the Greenland Ice Sheet. To increase the carbon budget flexibility, some warming scenarios – while still staying within the limits of the Paris Agreement – include a temporal overshoot of global warming. I show that an overshoot by 0.4◦C increases the short-term and long-term ice loss from Greenland by several centimeters. The long-term increase is driven by the warming at high latitudes, which persists even when global warming is reversed. This leads to a substantial long-term commitment of the sea level rise contribution from the Greenland Ice Sheet. Overall, in my thesis I show that the melt-albedo feedback is most relevant for the ice loss of the Greenland Ice Sheet on centennial timescales. In contrast, the melt-elevation feedback and its interplay with the GIA feedback become increasingly relevant on millennial timescales. All of these influence the resilience of the Greenland Ice Sheet against global warming, in the near future and on the long term. N2 - Das grönländische Eisschild ist die zweitgrößte Eismasse der Erde. Es fasst genug Eis, um den globalen Meeresspiegel um 7m anzuheben, wenn er vollständig schmilzt. Trotz seiner Größe ist es durch den vom Menschen verursachten Klimawandel immens gefährdet: Die Temperaturen über Grönland sind in den letzten 30 Jahren um mehr als 2,7◦C gestiegen, doppelt so stark wie im globalen Mittel. Daher verliert das Eisschild seit den 1980er Jahren an Masse und die Verlustrate hat sich seitdem versechsfacht. Zudem ist das grönländische Eisschild ein Kippelement des Erdsystems, es könnte sich unwiederbringlich verändern, wenn die globale Erwärmung einen Schwellwert überschreiten sollte. Ziel dieser Arbeit ist es, das Verständnis für die Resilienz des grönländischen Eisschildes zu erweitern, indem relevante Rückkopplungen und Prozesse analysiert werden. Eine dieser Rückkopplungen, die positive Schmelz-Höhen-Rückkopplung wird durch den Temperaturanstieg bei abnehmender Höhe angetrieben: Wenn der Eisschild schmilzt, nehmen seine Dicke und die Oberflächenhöhe ab, wodurch die Eisoberfläche wärmerer Luft ausgesetzt wird und die Schmelzraten noch weiter ansteigen. Die glaziale isostatische Anpassung (GIA) kann die Schmelz-Höhen-Rückkopplung teilweise abschwächen, da sich der Erdmantel als Reaktion auf die abnehmende Eislast hebt und so die negative GIA-Rückkopplung bildet. Ich zeige, dass die Interaktion zwischen diesen beiden konkurrierenden Rückkopplungen zu qualitativ unterschiedlichem dynamischen Verhalten des grönländischen Eisschildes bei Erwärmung führen kann - von permanentem Verlust bis hin zu unvollständiger Erholung. Das Zusammenspiel dieser Rückkopplungen kann zudem Oszillationen des Eisvolumens in einem konstanten Klima auslösen. Die verstärkte Oberflächenschmelze ändert die optischen Eigenschaften von Schnee und Eis und verringert deren Albedo, was wiederum die Schmelzraten erhöht – die sogenannte Schmelz-Albedo Rückkopplung. Da viele Eisschildmodelle diese vernachlässigen, habe ich eine vereinfachte Version des tageszeitlichen Energiebilanzmodells, welches die Effekte der Schmelz-Albedo-Rückkopplung erster Ordnung erfassen kann, in das Eisschildmodell PISM implementiert. Mithilfe des gekoppelten Modells zeige ich, dass die Schmelz-Albedo-Rückkopplung den Eisverlust bis zum Jahr 2300 im moderaten Klimaszenario RCP2.6 fast verdoppelt und im RCP8.5-Szenario, welches von starken Emissionen ausgeht, bis zu 58% zusätzlichen Eisverlust verursacht, im Vergleich zu Simulationen in denen die Schmelz-Albedo-Rückkopplung vernachlässigt wird. Bis zum Jahr 2300 trägt die Schmelz-Albedo-Rückkopplung mehr zum Eisverlust bei als die Schmelz-Höhen-Rückkopplung. Ein weiterer Prozess, der die Widerstandsfähigkeit des grönländischen Eisschilds beeinflussen könnte, ist die Erweichung des Eises bei steigenden Temperaturen, sowie die daraus resultierende Zunahme des Eisflusses. In meiner Dissertation zeige ich, wie sich die parametrische Unsicherheit in dem Flussgesetz auf die Ergebnisse von PISM Simulationen bei Erwärmung auswirkt. In einem idealisierten, zweidimensionalen Experiment mit fester klimatischer Massenbilanz führt die Unsicherheit in den Strömungsparametern zu einer Bandbreite des Eisverlustes, die mit der Bandbreite durch unterschiedliche Erwärmungen vergleichbar ist. Neben den grundsätzlichen Prozessen und Rückkopplungen untersuchte ich auch die Auswirkungen konkreter Klimaszenarien auf den Eisverlust von Grönland. Um die Flexibilität des Kohlenstoffbudgets zu erhöhen sehen einige Erwärmungsszenarien eine temporäre Überschreitung der globalen Temperaturen über das Ziel von 1,5◦C vor. Ich zeige, dass eine solche Temperaturerhöhung den kurz- und langfristigen Eisverlust von Grönland um mehrere Zentimeter erhöht. Der langfristige Meeresspiegelanstieg ist auf die anhaltende Temperaturerhöhung in hohen Breitengraden zurückzuführen. Solche Prozesse führen zu einem langfristigen und bereits festgelegtem Meeresspiegelanstieg, selbst wenn die Temperaturen nicht weiter steigen. Insgesamt zeige ich in meiner Arbeit, dass die Schmelz-Albedo-Rückkopplung für den Eisverlust des grönländischen Eisschilds in den nächsten Jahrhunderten am wichtigsten ist. Im Gegensatz dazu werden die Schmelz-Höhen-Rückkopplung und ihr Zusammenspiel mit der GIA-Rückkopplung auf längeren Zeiträumen immer relevanter. KW - Greenland Ice Sheet KW - ice-flow modeling KW - sea-level rise KW - Grönländisches Eisschild KW - Computersimulation KW - Meeresspiegelanstieg Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-568839 ER - TY - THES A1 - Zeckra, Martin T1 - Seismological and seismotectonic analysis of the northwestern Argentine Central Andean foreland N2 - After a severe M W 5.7 earthquake on October 17, 2015 in El Galpón in the province of Salta NW Argentina, I installed a local seismological network around the estimated epicenter. The network covered an area characterized by inherited Cretaceous normal faults and neotectonic faults with unknown recurrence intervals, some of which may have been reactivated normal faults. The 13 three-component seismic stations recorded data continuously for 15 months. The 2015 earthquake took place in the Santa Bárbara System of the Andean foreland, at about 17km depth. This region is the easternmost morphostructural region of the central Andes. As a part of the broken foreland, it is bounded to the north by the Subandes fold-and-thrust belt and the Sierras Pampeanas to the south; to the east lies the Chaco-Paraná basin. A multi-stage morphotectonic evolution with thick-skinned basement uplift and coeval thin-skinned deformation in the intermontane basins is suggested for the study area. The release of stresses associated with the foreland deformation can result in strong earthquakes, as the study area is known for recurrent and historical, destructive earthquakes. The available continuous record reaches back in time, when the strongest event in 1692 (magnitude 7 or intensity IX) destroyed the city of Esteco. Destructive earthquakes and surface deformation are thus a hallmark of this part of the Andean foreland. With state-of-the-art Python packages (e.g. pyrocko, ObsPy), a semi-automatic approach is followed to analyze the collected continuous data of the seismological network. The resulting 1435 hypocenter locations consist of three different groups: 1.) local crustal earthquakes (nearly half of the events belong to this group), 2.) interplate activity, of regional distance in the slab of the Nazca-plate, and 3.) very deep earthquakes at about 600km depth. My major interest focused on the first event class. Those crustal events are partly aftershock events of the El Galpón earthquake and a second earthquake, in the south of the same fault. Further events can be considered as background seismicity of other faults within the study area. Strikingly, the seismogenic zone encompass the whole crust and propagates brittle deformation down, close to the Moho. From the collected seismological data, a local seismic velocity model is estimated, using VELEST. After the execution of various stability tests, the robust minimum 1D-velocity model implies guiding values for the composition of the local, subsurface structure of the crust. Afterwards, performing a hypocenter relocation enables the assignment of individual earthquakes to aftershock clusters or extended seismotectonic structures. This allows the mapping of previously unknown seismogenic faults. Finally, focal mechanisms are modeled for events with acurately located hypocenters, using the newly derived local velocity model. A compressive regime is attested by the majority of focal mechanisms, while the strike direction of the individual seismogenic structures is in agreement with the overall north – south orientation of the Central Andes, its mountain front, and individual mountain ranges in the southern Santa-Bárbara-System. N2 - Nach einem schweren Erdbeben der Magnitude M W 5.7 am 17. Oktober 2015 in El Galpón, in der Provinz Salta im Nordwesten Argentiniens, habe ich ein lokales seismologisches Netzwerk, um das vermutete Epizentrum herum, aufgebaut. Dabei haben 13 Stationen kontinuierlich für 15 Monate gemessen. Das Netzwerk wurde in einem Gebiet installiert, welches durch tektonische Störungen charakterisiert ist, die entweder in der Kreidezeit zunächst als Abschiebungen initiiert und später als Aufschiebungen reaktiviert wurden oder in der geologischen jüngeren Vergangenheit erst entstanden sind. Die Intervallzeiten zwischen zwei Erdbeben sind dabei häufig unbekannt. Das Erdbeben von 2015 trat im Santa-Barbara-System im Argentinischen Vorland, 17 km unter der Erdoberfläche auf. Diese Region ist die östlichste strukturgeologische Provinz der Zentralanden und dem broken-foreland-Typus zuzuordnen. Im Norden schließt sich der Bolivianische Faltengürtel (Sierras Subandinas) und im Süden die Sierras Pampeanas an; im Osten liegt das Chaco-Paraná Becken. Eine mehrstufige morphotektonische Entwicklung wird hier vermutet, bei der das Grundgebirge durch als thick-skinned bezeichnete Deformation herausgehoben wurde und die dazwischen liegenden Intermontanbecken gleichzeitig Deformation des Typs thin-skinned erfahren haben. Die plötzliche Spannungsfreisetzung, die mit dieser Vorlanddeformation einhergeht, kann zu starken Erdbeben führen. Das Untersuchungsgebiet ist für wiederkehrende und historische, zerstörerische Erdbeben bekannt. Der zur Verfügung stehenden Aufzeichnungen reichen bis in das Jahr 1692 zurück, als ein Erdbeben der Magnitude M 7 (oder Intensität IX) die Stadt Esteco zerstörte. Daher sind zerstörerische Erdbeben ein besonderes Kennzeichen in diesem Teil des Andenvorlands. Für die Analyse der im seismologischen Netzwerk aufgezeichneten kontinuierlichen Daten wurde ein semiautomatischer Ansatz verfolgt, der mittels hochmoderner Python-Bibliotheken informationstechnisch umgesetzt wurde. Die resultierenden 1435 Erdbeben bestehen aus drei verschiedenen Gruppen: 1.) lokale Erdbeben in der Erdkruste (die etwa die Hälfte aller Events ausmachen), 2.) weiter entfernte Interplattenaktivität, die durch die Subduktion der Nazca-Platte unter den Südamerikanischen Kontinent hervorgerufen wird und 3.) sehr tiefen Erdbeben in etwa 600 km Tiefe. Mein Hauptaugenmerk lag dabei auf der ersten Gruppe. Diese krustalen Ereignisse sind teilweise Nachbeben des El Galpón Erdbebens und eines weiteren Bebens, welches sich weiter im Süden an der gleichen Störung ereignete. Die restlichen Beben können der allgemeinen Hintergrundaktivität entlang weiterer Störungen im Untersuchungsgebiet zugeschrieben werden. Beachtenswert ist dabei der Umstand, dass die Erdbebenaktivität in der gesamten Kruste beobachtet werden kann und sich dadurch die Deformation bis a fast an den Erdmantel ausbreitet. Mit den gesammelten Daten kann, unter der Verwendung der VELEST Software, ein lokales seismisches Geschwindigkeitsmodell bestimmt werden. Nach der Durchführung verschiedener Stabilitätstests, können aus dem robusten eindimensionalen Modell Richtwerte für die Zusammensetzung und den Aufbau der Erdkruste gewonnen werden. Dieanschließende Relokalisierung von Erdbebenherden erlaubt die Zuordnung einzelner Erdbeben zu Erdbebenclustern oder ausgedehnten seismotektonischen Strukturen. Dadurch können sogar zuvor unbekannte seismogene Störungen kartiert werden. Schlussendlich, werden Herdflächenlösungen für Beben mit präzise lokalisierten Erdbebenherden und unter der Einbeziehung des neu bestimmten lokalen Geschwindigkeitsmodells modelliert. Der Großteil der resultierenden Lösungen bestätigt das vorherrschende kompressive Regime. Das Streichen der einzelnen seismogenen Strukturen stimmt größtenteils mit der allgemeinen Nord – Süd Ausrichtugn der Zentralanden, ihrer Gebirgsfront und den einzelnen Höhenzügen im Santa-Barbará-System überein. T2 - Seismologische und Seismotektonische Analyse des Vorlandsystems der nordwestargentinischen Zentralanden KW - Seismology KW - Seismotektonik KW - Geophysics KW - Andes KW - Geosciences KW - Argentina KW - Anden KW - Seismologie KW - Geophysik KW - Geowissenschaften KW - Argentinien Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-473240 ER - TY - THES A1 - Zaupa, Alessandro T1 - Physical crosslinking of gelatin : a supramolecular approach to biomaterials T1 - Physikalische Quervernetzung von Gelatine : ein supramolekularer Zugang zu Biomaterialien N2 - This work describes the realization of physically crosslinked networks based on gelatin by the introduction of functional groups enabling specific supramolecular interactions. Molecular models were developed in order to predict the material properties and permit to establish a knowledge-based approach to material design. The effect of additional supramolecular interactions with hydroxyapaptite was then studied in composite materials. The calculated properties are compared to experimental results to validate the models. The models are then further used for the study of physically crosslinked networks. Gelatin was functionalized with desaminotyrosine (DAT) and desaminotyrosyl-tyrosine (DATT) side groups, derived from the natural amino acid tyrosine. These group can potentially undergo to π-π and hydrogen bonding interactions also under physiological conditions. Molecular dynamics (MD) simulations were performed on models with 0.8 wt.-% or 25 wt.-% water content, using the second generation forcefield CFF91. The validation of the models was obtained by the comparison with specific experimental data such as, density, peptide conformational angles and X-ray scattering spectra. The models were then used to predict the supramolecular organization of the polymer chain, analyze the formation of physical netpoints and calculate the mechanical properties. An important finding of simulation was that with the increase of aromatic groups also the number of observed physical netpoints increased. The number of relatively stable physical netpoints, on average zero 0 for natural gelatin, increased to 1 and 6 for DAT and DATT functionalized gelatins respectively. A comparison with the Flory-Rehner model suggested reduced equilibrium swelling by factor 6 of the DATT-functionalized materials in water. The functionalized gelatins could be synthesized by chemoselective coupling of the free carboxylic acid groups of DAT and DATT to the free amino groups of gelatin. At 25 wt.-% water content, the simulated and experimentally determined elastic mechanical properties (e.g. Young Modulus) were both in the order of GPa and were not influenced by the degree of aromatic modification. The experimental equilibrium degree of swelling in water decreased with increasing the number of inserted aromatic functions (from 2800 vol.-% for pure gelatin to 300 vol.-% for the DATT modified gelatin), at the same time, Young’s modulus, elongation at break, and maximum tensile strength increased. It could be show that the functionalization with DAT and DATT influences the chain organization of gelatin based materials together with a controlled drying condition. Functionalization with DAT and DATT lead to a drastic reduction of helical renaturation, that could be more finely controlled by the applied drying conditions. The properties of the materials could then be influenced by application of two independent methods. Composite materials of DAT and DATT functionalized gelatins with hydroxyapatite (HAp) show a drastic reduction of swelling degree. In tensile tests and rheological measurements, the composites equilibrated in water had increased Young’s moduli (from 200 kPa up to 2 MPa) and tensile strength (from 57 kPa up to 1.1 MPa) compared to the natural polymer matrix without affecting the elongation at break. Furthermore, an increased thermal stability from 40 °C to 85 °C of the networks could be demonstrated. The differences of the behaviour of the functionalized gelatins to pure gelatin as matrix suggested an additional stabilizing bond between the incorporated aromatic groups to the hydroxyapatite. N2 - Diese Arbeit beschreibt die Entwicklung von durch spezifische physikalische Wechselwirkungen quervernetzten Gelatine-basierten Materialien. Dazu wurden zunächst Computermodelle entwickelt, mit denen Eigenschaften der Materialien vorhergesagt werden sollten, um so eine wissensbasierte Entwicklung zu ermöglichen, um dann die Ergebnisse mit experimentellen Daten zu vergleichen und die Materialien und Modelle als Grundlage für weitere Entwicklungen zu nutzen. Gelatine wurde mit Desaminotyrosin (DAT) und Desaminotyrosyltyrosin (DATT) funktionalisiert, die sich von der natürlichen Aminosäure Tyrosin ableiten. Diese Gruppen können potentiell π-π Wechselwirkungen und Wasserstoffbrückenbindungen auch unter physiologischen Bedingungen eingehen. Es wurden Computersimulationen der Materialien mittels Moleküldynamik durchgeführt, wobei Modelle mit 0.8 Gew.-% und 25 Gew.-% Wassergehalt betrachtet wurden. Die Validierung der Modelle erfolgte durch Vergleich der errechneten mit experimentellen Daten wie z.B. der Dichte, Bindungswinkeln sowie Röntgenstreuungsspektren. Die Modelle wurden dann zur Vorhersage der molekularen Organisation der Polymerketten, Formierung physikalischer Netzpunkte und Berechnung der mechanischen Eigenschaften eingesetzt. Die Funktionalisierung der Gelatine mit DAT bzw. DATT führten wie gewünscht zur Ausbildung physikalischer Netzpunkte durch π-π Wechselwirkungen und Wasserstoffbrücken¬bindungen. Ein Schlüsselergebnis der Simulationen war, dass mit zunehmender Zahl an aromatischen Gruppen auch eine Zunahme der physikalischen Netzpunkte beobachtet werden konnte. Die funktionalisierten Gelatinen konnten durch chemoselektive Reaktion der Aminogruppen der Gelatine mit den freien Carboxylgruppen von DAT und DATT hergestellt werden. Materialien mit 25 Gew.-% Wassergehalt hatten in der Simulation und im Experiment mechanische Eigenschaften derselben Größenordnung (z.B. E-Moduln im unteren GPa-Bereich). Der Quellungsgrad der Materialien im Experiment nahm mit zunehmender Zahl an aromatische Gruppen ab (von 2800 Vol.-% auf 300 Vol.-%), wobei der Elastizitätsmodul, die Bruchdehnung sowie die Zugfestigkeit zunahmen. Die Funktionalisierung der Gelatine ist eine chemische Methode, um die Kettenanordnung auf molekularer Ebene zu beeinflussen, während die genaue Kontrolle der Trocknungs¬bedinguungen von Gelatine-basierten Materialien eine physikalische Methode mit demselben Ziel ist. Es konnte gezeigt werden, dass die Funktionalisierung von Gelatine mit DAT oder DATT zu einer stark verminderten Helixausbildungstendenz, die jedoch durch Variation der Trocknunsgbedingungen noch fein abgestimmt werden konnte. Somit konnten die mechanischen Eigenschaften von Filmen aus funktionlisierter Gelatine mit zwei unabhängigen Methoden eingestellt werden. Komposite der mit DAT oder DATT funktionalisierten Gelatine und Hydroxyapatit (HAp) zeigten deutlich verringerter Quellung. In Zugdehnungsexperimenten und rheologischen Untersuchungen zeigten die Komposite im Gleichgewichtsquellungszustand erhöhte Elastizitätsmoduln (von 200 kPa auf bis zu 2 MPa) und Zugfestigkeit (von 57 kPa auf bis zu 1.1 MPa). Darüber hinaus konnte die Übergangstemperatur Tc deutlich gesteigert werden (von ca. 40 °C auf > 85 °C). Dieses Verhalten ließ sich auf stabilisierende Bindungen zwischen den aromatische Gruppen und dem HAp zurückführen. KW - Physikalische Quervernetzung KW - Supramolekularen Wechselwirkung KW - Molekulare Modellierung KW - Biomaterialien KW - Gelatine KW - Komposite KW - Hydroxyapatit KW - Physical Network KW - Supramolecular Interaction KW - Molecular modeling KW - Biomaterial KW - Gelatin KW - Composite KW - Hydroxyapatite Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52888 ER - TY - THES A1 - Zass, Alexander T1 - A multifaceted study of marked Gibbs point processes T1 - Facetten von markierten Gibbsschen Punktprozessen N2 - This thesis focuses on the study of marked Gibbs point processes, in particular presenting some results on their existence and uniqueness, with ideas and techniques drawn from different areas of statistical mechanics: the entropy method from large deviations theory, cluster expansion and the Kirkwood--Salsburg equations, the Dobrushin contraction principle and disagreement percolation. We first present an existence result for infinite-volume marked Gibbs point processes. More precisely, we use the so-called entropy method (and large-deviation tools) to construct marked Gibbs point processes in R^d under quite general assumptions. In particular, the random marks belong to a general normed space S and are not bounded. Moreover, we allow for interaction functionals that may be unbounded and whose range is finite but random. The entropy method relies on showing that a family of finite-volume Gibbs point processes belongs to sequentially compact entropy level sets, and is therefore tight. We then present infinite-dimensional Langevin diffusions, that we put in interaction via a Gibbsian description. In this setting, we are able to adapt the general result above to show the existence of the associated infinite-volume measure. We also study its correlation functions via cluster expansion techniques, and obtain the uniqueness of the Gibbs process for all inverse temperatures β and activities z below a certain threshold. This method relies in first showing that the correlation functions of the process satisfy a so-called Ruelle bound, and then using it to solve a fixed point problem in an appropriate Banach space. The uniqueness domain we obtain consists then of the model parameters z and β for which such a problem has exactly one solution. Finally, we explore further the question of uniqueness of infinite-volume Gibbs point processes on R^d, in the unmarked setting. We present, in the context of repulsive interactions with a hard-core component, a novel approach to uniqueness by applying the discrete Dobrushin criterion to the continuum framework. We first fix a discretisation parameter a>0 and then study the behaviour of the uniqueness domain as a goes to 0. With this technique we are able to obtain explicit thresholds for the parameters z and β, which we then compare to existing results coming from the different methods of cluster expansion and disagreement percolation. Throughout this thesis, we illustrate our theoretical results with various examples both from classical statistical mechanics and stochastic geometry. N2 - Diese Arbeit konzentriert sich auf die Untersuchung von markierten Gibbs-Punkt-Prozessen und stellt insbesondere einige Ergebnisse zu deren Existenz und Eindeutigkeit vor. Dabei werden Ideen und Techniken aus verschiedenen Bereichen der statistischen Mechanik verwendet: die Entropie-Methode aus der Theorie der großen Abweichungen, die Cluster-Expansion und die Kirkwood-Salsburg-Gleichungen, das Dobrushin-Kontraktionsprinzip und die Disagreement-Perkolation. Wir präsentieren zunächst ein Existenzergebnis für unendlich-volumige markierte Gibbs-Punkt-Prozesse. Genauer gesagt verwenden wir die sogenannte Entropie-Methode (und Werkzeuge der großen Abweichung), um markierte Gibbs-Punkt-Prozesse in R^d unter möglichst allgemeinen Annahmen zu konstruieren. Insbesondere gehören die zufälligen Markierungen zu einem allgemeinen normierten Raum und sind nicht beschränkt. Außerdem lassen wir Interaktionsfunktionale zu, die unbeschränkt sein können und deren Reichweite endlich, aber zufällig ist. Die Entropie-Methode beruht darauf, zu zeigen, dass eine Familie von endlich-volumigen Gibbs-Punkt-Prozessen zu sequentiell kompakten Entropie-Niveau-Mengen gehört, und daher dicht ist. Wir stellen dann unendlich-dimensionale Langevin-Diffusionen vor, die wir über eine Gibbssche Beschreibung in Wechselwirkung setzen. In dieser Umgebung sind wir in der Lage, das vorangehend vorgestellte allgemeine Ergebnis anzupassen, um die Existenz des zugehörigen unendlich-dimensionalen Maßes zu zeigen. Wir untersuchen auch seine Korrelationsfunktionen über Cluster-Expansions Techniken und erhalten die Eindeutigkeit des Gibbs-Prozesses für alle inversen Temperaturen β und Aktivitäten z unterhalb einer bestimmten Schwelle. Diese Methode beruht darauf, zunächst zu zeigen, dass die Korrelationsfunktionen des Prozesses eine so genannte Ruelle-Schranke erfüllen, um diese dann zur Lösung eines Fixpunktproblems in einem geeigneten Banach-Raum zu verwenden. Der Eindeutigkeitsbereich, den wir erhalten, wird dann aus den Modellparametern z und β definiert, für die ein solches Problem genau eine Lösung hat. Schließlich untersuchen wir die Frage nach der Eindeutigkeit von unendlich-volumigen Gibbs-Punkt-Prozessen auf R^d im unmarkierten Fall weiter. Im Zusammenhang mit repulsiven Wechselwirkungen basierend auf einer Hartkernkomponente stellen wir einen neuen Ansatz zur Eindeutigkeit vor, indem wir das diskrete Dobrushin-Kriterium im kontinuierlichen Rahmen anwenden. Wir legen zunächst einen Diskretisierungsparameter a>0 fest und untersuchen dann das Verhalten des Bereichs der Eindeutigkeit, wenn a gegen 0 geht. Mit dieser Technik sind wir in der Lage, explizite Schwellenwerte für die Parameter z und β zu erhalten, die wir dann mit bestehenden Ergebnissen aus den verschiedenen Methoden der Cluster-Expansion und der Disagreement-Perkolation vergleichen. In dieser Arbeit illustrieren wir unsere theoretischen Ergebnisse mit verschiedenen Beispielen sowohl aus der klassischen statistischen Mechanik als auch aus der stochastischen Geometrie. KW - marked Gibbs point processes KW - Langevin diffusions KW - Dobrushin criterion KW - Entropy method KW - Cluster expansion KW - Kirkwood--Salsburg equations KW - DLR equations KW - Markierte Gibbs-Punkt-Prozesse KW - Entropiemethode KW - Cluster-Expansion KW - DLR-Gleichungen KW - Dobrushin-Kriterium KW - Kirkwood-Salsburg-Gleichungen KW - Langevin-Diffusions Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512775 ER - TY - THES A1 - Zarafshani, Zoya T1 - Chain-end functionalization and modification of polymers using modular chemical reactions T1 - Ketten-Ende Funktionalisierung und Modifikation von Polymeren mittels modulare chemischen Reaktionen N2 - Taking advantage of ATRP and using functionalized initiators, different functionalities were introduced in both α and ω chain-ends of synthetic polymers. These functionalized polymers could then go through modular synthetic pathways such as click cycloaddition (copper-catalyzed or copper-free) or amidation to couple synthetic polymers to other synthetic polymers, biomolecules or silica monoliths. Using this general strategy and designing these co/polymers so that they are thermoresponsive, yet bioinert and biocompatible with adjustable cloud point values (as it is the case in the present thesis), the whole generated system becomes "smart" and potentially applicable in different branches. The applications which were considered in the present thesis were in polymer post-functionalization (in situ functionalization of micellar aggregates with low and high molecular weight molecules), hydrophilic/hydrophobic tuning, chromatography and bioconjugation (enzyme thermoprecipitation and recovery, improvement of enzyme activity). Different α-functionalized co/polymers containing cholesterol moiety, aldehyde, t-Boc protected amine, TMS-protected alkyne and NHS-activated ester were designed and synthesized in this work. N2 - In dieser Arbeit wurden mittels der ATRP Methode sowie durch Benutzung funktioneller Initiatoren verschiedene Funktionalitäten an der α- und ω-Position der synthetischen Polymere (Kettenenden) eingeführt. Diese funktionalisierten Polymere können durch modulare synthetische Methoden wie z.B. die “Klick-Zykloaddition” (kupferkatalysiert oder auch kupferfreie Methoden möglich), Amidierung mit anderen synthetischen Polymeren oder Biomolekülen, oder auch mit Silikatmonolithen gekuppelt werden. Den beschriebenen Strategien folgend und unter Benutzung von thermoresponsiven, bioinerten und biokompartiblen (Co-) Polymeren mit einstellbaren Trübungspunkten können mittels Temperaturänderungen leicht steuerbare, „smarte“ Polymersysteme für verschiedene Anwendungen hergestellt werden. Im Rahmen dieser Arbeit wurden speziell Anwendungen wie die Postfunktionalisierung (in situ Funktionalisierung mizellarer Aggregate mit Molekülen, die sowohl niedrige als auch höhere Molekulargewichte aufweisen), hydrophiles/hydrophobes Tuning von Polymeren, Chromatographie an Polymeren sowie Biokonjugation von Polymeren (Enzymthermoprezipitation und -Gewinnung, Enzymaktivitätsmodifizierung) genauer untersucht. Es wurden verschiedene α-funktionalisierte (Co-)Polymere, die Cholesterol, Aldehyde, t-Boc geschützte Amine, TMS-geschützte Alkine und NHS-aktivierte Ester entwickelt und hergestellt und mittels passender ATRP Initiatoren eingeführt. KW - Atom Transfer Radical Polymerization KW - Klick-Chemie KW - Biokonjugation KW - Funktionalisierung KW - Modifizierung von Polymeren KW - ATRP KW - Click chemistry KW - Bioconjugation KW - Functionalization KW - Polymer Modification Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59723 ER - TY - THES A1 - Zapata, Sebastian Henao T1 - Paleozoic to Pliocene evolution of the Andean retroarc between 26 and 28°S: interactions between tectonics, climate, and upper plate architecture T1 - Paläozoische bis pliozäne Entwicklung des andinen Randbeckens zwischen 26 und 28° Süd: Interaktion von Tektonik, Klima und Architektur der kontinentalen Kruste BT - interactions between tectonics, climate, and upper plate architecture N2 - Interactions and feedbacks between tectonics, climate, and upper plate architecture control basin geometry, relief, and depositional systems. The Andes is part of a longlived continental margin characterized by multiple tectonic cycles which have strongly modified the Andean upper plate architecture. In the Andean retroarc, spatiotemporal variations in the structure of the upper plate and tectonic regimes have resulted in marked along-strike variations in basin geometry, stratigraphy, deformational style, and mountain belt morphology. These along-strike variations include high-elevation plateaus (Altiplano and Puna) associated with a thin-skin fold-and-thrust-belt and thick-skin deformation in broken foreland basins such as the Santa Barbara system and the Sierras Pampeanas. At the confluence of the Puna Plateau, the Santa Barbara system and the Sierras Pampeanas, major along-strike changes in upper plate architecture, mountain belt morphology, basement exhumation, and deformation style can be recognized. I have used a source to sink approach to unravel the spatiotemporal tectonic evolution of the Andean retroarc between 26 and 28°S. I obtained a large low-temperature thermochronology data set from basement units which includes apatite fission track, apatite U-Th-Sm/He, and zircon U-Th/He (ZHe) cooling ages. Stratigraphic descriptions of Miocene units were temporally constrained by U-Pb LA-ICP-MS zircon ages from interbedded pyroclastic material. Modeled ZHe ages suggest that the basement of the study area was exhumed during the Famatinian orogeny (550-450 Ma), followed by a period of relative tectonic quiescence during the Paleozoic and the Triassic. The basement experienced horst exhumation during the Cretaceous development of the Salta rift. After initial exhumation, deposition of thick Cretaceous syn-rift strata caused reheating of several basement blocks within the Santa Barbara system. During the Eocene-Oligocene, the Andean compressional setting was responsible for the exhumation of several disconnected basement blocks. These exhumed blocks were separated by areas of low relief, in which humid climate and low erosion rates facilitated the development of etchplains on the crystalline basement. The exhumed basement blocks formed an Eocene to Oligocene broken foreland basin in the back-bulge depozone of the Andean foreland. During the Early Miocene, foreland basin strata filled up the preexisting Paleogene topography. The basement blocks in lower relief positions were reheated; associated geothermal gradients were higher than 25°C/km. Miocene volcanism was responsible for lateral variations on the amount of reheating along the Campo-Arenal basin. Around 12 Ma, a new deformational phase modified the drainage network and fragmented the lacustrine system. As deformation and rock uplift continued, the easily eroded sedimentary cover was efficiently removed and reworked by an ephemeral fluvial system, preventing the development of significant relief. After ~6 Ma, the low erodibility of the basement blocks which began to be exposed caused relief increase, leading to the development of stable fluvial systems. Progressive relief development modified atmospheric circulation, creating a rainfall gradient. After 3 Ma, orographic rainfall and high relief lead to the development of proximal fluvial-gravitational depositional systems in the surrounding basins. N2 - Die Wechselwirkungen zwischen Tektonik, Klima und dem Aufbau der Oberkruste beeinflussen Relief, Beckengeometrien und sedimentäre Systeme. Die geologische Geschichte der Anden ist durch wiederkehrende tektonische Zyklen gekennzeichnet, die nachhaltig den Aufbau der umliegenden Oberkruste geprägt haben. Im Vorlandbecken der Anden (Retro-Arc Typus) führten räumlich und zeitlich variierende strukturgeologische Prozesse in der Oberkruste zu diversen Beckengeometrien, Deformationsvorgängen, sowie stratigraphische und geomorphologische Markern entlang des Streichens des Hochgebirgszuges. Die räumliche Variation beinhaltet unter anderem Hochgebirgsplateaus wie dem Altiplano oder der Puna, die jeweils mit dem thin-skin Aufschiebungsgürtel oder der thick-skin Deformation des zerbrochenen Vorlands im Santa-Barbara-System, bzw. der Sierras Pampeanas assoziiert werden. Besonders am Tripelpunkt zwischen der Puna Plateau, dem Santa-Barbara-System und der Sierras Pampeanas werden deutliche Veränderungen in der Oberkrustenarchitektur, der Oberflächenbeschaffenheit, der dominierenden Deformationsprozesse und der Heraushebung des Grundgebirges ersichtlich. Ich habe einen Quelle-zu-Senke Ansatz genutzt, um die räumliche und zeitliche tektonische Entwicklung der zentralen Ostanden zwischen 26° und 28°S aufzudecken. Dabei habe ich einen umfangreichen Niedertemperaturdatensatz aus Gesteinen des Grundgebirges gewonnen, welche folgende Methoden mit einschließen: Apatit Spaltspur Methode (apatite fission Track, AFT), Apatit U-Th-Sm/He (AHe), und Zirkon U-Th/He (Zhe) Abkühlalter. Für die stratigraphische Besprechung und die exakte Altersbestimmung der Einheiten des Miozäns wurden U-Pb ICP-MS-LA Zirkonalter aus pyroklastisch zwischengelagerten Materialien genutzt. Die modellierten ZHe Altersdatierungen legen den Schluss nahe, dass das Grundgebirge im Untersuchungsgebiet während der Famatinischen Orogenese (vor 550-450 Ma) herausgehoben wurde, woraufhin im Paläozoikum und dem Trias eine Phase von tektonischer Ruhe folgte. Während der Kreide und dem einsetzenden Salta Rift wurde das Grundgebirge in Form von Horststrukturen freigelegt. Nach der ersten Freilegung wurden einige Grundgebirgsblöcke wieder erwärmt durch die rift-parallele Grabenverfüllung im Santa-Barbara-System. Während dem Eozän und dem Oligozän ist der Übergang in ein kompressives Stressregime verantwortlich für die Heraushebung mehrerer losgelöster Grundgebirgszüge. Diese freigelegten Blöcke entstanden zeitgleich wie Gebiete mit flachem Relief, wo feuchtes Klima und geringe Erosionsraten die Herausbildung von „etchplains“ im kristallinem Grundgebirge ermöglichen. Weiterhin durchbrechen diese Gebirgsblöcke das Vorlandbecken, welches sich im Depozentrum des back-bulges der Anden herausgebildet hat. Während des frühen Miozäns füllten Vorlandbeckensedimente die vorher vorhandene paläogene Topographie. Die Grundgebirgsblöcke mit niedrigem Relief wurden wieder erwärmt und wiesen einen Temperaturgradienten von mehr als 25°C/km auf. Der Vulkanismus im Miozän war verantwortlich für laterale Variationen der Intensität der erneuten Erwärmung innerhalb des Campo-Arenal Beckens. Vor etwa 12 Ma modifizierte eine neue Deformationsphase das Abflussnetz und zerstückelte das lakustrische System. Während die Deformation und die Gebirgsbildung anhielt, wurden überlagernde Sedimentschichten einfach erodiert, effizient beseitigt und durch fluviale Prozesse umgelagert, die die weitere Herausbildung von Relief verhinderten. Nach ~6 Ma ermöglichte die geringe Erodierbarkeit des Grundgebirges deren Reliefzunahme, wodurch sich stabile fluviale Systeme herausbildeten. Möglicherweise unterbrach die fortschreitende Reliefzunahme atmosphärische Zirkulationsprozesse, sodass sich laterale Niederschlagsgradienten ausbildeten. Nach 3 Ma führten orographische Niederschlagsbarrieren zu der Entwicklung von nahe liegenden fluvial-gravitationalen Ablagerungssystemen in den umliegenden Becken. KW - climate KW - tectonics KW - Andes KW - inherited structures KW - Klima KW - Tektonik KW - Anden KW - ererbte Strukturen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439036 ER - TY - THES A1 - Zamora-López, Gorka T1 - Linking structure and function of complex cortical networks T1 - Analyse der Struktur-Funktions-Beziehungen komplexer kortikaler Netzwerke N2 - The recent discovery of an intricate and nontrivial interaction topology among the elements of a wide range of natural systems has altered the manner we understand complexity. For example, the axonal fibres transmitting electrical information between cortical regions form a network which is neither regular nor completely random. Their structure seems to follow functional principles to balance between segregation (functional specialisation) and integration. Cortical regions are clustered into modules specialised in processing different kinds of information, e.g. visual or auditory. However, in order to generate a global perception of the real world, the brain needs to integrate the distinct types of information. Where this integration happens, nobody knows. We have performed an extensive and detailed graph theoretical analysis of the cortico-cortical organisation in the brain of cats, trying to relate the individual and collective topological properties of the cortical areas to their function. We conclude that the cortex possesses a very rich communication structure, composed of a mixture of parallel and serial processing paths capable of accommodating dynamical processes with a wide variety of time scales. The communication paths between the sensory systems are not random, but largely mediated by a small set of areas. Far from acting as mere transmitters of information, these central areas are densely connected to each other, strongly indicating their functional role as integrators of the multisensory information. In the quest of uncovering the structure-function relationship of cortical networks, the peculiarities of this network have led us to continuously reconsider the stablished graph measures. For example, a normalised formalism to identify the “functional roles” of vertices in networks with community structure is proposed. The tools developed for this purpose open the door to novel community detection techniques which may also characterise the overlap between modules. The concept of integration has been revisited and adapted to the necessities of the network under study. Additionally, analytical and numerical methods have been introduced to facilitate understanding of the complicated statistical interrelations between the distinct network measures. These methods are helpful to construct new significance tests which may help to discriminate the relevant properties of real networks from side-effects of the evolutionary-growth processes. N2 - Die jüngste Entdeckung einer komplexen und nicht-trivialen Interaktionstopologie zwischen den Elementen einer großen Anzahl natürlicher Systeme hat die Art und Weise verändert, wie wir Komplexität verstehen. So bilden zum Beispiel die Nervenfasern, welche Informationen zwischen Regionen des Kortex übermitteln, ein Netzwerk, das weder vollkommen regelmäßig noch völlig zufallig ist. Die Struktur dieser Netzwerke scheint Funktionsprinzipien zu folgen, die ein Gleichgewicht zwischen Segregation (funktionale Spezialisierung) und Integration (Verarbeitung von Informationen) halten. Die Regionen des Kortex sind in Module gegliedert, welche auf die Verarbeitung unterschiedlicher Arten von Informationen, wie beispielsweise Visuelle oder Auditive, spezialisiert sind. Um eine umfassende Vorstellung von der Realität zu erzeugen, muss das Gehirn verschiedene Informationsarten kombinieren (integrieren). Wo diese Integration jedoch geschieht, ist noch ungeklärt. In dieser Dissertation wurde eine weitreichende und detaillierte graphen- theoretische Analyse der kortiko-kortikalen Organisation des Katzengehirns durchgeführt. Dabei wurde der Versuch unternommen, individuelle sowie kollektive topologische Eigenschaften der Kortexareale zu ihrer Funktion in Beziehung zu setzen. Aus der Untersuchung wird geschlussfolgert, dass der Kortex eine äußerst reichhaltige Kommunikationsstruktur aufweist, die aus einer Mischung von parallelen und seriellen übertragungsbahnen besteht, die es ermöglichen dynamische Prozesse auf vielen verschiedenen Zeitskalen zu tragen. Die Kommunikationsbahnen zwischen den sensorischen Systemen sind nicht zufällig verteilt, sondern verlaufen fast alle durch eine geringe Anzahl von Arealen. Diese zentralen Areale agieren nicht allein als übermittler von Informationen. Sie sind dicht untereinander verbunden, was auf ihre Funktion als Integrator hinweist. Bei der Analyse der Struktur-Funktions-Beziehungen kortikaler Netzwerke wurden unter Berucksichtigung der Besonderheiten des untersuchten Netzwerkes die bisher verwandten Graphenmaße überdacht und zum Teil überarbeitet. So wurde beispielsweise ein normalisierter Formalismus vorgeschlagen, um die funktionalen Rollen der Knoten in Netzwerken mit einer Community-Struktur zu identifizieren. Die für diesen Zweck entwickelten Werkzeuge ermöglichen neue Methoden zur Erkennung dieser Strukturen, die möglicherweise auch die überlappung von Modulen beschreiben. Das Konzept der Integration wurde revidiert und den Bedürfnissen des untersuchten Netzwerkes angepasst. Außerdem wurden analytische und numerische Methoden eingeführt, um das Verständnis des komplizierten statistischen Zusammenhangs zwischen den verschiedenen Netzwerkmaßen zu erleichtern. Diese Methoden sind hilfreich für die Konstruktion neuer Signifikanztests, die relevante Eigenschaften realer Netzwerke von Nebeneffekten ihrer evolutionären Wachstumsprozesse unterscheiden können. KW - komplexe Netzwerke KW - kortikale Netzwerke KW - complex networks KW - cortical networks Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52257 ER - TY - THES A1 - Zamagni, Jessica T1 - Responses of a shallow-water ecosystem to the early Paleogene greenhouse environmental conditions : evolution of Larger Foraminifera and coral communities from the Northern Tethys T1 - Veränderte Entwicklungen von Flachwasser-Ökosystemen im Bezug auf die Umweltbedingungen des Treibhaus-Klimas des frühen Paläogens : Evolution der Groß-Foraminiferen und Korallen-Gemeinschaften in der nördlichen Tethys N2 - Modern anthropogenic forcing of atmospheric chemistry poses the question of how the Earth System will respond as thousands of gigatons of greenhouse gas are rapidly added to the atmosphere. A similar, albeit nonanthropogenic, situation occurred during the early Paleogene, when catastrophic release of carbon to the atmosphere triggered abrupt increase in global temperatures. The best documented of these events is the Paleocene-Eocene Thermal Maximum (PETM, ~55 Ma) when the magnitude of carbon addition to the oceans and atmosphere was similar to those expected for the future. This event initiated global warming, changes in hydrological cycles, biotic extinction and migrations. A recently proposed hypothesis concerning changes in marine ecosystems suggests that this global warming strongly influenced the shallow-water biosphere, triggering extinctions and turnover in the Larger Foraminifera (LF) community and the demise of corals. The successions from the Adriatic Carbonate Platform (SW Slovenia) represent an ideal location to test the hypothesis of a possible causal link between the PETM and evolution of shallow-water organisms because they record continuous sedimentation from the Late Paleocene to the Early Eocene and are characterized by a rich biota, especially LF, fundamental for detailed biostratigraphic studies. In order to reconstruct paleoenvironmental conditions during deposition, I focused on sedimentological analysis and paleoecological study of benthic assemblages. During the Late Paleocene-earliest Eocene, sedimentation occurred on a shallow-water carbonate ramp system characterized by enhanced nutrient levels. LF represent the common constituent of the benthic assemblages that thrived in this setting throughout the Late Paleocene to the Early Eocene. With detailed biostratigraphic and chemostratigraphic analyses documenting the most complete record to date available for the PETM event in a shallow-water marine environment, I correlated chemostratigraphically for the first time the evolution of LF with the δ¹³C curves. This correlation demonstrated that no major turnover in the LF communities occurred synchronous with the PETM; thus the evolution of LF was mainly controlled by endogenous biotic forces. The study of Late Thanetian metric-sized microbialite-coral mounds which developed in the middle part of the ramp, documented the first Cenozoic occurrence of microbially-cemented mounds. The development of these mounds, with temporary dominance of microbial communities over corals, suggest environmentally-triggered “phase shifts” related to frequent fluctuations of nutrient/turbidity levels during recurrent wet phases which preceding the extreme greenhouse conditions of the PETM. The paleoecological study of the coral community in the microbialites-coral mounds, the study of corals from Early Eocene platform from SW France, and a critical, extensive literature research of Late Paleocene – Early Eocene coral occurrences from the Tethys, the Atlantic, the Caribbean realms suggested that these corals types, even if not forming extensive reefs, are common in the biofacies as small isolated colonies, piles of rubble or small patch-reefs. These corals might have developed ‘alternative’ life strategies to cope with harsh conditions (high/fluctuating nutrients/turbidity, extreme temperatures, perturbation of aragonite saturation state) during the greenhouse times of the early Paleogene, representing a good fossil analogue to modern corals thriving close to their thresholds for survival. These results demonstrate the complexity of the biological responses to extreme conditions, not only in terms of temperature but also nutrient supply, physical disturbance and their temporal variability and oscillating character. N2 - Die anthropogene Beeinflussung der Chemie der Atmosphäre in der modernen Zeit wirft die Frage nach dem Schicksal des Systems Erde auf, wenn tausende von Tonnen an Treibhausgasen in kurzer Zeit in die Atmosphäre einströmen. Im Känozoikum trat bereits eine ähnliche Situation während des frühen Paläogens auf, als eine katastrophale Freisetzung von Kohlenstoff in die Atmosphäre einen plötzlichen Anstieg der globalen Temperatur hervorrief. Das am besten dokumentierte dieser Ereignisse stellt das Paläozän-Eozäne Temperatur Maximum (PETM, ~55 Ma) dar, bei welchem die Größenordnung der Kohlenstoffzufuhr in Ozeanen und Atmosphäre jener ähnelte, die in der Zukunft zu erwarten ist. Das damalige Ereignis initiierte eine globale Erwärmung, Veränderungen hydrologischer Kreisläufe, biotische Auslöschung und Abwanderungen. Eine kürzlich veröffentlichte Hypothese zu Veränderungen in marinen Ökosystemen postuliert, dass diese globale Erwärmung die Biosphäre der Flachwässer stark beeinflusste, indem sie Aussterben und Fluktuation innerhalb der Gemeinschaft der Großforaminiferen (GF) sowie den Niedergang einiger Korallen bewirkte. Die Abfolgen der Adriatischen Karbonatplattform (SW-Slovenien) stellen einen idealen Ort dar, um die Hypothese des kausalen Zusammenhangs zwischen dem PETM und der Evolution der Flachwasserorganismen zu überprüfen, da sie aufgrund ihrer kontinuierlichen Sedimentation vom Spätpaläozän bis zum Früheozän und ihres Reichtums an Biota, insbesondere an GF, fundamentale Voraussetzungen für eine detaillierte biostratigraphische Studie erfüllen. Um die Paläoumweltbedingungen während der Sedimentablagerung zu rekonstruieren, wurde der Schwerpunkt dieser Arbeit auf eine sedimentologische Analyse und eine paäoökologische Studie benthischer Vergesellschaftungen gesetzt. Während dem Spätpaläozan bis zum frühesten Eozän fand die Sedimentation auf einem Flachwasser-Rampensystem statt, welches durch ein erhöhtes Nährstoffangebot gekennzeichnet war. GF stellen jenen häufigen und verbreiteten Bestandteil der benthischen Vergesellschaftungen dar, welcher in dieser Umgebung durch das Spätpaläozän hindurch bis ins Früheozän gedeihen konnte. Mit den in dieser Arbeit vorgestellten detaillierten bio- und chemostratigraphischen Analysen, deren Dokumentation den zur Zeit vollständigsten Datensatz für das PETM-Ereignis in einem flachmarinen Milieu repräsentieren, wurde die Evolution der GF zum ersten Mal mit δ¹³C -Kurven chemostratigraphisch korreliert. Diese Korrelation zeigte, dass in den GF-Gemeinschaften keine großmaßstäbliche Fluktuation zeitgleich mit dem PETM auftrat, und dass daher die Evolution der GF hauptsächlich durch endogene biotische Einflüsse kontrolliert worden sein muss. Die Studie mikrobiell-überkrustete Korallenhügel im Größenbereich zwischen einigen Metern und einigen Zehnermetern, die sich im Spätthanetium im mittleren Teil der Rampe entwickelten, dokumentiert das erste Auftreten mikrobiell-zementierter Erhebungen während des Känozoikums. Die Entwicklung dieser Erhebungen, mit einer zeitweiligen Dominanz der mikrobiellen Gemeinschaften gegenüber den Korallen, spricht für ein Auftreten Umwelt-gesteuerter "Phasenverschiebungen" im Zusammenhang mit häufigen Wechseln von Nahrungsangebot und Trübung während wiederkehrender nasser Phasen, welche dem extremen Treibhaus der PETM vorausgingen. Die paläoökologische Studie der Korallen-Gemeinschaften in den mikrobiell-überkrusteten Korallenhügeln, die Studie der Korallen der früheozänen Plattform in SW-Frankreich sowie eine kritische, ausgedehnte Literaturrecherche zum Auftreten spätpaläozäner bis früheozäner Korallen in der Tethys, im Atlantik und in der Karibik sprechen dafür, dass diese Korallentypen – selbst wenn sie nicht ausgedehnte Riffe formen – in der Biofazies häufig als kleine isolierte Kolonien, Berge von Geröll oder kleine Kuppelriffe auftreten. Diese Korallen könnten 'alternative' Überlebensstrategien entwickelt haben, um mit den rauen Bedingungen (hohes/wechselndes Nahrungsangebot, schwache/starke Trübung, schwankende Temperaturen, häufige physikalische Störungen) fertig zu werden, die während den Zeiten des paläogenen Treibhauses vorherrschten, und stellen damit ein gutes fossiles Analog zu modernen Korallen dar, welche nahe an ihrer Überlebensgrenze gedeihen. Diese Ergebnisse zeigen die Komplexität der biologischen Reaktionen auf extreme Bedingungen, nicht nur im Hinblick auf Temperaturen, sondern auch hinsichtlich Nahrungsangebot, physikalische Beeinträchtigungen sowie deren zeitliche Schwankungen und deren oszillierenden Charakter. KW - Paläoökologie KW - Paläoklimatologie KW - Flachwassercarbonate KW - Foraminifera KW - Korallen KW - paleoecology KW - paleoclimatology KW - shallow-water carbonates KW - foraminifera KW - corals Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-31853 ER - TY - THES A1 - Zali, Zahra T1 - Volcanic tremor analysis based on advanced signal processing concepts including music information retrieval (MIR) strategies N2 - Volcanoes are one of the Earth’s most dynamic zones and responsible for many changes in our planet. Volcano seismology aims to provide an understanding of the physical processes in volcanic systems and anticipate the style and timing of eruptions by analyzing the seismic records. Volcanic tremor signals are usually observed in the seismic records before or during volcanic eruptions. Their analysis contributes to evaluate the evolving volcanic activity and potentially predict eruptions. Years of continuous seismic monitoring now provide useful information for operational eruption forecasting. The continuously growing amount of seismic recordings, however, poses a challenge for analysis, information extraction, and interpretation, to support timely decision making during volcanic crises. Furthermore, the complexity of eruption processes and precursory activities makes the analysis challenging. A challenge in studying seismic signals of volcanic origin is the coexistence of transient signal swarms and long-lasting volcanic tremor signals. Separating transient events from volcanic tremors can, therefore, contribute to improving our understanding of the underlying physical processes. Some similar issues (data reduction, source separation, extraction, and classification) are addressed in the context of music information retrieval (MIR). The signal characteristics of acoustic and seismic recordings comprise a number of similarities. This thesis is going beyond classical signal analysis techniques usually employed in seismology by exploiting similarities of seismic and acoustic signals and building the information retrieval strategy on the expertise developed in the field of MIR. First, inspired by the idea of harmonic–percussive separation (HPS) in musical signal processing, I have developed a method to extract harmonic volcanic tremor signals and to detect transient events from seismic recordings. This provides a clean tremor signal suitable for tremor investigation along with a characteristic function suitable for earthquake detection. Second, using HPS algorithms, I have developed a noise reduction technique for seismic signals. This method is especially useful for denoising ocean bottom seismometers, which are highly contaminated by noise. The advantage of this method compared to other denoising techniques is that it doesn’t introduce distortion to the broadband earthquake waveforms, which makes it reliable for different applications in passive seismological analysis. Third, to address the challenge of extracting information from high-dimensional data and investigating the complex eruptive phases, I have developed an advanced machine learning model that results in a comprehensive signal processing scheme for volcanic tremors. Using this method seismic signatures of major eruptive phases can be automatically detected. This helps to provide a chronology of the volcanic system. Also, this model is capable to detect weak precursory volcanic tremors prior to the eruption, which could be used as an indicator of imminent eruptive activity. The extracted patterns of seismicity and their temporal variations finally provide an explanation for the transition mechanism between eruptive phases. N2 - Vulkane gehören zu den dynamischsten Zonen der Erde und sind für viele Veränderungen auf unserem Planeten verantwortlich. Die Vulkanseismologie zielt darauf ab, physikalischen Prozesse in Vulkansystemen besser zu verstehen und die Art und den Zeitpunkt von Eruptionen durch die Analyse der seismischen Aufzeichnungen vorherzusagen. Die Signale vulkanischer Tremore werden normalerweise vor oder während Vulkanausbrüchen beobachtet und müssen überwacht werden, um die vulkanische Aktivität zu bewerten. Die Untersuchung vulkanischer Tremore ist ein wichtiger Teil der Vulkanüberwachung, die darauf abzielt, Anzeichen für das Erwachen oder Wiedererwachen von Vulkanen zu erkennen und möglicherweise Ausbrüche vorherzusagen. Mehrere Dekaden kontinuierlicher seismischer Überwachung liefern nützliche Informationen für die operative Eruptionsvorhersage. Die ständig wachsende Menge an seismischen Aufzeichnungen stellt jedoch eine Herausforderung für die Analyse, Informationsextraktion und Interpretation für die zeitnahe Entscheidungsfindung während Vulkankrisen dar. Darüber hinaus erschweren die Komplexität der Eruptionsprozesse und Vorläuferaktivitäten die Analyse. Eine Herausforderung bei der Untersuchung seismischer Signale vulkanischen Ursprungs ist die Koexistenz von transienten Signalschwärmen und lang anhaltenden vulkanischen Tremoren. Die Trennung dieser beiden Signaltypen kann daher dazu beitragen, unser Verständnis der zugrunde liegenden physikalischen Prozesse zu verbessern. Einige ähnliche Probleme (Datenreduktion, Quellentrennung, Extraktion und Klassifizierung) werden im Zusammenhang mit Music Information Retrieval (MIR, dt. Etwa Musik-Informationsabruf) behandelt. Die Signaleigenschaften von akustischen und seismischen Aufzeichnungen weisen eine Reihe von Gemeinsamkeiten auf. Ich gehe über die klassischen Signalanalysetechniken hinaus, die normalerweise in der Seismologie verwendet werden, indem ich die Ähnlichkeiten von seismischen und akustischen Signalen und das Fachwissen aus dem Gebiet der MIR zur Informationsgewinnung nutze. Inspiriert von der Idee der harmonisch-perkussiven Trennung (HPS) in der musikalischen Signalverarbeitung habe ich eine Methode entwickelt, mit der harmonische vulkanische Erschütterungssignale extrahiert und transiente Ereignisse aus seismischen Aufzeichnungen erkannt werden können. Dies liefert ein sauberes Tremorsignal für die Tremoruntersuchung, sowie eine charakteristischen Funktion, die für die Erdbebenerkennung geeignet ist. Weiterhin habe ich unter Verwendung von HPS-Algorithmen eine Rauschunterdrückungstechnik für seismische Signale entwickelt. Diese kann zum Beispiel verwendet werden, um klarere Signale an Meeresbodenseismometern zu erhalten, die sonst durch zu starkes Rauschen überdeckt sind. Der Vorteil dieser Methode im Vergleich zu anderen Denoising-Techniken besteht darin, dass sie keine Verzerrung in der Breitbandantwort der Erdbebenwellen einführt, was sie für verschiedene Anwendungen in der passiven seismologischen Analyse zuverlässiger macht. Um Informationen aus hochdimensionalen Daten zu extrahieren und komplexe Eruptionsphasen zu untersuchen, habe ich ein fortschrittliches maschinelles Lernmodell entwickelt, aus dem ein umfassendes Signalverarbeitungsschema für vulkanische Erschütterungen abgeleitet werden kann. Mit dieser Methode können automatisch seismische Signaturen größerer Eruptionsphasen identifizieren werden. Dies ist nützlich, um die Chronologie eines Vulkansystems zu verstehen. Außerdem ist dieses Modell in der Lage, schwache vulkanische Vorläuferbeben zu erkennen, die als Indikator für bevorstehende Eruptionsaktivität verwendet werden könnten. Basierend auf den extrahierten Seismizitätsmustern und ihren zeitlichen Variationen liefere ich eine Erklärung für den Übergangsmechanismus zwischen verschiedenen Eruptionsphasen. KW - seismic signal processing KW - machine learning KW - volcano seismology KW - music information retrieval KW - noise reduction Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-610866 ER - TY - THES A1 - Zakrevskyy, Yuriy T1 - Liquid crystallinity and alignment of ionic self-assembly complexes T1 - Flüssigkristallinität und Alignment ionischer Self-Assembly Komplexe N2 - In this work the first observation of new type of liquid crystals is presented. This is ionic self-assembly (ISA) liquid crystals formed by introduction of oppositely charged ions between different low molecular tectonic units. As practically all conventional liquid crystals consist of rigid core and alkyl chains the attention is focused to the simplest case where oppositely charged ions are placed between a rigid core and alkyl tails. The aim of this work is to investigate and understand liquid crystalline and alignment properties of these materials. It was found that ionic interactions within complexes play the main role. Presence of these interactions restricts transition to isotropic phase. In addition, these interactions hold the system (like network) allowing crystallization into a single domain from aligned LC state. Alignment of these simple ISA complexes was spontaneous on a glass substrate. In order to show potentials for application perylenediimide and azobenzene containing ISA complexes have been investigated for correlations between phase behavior and their alignment properties. The best results of macroscopic alignment of perylenediimide-based ISA complexes have been obtained by zone-casting method. In the aligned films the columns of the complex align perpendicular to the phase-transition front. The obtained anisotropy (DR = 18) is thermally stable. The investigated photosensitive (azobenzene-based) ISA complexes show formation of columnar LC phases. It was demonstrated that photo alignment of such complexes was very effective (DR = 50 has been obtained). It was shown that photo-reorientation in the photosensitive ISA complexes is cooperative process. The size of domains has direct influence on efficiency of the photo-reorientation process. In the case of small domains the photo-alignment is the most effective. Under irradiation with linearly polarized light domains reorient in the plane of the film leading to macroscopic alignment of columns parallel to the light polarization and joining of small domains into big ones. Finally, the additional distinguishable properties of the ISA liquid crystalline complexes should be noted: (I) the complexes do not solve in water but readily solve in organic solvents; (II) the complexes have good film-forming properties when cast or spin-coated from organic solvent; (III) alignment of the complexes depends on their structure and secondary interactions between tectonic units. N2 - In dieser Arbeit wird erstmalig eine neue Klasse von Flüssigkristallen auf Basis ionischer Self-Assembly (ISA) Komplexe beschrieben. Während herkömmliche thermotrope Flüssigkristalle aus steifen, formanisotropen Molekülfragmenten und kovalent gebundenen Flügelgruppen (meist Alkylketten) bestehen, entstehen diese neuartigen supramolekularen Verbindungen durch die Komplexierung gegensätzlich geladener ionischer tektonischer Einheiten und Tenside. Ziel der Arbeit war es, die flüssigkristallinen und insbesondere die Orientierungseigenschaften dieser neuen Materialien am Beispiel repräsentativer Modellverbindungen zu untersuchen. Es wurde nachgewiesen, dass die ionischen Wechselwirkungen die thermischen Eigenschaften der Verbindungen entscheidend beeinflussen. So behindern sie den Übergang in die isotrope Phase. Das System wird quasi durch ein Netzwerk ionischer Wechselwirkungen stabilisiert. Makroskopisch orientierte LC Zustände sind offensichtlich Ausgangspunkt für hochgeordnete flüssigkristalline Filme oder gar für die Kristallisation von Monodomänen. In speziellen Fällen erfolgt eine spontane Ausbildung von ISA Monodomänen bereits auf Glassubstraten. Mit Hinblick auf potentielle Anwendungen wurden Perylendiimid und Azobenzen enthaltene ISA Komplexe insbesondere hinsichtlich von Zusammenhängen zwischen Phasenverhalten und Orientierungseigenschaften untersucht. Die zone-casting Methode erwies sich als besonders geeignet für die makroskopische Orientierung perylendiimidbasierter ISA Komplexe. In orientierten Filmen richten sich die Kolumnen des Komplexes senkrecht zur Phasenübergangsfront aus. Das dabei erreichte dichroitische Verhältnis (DR=18) ist thermisch stabil. Die untersuchten Azobenzen basierten ISA Komplexe weisen kolumnare LC Phasen auf. Durch Photoalignment mittels linear polarisierten Lichts werden Komplexe sehr effektiv senkrecht bzw. die Columnen der Komplexe parallel zur Polarisation des Lichtes orientiert, wobei sehr hohe DR bis zu 50 erreicht wurden. Weiterhin wurde gezeigt, dass die Photo-Reorientierung photosensitiver ISA Komplexe kooperativ erfolgt. Die Größe der Domänen hat dabei einen entscheidenden Einfluß auf die Effektivität des Photo-Reorientierungsprozesses. So ist der Prozess im Fall kleiner Domänen effektiver. Durch die Bestrahlung mit linear polarisiertem Licht werden die Domänen in der Filmebene reorientiert, was zu einer makroskopischen Ausrichtung der Kolumnen parallel zur Lichtpolarisation und zu einer Vereinigung kleiner Domänen führt. KW - Flüssigkristall KW - ionischer Self-Assembly KW - Komplex KW - Alignment KW - Liquid crystal KW - Ionic Self-Assembly KW - Complex KW - Alignment Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10048 ER - TY - THES A1 - Zakharova, Olga T1 - Analysis and modeling of transient earthquake patterns and their dependence on local stress regimes T1 - Analyse und Modellierung der transienten Erdbebenmuster und deren Abhängigkeit von lokalen Spannungsregimen N2 - Investigations in the field of earthquake triggering and associated interactions, which includes aftershock triggering as well as induced seismicity, is important for seismic hazard assessment due to earthquakes destructive power. One of the approaches to study earthquake triggering and their interactions is the use of statistical earthquake models, which are based on knowledge of the basic seismicity properties, in particular, the magnitude distribution and spatiotemporal properties of the triggered events. In my PhD thesis I focus on some specific aspects of aftershock properties, namely, the relative seismic moment release of the aftershocks with respect to the mainshocks; the spatial correlation between aftershock occurrence and fault deformation; and on the influence of aseismic transients on the aftershock parameter estimation. For the analysis of aftershock sequences I choose a statistical approach, in particular, the well known Epidemic Type Aftershock Sequence (ETAS) model, which accounts for the input of background and triggered seismicity. For my specific purposes, I develop two ETAS model modifications in collaboration with Sebastian Hainzl. By means of this approach, I estimate the statistical aftershock parameters and performed simulations of aftershock sequences as well. In the case of seismic moment release of aftershocks, I focus on the ratio of cumulative seismic moment release with respect to the mainshocks. Specifically, I investigate the ratio with respect to the focal mechanism of the mainshock and estimate an effective magnitude, which represents the cumulative aftershock energy (similar to Bath's law, which defines the average difference between mainshock and the largest aftershock magnitudes). Furthermore, I compare the observed seismic moment ratios with the results of the ETAS simulations. In particular, I test a restricted ETAS (RETAS) model which is based on results of a clock advanced model and static stress triggering. To analyze spatial variations of triggering parameters I focus in my second approach on the aftershock occurrence triggered by large mainshocks and the study of the aftershock parameter distribution and their spatial correlation with the coseismic/postseismic slip and interseismic locking. To invert the aftershock parameters I improve the modified ETAS (m-ETAS) model, which is able to take the extension of the mainshock rupture into account. I compare the results obtained by the classical approach with the output of the m-ETAS model. My third approach is concerned with the temporal clustering of seismicity, which might not only be related to earthquake-earthquake interactions, but also to a time-dependent background rate, potentially biasing the parameter estimations. Thus, my coauthors and I also applied a modification of the ETAS model, which is able to take into account time-dependent background activity. It can be applicable for two different cases: when an aftershock catalog has a temporal incompleteness or when the background seismicity rate changes with time, due to presence of aseismic forces. An essential part of any research is the testing of the developed models using observational data sets, which are appropriate for the particular study case. Therefore, in the case of seismic moment release I use the global seismicity catalog. For the spatial distribution of triggering parameters I exploit two aftershock sequences of the Mw8.8 2010 Maule (Chile) and Mw 9.0 2011 Tohoku (Japan) mainshocks. In addition, I use published geodetic slip models of different authors. To test our ability to detect aseismic transients my coauthors and I use the data sets from Western Bohemia (Central Europe) and California. Our results indicate that: (1) the seismic moment of aftershocks with respect to mainshocks depends on the static stress changes and is maximal for the normal, intermediate for thrust and minimal for strike-slip stress regimes, where the RETAS model shows a good correspondence with the results; (2) The spatial distribution of aftershock parameters, obtained by the m-ETAS model, shows anomalous values in areas of reactivated crustal fault systems. In addition, the aftershock density is found to be correlated with coseismic slip gradient, afterslip, interseismic coupling and b-values. Aftershock seismic moment is positively correlated with the areas of maximum coseismic slip and interseismically locked areas. These correlations might be related to the stress level or to material properties variations in space; (3) Ignoring aseismic transient forcing or temporal catalog incompleteness can lead to the significant under- or overestimation of the underlying trigger parameters. In the case when a catalog is complete, this method helps to identify aseismic sources. N2 - Untersuchungen im Bereich der Erdbebennukleation, sowie der Erdbebeninteraktion und induzierter Seismizität, sind wegen des enormen Zerstörungspotenzials von Erdbeben besonders wichtig für seismische Gefährdungsanalysen. In meiner Doktorarbeit fokussiere ich mich auf einige Eigenschaften von Nachbeben, insbesondere auf deren freigesetztes seismisches Moment in Relation zum Hauptbeben, die räumliche Korrelation zwischen der Nachbebenaktivität und der Deformationsgeschichte der Verwerfung und den Einfluss von aseismischen Transienten auf die Bestimmung von Nachbebenparametern. Ich habe einen statistischen Ansatz für die Analyse der Nachbebensequenzen gewählt. Das sogenannte Epidemic Type Aftershock Sequence (ETAS) Modell berücksichtigt sowohl Hintergrundseismizität als auch getriggerte Erdbebenaktivität. Für meine Zwecke habe ich zusammen mit Sebastian Hainzl zwei Modifikationen für dieses ETAS Modell entwickelt. Mittels dieser Ansätze habe ich die statistischen Parameter der Nachbebenaktivität bestimmt und Simulationen von Nachbebensequenzen durchgeführt. Im Falle des freigesetzten seismischen Moments von Nachbeben habe ich das Verhältnis des kummulativen Moments der Nachbeben in Bezug zum Hauptbeben untersucht. Im Speziellen betrachte ich das Verhältnis in Bezug auf den Herdmechanismus des Hauptbebens und bestimme eine effektive Magnitude, welche die kummulative Nachbebenenergie darstellt (ähnlich zu Bath's Gesetz, welches den durchschnittlichen Unterschied zwischen der Hauptbebenmagnitude und der Magnitude des größten Nachbebens beschreibt). Desweiteren vergleiche ich das Verhältnis des beobachteten seismischen Moments mit den Ergebnissen von ETAS-basierten Simulationen. Dabei teste ich ein Restricted ETAS (RETAS) Modell, welches auf den Resultaten eines Clock-Advance Modells und den durch das Hauptbeben ausgelösten statischen Spannungsänderungen basiert. Um die räumliche Variation der Trigger-Parameter zu analysieren, fokussiere ich mich in meinem zweiten Modellansatz auf das Auftreten von Nachbeben infolge von großen Hauptbeben, sowie die Verteilung von Nachbebenparametern und deren räumliche Korrelation mit ko-/post-seismischen Verschiebungen und inter-seismischer Verhakung. Zum Bestimmen der Nachbebenparameter habe ich ein modifiziertes ETAS (m-ETAS) Modell analysiert, welches die räumliche Ausdehnung des Hauptbebenbruches berücksichtigen kann. Ich vergleiche die Ergebnisse des klassischen Ansatzes mit denen des m-ETAS Modells. Mein dritter Versuch beschäftigt sich mit dem zeitlichen Clustern der Seismizität, welche nicht nur auf Erdbeben-Erdbeben-Interaktion zurückzuführen ist, sondern auch auf eine zeitabhängige Hintergrundrate, die die Parameterabschätzung verfälschen kann. Meine Koautoren und ich haben dem ETAS Modell darum eine weitere Modifikation hinzugefügt, welche in der Lage ist, eine zeitabhängige Hintergrundaktivität einzubeziehen. Dieses Modell kann auf zwei Fälle angewendet werden, einerseits wenn ein Erdbebenkatalog zeitlich unvollständig ist und andererzeits wenn sich die Hintergrundseismizität, durch Vorhandensein aseismischer Kräfte, zeitlich verändert. Ein wichtiger Teil dieser Forschung ist es die entwickelten Modelle anhand von beobachteten Daten zu testen. Darum benutze ich im Falle des freigesetzten seismischen Moments einen globalen Erdbebenkatalog. Zur Bestimmung der räumlichen Verteilung von Trigger-Parametern untersuche ich zwei Nachbebensequenzen, die des 2010er Maule (Chile) Mw8.8 Erdbebens und die des 2011er Tohoku (Japan) Mw9.0 Erdbebens. Zusätzlich benutze ich publizierte geodätische Verschiebungsmodelle verschiedener Autoren. Um die Detektionsfähigkeit für aseismische Transienten zu testen, benutzen meine Koautoren und ich Daten aus West-Böhmen (Zentraleuropa) und Kalifornien. Unsere Ergebnisse zeigen: (1) Das Verhältnis des kumulativen seismischen Moments der Nachbeben zum Hauptbeben ist von den statischen Spannungsänderung abhängig und ist maximal in Spannungsregimen dominiert von Abschiebungen, mittel für Überschiebungen und minimal für Blattverschiebungen, wobei das RETAS Modell eine gute Korrelation mit unseren Ergebnissen zeigt. (2) Die mit dem m-ETAS Modell erhaltene räumliche Verteilung von Nachbebenparametern zeigt ungewöhnliche Werte in Gebieten reaktivierter krustaler Verwerfungssysteme. Zusätzlich fanden wir heraus, dass die Nachbebendichte mit dem ko-seismischen Verschiebungsgradienten, Nachkriechen, inter-seismischer Kopplung und b-Werten korreliert. Das seismische Moment untersuchter Nachbeben ist positiv korreliert mit Bereichen maximaler koseismischer Verschiebungen und interseismisch blockierten Bereichen. Diese Korrelation könnte dem Spannungsniveau oder räumlicher Variation der Materialeigenschaften geschuldet sein. (3) Wenn man aseismische transiente Kräfte oder zeitliche Katalogunvollständigkeit ignoriert, kann das zu signifikantem Unter- oder Überschätzen der zugrunde liegenden Seismizitäts-Parametern führen. Im Fall eines kompletten Katalogs kann diese Methode helfen, aseismische Quellen zu identifizieren. KW - aftershocks KW - statistical seismology KW - transient earthquake patterns KW - ETAS model KW - uncertainty estimation KW - statistische Seismologie KW - Nachbeben KW - transiente Erdbebenmuster KW - ETAS Modell KW - Abschätzung der Unsicherheiten Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-86455 ER - TY - THES A1 - Zakariás, Lilla T1 - Transfer effects after working memory training in post-stroke aphasia T1 - Transfereffekte nach Arbeitsgedächtnistraining bei Aphasie nach Schlaganfall N2 - Background: Individuals with aphasia after stroke (IWA) often present with working memory (WM) deficits. Research investigating the relationship between WM and language abilities has led to the promising hypothesis that treatments of WM could lead to improvements in language, a phenomenon known as transfer. Although recent treatment protocols have been successful in improving WM, the evidence to date is scarce and the extent to which improvements in trained tasks of WM transfer to untrained memory tasks, spoken sentence comprehension, and functional communication is yet poorly understood. Aims: We aimed at (a) investigating whether WM can be improved through an adaptive n-back training in IWA (Study 1–3); (b) testing whether WM training leads to near transfer to unpracticed WM tasks (Study 1–3), and far transfer to spoken sentence comprehension (Study 1–3), functional communication (Study 2–3), and memory in daily life in IWA (Study 2–3); and (c) evaluating the methodological quality of existing WM treatments in IWA (Study 3). To address these goals, we conducted two empirical studies – a case-controls study with Hungarian speaking IWA (Study 1) and a multiple baseline study with German speaking IWA (Study 2) – and a systematic review (Study 3). Methods: In Study 1 and 2 participants with chronic, post-stroke aphasia performed an adaptive, computerized n-back training. ‘Adaptivity’ was implemented by adjusting the tasks’ difficulty level according to the participants’ performance, ensuring that they always practiced at an optimal level of difficulty. To assess the specificity of transfer effects and to better understand the underlying mechanisms of transfer on spoken sentence comprehension, we included an outcome measure testing specific syntactic structures that have been proposed to involve WM processes (e.g., non-canonical structures with varying complexity). Results: We detected a mixed pattern of training and transfer effects across individuals: five participants out of six significantly improved in the n-back training. Our most important finding is that all six participants improved significantly in spoken sentence comprehension (i.e., far transfer effects). In addition, we also found far transfer to functional communication (in two participants out of three in Study 2) and everyday memory functioning (in all three participants in Study 2), and near transfer to unpracticed n-back tasks (in four participants out of six). Pooled data analysis of Study 1 and 2 showed a significant negative relationship between initial spoken sentence comprehension and the amount of improvement in this ability, suggesting that the more severe the participants’ spoken sentence comprehension deficit was at the beginning of training, the more they improved after training. Taken together, we detected both near far and transfer effects in our studies, but the effects varied across participants. The systematic review evaluating the methodological quality of existing WM treatments in stroke IWA (Study 3) showed poor internal and external validity across the included 17 studies. Poor internal validity was mainly due to use of inappropriate design, lack of randomization of study phases, lack of blinding of participants and/or assessors, and insufficient sampling. Low external validity was mainly related to incomplete information on the setting, lack of use of appropriate analysis or justification for the suitability of the analysis procedure used, and lack of replication across participants and/or behaviors. Results in terms of WM, spoken sentence comprehension, and reading are promising, but further studies with more rigorous methodology and stronger experimental control are needed to determine the beneficial effects of WM intervention. Conclusions: Results of the empirical studies suggest that WM can be improved with a computerized and adaptive WM training, and improvements can lead to transfer effects to spoken sentence comprehension and functional communication in some individuals with chronic post-stroke aphasia. The fact that improvements were not specific to certain syntactic structures (i.e., non-canonical complex sentences) in spoken sentence comprehension suggest that WM is not involved in the online, automatic processing of syntactic information (i.e., parsing and interpretation), but plays a more general role in the later stage of spoken sentence comprehension (i.e., post-interpretive comprehension). The individual differences in treatment outcomes call for future research to clarify how far these results are generalizable to the population level of IWA. Future studies are needed to identify a few mechanisms that may generalize to at least a subpopulation of IWA as well as to investigate baseline non-linguistic cognitive and language abilities that may play a role in transfer effects and the maintenance of such effects. These may require larger yet homogenous samples. N2 - Patienten mit einer Aphasie nach einem Schlaganfall weisen häufig auch Beeinträchtigungen des Arbeitsgedächtnisses auf. Studien, die das Zusammenspiel von Arbeitsgedächtnis und Sprachfähigkeit untersuchen führten zu der Hypothese, dass ein Training des Arbeitsgedächtnisses auch zu Verbesserungen der Sprache führen könnten (sogenannte Transfer-Effekte). Obwohl jüngste Therapiestudien nachweislich die Leistung des Arbeitsgedächtnisses verbessern konnten, gibt es derzeitig nur wenig Evidenzen, ob und in welchem Ausmaß sich Verbesserungen des Arbeitsgedächtnisses auch auf ungeübte Gedächtnisaufgaben, das auditive Satzverständnis und die Kommunikationsfähigkeit im Alltag auswirken können. Das vorliegende Dissertationsprojekt untersucht, ob (a) das Arbeitsgedächtnis bei Patienten mit einer Aphasie über ein adaptiertes N-Back-Training verbessert werden kann (Studie 1–3) und (b) das Arbeitsgedächtnistraining zu einem nahen Transfer auf ungeübte Arbeitsgedächtnisaufgaben (Studie 1–3) und zu einem weiten Transfer auf auditive Satzverständnisaufgaben (Studie 1–3), auf die Alltagskommunikation (Studie 2–3) und auf das Alltagsgedächtnis (Studie 2–3) bei Patienten mit einer Aphasie führt. Zudem evaluiert das vorliegende Projekt (c) die methodische Qualität bereits existierender Arbeitsgedächtnistrainings bei Patienten mit einer Aphasie (Studie 3). Zur Beantwortung der vorliegenden Studienfragen wurden zwei empirische Studien (Studie 1 und 2) sowie ein systematisches Review (Studie 3) durchgeführt. In Studie 1 und 2 durchliefen Studienteilnehmer mit einer chronischen Aphasie nach einem Schlaganfall ein adaptiertes N-Back-Training. Es zeigte sich ein sehr gemischtes Trainingsmuster und Transfereffekte bei den Studienteilnehmern: Fünf von sechs Probanden verbesserten sich signifikant beim N-Back-Training. Alle sechs Probanden zeigten zudem signifikante weite Transfereffekte auf das auditive Satzverständnis. Darüber hinaus konnte ein weiter Transfereffekt auf die Kommunikationsfähigkeit und das Gedächtnis im Alltag sowie ein naher Transfer auf ungeübte N-Back-Aufgaben nachgewiesen werden. Allerdings schwankte das Transferverhalten innerhalb der Probanden stark. Das systematische Review (Studie 3) zeigte eine schwache interne und externe Validität über die 17 eingeschlossenen Studien. Obwohl die Ergebnisse bezüglich des Arbeitsgedächtnisses, des auditiven Satzverständnisses und des Lesens trotz der methodischen Einschränkungen der untersuchten Studien vielversprechend sind, sollten Schlussfolgerungen über die positiven Transfereffekte von Arbeitsgedächtnistrainings dennoch mit Vorsicht betrachtet werden. Die Ergebnisse der empirischen Studien zeigten, dass sich mit Hilfe eines computergestützten und adaptiven Trainings das Arbeitsgedächtnis verbessert und zudem ein Transfer auf das auditive Satzverständnis und die Kommunikationsfähigkeit im Alltag bei einigen Patienten mit einer chronischen Aphasie nach einem Schlaganfall erzielt werden konnte. Es sind jedoch weitere Studien notwendig, um den Einfluss individueller Unterschiede auf die individuellen Transfermaße aufzudecken und eine Generalisierbarkeit der Ergebnisse auf Untergruppen aphasischer Teilnehmer zu beleuchten. Darüber hinaus werden zukünftige Studien benötigt, die die Rolle der Baseline nicht-linguistischer kognitiver Fähigkeiten und der Sprachproduktion sowie die Aufrechterhaltung von Transfereffekte weiter untersuchen. KW - aphasia KW - working memory KW - treatment KW - Aphasie KW - Arbeitsgedächtnis KW - Therapie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423600 ER - TY - THES A1 - Zajnulina, Marina T1 - Optical frequency comb generation in optical fibres T1 - Generierung von optischen Frequenzkämmen in optischen Fasern N2 - Optical frequency combs (OFC) constitute an array of phase-correlated equidistant spectral lines with nearly equal intensities over a broad spectral range. The adaptations of combs generated in mode-locked lasers proved to be highly efficient for the calibration of high-resolution (resolving power > 50000) astronomical spectrographs. The observation of different galaxy structures or the studies of the Milky Way are done using instruments in the low- and medium resolution range. To such instruments belong, for instance, the Multi Unit Spectroscopic Explorer (MUSE) being developed for the Very Large Telescope (VLT) of the European Southern Observatory (ESO) and the 4-metre Multi-Object Spectroscopic Telescope (4MOST) being in development for the ESO VISTA 4.1 m Telescope. The existing adaptations of OFC from mode-locked lasers are not resolvable by these instruments. Within this work, a fibre-based approach for generation of OFC specifically in the low- and medium resolution range is studied numerically. This approach consists of three optical fibres that are fed by two equally intense continuous-wave (CW) lasers. The first fibre is a conventional single-mode fibre, the second one is a suitably pumped amplifying Erbium-doped fibre with anomalous dispersion, and the third one is a low-dispersion highly nonlinear optical fibre. The evolution of a frequency comb in this system is governed by the following processes: as the two initial CW-laser waves with different frequencies propagate through the first fibre, they generate an initial comb via a cascade of four-wave mixing processes. The frequency components of the comb are phase-correlated with the original laser lines and have a frequency spacing that is equal to the initial laser frequency separation (LFS), i.e. the difference in the laser frequencies. In the time domain, a train of pre-compressed pulses with widths of a few pico-seconds arises out of the initial bichromatic deeply-modulated cosine-wave. These pulses undergo strong compression in the subsequent amplifying Erbium-doped fibre: sub-100 fs pulses with broad OFC spectra are formed. In the following low-dispersion highly nonlinear fibre, the OFC experience a further broadening and the intensity of the comb lines are fairly equalised. This approach was mathematically modelled by means of a Generalised Nonlinear Schrödinger Equation (GNLS) that contains terms describing the nonlinear optical Kerr effect, the delayed Raman response, the pulse self-steepening, and the linear optical losses as well as the wavelength-dependent Erbium gain profile for the second fibre. The initial condition equation being a deeply-modulated cosine-wave mimics the radiation of the two initial CW lasers. The numerical studies are performed with the help of Matlab scripts that were specifically developed for the integration of the GNLS and the initial condition according to the proposed approach for the OFC generation. The scripts are based on the Fourth-Order Runge-Kutta in the Interaction Picture Method (RK4IP) in combination with the local error method. This work includes the studies and results on the length optimisation of the first and the second fibre depending on different values of the group-velocity dispersion of the first fibre. Such length optimisation studies are necessary because the OFC have the biggest possible broadband and exhibit a low level of noise exactly at the optimum lengths. Further, the optical pulse build-up in the first and the second fibre was studied by means of the numerical technique called Soliton Radiation Beat Analysis (SRBA). It was shown that a common soliton crystal state is formed in the first fibre for low laser input powers. The soliton crystal continuously dissolves into separated optical solitons as the input power increases. The pulse formation in the second fibre is critically dependent on the features of the pulses formed in the first fibre. I showed that, for low input powers, an adiabatic soliton compression delivering low-noise OFC occurs in the second fibre. At high input powers, the pulses in the first fibre have more complicated structures which leads to the pulse break-up in the second fibre with a subsequent degradation of the OFC noise performance. The pulse intensity noise studies that were performed within the framework of this thesis allow making statements about the noise performance of an OFC. They showed that the intensity noise of the whole system decreases with the increasing value of LFS. N2 - Optische Frequenzkämme (OFK) stellen ein diskretes optisches Spektrum mit phasenkorrelierten Linien dar, die gleichen spektralen Abstand voneinander haben und fast gleiche Intensität über einen größeren Spektralbereich aufweisen. In modengelockten Lasern generierte Kämme haben sich als höchst effizient für die Kalibrierung von hochauflösenden (Auflösungsvermögen > 50000) astronomischen Spektrografen erwiesen. Die astronomische Beobachtung von verschiedenen Galaxie-Strukturen oder die Studien der Milchstraße werden jedoch mit Hilfe von nieder- bis mittelauflösenden Instrumenten gemacht. Zu solchen Instrumenten gehören zum Beispiel der Multi-Spectroscopic-Exproler (MUSE), der gerade für das Very-Large-Telescope (VLT) der Europäischen Südsternwarte (ESO) entwickelt wird, und das 4-metre-Multi-Object-Spectroscopic-Telescope (4MOST), das sich in der Entwicklung für das ESO-VISTA-4,1m-Teleskop befindet. Die existierenden Anpassungen von OFK von modengelockten Lasern sind für solche Instrumente nicht auflösbar. Im Rahmen dieser Arbeit wird ein faserbasierter Ansatz für die Generierung von OFK für den Bereich der nieder- bis mittelauflösenden Instrumente numerisch studiert. Die experimentelle Umsetzung dieses Ansatzes besteht aus drei optischen Fasern, in die das Strahlungsfeld von zwei Dauerstrichlasern mit gleicher Intensität eingespeist wird. Die erste Faser ist eine konventionelle Monomodefaser, die zweite ist eine Erbium-dotierte Verstärkerfaser mit negativer Dispersion, die dritte ist eine hoch nichtlineare Faser mit niedriger Dispersion. Die Entwicklung eines OFKs in diesem System geschieht auf folgende Art und Weise: als die Laserwellen mit verschiedenen Frequenzen sich durch die erste Faser ausbreiten, erzeugen sie einen Anfangskamm durch einen Kaskadenprozess der Vier-Wellen-Mischung (VWM). Die neu entstandenen Frequenzkomponenten des Kamms sind frequenzkorreliert und haben einen spektralen Abstand, der der Laserfrequenzseparation (LFS) gleicht. Dies entspricht dem Entstehen von einem Zug von prä-komprimierten optischen Impulsen mit Impulsbreiten von einigen Pikosekunden. Diese Impulse werden strakt komprimiert in der nachfolgenden Erbium-dotierten Faser: es entstehen Sub-100-Femtosekunden-Impulse mit breiten OFK-Spektren. In der anschließenden hochnichtlinearen Faser wird das Kamm-Spektrum weiter verbreitet, während seine Frequenzlinien in ihren Intensitäten ausgeglichen werden. Dieser Ansatz wurde mathematisch mit Hilfe einer Verallgemeinerten Nichtlinearen Schrödinger Gleichung (VNSG) modelliert, die die Terme für den nichtlinearen optischen Kerr-Effekt, den Raman-Effekt, die Impuls-Selbstaufsteilung, die optischen Verluste und das wellenlängenabhängigen Erbium-Verstärkungsprofil für die zweite Faser enthält. Die Gleichung der Anfangsbedingung von der Form einer bichromatischen tief durchmodulierten Kosinus-Welle repräsentiert das Strahlungsfeld zweier Dauerstrichlaser. Die numerischen Studien sind mit Hilfe von Matlab-Skripten durchgeführt, die speziell für die numerische Integration der VNSG mit der bichromatischen Kosinus-Welle als Anfangsbedingung entworfen worden sind. Diese Skripte basieren auf dem numerischen Verfahren Fourth-Order Runge-Kutta in the Interaction Picture Method, das mit der Methode der Auswertung von lokalen numerischen Fehlern kombiniert wurde. Diese Arbeit enthält die Studien und Resultate der Optimierung der Längen der ersten und der zweiten Faser in Abhängigkeit von der Gruppengeschwindigkeitsdispersion der ersten Faser. Solche Optimierungsstudien sind notwendig, da genau an solche optimierten Längen weisen die Frequenzkämme die größte Bandbreite auf sowie das niedrigste Rauschniveau. Des Weiteren wurde der Aufbau von optischen Impulsen in der ersten und der zweiten Faser des Ansatzes mittels der numerischen Technik Soliton Radiation Beat Analysis analysiert. Es wurde gezeigt, dass für niedrige Eingangsleistungen ein kollektiver Solitonenkristall in der ersten Faser generiert wird, der sich mit steigender Eingangsleistung in freie optische Solitonen auflöst. Was die zweite Faser betrifft, so wurde gezeigt, dass der Aufbau und Ausbreitung von optischen Impulsen in dieser Faser kritisch von den Eigenschaften der Impulse abhängt, die in der ersten Faser aufgebaut wurden. So findet adiabatische Solitonenkompression in der zweiten Faser statt, falls die Eingangsleistung niedrig ist und die Form der Impulse in der ersten Faser relativ einfach. Für höhere Eingangsleistungen ist der Aufbau und somit die Dynamik der Impulse in der ersten Faser komplizierter. Solche Impulse zerfallen dann in der zweiten Faser, was zum Erhöhen des Intensitätsrauschens führt. Die Studien des Intensitätsrauschens der optischen Impulse, die im Rahmen dieser Arbeit durchgeführt wurden, erlauben die Aussagen über das Rauschverhalten der OFK. Diese Studien haben gezeigt, dass das Intensitätsrauschen des Gesamtsystems (d.h. aller drei Fasern) mit steigender LFS nachlässt. KW - optical frequency combs KW - spectrograph calibration KW - generalised nonlinear Schrödinger equation KW - four-wave mixing KW - optical solitons KW - optische Frequenzkämme KW - Kalibrierung von Spektrografen KW - verallgemeinerte nichlineare Schrödinger Gleichung KW - Vier-Wellen-Mischung KW - optische Solitonen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88776 ER - TY - THES A1 - Zaehle, Sönke T1 - Process-based simulation of the terrestrial biosphere : an evaluation of present-day and future terrestrial carbon balance estimates and their uncertainty T1 - Prozessbasierte Modellierung der terrestrischen Biosphäre : eine Auswertung heutiger und zukünftiger terrestrischer Kohlenstoffbilanzabschätzungen und ihrer Unsicherheit N2 - At present, carbon sequestration in terrestrial ecosystems slows the growth rate of atmospheric CO2 concentrations, and thereby reduces the impact of anthropogenic fossil fuel emissions on the climate system. Changes in climate and land use affect terrestrial biosphere structure and functioning at present, and will likely impact on the terrestrial carbon balance during the coming decades - potentially providing a positive feedback to the climate system due to soil carbon releases under a warmer climate. Quantifying changes, and the associated uncertainties, in regional terrestrial carbon budgets resulting from these effects is relevant for the scientific understanding of the Earth system and for long-term climate mitigation strategies. A model describing the relevant processes that govern the terrestrial carbon cycle is a necessary tool to project regional carbon budgets into the future. This study (1) provides an extensive evaluation of the parameter-based uncertainty in model results of a leading terrestrial biosphere model, the Lund-Potsdam-Jena Dynamic Global Vegetation Model (LPJ-DGVM), against a range of observations and under climate change, thereby complementing existing studies on other aspects of model uncertainty; (2) evaluates different hypotheses to explain the age-related decline in forest growth, both from theoretical and experimental evidence, and introduces the most promising hypothesis into the model; (3) demonstrates how forest statistics can be successfully integrated with process-based modelling to provide long-term constraints on regional-scale forest carbon budget estimates for a European forest case-study; and (4) elucidates the combined effects of land-use and climate changes on the present-day and future terrestrial carbon balance over Europe for four illustrative scenarios - implemented by four general circulation models - using a comprehensive description of different land-use types within the framework of LPJ-DGVM. This study presents a way to assess and reduce uncertainty in process-based terrestrial carbon estimates on a regional scale. The results of this study demonstrate that simulated present-day land-atmosphere carbon fluxes are relatively well constrained, despite considerable uncertainty in modelled net primary production. Process-based terrestrial modelling and forest statistics are successfully combined to improve model-based estimates of vegetation carbon stocks and their change over time. Application of the advanced model for 77 European provinces shows that model-based estimates of biomass development with stand age compare favourably with forest inventory-based estimates for different tree species. Driven by historic changes in climate, atmospheric CO2 concentration, forest area and wood demand between 1948 and 2000, the model predicts European-scale, present-day age structure of forests, ratio of biomass removals to increment, and vegetation carbon sequestration rates that are consistent with inventory-based estimates. Alternative scenarios of climate and land-use change in the 21st century suggest carbon sequestration in the European terrestrial biosphere during the coming decades will likely be on magnitudes relevant to climate mitigation strategies. However, the uptake rates are small in comparison to the European emissions from fossil fuel combustion, and will likely decline towards the end of the century. Uncertainty in climate change projections is a key driver for uncertainty in simulated land-atmosphere carbon fluxes and needs to be accounted for in mitigation studies of the terrestrial biosphere. N2 - Kohlenstoffspeicherung in terrestrischen Ökosystemen reduziert derzeit die Wirkung anthropogener CO2-Emissionen auf das Klimasystem, indem sie die Wachstumsrate der atmosphärischer CO2-Konzentration verlangsamt. Die heutige terrestrische Kohlenstoffbilanz wird wesentlich von Klima- und Landnutzungsänderungen beeinflusst. Diese Einflussfaktoren werden sich auch in den kommenden Dekaden auf die terrestrische Biosphäre auswirken, und dabei möglicherweise zu einer positiven Rückkopplung zwischen Biosphäre und Klimasystem aufgrund von starken Bodenkohlenstoffverlusten in einem wärmeren Klima führen. Quantitative Abschätzungen der Wirkung dieser Einflussfaktoren - sowie der mit ihnen verbundenen Unsicherheit - auf die terrestrische Kohlenstoffbilanz sind daher sowohl für das Verständnis des Erdsystems, als auch für eine langfristig angelegte Klimaschutzpolitik relevant. Um regionale Kohlenstoffbilanzen in die Zukunft zu projizieren, sind Modelle erforderlich, die die wesentlichen Prozesse des terrestrischen Kohlenstoffkreislaufes beschreiben. Die vorliegende Arbeit (1) analysiert die parameterbasierte Unsicherheit in Modellergebnissen eines der führenden globalen terrestrischen Ökosystemmodelle (LPJ-DGVM) im Vergleich mit unterschiedlichen ökosystemaren Messgrößen, sowie unter Klimawandelprojektionen, und erweitert damit bereits vorliegende Studien zu anderen Aspekten der Modelunsicherheit; (2) diskutiert unter theoretischen und experimentellen Aspekten verschiedene Hypothesen über die altersbedingte Abnahme des Waldwachstums, und implementiert die vielversprechenste Hypothese in das Model; (3) zeigt für eine europäische Fallstudie, wie Waldbestandsstatistiken erfolgreich für eine verbesserte Abschätzung von regionalen Kohlenstoffbilanzen in Wäldern durch prozessbasierten Modelle angewandt werden können; (4) untersucht die Auswirkung möglicher zukünftiger Klima- und Landnutzungsänderungen auf die europäische Kohlenstoffbilanz anhand von vier verschiedenen illustrativen Szenarien, jeweils unter Berücksichtigung von Klimawandelprojektionen vier verschiedener Klimamodelle. Eine erweiterte Version von LPJ-DGVM findet hierfür Anwendung, die eine umfassende Beschreibung der Hauptlandnutzungstypen beinhaltet. Die vorliegende Arbeit stellt einen Ansatz vor, um Unsicherheiten in der prozessbasierten Abschätzung von terrestrischen Kohlenstoffbilanzen auf regionaler Skala zu untersuchen und zu reduzieren. Die Ergebnisse dieser Arbeit zeigen, dass der Nettokohlenstoffaustausch zwischen terrestrischer Biosphäre und Atmosphäre unter heutigen klimatischen Bedingungen relativ sicher abgeschätzt werden kann, obwohl erhebliche Unsicherheit über die modelbasierte terrestrische Nettoprimärproduktion existiert. Prozessbasierte Modellierung und Waldbestandsstatistiken wurden erfolgreich kombiniert, um verbesserte Abschätzungen von regionalen Kohlenstoffvorräten und ihrer Änderung mit der Zeit zu ermöglichen. Die Anwendung des angepassten Modells in 77 europäischen Regionen zeigt, dass modellbasierte Abschätzungen des Biomasseaufwuchses in Wäldern weitgehend mit inventarbasierten Abschätzungen für verschiede Baumarten übereinstimmen. Unter Berücksichtigung von historischen Änderungen in Klima, atmosphärischem CO2-Gehalt, Waldfläche und Holzernte (1948-2000) reproduziert das Model auf europäischer Ebene die heutigen, auf Bestandsstatistiken beruhenden, Abschätzungen von Waldaltersstruktur, das Verhältnis von Zuwachs und Entnahme von Biomasse, sowie die Speicherungsraten im Kohlenstoffspeicher der Vegetation. Alternative Szenarien von zukünftigen Landnutzungs- und Klimaänderungen legen nahe, dass die Kohlenstoffaufnahme der europäischen terrestrischen Biosphäre von relevanter Größenordnung für Klimaschutzstrategien sind. Die Speicherungsraten sind jedoch klein im Vergleich zu den absoluten europäischen CO2-Emissionen, und nehmen zudem sehr wahrscheinlich gegen Ende des 21. Jahrhunderts ab. Unsicherheiten in Klimaprojektionen sind eine Hauptursache für die Unsicherheiten in den modellbasierten Abschätzungen des zukünftigen Nettokohlenstoffaustausches und müssen daher in Klimaschutzanalysen der terrestrischen Biosphäre berücksichtigt werden. KW - Terrestrische Ökologie KW - Kohlenstoffkreislauf KW - Modellierung KW - Landnutzung KW - Anthropogene Klimaänderung KW - dynamic global vegetation model KW - terrestrial carbon balance KW - forest age-structure KW - model uncertainty KW - global change Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5263 ER - TY - THES A1 - Youk, Sol T1 - Molecular design of heteroatom-doped nanoporous carbons with controlled porosity and surface polarity for gas physisorption and energy storage N2 - The world energy consumption has constantly increased every year due to economic development and population growth. This inevitably caused vast amount of CO2 emission, and the CO2 concentration in the atmosphere keeps increasing with economic growth. To reduce CO2 emission, various methods have been developed but there are still many bottlenecks to be solved. Solvents easily absorbing CO2 such as monoethanol-amine (MEA) and diethanolamine, for example, have limitations of solvent loss, amine degradation, vulnerability to heat and toxicity, and the high cost of regeneration which is especially caused due to chemisorption process. Though some of these drawbacks can be compensated through physisorption with zeolites and metal-organic frameworks (MOFs) by displaying significant adsorption selectivity and capacity even in ambient conditions, limitations for these materials still exist. Zeolites demand relatively high regeneration energy and have limited adsorption kinetics due to the exceptionally narrow pore structure. MOFs have low stability against heat and moisture and high manufacturing cost. Nanoporous carbons have recently received attention as an attractive functional porous material due to their unique properties. These materials are crucial in many applications of modern science and industry such as water and air purification, catalysis, gas separation, and energy storage/conversion due to their high chemical and thermal stability, and in particular electronic conductivity in combination with high specific surface areas. Nanoporous carbons can be used to adsorb environmental pollutants or small gas molecules such as CO2 and to power electrochemical energy storage devices such as batteries and fuel cells. In all fields, their pore structure or electrical properties can be modified depending on their purposes. This thesis provides an in-depth look at novel nanoporous carbons from the synthetic and the application point of view. The interplay between pore structure, atomic construction, and the adsorption properties of nanoporous carbon materials are investigated. Novel nanoporous carbon materials are synthesized by using simple precursor molecules containing heteroatoms through a facile templating method. The affinity, and in turn the adsorption capacity, of carbon materials toward polar gas molecules (CO2 and H2O) is enhanced by the modification of their chemical construction. It is also shown that these properties are important in electrochemical energy storage, here especially for supercapacitors with aqueous electrolytes which are basically based on the physisorption of ions on carbon surfaces. This shows that nanoporous carbons can be a “functional” material with specific physical or chemical interactions with guest species just like zeolites and MOFs. The synthesis of sp2-conjugated materials with high heteroatom content from a mixture of citrazinic acid and melamine in which heteroatoms are already bonded in specific motives is illustrated. By controlling the removal procedure of the salt-template and the condensation temperature, the role of salts in the formation of porosity and as coordination sites for the stabilization of heteroatoms is proven. A high amount of nitrogen of up to 20 wt. %, oxygen contents of up to 19 wt.%, and a high CO2/N2 selectivity with maximum CO2 uptake at 273 K of 5.31 mmol g–1 are achieved. Besides, the further controlled thermal condensation of precursor molecules and advanced functional properties on applications of the synthesized porous carbons are described. The materials have different porosity and atomic construction exhibiting a high nitrogen content up to 25 wt. % as well as a high porosity with a specific surface area of more than 1800 m2 g−1, and a high performance in selective CO2 gas adsorption of 62.7. These pore structure as well as properties of surface affect to water adsorption with a remarkably high Qst of over 100 kJ mol−1 even higher than that of zeolites or CaCl2 well known as adsorbents. In addition to that, the pore structure of HAT-CN-derived carbon materials during condensation in vacuum is fundamentally understood which is essential to maximize the utilization of porous system in materials showing significant difference in their pore volume of 0.5 cm3 g−1 and 0.25 cm3 g−1 without and with vacuum, respectively. The molecular designs of heteroatom containing porous carbon derived from abundant and simple molecules are introduced in the presented thesis. Abundant precursors that already containing high amount of nitrogen or oxygen are beneficial to achieve enhanced interaction with adsorptives. The physical and chemical properties of these heteroatom-doped porous carbons are affected by mainly two parameters, that is, the porosity from the pore structure and the polarity from the atomic composition on the surface. In other words, controlling the porosity as well as the polarity of the carbon materials is studied to understand interactions with different guest species which is a fundamental knowledge for the utilization on various applications. N2 - Nanoporöse Kohlenstoffe haben in letzter Zeit aufgrund ihrer einzigartigen Eigenschaften als ein attraktives funktionelles poröses Material Aufmerksamkeit erregt. Diese Materialien sind aufgrund ihrer hohen chemischen und thermischen Stabilität und insbesondere aufgrund ihrer elektronischen Leitfähigkeit in Kombination mit hohen spezifischen Oberflächen von entscheidender Bedeutung für viele Anwendungen der modernen Wissenschaft und Industrie wie Wasser- und Luftreinigung, Katalyse, Gastrennung und Energiespeicherung/-umwandlung. Nanoporöse Kohlenstoffe können verwendet werden, um Umweltschadstoffe oder kleine Gasmoleküle wie CO2 zu adsorbieren und elektrochemische Energiespeicher wie Batterien und Brennstoffzellen anzutreiben. Ihre Porenstruktur oder ihre elektrischen Eigenschaften je nach Einsatzzweck modifiziert werden. Diese Arbeit bietet einen eingehenden Blick auf neuartige nanoporöse Kohlenstoffe aus synthetischer und anwendungstechnischer Sicht. Das Zusammenspiel zwischen Porenstruktur, atomarem Aufbau und den Adsorptionseigenschaften von nanoporösen Kohlenstoffmaterialien wird untersucht. Neuartige nanoporöse Kohlenstoffmaterialien werden unter Verwendung einfacher Vorläufermoleküle, die Heteroatome enthalten, durch ein einfaches Templatverfahren synthetisiert. Die Affinität und damit die Adsorptionskapazität von Kohlenstoffmaterialien gegenüber polaren Gasmolekülen (CO2 und H2O) wird durch die Modifikation ihres chemischen Aufbaus erhöht. Es wird auch gezeigt, dass diese Eigenschaften bei der elektrochemischen Energiespeicherung wichtig sind. Hier insbesondere für Superkondensatoren mit wässrigen Elektrolyten, die grundsätzlich auf der Physisorption von Ionen an Kohlenstoffoberflächen beruhen. Dies zeigt, dass nanoporöse Kohlenstoffe, genauso wie Zeolithen und MOFs, ein „funktionelles“ Material mit spezifischen physikalischen oder chemischen Wechselwirkungen mit Gastspezien sein können. Mit den Vorteilen einer hohen elektrischen Leitfähigkeit, einer gut entwickelten Porenstruktur und einer stark hydrophilen Oberflächenstruktur sind nanoporöse Kohlenstoffe vielversprechende Materialien, die weitreichende Auswirkungen auf verschiedene Bereiche des zukünftigen Energiebedarfs haben. KW - porous carbon KW - gas adsorption KW - energy storage KW - N-doped carbon KW - poröser Kohlenstoff KW - Gasadsorption KW - Energiespeicher KW - N-dotierter Kohlenstoff Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-539098 ER - TY - THES A1 - Youakim, Kris T1 - Galactic archaeology with metal-poor stars from the Pristine survey N2 - The Milky Way is a spiral galaxy consisting of a disc of gas, dust and stars embedded in a halo of dark matter. Within this dark matter halo there is also a diffuse population of stars called the stellar halo, that has been accreting stars for billions of years from smaller galaxies that get pulled in and disrupted by the large gravitational potential of the Milky Way. As they are disrupted, these galaxies leave behind long streams of stars that can take billions of years to mix with the rest of the stars in the halo. Furthermore, the amount of heavy elements (metallicity) of the stars in these galaxies reflects the rate of chemical enrichment that occurred in them, since the Universe has been slowly enriched in heavy elements (e.g. iron) through successive generations of stars which produce them in their cores and supernovae explosions. Therefore, stars that contain small amounts of heavy elements (metal-poor stars) either formed at early times before the Universe was significantly enriched, or in isolated environments. The aim of this thesis is to develop a better understanding of the substructure content and chemistry of the Galactic stellar halo, in order to gain further insight into the formation and evolution of the Milky Way. The Pristine survey uses a narrow-band filter which specifically targets the Ca II H & K spectral absorption lines to provide photometric metallicities for a large number of stars down to the extremely metal-poor (EMP) regime, making it a very powerful data set for Galactic archaeology studies. In Chapter 2, we quantify the efficiency of the survey using a preliminary spectroscopic follow-up sample of ~ 200 stars. We also use this sample to establish a set of selection criteria to improve the success rate of selecting EMP candidates for follow-up spectroscopy. In Chapter 3, we extend this work and present the full catalogue of ~ 1000 stars from a three year long medium resolution spectroscopic follow-up effort conducted as part of the Pristine survey. From this sample, we compute success rates of 56% and 23% for recovering stars with [Fe/H] < -2.5 and [Fe/H] < -3.0, respectively. This demonstrates a high efficiency for finding EMP stars as compared to previous searches with success rates of 3-4%. In Chapter 4, we select a sample of ~ 80000 halo stars using colour and magnitude cuts to select a main sequence turnoff population in the distance range 6 < dʘ < 20 kpc. We then use the spectroscopic follow-up sample presented in Chapter 3 to statistically rescale the Pristine photometric metallicities of this sample, and present the resulting corrected metallicity distribution function (MDF) of the halo. The slope at the metal-poor end is significantly shallower than previous spectroscopic efforts have shown, suggesting that there may be more metal-poor stars with [Fe/H] < -2.5 in the halo than previously thought. This sample also shows evidence that the MDF of the halo may not be bimodal as was proposed by previous works, and that the lack of globular clusters in the Milky Way may be the result of a physical truncation of the MDF rather than just statistical under-sampling. Chapter 5 showcases the unexpected capability of the Pristine filter for separating blue horizontal branch (BHB) stars from Blue Straggler (BS) stars. We demonstrate a purity of 93% and completeness of 91% for identifying BHB stars, a substantial improvement over previous works. We then use this highly pure and complete sample of BHB stars to trace the halo density profile out to d > 100 kpc, and the Sagittarius stream substructure out to ~ 130 kpc. In Chapter 6 we use the photometric metallicities from the Pristine survey to perform a clustering analysis of the halo as a function of metallicity. Separating the Pristine sample into four metallicity bins of [Fe/H] < -2, -2 < [Fe/H] < -1.5, -1.5 < [Fe/H] < -1 and -0.9 < [Fe/H] < -0.8, we compute the two-point correlation function to measure the amount of clustering on scales of < 5 deg. For a smooth comparison sample we make a mock Pristine data set generated using the Galaxia code based on the Besançon model of the Galaxy. We find enhanced clustering on small scales (< 0.5 deg) for some regions of the Galaxy for the most metal-poor bin ([Fe/H] < -2), while in others we see large scale signals that correspond to known substructures in those directions. This confirms that the substructure content of the halo is highly anisotropic and diverse in different Galactic environments. We discuss the difficulties of removing systematic clustering signals from the data and the limitations of disentangling weak clustering signals from real substructures and residual systematic structure in the data. Taken together, the work presented in this thesis approaches the problem of better understanding the halo of our Galaxy from multiple angles. Firstly, presenting a sizeable sample of EMP stars and improving the selection efficiency of EMP stars for the Pristine survey, paving the way for the further discovery of metal-poor stars to be used as probes to early chemical evolution. Secondly, improving the selection of BHB distance tracers to map out the halo to large distances, and finally, using the large samples of metal-poor stars to derive the MDF of the inner halo and analyse the substructure content at different metallicities. The results of this thesis therefore expand our understanding of the physical and chemical properties of the Milky Way stellar halo, and provide insight into the processes involved in its formation and evolution. N2 - Die Milchstraße ist eine Spiralgalaxie, die aus einer Scheibe aus Gas, Staub und Sternen besteht und in einen Halo aus dunkler Materie eingebettet ist. Der Halo beherbergt auch eine diffuse Sternpopulation, den sogenanten stellaren Halo, welcher seit Milliarden von Jahren kleinere Galaxien verschlingt, die durch das große Gravitationspotenzial der Milchstraße angezogen werden. Wenn sie von der Gezeitenkraft der Milchstraße zerrissen werden, hinterlassen diese Galaxien lange Sternenströme, die ihrerseits Milliarden von Jahren überdauern können, bis sie sich komplett mit dem Rest der Halosterne vermischen. Die Menge an schweren chemischen Elementen (Metallizität) in den Sternen dieser Galaxien verrät uns ihre Sternentstehungsgeschichte: aufeinanderfolgende Generationen von Sternen und ihre Supernovae Explosionen reichern die Galaxie langsam mit schweren Elementen an. Sterne mit sehr wenig schweren Elementen (metallarme Sterne) bildeten sich daher entweder früh vor der signifikanten Anreicherung des Universums, oder in isolierten Umgebungen. Das Ziel dieser Arbeit ist eine genauere Charakterisierung der Struktur und Zusammensetzung des galaktischen stellaren Halos, um so die Entstehung und Entwicklung der Milchstraße besser zu verstehen. Metallarme Sterne sind schwierig zu finden, da sie viel seltener sind als Sterne mit höherer Metallizität, wie etwa unsere Sonne. Die Pristine Survey verwendet einen Schmalbandfilter, um metallarme Sterne photometrisch zu identifizieren, und kann daher Metallizitäten für eine große Anzahl von Sternen viel schneller bestimmen als spektroskopische Untersuchungen. Dies macht die Pristine Survey zu einem wertvollen Datensatz für Studien der Frühgeschichte der Milchstraße. In Kapitel 2 quantifizieren wir die Effizienz der Survey mit einer Stichprobe von ca. 200 Sternen, die spektroskopisch nachbeobachtet wurden. Wir verwenden diese Stichprobe auch, um eine Reihe von Auswahlkriterien festzulegen, um die Erfolgsrate bei der Auswahl metallarmer Kandidaten für die Folgespektroskopie zu verbessern. In Kapitel 3 erweitern wir diese Arbeit und präsentieren den vollständigen Katalog von ca. 1000 Sternen aus einem dreijährigen spektroskopischen Follow-up-Projekt, das im Rahmen der Pristine Survey durchgeführt wurde. Diese Stichprobe zeigt, dass die Pristine Survey circa fünfmal effizienter im Finden extrem metallarmer Sterne ist als frühere Studien. In Kapitel 4 wählen wir eine Stichprobe von ca. 80000 Halosternen aus der Pristine Survey aus, um die Verteilung der Sterne an verschiedenen Metallizitäten im Halo zu analysieren. Wir verwenden die spektroskopische Stichprobe von Kapitel 3 für die Reskalierung der photometrischen Metallizitäten, um Verzerrungen in der Probe zu reduzieren. Die Steigung am metallarmen Ende dieser Verteilung ist deutlich flacher als in früheren spektroskopischen Studien gemessen. Das bedeutet, dass es viel mehr sehr metallarme Sterne im Halo geben könnte als bisher angenommen. Blaue Horizontalaststerne (BHB-Sterne) sind sehr hell und ihre Entfernungen können sehr genau bestimmt werden. Deswegen sind sie ideale Standardkerzen für Studien von Sternpopulationen im galaktischen Halo. Kapitel 5 zeigt, wie die Pristine Survey dazu verwendet werden kann, BHB-Sterne besser zu identifizieren hinsichtlich ihrer Reinheit und Vollständigkeit als frühere Studien. Wir verwenden dann diese Stichprobe von BHB-Sternen, um das Dichteprofil des Halos sowie einige bekannte Halosubstrukturen über weite Entfernungen zu verfolgen. In Kapitel 6 verwenden wir die photometrischen Metallizitäten aus der Pristine Survey, um eine Clustering-Analyse des Halos für verschiedene Metallizitäten durchzuführen. Wir finden stärkeres Clustering auf kleiner Skala (< 0,5 Grad) für einige Regionen der Galaxie im metallärmsten Bereich, wohingegen wir in anderen Regionen große Signale sehen, die bereits bekannten Substrukturen in den jeweiligen Richtungen entsprechen. Dies zeigt die Fähigkeit dieser Methode, quantitative Vergleiche des Substrukturgehalts für verschiedene Proben und in verschiedenen galaktischen Umgebungen durchzuführen. Wir diskutieren auch die Schwierigkeiten bei der Entfernung systematischer Clustering-Signale aus den Daten und die Grenzen der Entflechtung schwacher Clustering-Signale von realen Substrukturen. Zusammengefasst nähert sich diese Arbeit dem Problem eines besseren Verständnisses unseres Galaxienhalos aus mehreren Blickwinkeln. Als erstes stellt sie die Pristine Survey vor, die uns eine neue beträchtlichen Stichprobe von extrem metallarmen Sternen mit verbesserter Selektionseffizienz liefert. Dies ebnet den Weg für die Entdeckung weiterer metallarmer Sterne, die als Sonden für die frühe chemische Evolution verwendet werden können. Außerdem verbessert diese Arbeit das Auswahlverfahren für BHB-Sterne zur großräumigen Vermessung des galaktischen Halos, die Verwendung von großen Stichproben metallarmer Sterne zur Ableitung der Metallizitätsverteilung des inneren Halos, sowie die Analyse von Halosubstrukturen für verschiedene Metallizitäten. Die Ergebnisse dieser Arbeit erweitern somit unsere Kenntnis physikalischer und chemischer Eigenschaften des Milchstraßenhalos und vertiefen unser Verständnis von dessen Entstehung und Entwicklung. T2 - Galaktische Archäologie mit metallarmen Sternen des Pristine Surveys KW - Milky Way Halo KW - Metal-poor stars KW - Dwarf galaxies KW - Galactic archaeology KW - Halo der Milchstraße KW - Metallarme Sterne KW - Zwerg Galaxien KW - Galaktische Archäologie Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-474314 ER - TY - THES A1 - Yin, Fan T1 - Mathematic approaches for the calibration of the CHAMP satellite magnetic field measurements T1 - Mathematische Ansätze für die Kalibrierung des Satelliten CHAMP Magnetfeldmessungen N2 - CHAMP (CHAllenging Minisatellite Payload) is a German small satellite mission to study the earth's gravity field, magnetic field and upper atmosphere. Thanks to the good condition of the satellite so far, the planned 5 years mission is extended to year 2009. The satellite provides continuously a large quantity of measurement data for the purpose of Earth study. The measurements of the magnetic field are undertaken by two Fluxgate Magnetometers (vector magnetometer) and one Overhauser Magnetometer (scalar magnetometer) flown on CHAMP. In order to ensure the quality of the data during the whole mission, the calibration of the magnetometers has to be performed routinely in orbit. The scalar magnetometer serves as the magnetic reference and its readings are compared with the readings of the vector magnetometer. The readings of the vector magnetometer are corrected by the parameters that are derived from this comparison, which is called the scalar calibration. In the routine processing, these calibration parameters are updated every 15 days by means of scalar calibration. There are also magnetic effects coming from the satellite which disturb the measurements. Most of them have been characterized during tests before launch. Among them are the remanent magnetization of the spacecraft and fields generated by currents. They are all considered to be constant over the mission life. The 8 years of operation experience allow us to investigate the long-term behaviors of the magnetometers and the satellite systems. According to the investigation, it was found that for example the scale factors of the FGM show obvious long-term changes which can be described by logarithmic functions. The other parameters (offsets and angles between the three components) can be considered constant. If these continuous parameters are applied for the FGM data processing, the disagreement between the OVM and the FGM readings is limited to \pm1nT over the whole mission. This demonstrates, the magnetometers on CHAMP exhibit a very good stability. However, the daily correction of the parameter Z component offset of the FGM improves the agreement between the magnetometers markedly. The Z component offset plays a very important role for the data quality. It exhibits a linear relationship with the standard deviation of the disagreement between the OVM and the FGM readings. After Z offset correction, the errors are limited to \pm0.5nT (equivalent to a standard deviation of 0.2nT). We improved the corrections of the spacecraft field which are not taken into account in the routine processing. Such disturbance field, e.g. from the power supply system of the satellite, show some systematic errors in the FGM data and are misinterpreted in 9-parameter calibration, which brings false local time related variation of the calibration parameters. These corrections are made by applying a mathematical model to the measured currents. This non-linear model is derived from an inversion technique. If the disturbance field of the satellite body are fully corrected, the standard deviation of scalar error \triangle B remains about 0.1nT. Additionally, in order to keep the OVM readings a reliable standard, the imperfect coefficients of the torquer current correction for the OVM are redetermined by solving a minimization problem. The temporal variation of the spacecraft remanent field is investigated. It was found that the average magnetic moment of the magneto-torquers reflects well the moment of the satellite. This allows for a continuous correction of the spacecraft field. The reasons for the possible unknown systemic error are discussed in this thesis. Particularly, both temperature uncertainties and time errors have influence on the FGM data. Based on the results of this thesis the data processing of future magnetic missions can be designed in an improved way. In particular, the upcoming ESA mission Swarm can take advantage of our findings and provide all the auxiliary measurements needed for a proper recovery of the ambient magnetic field. N2 - CHAMP (CHAllenging Minisatellite Payload) ist eine deutsche Kleinsatellitenmission für die Forschung und Anwendung in Bereich der Geowissenschaften und Atmosphärenphysik. Das Projekt wird vom GFZ geleitet. Mit seinen hochgenauen, multifunktionalen, sich ergänzenden Nutzlastelementen (Magnetometer, Akzelerometer, Sternsensor, GPS-Empfänger, Laser-Retroreflektor, Ionendriftmeter) liefert CHAMP erstmalig gleichzeitig hochgenaue Schwere- und Magnetfeldmessungen (seit Mitte 2000). Dank des bisherigen guten Zustandes des Satelliten ist die auf 5 Jahre ausgelegte Mission bis 2009 verlängert geworden. An Board befinden sich ein skalares Overhauser-Magnetometer(OVM) für Kalibrierungszwecke sowie zwei Fluxgate-Magnetometer(FGM) zur Messung des magnetischen Feldvektors. Die Messungen vom FGM werden immer verglichen mit denen vom OVM und korregiert im Fall von Widersprüche, das ist die sog. Skalar-Kalibrierung. Um eine zuverlässige Datenqualität während der 8 jährigen Mission zu garantieren, ist die Nachkalibrierung implementiert. Im Rahmen der standard mäßigen Datenverarbeitung werden die Instrumentenparameter des FGM alle 15 Tage neu bestimmt. Das Ziel der vorliegenden Arbeit ist es, eine Verbesserung der Vektormagnetfelddaten zu erzielen durch eine neue Methode der Kalibrierung, die die Eigenschaften der Sensoren und Störung vom Raumfahrzeug mit berücksichtigt. Die Erfahrung aus den zurückliegenden Jahren hat gezeigt, dass sich die Skalenfaktoren des FGM stark mit der Zeit ändern. Dieser Verlauf lässt sich gut durch eine Logarithmuskurve anpassen. Andere Parameter wie die Winkel und die Offsets scheinen stabil zu sein. Eine Ausnahme macht der Offset der Z-Komponent. Dieser bedarf einer regelmäßigen Korrektur. Während die Standardverarbeitung eine undifferenzierte Bestimmung aller 9 FGM Parameter durch nicht-lineare Inversion der skalar Daten vornimmt, beziehen wir jetzt die langzeitlichen Eigenschaften der Parameter in die Bestimmung mit ein. Eine weitere Verbesserung der CHAMP-Magnetfelddaten konnte erreicht werden durch geeignete Berücksichtigung von Störung vom Raumfahrzeug. Die verbleibenden Unsicherheiten konnten durch diese Maßnahmen auf eine Standardabweichung von 0.1nT reduziert werden. KW - Magnetische Feldmessungen KW - Magnetometer-Kalibrierung KW - Magnetfeld-Satellit KW - Magnetic field measurements KW - magnetometer calibration KW - magnetic field satellites Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41201 ER - TY - THES A1 - Yin, Chunhong T1 - The interplay of nanostructure and efficiency of polymer solar cells T1 - Einfluss der Nanostruktur auf die Effizienz von Polymer-Solarzellen N2 - The aim of this thesis is to achieve a deep understanding of the working mechanism of polymer based solar cells and to improve the device performance. Two types of the polymer based solar cells are studied here: all-polymer solar cells comprising macromolecular donors and acceptors based on poly(p-phenylene vinylene) and hybrid cells comprising a PPV copolymer in combination with a novel small molecule electron acceptor. To understand the interplay between morphology and photovoltaic properties in all-polymer devices, I compared the photocurrent characteristics and excited state properties of bilayer and blend devices with different nano-morphology, which was fine tuned by using solvents with different boiling points. The main conclusion from these complementary measurements was that the performance-limiting step is the field-dependent generation of free charge carriers, while bimolecular recombination and charge extraction do not compromise device performance. These findings imply that the proper design of the donor-acceptor heterojunction is of major importance towards the goal of high photovoltaic efficiencies. Regarding polymer-small molecular hybrid solar cells I combined the hole-transporting polymer M3EH-PPV with a novel Vinazene-based electron acceptor. This molecule can be either deposited from solution or by thermal evaporation, allowing for a large variety of layer architectures to be realized. I then demonstrated that the layer architecture has a large influence on the photovoltaic properties. Solar cells with very high fill factors of up to 57 % and an open circuit voltage of 1V could be achieved by realizing a sharp and well-defined donor-acceptor heterojunction. In the past, fill factors exceeding 50 % have only been observed for polymers in combination with soluble fullerene-derivatives or nanocrystalline inorganic semiconductors as the electron-accepting component. The finding that proper processing of polymer-vinazene devices leads to similar high values is a major step towards the design of efficient polymer-based solar cells. N2 - Ziel dieser Dissertation ist es, die grundlegende Arbeitsweise von polymerbasierten Solarzellen zu verstehen und ihre Leistungsfähigkeit zu erhöhen. Zwei Arten von organischen Solarzellen werden untersucht: Solarzellen, bei denen sowohl Elektronendonator und akzeptor auf Poly(p-phenylen-vinylen) basieren sowie Zellen, bei denen ein PPV-Copolymer als Elektronendonator und organische kleine Moleküle als Elektronenakzeptor fungierten. Um die Zusammenhänge zwischen Morphologie und photovoltaischen Eigenschaften zu verstehen, untersuchte ich Photoströme sowie die Eigenschaften angeregter Zustände in Zweischicht- und Mischsolarzellen mit unterschiedlicher Nano-Morphologie, welche durch die Verwendung von Lösungsmitteln mit unterschiedlichen Siedetemperaturen modifiziert wurde. Die Hauptschlussfolgerung aus diesen Messungen ist, dass der effizienzlimitierende Faktor die feldabhängige Generation freier Ladungsträger ist, wohingegen bimolekulare Rekombination oder die Extraktion der Ladungsträger die Leistungsfähigkeit von Polymer-Polymer- Solarzellen nicht beeinträchtigen. Diese Ergebnisse legen nahe, dass die gezielte Einstellung der Donator-Akzeptor-Grenzfläche von besonderer Bedeutung zum Erreichen hoher Effizienzen ist. In Hybridsolarzellen aus Polymeren und kleinen Molekülen kombinierte ich das lochleitende konjugierte Polymer M3EH-PPV mit einem neuartigen Vinazen-Molekül als Elektronen-akzeptor. Dieses Molekül bietet die Möglichkeit, entweder aus einer Lösung heraus verarbeitet oder im Hochvakuum verdampft zu werden, wodurch eine Vielzahl an unterschiedlichen Probenstrukturen realisiert werden kann. Dadurch konnte ich zeigen, dass die Struktur der aktiven Schicht einen großen Einfluss auf die photovoltaischen Eigenschaften hat. Die Solarzellen erreichten einen Füllfaktor von bis zu 57% und eine Kurzschluss¬spannung von 1 V. In der Vergangenheit konnten bei polymerbasierten Solarzellen Füllfaktoren über 50% nur in Verbindung mit Fullerenen oder nanokristallinen anorganischen Halbleitern als Akzeptoren erreicht werden. Das Resultat, dass bei geeigneter Präparation der Polymer-Vinazen-Schicht vergleichbare Ergebnisse erzielt werden können, ist ein bedeutender Schritt hin zu effizienteren Polymersolarzellen. KW - Nanostruktur KW - Polymer-Solarzelle KW - Effizienz KW - Morphologie KW - Polymer solar cells KW - nanostructure KW - efficiency KW - morphology Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29054 ER - TY - THES A1 - Yildiz, Tugba T1 - Dissecting the role of the TusA protein for cell functionality and FtsZ ring assembly in Escherichia coli T1 - Entschlüsselung der Rolle des TusA-Proteins für die Zellfunktionalität und FtsZ-Ringbildung in Escherichia coli N2 - In this work, the role of the TusA protein was investigated for the cell functionality and FtsZ ring assembly in Escherichia coli. TusA is the tRNA-2-thiouridine synthase that acts as a sulfur transferase in tRNA thiolation for the formation of 2-thiouridine at the position 34 (wobble base) of tRNALys, tRNAGlu and tRNAGln. It binds the persulfide form of sulfur and transfers it to further proteins during mnm5s2U tRNA modification at wobble position and for Moco biosynthesis. With this thiomodification of tRNA, the ribosome binding is more efficient and frameshifting is averted during the protein translation. Previous studies have revealed an essential role of TusA in bacterial cell physiology since deletion of the tusA gene resulted in retarded growth and filamentous cells during the exponential growth phase in a rich medium which suddenly disappeared during the stationary phase. This indicates a problem in the cell division process. Therefore the focus of this work was to investigate the role of TusA for cell functionality and FtsZ ring formation and thus the cell separation. The reason behind the filamentous growth of the tusA mutant strain was investigated by growth and morphological analyses. ΔtusA cells showed a retarded growth during the exponential phase compared to the WT strain. Also, morphological analysis of ΔtusA cells confirmed the filamentous cell shape. The growth and cell division defects in ΔtusA indicated a defect in FtsZ protein as a key player of cell division. The microscopic investigation revealed that filamentous ΔtusA cells possessed multiple DNA parts arranged next to each other. This suggested that although the DNA replication occurred correctly, there was a defect in the step where FtsZ should act; probably FtsZ is unable to assemble to the ring structure or the assembled ring is not able to constrict. All tested mutant strains (ΔtusD, ΔtusE and ΔmnmA) involved in the mnm5s2U34 tRNA modification pathway shared the similar retarded growth and filamentous cell shape like ΔtusA strain. Thus, the cell division defect arises from a defect in mnm5s2U34 tRNA thiolation. Since the FtsZ ring formation was supposed to be defective in filaments, a possible intracellular interaction of TusA and FtsZ was examined by fluorescent (EGFP and mCherry) fusion proteins expression and FRET. FtsZ expressing tusA mutant (DE3) cells showed a red mCherry signal at the cell poles, indicating that FtsZ is still in the assembling phase. Interestingly, the cellular region of EGFP-TusA fusion protein expressed in ΔtusA (DE3) was conspicuous; the EGFP signal was spread throughout the whole cell and, in addition, a slight accumulation of the EGFP-TusA fluorescence was detectable at the cell poles, the same part of the cell as for mCherry-FtsZ. Thus, this strongly suggested an interaction of TusA and FtsZ. Furthermore, the cellular FtsZ and Fis concentrations, and their change during different growth phases were determined via immunoblotting. All tested deletion strains of mnm5s2U34 tRNA modification show high cellular FtsZ and Fis levels in the exponential phase, shifting to the later growth phases. This shift reflects the retarded growth, whereby the deletion strains reach later the exponential phase. Conclusively, the growth and cell division defect, and thus the formation of filaments, is most likely caused by changes in the cellular FtsZ and Fis concentrations. Finally, the translation efficiencies of certain proteins (RpoS, Fur, Fis and mFis) in tusA mutant and in additional gene deletion strains were studied whether they were affected by using unmodified U34 tRNAs of Lys, Glu and Gln. The translation efficiency is decreased in mnm5s2U34 tRNA modification-impaired strains in addition to their existing growth and cell division defect due to the elimination of these three amino acids. Finally, these results confirm and reinforce the importance of Lys, Glu and Gln and the mnm5s2U34 tRNA thiolation for efficient protein translation. Thus, these findings verify that the translation of fur, fis and rpoS is regulated by mnm5s2U34 tRNA modifications, which is growth phase-dependent. In total, this work showed the importance of the role of TusA for bacterial cell functionality and physiology. The deletion of the tusA gene disrupted a complex regulatory network within the cell, that most influenced by the decreased translation of Fis and RpoS, caused by the absence of mnm5s2U34 tRNA modifications. The disruption of RpoS and Fis cellular network influences in turn the cellular FtsZ level in the early exponential phase. Finally, the reduced FtsZ concentration leads to elongated, filamentous E. coli cells, which are unable to divide. N2 - In dieser Arbeit wurde die Rolle des TusA-Proteins für die Zellfunktionalität und FtsZ-Ringbildung in Escherichia coli untersucht. Bei TusA handelt es sich um die tRNA-2-Thiouridine-Synthase, die als Schwefeltransferase bei der tRNA-Thiolierung zur Bildung von 2-Thiouridin an der Position 34 (Wobble-Base) von tRNALys, tRNAGlu und tRNAGln dient. Dieses Protein bindet das Schwefelatom als Persulfid und überträgt dieses bei der mnm5s2U tRNA-Modifikation an der Wobble-Position und der Molybdän-Cofaktor (Moco)-Biosynthese auf weitere Proteine. Durch diese Thiomodifikation der tRNA wird eine effizientere Bindung des Ribosoms erreicht und zudem eine Verschiebung des Leserasters während der Proteintranslation verhindert. Frühere Studien haben eine essenzielle Rolle für TusA in der bakteriellen Zellphysiologie gezeigt: die Deletion des tusA-Gens führte zu einem verlangsamten Wachstum und filamentösen (fadenförmigen) Zellen als WT-Zellen während der exponentiellen Wachstumsphase in einem reichhaltigen Medium. In der stationären Phase waren diese Filamente hingegen nicht mehr zu beobachten, was auf einen Defekt während der Zellteilung hindeutete. Ziel dieser Arbeit war es daher die Rolle des TusA-Proteins für die Zellfunktionalität und FtsZ-Ringbildung zu analysieren. Im Rahmen der vorliegenden Doktorarbeit wurde die Ursache für das filamentöse Wachstum der tusA-Mutante untersucht. Dafür wurden Wachstums- und Morphologieanalysen durchgeführt. Die ΔtusA-Zellen zeigten im Vergleich zum WT-Stamm ein verzögertes Wachstum in der exponentiellen Phase. Die filamentöse Zellform der ΔtusA-Zellen wurde ebenfalls durch die Analyse der Zellmorphologie bestätigt. Demnach deutete das Wachstums- und Zellteilungsproblem von ΔtusA auf einen Defekt des FtsZ-Proteins hin, das eine Schlüsselrolle bei der Zellteilung besitzt. Anhand von mikroskopischen Untersuchungen konnte gezeigt werden, dass die filamentöse ΔtusA-Zellen mehrere nebeneinander angeordnete DNA-Abschnitte besaßen. Dies ließ die Vermutung zu, dass trotz korrekt verlaufender DNA-Replikation, ein Defekt in dem Schritt, in dem FtsZ einsetzen sollte, vorliegt. Folglich scheint FtsZ sich nicht zur Ringstruktur anordnen zu können. Denkbar wäre auch, dass der zusammengesetzte Ring nicht in der Lage ist zu kontrahieren. Alle getesteten Mutantenstämme (ΔtusD, ΔtusE und ΔmnmA), die an der mnm5s2U34-Modifikation beteiligt sind, zeigten ein ähnlich verzögertes Wachstum und eine ähnliche filamentöse Zellform wie der ΔtusA-Stamm. Somit ist der Zellteilungsdefekt auf einen Defekt in der mnm5s2U34-tRNA-Thiolierung zurückzuführen. Des Weiteren wurde eine mögliche intrazelluläre Interaktion von TusA und FtsZ anhand der Expression von fluoreszierender (EGFP und mCherry) Fusionsproteine und FRET-Analysen überprüft, da die Bildung des FtsZ-Rings in den Filamenten defekt zu sein scheint. Für FtsZ-exprimierende tusA (DE3)-Zellen wurden rote mCherry-Signale an den Zellpolen detektiert, was auf das sich noch assemblierende FtsZ hindeutete. Interessanterweise war die zelluläre Region des EGFP-TusA Signals, das in ΔtusA (DE3) exprimiert wurde, überlappend mit dem von mCherry-FtsZ. Das EGFP-Signal zeigte eine Verteilung über die gesamte Zelle, wobei noch zusätzlich eine leichte Akkumulation der EGFP-TusA-Fluoreszenz an den Zellpolen (wie bei mCherry-FtsZ) festgestellt wurde. Somit deutet dies auf eine Interaktion zwischen TusA und FtsZ hin. Zusätzlich wurden die FtsZ- und Fis-Konzentrationen und deren Änderung während der unterschiedlichen Wachstumsphasen anhand von Immunoblot-Analysen ermittelt. Alle getesteten Deletionsstämme der mnm5s2U34-tRNA-Modifikation zeigten hohe zelluläre FtsZ- und Fis-Mengen in der exponentiellen Phase, die in die späteren Wachstumsphasen verschoben sind. Diese Verschiebung spiegelt das verlangsamte Wachstum wider, wodurch die Deletionsstämme später die exponentielle Phase erreichen. Demzufolge ist anzunehmen, dass der Wachstums- und Zellteilungsdefekt und daraus die Bildung von Filamenten durch Veränderungen der zellulären FtsZ- und Fis-Konzentrationen verursacht werden. Abschließend wurde in dieser Arbeit mittels Durchflusszytometrie die Translationseffizienz bestimmter Proteine (RpoS, Fur, Fis und mFis) in ΔtusA und zusätzlichen Gendeletionsstämmen untersucht. Insbesondere sollte gezeigt werden, ob die Translation der Proteine durch die Verwendung von unmodifizierten U34-tRNAs für Lys, Glu und Gln beeinträchtigt wird. Somit ist die Translationseffizienz in den Stämmen mit beeinträchtigter mnm5s2U34-tRNA-Modifikation verringert, was zusätzlich zu ihren bereits bestehenden Wachstums- und Zellteilungsdefekten aufgrund der Eliminierung dieser drei Aminosäuren hinzukommt. Damit bestätigen und verstärken diese Ergebnisse die Bedeutung von Lys, Glu und Gln und der mnm5s2U34 tRNA-Thiolierung für eine effiziente Proteintranslation. Sie belegen auch, dass die Translation von fur, fis und rpoS durch die mnm5s2U34-tRNA-Modifikation reguliert wird, welche wachstumsphasenabhängig ist. Im Résumé zeigen die Ergebnisse dieser Forschungsarbeit neue Funktionen des TusA-Proteins für die Funktionalität und Physiologie von Bakterienzellen. Durch die Deletion des tusA-Gens wurde ein komplexes regulatorisches Netzwerk innerhalb der Zelle gestört, das vor allem durch die verringerte Translation von Fis und RpoS beeinflusst wird (die durch das Fehlen der mnm5s2U34-tRNA-Modifikation verursacht wird). Die Unterbrechung des zellulären RpoS- und Fis-Netzwerks beeinflusst wiederum die zelluläre FtsZ-Menge in der frühen exponentiellen Phase. Schließlich führt diese Verringerung der FtsZ-Konzentration zu filamentösen E. coli-Zellen, die sich nicht mehr teilen können. KW - tRNA thiomodifications KW - 5-methylaminomethyl-2-thiouridine KW - TusA KW - growth defect KW - cell division KW - FtsZ KW - FtsZ ring assemby KW - RpoS KW - Fis KW - translation efficiency KW - tRNA Thiomodifikation KW - 5-Methylaminomethyl-2-Thiouridin KW - TusA KW - Zellteilungsdefekt KW - Zellteilung KW - FtsZ-Ringbildung KW - Translationseffizienz KW - filaments KW - Filamente Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-617135 ER - TY - THES A1 - Yeldesbay, Azamat T1 - Complex regimes of synchronization T1 - Komplexe Synchronisationszustände BT - modeling and analysis N2 - Synchronization is a fundamental phenomenon in nature. It can be considered as a general property of self-sustained oscillators to adjust their rhythm in the presence of an interaction. In this work we investigate complex regimes of synchronization phenomena by means of theoretical analysis, numerical modeling, as well as practical analysis of experimental data. As a subject of our investigation we consider chimera state, where due to spontaneous symmetry-breaking of an initially homogeneous oscillators lattice split the system into two parts with different dynamics. Chimera state as a new synchronization phenomenon was first found in non-locally coupled oscillators system, and has attracted a lot of attention in the last decade. However, the recent studies indicate that this state is also possible in globally coupled systems. In the first part of this work, we show under which conditions the chimera-like state appears in a system of globally coupled identical oscillators with intrinsic delayed feedback. The results of the research explain how initially monostable oscillators became effectivly bistable in the presence of the coupling and create a mean field that sustain the coexistence of synchronized and desynchronized states. Also we discuss other examples, where chimera-like state appears due to frequency dependence of the phase shift in the bistable system. In the second part, we make further investigation of this topic by modeling influence of an external periodic force to an oscillator with intrinsic delayed feedback. We made stability analysis of the synchronized state and constructed Arnold tongues. The results explain formation of the chimera-like state and hysteric behavior of the synchronization area. Also, we consider two sets of parameters of the oscillator with symmetric and asymmetric Arnold tongues, that correspond to mono- and bi-stable regimes of the oscillator. In the third part, we demonstrate the results of the work, which was done in collaboration with our colleagues from Psychology Department of University of Potsdam. The project aimed to study the effect of the cardiac rhythm on human perception of time using synchronization analysis. From our part, we made a statistical analysis of the data obtained from the conducted experiment on free time interval reproduction task. We examined how ones heartbeat influences the time perception and searched for possible phase synchronization between heartbeat cycles and time reproduction responses. The findings support the prediction that cardiac cycles can serve as input signals, and is used for reproduction of time intervals in the range of several seconds. N2 - Synchronisation ist ein fundamentales Naturphänomen. Es ist die grundlegende Eigenschaft sich selbsterhaltender Oszillatoren, in Gegenwart einer Wechselwirkung, danach zu streben, ihre Rhythmen anzupassen. In dieser Arbeit betrachten wir komplexe Synchronisationszustände sowohl mit Hilfe analytischer Methoden als auch durch numerische Simulation und in experimentellen Daten. Unser Untersuchungsobjekt sind die sogenannten Chimera Zustände, in welchen sich Ensemble von gekoppelten, identischen Oszillatoren auf Grund eines Symmetriebruches spontan in Gruppen mit unterschiedlicher Dynamik aufteilen. Die Entdeckung von Chimeras in zunächst nichtlokal gekoppelten Systemen hat in den letzten zehn Jahren ein großes Interesse an neuartigen Synchronisationsphänomenen geweckt. Neueste Forschungsergebnisse belegen, dass diese Zustände unter bestimmten Bedingungen auch in global gekoppelten Systemen existieren können. Solche Bedingungen werden im ersten Teil der Arbeit in Ensemblen global gekoppelter Oszillatoren mit zusätzlicher, zeitverzögerter Selbstkopplung untersucht. Wir zeigen, wie zunächst monostabile Oszillatoren in Gegenwart von dem Treiben der globalen Kopplung effektiv bistabil werden, und sich so in zwei Gruppen organisieren. Das mittlere Feld, welches durch diese Gruppen aufgebaut wird, ist quasiperiodisch wodurch der Chimera Zustand sich selbst stabilisiert. In einem anderen Beispiel zeigen wir, dass der Chimera Zustand auch durch einen frequenzabhängigen Phasenunterschied in der globalen Kopplung erreicht werden kann. Zur genaueren Untersuchung der Mechanismen, die zur effektiven Bistabilität führen, betrachten wir im zweiten Teil der Arbeit den Einfluss einer externen periodischen Kraft auf einzelne Oszillatoren mit zeitverzögerter Selbstkopplung. Wir führen die Stabilitätanalyse des synchronen Zustands durch, und stellen die Arnoldzunge dar. Im dritten Teil der Arbeit stellen wir die Ergebnisse einer Synchronisationsanalyse vor, welche in Kooperation mit Wissenschaftlern der Psychologischen Fakultät der Universität Potsdam durchgeführt wurde. In dem Projekt wurde die Auswirkung des Herzrhythmus auf die menschliche Zeitwahrnehmung erforscht. Unsere Aufgabe war es, die experimentellen Daten statistisch zu analysieren. Im Experiment sollten Probanden ein gegebenes Zeitintervall reproduzieren während gleichzeitig ihr Herzschlag aufgezeichnet wurde. Durch eine Phasenanalyse haben wir den Zusammenhang zwischen dem Herzschlag und der Start- bzw. Stoppzeit der zu reproduzierenden Zeitintervalle untersucht. Es stellt sich heraus, dass Herzschläge bei Zeitintervallen über einige Sekunden als Taktgeber dienen können. KW - synchronization KW - phase oscillators KW - chimera state KW - time perception KW - Synchronisation KW - Phasen Oszillatoren KW - chimera Zustände KW - zeitverzögerte Selbstkopplung KW - Synchronisationsanalyse KW - Zeitwahrnehmung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73348 ER - TY - THES A1 - Yang, Xiaoqiang T1 - Spatial and temporal analyses of catchment and in-stream nitrate dynamics BT - insights derived from fully distributed, process-based modeling and high-frequency monitoring BT - Untersuchungen auf der Basis von räumlich verteilter, prozessbasierter Modellierung und eines zeitlich hochaufgelösten Gewässermonitorings N2 - Water quality in river systems is of growing concern due to rising anthropogenic pressures and climate change. Mitigation efforts have been placed under the guidelines of different governance conventions during last decades (e.g., the Water Framework Directive in Europe). Despite significant improvement through relatively straightforward measures, the environmental status has likely reached a plateau. A higher spatiotemporal accuracy of catchment nitrate modeling is, therefore, needed to identify critical source areas of diffuse nutrient pollution (especially for nitrate) and to further guide implementation of spatially differentiated, cost-effective mitigation measures. On the other hand, the emerging high-frequency sensor monitoring upgrades the monitoring resolution to the time scales of biogeochemical processes and enables more flexible monitoring deployments under varying conditions. The newly available information offers new prospects in understanding nitrate spatiotemporal dynamics. Formulating such advanced process understanding into catchment models is critical for model further development and environmental status evaluation. This dissertation is targeting on a comprehensive analysis of catchment and in-stream nitrate dynamics and is aiming to derive new insights into their spatial and temporal variabilities through the new fully distributed model development and the new high-frequency data. Firstly, a new fully distributed, process-based catchment nitrate model (the mHM-Nitrate model) is developed based on the mesoscale Hydrological Model (mHM) platform. Nitrate process descriptions are adopted from the Hydrological Predictions for the Environment (HYPE), with considerable improved implementations. With the multiscale grid-based discretization, mHM-Nitrate balances the spatial representation and the modeling complexity. The model has been thoughtfully evaluated in the Selke catchment (456 km2), central Germany, which is characterized by heterogeneous physiographic conditions. Results show that the model captures well the long-term discharge and nitrate dynamics at three nested gauging stations. Using daily nitrate-N observations, the model is also validated in capturing short-term fluctuations due to changes in runoff partitioning and spatial contribution during flooding events. By comparing the model simulations with the values reported in the literature, the model is capable of providing detailed and reliable spatial information of nitrate concentrations and fluxes. Therefore, the model can be taken as a promising tool for environmental scientists in advancing environmental modeling research, as well as for stakeholders in supporting their decision-making, especially for spatially differentiated mitigation measures. Secondly, a parsimonious approach of regionalizing the in-stream autotrophic nitrate uptake is proposed using high-frequency data and further integrated into the new mHM-Nitrate model. The new regionalization approach considers the potential uptake rate (as a general parameter) and effects of above-canopy light and riparian shading (represented by global radiation and leaf area index data, respectively). Multi-parameter sensors have been continuously deployed in a forest upstream reach and an agricultural downstream reach of the Selke River. Using the continuous high-frequency data in both streams, daily autotrophic uptake rates (2011-2015) are calculated and used to validate the regionalization approach. The performance and spatial transferability of the approach is validated in terms of well-capturing the distinct seasonal patterns and value ranges in both forest and agricultural streams. Integrating the approach into the mHM-Nitrate model allows spatiotemporal variability of in-stream nitrate transport and uptake to be investigated throughout the river network. Thirdly, to further assess the spatial variability of catchment nitrate dynamics, for the first time the fully distributed parameterization is investigated through sensitivity analysis. Sensitivity results show that parameters of soil denitrification, in-stream denitrification and in-stream uptake processes are the most sensitive parameters throughout the Selke catchment, while they all show high spatial variability, where hot-spots of parameter sensitivity can be explicitly identified. The Spearman rank correlation is further analyzed between sensitivity indices and multiple catchment factors. The correlation identifies that the controlling factors vary spatially, reflecting heterogeneous catchment responses in the Selke catchment. These insights are, therefore, informative in informing future parameter regionalization schemes for catchment water quality models. In addition, the spatial distributions of parameter sensitivity are also influenced by the gauging information that is being used for sensitivity evaluation. Therefore, an appropriate monitoring scheme is highly recommended to truly reflect the catchment responses. N2 - Die Wasserqualität in Flusssystemen ist aufgrund des steigenden anthropogenen Drucks und des Klimawandels von wachsender Bedeutung. Um kritische Eintragspfade diffuser Nitratbelastungen zu identifizieren, ist eine hohe räumliche und zeitliche Auflösung der Modellierung des Einzugsgebietes erforderlich. Neue hochfrequente Sensordaten bieten neue Perspektiven für das Verständnis der Nitratdynamik in Einzugsgebieten. Die Vertiefung des Prozessverständnisses ist entscheidend für die Weiterentwicklung von Einzugsmodellen. Diese Dissertation zielt auf eine umfassende Analyse der einzugsbezogenen und gewässerinternen Nitratdynamik ab und analysiert ihre räumlichen und zeitlichen Variabilität anhand vollständig verteilter Modellierung und neuer zeitlich hochaufgelöster Sensordaten. Zunächst wurde ein neues, räumlich verteiltes hydrologisches Nitratmodell (das mHM-Nitratmodell) entwickelt, um die Nitratflüsse und -dynamiken in Einzugsgebieten abzubilden. Das Modell wurde im Selke Einzugsgebiet (456 km2) in Mitteldeutschland implementiert. Die Ergebnisse zeigen, dass das Modell sowohl die lang- als auch die kurzfristige Dynamik von Abfluss und Nitrat an drei genesteten Messstationen gut erfasst und in der Lage ist, detaillierte und zuverlässige räumliche Informationen zu liefern. Des Weiteren wurde ein vereinfachter Ansatz zur Regionalisierung der autotrophen Nitrataufnahme in Fließgewässern entwickelt und in das neue mHM-Nitratmodell integriert. Die Verfügbarkeit von Licht auf der Gewässeroberfläche wird als treibender Faktor identifiziert, welcher durch Globalstrahlung und pflanzenspezifischem Blattflächenindex quantifiziert werden kann. Die räumliche Übertragbarkeit des Ansatzes wird anhand kontinuierlicher, zeitlich hochaufgelöster Gewässermessdaten in der Selke überprüft. Hierauf aufbauend wird die vollständig verteilte Parametrisierung des Modells durch Sensitivitätsanalysen untersucht, welche die empfindlichsten Parameter und deren räumliche Variabilität identifizieren. Die Spearman-Rank-Korrelationen zeigen, dass die bestimmenden Einflussfaktoren aufgrund der heterogenen Einzugscharakteristik auch räumlich stark variieren. Das mHM-Nitratmodell kann als vielversprechendes Instrument zur Beurteilung der detaillierten räumzeitlichen Variabilität der Nitratflüsse und -dynamiken genutzt werden, was sowohl für Wissenschaftler als auch für Nutzer aus der Praxis wichtig ist. Die Integration des neuen Ansatzes zur gewässerinternen Nährstoffaufnahme in das Modell ermöglicht eine räumlich-zeitliche Untersuchung des Nitrattransports und Nährstoffentzugs in Fließgewässernetzwerken. Die Erkenntnisse aus Sensitivitäts- und Korrelationsanalysen sind bedeutsam für die Ableitung zukünftiger Parameterregionalisierungsansätze, die es erlauben, einen ausgewogenen Kompromiss zwischen der Komplexität der Modellparametrisierung und der hinreichenden Darstellung der natürlichen Heterogenität zu finden. T2 - Raumzeitliche Analyse von einzugsgebietsbezogenen und gewässerinternen Nitratdynamiken KW - Catchment and in-stream water quality KW - Spatial and temporal nitrate variability KW - Fully distributed nitrate modeling KW - High-frequency data KW - Heterogeneous catchement responses KW - Autotrophic nitrate uptake in river networks KW - Autotropher Nitrat-Aufnahme in Gewässernetzen KW - Räumlich verteilte Nitratmodellierung KW - Heterogene Einzugsgebietsreaktionen KW - Hochfrequenzdaten KW - Räumliche und zeitliche Nitratvariabilität Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-477029 ER - TY - THES A1 - Yan, Runyu T1 - Nitrogen-doped and porous carbons towards new energy storage mechanisms for supercapacitors with high energy density T1 - Neuartige Energiespeichermechanismen in porösen und stickstoffdotierten Kohlenstoffen für die Anwendung in Superkondensatoren mit hoher Energiedichte N2 - Supercapacitors are electrochemical energy storage devices with rapid charge/discharge rate and long cycle life. Their biggest challenge is the inferior energy density compared to other electrochemical energy storage devices such as batteries. Being the most widely spread type of supercapacitors, electrochemical double-layer capacitors (EDLCs) store energy by electrosorption of electrolyte ions on the surface of charged electrodes. As a more recent development, Na-ion capacitors (NICs) are expected to be a more promising tactic to tackle the inferior energy density due to their higher-capacity electrodes and larger operating voltage. The charges are simultaneously stored by ion adsorption on the capacitive-type cathode surface and via faradic process in the battery-type anode, respectively. Porous carbon electrodes are of great importance in these devices, but the paramount problems are the facile synthetic routes for high-performance carbons and the lack of fundamental understanding of the energy storage mechanisms. Therefore, the aim of the present dissertation is to develop novel synthetic methods for (nitrogen-doped) porous carbon materials with superior performance, and to reveal a deeper understanding energy storage mechanisms of EDLCs and NICs. The first part introduces a novel synthetic method towards hierarchical ordered meso-microporous carbon electrode materials for EDLCs. The large amount of micropores and highly ordered mesopores endow abundant sites for charge storage and efficient electrolyte transport, respectively, giving rise to superior EDLC performance in different electrolytes. More importantly, the controversial energy storage mechanism of EDLCs employing ionic liquid (IL) electrolytes is investigated by employing a series of porous model carbons as electrodes. The results not only allow to conclude on the relations between the porosity and ion transport dynamics, but also deliver deeper insights into the energy storage mechanism of IL-based EDLCs which is different from the one usually dominating in solvent-based electrolytes leading to compression double-layers. The other part focuses on anodes of NICs, where novel synthesis of nitrogen-rich porous carbon electrodes and their sodium storage mechanism are investigated. Free-standing fibrous nitrogen-doped carbon materials are synthesized by electrospinning using the nitrogen-rich monomer (hexaazatriphenylene-hexacarbonitrile, C18N12) as the precursor followed by condensation at high temperature. These fibers provide superior capacity and desirable charge/discharge rate for sodium storage. This work also allows insights into the sodium storage mechanism in nitrogen-doped carbons. Based on this mechanism, further optimization is done by designing a composite material composed of nitrogen-rich carbon nanoparticles embedded in conductive carbon matrix for a better charge/discharge rate. The energy density of the assembled NICs significantly prevails that of common EDLCs while maintaining the high power density and long cycle life. N2 - Superkondensatoren sind elektrochemische Energiespeicher, die eine hohe Lade-/Entladerate und Zyklensta-bilität aufweisen, deren größte Einschränkung derzeit jedoch bei ihrer im Vergleich zu anderen Speicherlösungen, wie etwa Batterien, geringen Energiedichte liegt. Im am weitesten verbreiteten Superkondensatortyp, dem elektrochemischen Doppelschichtkondensator (engl. electrochemical double-layer capacitor, EDLC), wird die Energie durch Elektrosorption der Elektrolytionen an die geladene Elektrodenoberfläche gespeichert. Der Natrium-Ionen-Kondensator (engl. Na-ion capacitor, NIC) ist eine neuere Entwicklung und löst das Problem der geringen Energiedichte durch Verwendung von Elektroden mit einer höheren Kapazität und Betriebsspannung. Dies wird dadurch erreicht, dass simultan anodenseitig ein faradayscher Prozess und kathodenseitig der Aufbau einer elektrochemischen Doppelschicht genutzt werden. Somit kommen die Vorteile beider Phänomene zum Tragen. Poröse Kohlenstoffelektroden sind wichtig für beide Speichersysteme, wobei die Entwicklung einfacher Syn-theserouten für die Herstellung von Hochleistungskohlenstoffen und der Aufbau eines grundlegenden Ver-ständnisses der dem Energiespeicher zugrunde liegenden Mechanismen die vordergründigen Herausforde-rungen sind. Daher ist es das Ziel der vorliegenden Dissertation, neue Methoden zur Synthese (stickstoffdo-tierter) Kohlenstoffmaterialien mit überlegener Leistung zu erschließen und eine tiefere Einsicht in die me-chanistischen Aspekte der Funktionsweise der eingangs vorgestellten Superkondensatorsysteme zu erhalten. Im ersten Teil der Arbeit wird eine neuartige Synthese von Kohlenstoff-Elektrodenmaterialien für EDLCs vor-gestellt, welche ein hohes Volumen an Mikroporen und hochgeordneten Mesoporen aufweisen. Durch deren Einsatz kann in verschiedenen Elektrolytsystemen eine herausragende Energiedichte erzielt werden. Umso bedeutender sind die Ergebnisse der Untersuchung des kontrovers diskutierten Energiespeichermechanismus in EDLCs mit Elektrolyten auf Basis ionischer Flüssigkeiten (engl. ionic liquids, ILs) und Elektroden aus porösen Modellkohlenstoffen. Aus diesen können nicht nur Rückschlüsse auf den Zusammenhang zwischen Porosität und Ionentransportdynamik gezogen werden, sondern sie lassen auch wichtige Erkenntnisse auf die Mechanismen des Ladungsspeichers in IL-basierten EDLCs zu, welche sich grundlegend von dem in lösungsmittelbasierten Elektrolyten vorherrschenden Mechanismus, der Bildung einer Kompressionsdoppelschicht, unterscheiden. Im zweiten Teil des Werks liegt der Fokus auf der Synthese stickstoffreicher poröser Kohlenstoffelektroden als Anoden für NICs und der Untersuchung der Vorgänge während der Natriumeinlagerung in solchen Syste-men. Freistehende, faserartige und stickstoffdotierte Kohlenstoffmaterialien wurden durch Elektrospinnen des stickstoffreichen Monomers Hexaazatriphenylen-hexacarbonitril (C18N12) gefolgt von dessen Kondensati-on bei hoher Temperatur erhalten. Diese Fasern überzeugen durch überragende Kapazität und eine hohe Lade-/Entladerate beim Natriumspei-chervorgang. In diesem Rahmen wurde auch der Mechanismus der Natriumeinlagerung in stickstoffdotierten Kohlenstoffen beleuchtet und auf Basis dieser Erkenntnisse wurde eine weitere Optimierung vorgenommen. Indem ein Kompositmaterial aus stickstoffreichen Kohlenstoffnanopartikeln in einer leitfähigen Kohlenstoffmatrix erzeugt wurde, konnte die Lade-/Entladerate abermals verbessert werden. Somit übertrifft die Energiedichte der so konstruierten NICs die gewöhnlicher EDLCs, während deren hohe Leistungsdichte und Lebensdauer erhalten bleibt. KW - porous carbons KW - supercapacitors KW - high energy density KW - energy storage mechanism KW - poröse Kohlenstoffe KW - Superkondensatoren KW - hohe Energiedichte KW - Energiespeichermechanismus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431413 ER - TY - THES A1 - Yadavalli, Nataraja Sekhar T1 - Advances in experimental methods to probe surface relief grating formation mechanism in photosensitive materials T1 - Entstehung von Oberflächengittern in lichtempfindlichen Materialien N2 - When azobenzene-modified photosensitive polymer films are irradiated with light interference patterns, topographic variations in the film develop that follow the electric field vector distribution resulting in the formation of surface relief grating (SRG). The exact correspondence of the electric field vector orientation in interference pattern in relation to the presence of local topographic minima or maxima of SRG is in general difficult to determine. In my thesis, we have established a systematic procedure to accomplish the correlation between different interference patterns and the topography of SRG. For this, we devise a new setup combining an atomic force microscope and a two-beam interferometer (IIAFM). With this set-up, it is possible to track the topography change in-situ, while at the same time changing polarization and phase of the impinging interference pattern. To validate our results, we have compared two photosensitive materials named in short as PAZO and trimer. This is the first time that an absolute correspondence between the local distribution of electric field vectors of interference pattern and the local topography of the relief grating could be established exhaustively. In addition, using our IIAFM we found that for a certain polarization combination of two orthogonally polarized interfering beams namely SP (↕, ↔) interference pattern, the topography forms SRG with only half the period of the interference patterns. Exploiting this phenomenon we are able to fabricate surface relief structures below diffraction limit with characteristic features measuring only 140 nm, by using far field optics with a wavelength of 491 nm. We have also probed for the stresses induced during the polymer mass transport by placing an ultra-thin gold film on top (5–30 nm). During irradiation, the metal film not only deforms along with the SRG formation, but ruptures in regular and complex manner. The morphology of the cracks differs strongly depending on the electric field distribution in the interference pattern even when the magnitude and the kinetic of the strain are kept constant. This implies a complex local distribution of the opto-mechanical stress along the topography grating. The neutron reflectivity measurements of the metal/polymer interface indicate the penetration of metal layer within the polymer resulting in the formation of bonding layer that confirms the transduction of light induced stresses in the polymer layer to a metal film. N2 - Azobenzolhaltige Polymere gehören zu einer Klasse funktionaler Materialien, bei denen durch ein äußeres Strahlungsfeld eine starke mechanische Reaktion ausgelöst werden kann. Durch die Bindung an das Polymerrückgrat können die Azobenzole, die unter UV-Belichtung eine Photoisomerisierung ausführen, was zum Teil drastische Effekte zur Folge hat. Unter Belichtung mit Intensitätsmustern, d.h. mit räumlich variierender Verteilung der Polarisation oder der Intensität des einfallenden Lichts verändert sich die Topographie der azobenzolhaltigen Filme, was zur Bildung von Oberflächengittern (engl. Surface Relief Gratings, SRG) führt. In dieser Arbeit wurde eine neue Methode vorgeschlagen, bei der das Verhalten elastischer/morphologischer Eigenschaften unter verschiedenen Belichtungsbedingungen, d.h. mit unterschiedlicher Verteilung der Polarisation und der Intensität in situ lokal als Funktion der Position entlang der SRG aufgenommen werden kann. Außerdem wurde hier vorgeschlagen, opto-mechanische Spannungen, die innerhalb der photosensitiven Polymerfilme während der Belichtung entstehen, mit Hilfe dünner aufgebrachter metallischen Schichten abzubilden und zu analysieren. KW - Azobenzolhaltige Polymerfilme KW - Oberflächengitter KW - In-situ Rasterkraftmikroskopie KW - Opto-mechanische Spannungen KW - Metall/Graphen/Polymer Grenzfläch KW - azobenzene polymer films KW - surface relief grating KW - in-situ atomic force microscopy KW - opto-mechanical stresses KW - metal/polymer interfaces Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71213 ER - TY - THES A1 - Yadav, Himanshu T1 - A computational evaluation of feature distortion and cue weighting in sentence comprehension T1 - Eine komputationale Evaluation von Feature-Verfälschung und Cue-Gewichtung in der Satzverarbeitung N2 - Successful sentence comprehension requires the comprehender to correctly figure out who did what to whom. For example, in the sentence John kicked the ball, the comprehender has to figure out who did the action of kicking and what was being kicked. This process of identifying and connecting the syntactically-related words in a sentence is called dependency completion. What are the cognitive constraints that determine dependency completion? A widely-accepted theory is cue-based retrieval. The theory maintains that dependency completion is driven by a content-addressable search for the co-dependents in memory. The cue-based retrieval explains a wide range of empirical data from several constructions including subject-verb agreement, subject-verb non-agreement, plausibility mismatch configurations, and negative polarity items. However, there are two major empirical challenges to the theory: (i) Grammatical sentences’ data from subject-verb number agreement dependencies, where the theory predicts a slowdown at the verb in sentences like the key to the cabinet was rusty compared to the key to the cabinets was rusty, but the data are inconsistent with this prediction; and, (ii) Data from antecedent-reflexive dependencies, where a facilitation in reading times is predicted at the reflexive in the bodybuilder who worked with the trainers injured themselves vs. the bodybuilder who worked with the trainer injured themselves, but the data do not show a facilitatory effect. The work presented in this dissertation is dedicated to building a more general theory of dependency completion that can account for the above two datasets without losing the original empirical coverage of the cue-based retrieval assumption. In two journal articles, I present computational modeling work that addresses the above two empirical challenges. To explain the grammatical sentences’ data from subject-verb number agreement dependencies, I propose a new model that assumes that the cue-based retrieval operates on a probabilistically distorted representation of nouns in memory (Article I). This hybrid distortion-plus-retrieval model was compared against the existing candidate models using data from 17 studies on subject-verb number agreement in 4 languages. I find that the hybrid model outperforms the existing models of number agreement processing suggesting that the cue-based retrieval theory must incorporate a feature distortion assumption. To account for the absence of facilitatory effect in antecedent-reflexive dependen� cies, I propose an individual difference model, which was built within the cue-based retrieval framework (Article II). The model assumes that individuals may differ in how strongly they weigh a syntactic cue over a number cue. The model was fitted to data from two studies on antecedent-reflexive dependencies, and the participant-level cue-weighting was estimated. We find that one-fourth of the participants, in both studies, weigh the syntactic cue higher than the number cue in processing reflexive dependencies and the remaining participants weigh the two cues equally. The result indicates that the absence of predicted facilitatory effect at the level of grouped data is driven by some, not all, participants who weigh syntactic cues higher than the number cue. More generally, the result demonstrates that the assumption of differential cue weighting is important for a theory of dependency completion processes. This differential cue weighting idea was independently supported by a modeling study on subject-verb non-agreement dependencies (Article III). Overall, the cue-based retrieval, which is a general theory of dependency completion, needs to incorporate two new assumptions: (i) the nouns stored in memory can undergo probabilistic feature distortion, and (ii) the linguistic cues used for retrieval can be weighted differentially. This is the cumulative result of the modeling work presented in this dissertation. The dissertation makes an important theoretical contribution: Sentence comprehension in humans is driven by a mechanism that assumes cue-based retrieval, probabilistic feature distortion, and differential cue weighting. This insight is theoretically important because there is some independent support for these three assumptions in sentence processing and the broader memory literature. The modeling work presented here is also methodologically important because for the first time, it demonstrates (i) how the complex models of sentence processing can be evaluated using data from multiple studies simultaneously, without oversimplifying the models, and (ii) how the inferences drawn from the individual-level behavior can be used in theory development. N2 - Bei der Satzverarbeitung muss der Leser richtig herausfinden, wer wem was angetan hat. Zum Beispiel muss der Leser in dem Satz „John hat den Ball getreten“ herausfinden, wer tat die Aktion des Tretens und was getreten wurde. Dieser Prozess des Identifizierens und Verbindens der syntaktisch verwandte Wörter in einem Satz nennt man Dependency-Completion. Was sind die kognitiven Mechanismen, die Dependency-Completion bestimmen? Eine weithin akzeptierte Theorie ist der Cue-based retrieval. Die Theorie besagt, dass die Dependency-Completion durch eine inhaltsadressierbare Suche nach der vorangetrieben wird Co-Abhängige im Gedächtnis. Der Cue-basierte Abruf erklärt ein breites Spektrum an empirischen Daten mehrere Konstruktionen, darunter Subjekt-Verb-Übereinstimmung, Subjekt-Verb-Nichtübereinstimmung, Plausibilität Mismatch-Konfigurationen und Elemente mit negativer Polarität. Es gibt jedoch zwei große empirische Herausforderungen für die Theorie: (i) Grammatische Sätze Daten aus Subjekt-Verb-Nummer-Dependency, bei denen die Theorie eine Verlangsamung vorhersagt das Verb in Sätzen wie „the key to the cabinet was rusty“ im Vergleich zu „the key to the cabinets was rusty“, aber die Daten stimmen nicht mit dieser Vorhersage überein; und (ii) Daten von Antezedenz-Reflexiv Strukturen, wo eine Leseerleichterung beim reflexiven „the bodybuilder who worked with the trainers injured themselves“ vs. „the bodybuilder who worked with the trainers injured themselves", aber die Daten zeigen keine vermittelnde Wirkung. Die in dieser Dissertation vorgestellte Arbeit widmet sich dem Aufbau einer allgemeineren Theorie von Dependency-Completion, die die beiden oben genannten Datensätze berücksichtigen kann, ohne das Original zu verlieren empirische Abdeckung der Cue-based Retrieval-Annahme. In zwei Zeitschriftenartikeln stelle ich Arbeiten zur Computermodellierung vor, die sich mit den beiden oben genannten empirischen Herausforderungen befassen. Um die Daten der grammatikalischen Sätze aus den Abhängigkeiten der Subjekt-Verb-Nummer-Übereinstimmung zu erklären, schlage ich ein neues Modell vor, das davon ausgeht, dass der Cue-basierte Abruf probabilistisch funktioniert verzerrte Darstellung von Substantiven im Gedächtnis (Artikel I). Dieses hybride Distortion-plus-Retrieval-Modell wurde anhand von Daten aus 17 Studien zu Subjekt-Verb mit den bestehenden Kandidatenmodellen verglichen Nummernvereinbarung in 4 Sprachen. Ich finde, dass das Hybridmodell die bestehenden Modelle übertrifft der Nummernvereinbarungsverarbeitung, was darauf hindeutet, dass die Cue-based Retrieval-Theorie Folgendes umfassen muss: a Annahme von Feature-Verfälschung. Um das Fehlen eines unterstützenden Effekts in antezedens-reflexiven Abhängigkeiten zu berücksichtigen, schlage ich ein individuelles Differenzmodell vor, das innerhalb des Cue-based Retrieval-Frameworks erstellt wurde (Artikel II). Das Modell geht davon aus, dass Individuen sich darin unterscheiden können, wie stark sie eine Syntax gewichten Cue über einem Nummern-Cue. Das Modell wurde an Daten aus zwei Studien zum Antezedenz-Reflexiv angepasst Abhängigkeiten, und die Cue-Gewichtung auf Teilnehmerebene wurde geschätzt. Wir finden, dass ein Viertel von Die Teilnehmer in beiden Studien gewichten bei der Verarbeitung den syntaktischen Cue höher als den numerischen Cue reflexive Abhängigkeiten und die verbleibenden Teilnehmer gewichten die beiden Cue gleichermaßen. Das Ergebnis weist darauf hin, dass das Fehlen des prognostizierten Erleichterungseffekts auf der Ebene der gruppierten Daten von einigen, nicht alle Teilnehmer, die syntaktische Cue höher gewichten als Zahlenhinweise. Allgemeiner gesagt, die Das Ergebnis zeigt, dass die Annahme einer differentiellen Hinweisgewichtung wichtig für eine Theorie von ist Dependency-Completion. Diese Idee der differentiellen Cue-Gewichtung wurde unabhängig unterstützt durch eine Modellierungsstudie zu Subjekt-Verb-Nichteinigungsabhängigkeiten (Artikel III). Insgesamt benötigt der Cue-basierte Abruf, der eine allgemeine Theorie der Abhängigkeitsvervollständigung ist um zwei neue Annahmen aufzunehmen: (i) die im Gedächtnis gespeicherten Substantive können einer Wahrscheinlichkeitsanalyse unterzogen werden Feature-Verfälschung, und (ii) die für den Abruf verwendeten sprachlichen Cue können unterschiedlich gewichtet werden. Das ist das kumulative Ergebnis der in dieser Dissertation vorgestellten Modellierungsarbeit.Die Dissertation leistet einen wichtigen theoretischen Beitrag: Satzverständnis in Der Mensch wird von einem Mechanismus getrieben, der einen hinweisbasierten Abruf, eine probabilistische Merkmalsverzerrung und eine differentielle Hinweisgewichtung annimmt. Diese Einsicht ist theoretisch wichtig, weil es einige gibt unabhängige Unterstützung für diese drei Annahmen in der Satzverarbeitung und im weiteren Gedächtnis Literatur. Die hier vorgestellten Modellierungsarbeiten sind auch methodisch wichtig, weil für die Zum ersten Mal wird gezeigt, (i) wie die komplexen Modelle der Satzverarbeitung evaluiert werden können Daten aus mehreren Studien gleichzeitig zu verwenden, ohne die Modelle zu stark zu vereinfachen, und (ii) wie die Schlussfolgerungen aus dem Verhalten auf individueller Ebene können in der Theorieentwicklung verwendet werden. KW - sentence comprehension KW - individual differences KW - cue-based retrieval KW - memory distortion KW - Approximate Bayesian Computation KW - cue reliability KW - ungefähre Bayessche Komputation KW - Cue-Gewichtung KW - Cue-basierter Retrieval KW - individuelle Unterschiede KW - Darstellung Verfälschung KW - Satzverarbeitung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-585055 ER - TY - THES A1 - Xü, Chenggang T1 - Preparation and characterization of vapour deposited films based on substituted 2,5-diphenyl-1,3,4-oxadiazole derivatives N2 - Diese Arbeit befasst sich mit dem Einfluss der molekularen Struktur von 2,5-Diphenyl-1,3,4-Oxadiazol-Derivaten auf die Präparierung dünner Schichten mittels Vakuumdeposition. Dünne Schichten von diesen Substanzen wurden auf Si/SiO2 aufgedampft und ihre Struktur systematisch mittels XSR, AFM und IR untersucht. Das Ergebnis zeigt, dass die Schichtstrukturen offenbar von Substratetemperatur (Ts) abhängig sind. Im untersuchten Ts-Bereich bilden etherverbrückte Oxadiazole immer geordnete Schichten und die Schichtperiodicität hängt linear von der Längen der aliphatischen Ketten, während sich bei den amidverbrückten Oxadiazolen nur bei hohen Ts geordnete Schichten bilden können. Diese Unterschiede sind auf die intermolekularen Wasserstoffbrücken zurückzuführen. Der Tilt-Winkel der Moleküle ist durch die Wechselwirkung zwischen dem aromatischen Teil bestimmt. Die Wechselwirkungen zwischen den Kopfgruppen können durch Tempern abgeschwächt werden und führen zur Strukturumwandlung von Schichten, die auf etherverbrückten Oxadiazolen basieren. Alle Schichten von etherverbrückten Oxadiazolen haben Doppelschicht-Struktur, aber amidverbrückte Oxadiazole bilden nur Doppelschicht-Strukturen, wenn die Moleküle eine Kopfgruppe besitzen. N2 - The correlations between the chemical structures of the 2,5-diphenyl-1,3,4-oxadiazole compounds and their corresponding vapour deposited film structures on Si/SiO2 were systematically investigated with AFM, XSR and IR for the first time. The result shows that the film structure depends strongly on the substrate temperature (Ts). For the compounds with ether bridge group, the film periodicity depends linearly on the length of the aliphatic chain. The films based on those oxadiazols have ordered structure in the investigated substrate temperature region, while die amide bridged compounds form ordered film only at high Ts due to the formation of intermolecular H-bond. The tilt angle of most molecules is determined by the pi-pi complexes between the molecules. The intermolecular interaction between head groups leads to the structural transformation during the thermal treatment after deposition. All the ether bridged oxadiazoles form films with bilayer structure, while amide bridged oxadiazole form film bilayer structure only when the molecule has a head group. KW - 1 KW - 3 KW - 4-oxadiazol KW - Vapour Deposition KW - Dünnschichten KW - AFM KW - X-ray KW - Infrarot Spektroskopie KW - intermolekülare Wechselwirkung KW - Hochvakuum KW - 1 KW - 3 KW - 4-oxadiazole KW - vapour deposition KW - Thin film KW - AFM KW - X-ray KW - Infrared spectroscopy KW - intermolecular interaction KW - high vacuum Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001358 ER - TY - THES A1 - Xiong, Tao T1 - Vibrationally resolved absorption, emission, resonance Raman and photoelectron spectra of selected organic molecules, associated radicals and cations T1 - Schwingungsaufgelöste Absorptions-, Emissions-, Resonanz-Raman- und Photoelektronenspektren ausgewählter organischer Moleküle, assoziierter Radikale und Kationen BT - a time-dependent approach BT - ein zeitabhängiger Ansatz N2 - Time-dependent correlation function based methods to study optical spectroscopy involving electronic transitions can be traced back to the work of Heller and coworkers. This intuitive methodology can be expected to be computationally efficient and is applied in the current work to study the vibronic absorption, emission, and resonance Raman spectra of selected organic molecules. Besides, the "non-standard" application of this approach to photoionization processes is also explored. The application section consists of four chapters as described below. In Chapter 4, the molar absorptivities and vibronic absorption/emission spectra of perylene and several of its N-substituted derivatives are investigated. By systematically varying the number and position of N atoms, it is shown that the presence of nitrogen heteroatoms has a negligible effect on the molecular structure and geometric distortions upon electronic transitions, while spectral properties are more sensitive: In particular the number of N atoms is important while their position is less decisive. Thus, N-substitution can be used to fine-tune the optical properties of perylene-based molecules. In Chapter 5, the same methods are applied to study the vibronic absorption/emission and resonance Raman spectra of a newly synthesized donor-acceptor type molecule. The simulated absorption/emission spectra agree fairly well with experimental data, with discrepancies being attributed to solvent effects. Possible modes which may dominate the fine-structure in the vibronic spectra are proposed by analyzing the correlation function with the aid of Raman and resonance Raman spectra. In the next two chapters, besides the above types of spectra, the methods are extended to study photoelectron spectra of several small diamondoid-related systems (molecules, radicals, and cations). Comparison of the photoelectron spectra with available experimental data suggests that the correlation function based approach can describe ionization processes reasonably well. Some of these systems, cationic species in particular, exhibit somewhat peculiar optical behavior, which presents them as possible candidates for functional devices. Correlation function based methods in a more general sense can be very versatile. In fact, besides the above radiative processes, formulas for non-radiative processes such as internal conversion have been derived in literature. Further implementation of the available methods is among our next goals. N2 - Molekülsysteme bestehen aus Kernen und Elektronen, deren viel kleinere Masse sie in die Lage versetzten, sich der Bewegung des ersteren augenblicklich anzupassen. Daher ist die Bewegung der Elektronen und Kerne in einer guten ersten Annäherung "unabhängig", und die Energie der Elektronen kann zuerst berechnet werden, vorausgesetzt, die Kerne sind stationär. Die so gewonnene elektronische Energie wird zur Abstoßungsenergie zwischen den Kernen addiert, um ein Potential zu erhalten, das die Bewegung der Kerne bestimmt. Quantenmechanisch können sowohl die Elektronen als auch die Kerne nur bestimmte Energieniveaus haben. Die molekulare vibronische (= Schwingung + Elektronik) Absorptionsspektroskopie beinhaltet den Übergang der Elektronen und Kerne von ihrem Anfangs- in ihren Endzustand durch Photonenabsorption. Die größere elektronische Übergangsenergie bestimmt die Position des Absorptionsmaximums, während die kleinere nukleare Schwingungsübergangsenergie (ohne Berücksichtigung von Translation und Rotation) die Position der Teilmaxima innerhalb des Absorptionsbereichs bestimmt, wodurch die vibronische Feinstruktur entsteht. Ähnliche Ideen gelten auch für die vibronische Emissionsspektroskopie. Die Resonanz-Raman-Spektroskopie untersucht die Energieänderung des einfallenden Photons (dessen Energie ausreichend ist, um die Elektronen in einen höheren elektronischen Zustand anzuregen), nachdem es mit dem Molekül wechselwirkt. Der Energiegewinn oder -verlust des einfallenden Photons bewirkt eine Änderung des Schwingungszustandes. Die Photoelektronenspektroskopie ist ähnlich wie die vibronische Absorption, benötigt aber in der Regel mehr Energie des einfallenden Photons, da neben der Anregung des Moleküls in einen höheren vibronischen Zustand zusätzliche Energie benötigt wird, um ein Elektron aus dem Molekül zu entfernen. Diese spektroskopischen Techniken liefern wertvolle Informationen über die elektronische und nukleare Bewegung des Moleküls. Theoretisch können wir eine zeitabhängige Korrelationsfunktion verwenden, um die Spektren zu simulieren. Die Korrelationsfunktion für die Absorption ist beispielsweise eine Funktion der Zeit, deren Entwicklung Informationen über die elektronischen Energien und die nukleare Bewegung enthält. Um das Absorptionsspektrum in Form von Energie zu erhalten, wird ein mathematisches Verfahren, die so genannte Fourier-Transformation, auf die zeitabhängige Korrelationsfunktion angewendet, um ein energieabhängiges Spektrum zu erhalten. Diese Methode wird auf ausgewählte organische Moleküle, darunter einige Radikale und Kationen, angewandt, um deren elektronisches und optisches Verhalten unter dem Einfluss von einfallendem Licht zu untersuchen und Einblicke in das Design neuer optoelektronischer Bauelemente zu gewinnen. Bei einigen Molekülen/Systemen wird die vibronische Feinstruktur durch Faktoren wie molekulare Zusammensetzung und Umgebung wie Lösungsmittel beeinflusst, was darauf hindeutet, dass diese Systeme zur Feinabstimmung der gewünschten Eigenschaften verwendet werden können. Für andere Systeme gibt es fast keine sichtbare vibronische Feinstruktur, was bedeutet, dass sich die nukleare Bewegung solcher Systeme im Allgemeinen von derjenigen der vorherigen Kategorie unterscheidet. KW - vibrationally resolved electronic spectroscopy KW - photoelectron spectroscopy KW - resonance Raman spectroscopy KW - correlation function KW - ionization potential KW - time-dependent density functional theory KW - perylene KW - diamondoid KW - Schwingungsaufgelöste UV/VIS-Spektroskopie KW - Photoelektronenspektroskopie KW - Resonanz-Raman-Spektroskopie KW - Korrelationsfunktion KW - Ionisationspotential KW - Zeitabhängige Dichtefunktionaltheorie KW - Perylen KW - Diamondoide Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418105 ER - TY - THES A1 - Xie, Dongjiu T1 - Nanostructured Iron-based compounds as sulfur host material for lithium-sulfur batteries T1 - Nanostrukturierte Eisenverbindungen als Schwefel-Wirtsmaterial für Lithium-Schwefel-Batterien N2 - The present thesis focuses on the synthesis of nanostructured iron-based compounds by using β-FeOOH nanospindles and poly(ionic liquid)s (PILs) vesicles as hard and soft templates, respectively, to suppress the shuttle effect of lithium polysulfides (LiPSs) in Li-S batteries. Three types of composites with different nanostructures (mesoporous nanospindle, yolk-shell nanospindle, and nanocapsule) have been synthesized and applied as sulfur host material for Li-S batteries. Their interactions with LiPSs and effects on the electrochemical performance of Li-S batteries have been systematically studied. In the first part of the thesis, carbon-coated mesoporous Fe3O4 (C@M-Fe3O4) nanospindles have been synthesized to suppress the shuttle effect of LiPSs. First, β-FeOOH nanospindles have been synthesized via the hydrolysis of iron (III) chloride in aqueous solution and after silica coating and subsequent calcination, mesoporous Fe2O3 (M-Fe2O3) have been obtained inside the confined silica layer through pyrolysis of β-FeOOH. After the removal of the silica layer, electron tomography (ET) has been applied to rebuild the 3D structure of the M-Fe2O3 nanospindles. After coating a thin layer of polydopamine (PDA) as carbon source, the PDA-coated M-Fe2O3 particles have been calcinated to synthesize C@M-Fe3O4 nanospindles. With the chemisorption of Fe3O4 and confinement of mesoporous structure to anchor LiPSs, the composite C@M-Fe3O4/S electrode delivers a remaining capacity of 507.7 mAh g-1 at 1 C after 600 cycles. In the second part of the thesis, a series of iron-based compounds (Fe3O4, FeS2, and FeS) with the same yolk-shell nanospindle morphology have been synthesized, which allows for the direct comparison of the effects of compositions on the electrochemical performance of Li-S batteries. The Fe3O4-carbon yolk-shell nanospindles have been synthesized by using the β-FeOOH nanospindles as hard template. Afterwards, Fe3O4-carbon yolk-shell nanospindles have been used as precursors to obtain iron sulfides (FeS and FeS2)-carbon yolk-shell nanospindles through sulfidation at different temperatures. Using the three types of yolk-shell nanospindles as sulfur host, the effects of compositions on interactions with LiPSs and electrochemical performance in Li-S batteries have been systematically investigated and compared. Benefiting from the chemisorption and catalytic effect of FeS2 particles and the physical confinement of the carbon shell, the FeS2-C/S electrode exhibits the best electrochemical performance with an initial specific discharge capacity of 877.6 mAh g-1 at 0.5 C and a retention ratio of 86.7% after 350 cycles. In the third part, PILs vesicles have been used as soft template to synthesize carbon nanocapsules embedded with iron nitride particles to immobilize and catalyze LiPSs in Li-S batteries. First, 3-n-decyl-1-vinylimidazolium bromide has been used as monomer to synthesize PILs nanovesicles by free radical polymerization. Assisted by PDA coating route and ion exchange, PIL nanovesicles have been successfully applied as soft template in morphology-maintaining carbonization to prepare carbon nanocapsules embedded with iron nitride nanoparticles (FexN@C). The well-dispersed iron nitride nanoparticles effectively catalyze the conversion of LiPSs to Li2S, owing to their high electrical conductivity and strong chemical binding to LiPSs. The constructed FexN@C/S cathode demonstrates a high initial discharge capacity of 1085.0 mAh g-1 at 0.5 C with a remaining value of 930.0 mAh g-1 after 200 cycles. The results in the present thesis demonstrate the facile synthetic routes of nanostructured iron-based compounds with controllable morphologies and compositions using soft and hard colloidal templates, which can be applied as sulfur host to suppress the shuttle behavior of LiPSs. The synthesis approaches developed in this thesis are also applicable to fabricating other transition metal-based compounds with porous nanostructures for other applications. N2 - Die vorliegende Arbeit beschreibt die Synthese von nanostrukturierten Verbindungen auf Eisenbasis unter Verwendung von β-FeOOH-Nanospindeln und Vesikeln aus Poly(ionischen Flüssigkeiten) (PILs) als harte bzw. weiche Vorlagen, um den Shuttle-Effekt von Lithiumpolysulfiden (LiPSs) in Li-S-Batterien zu unterdrücken. Drei Arten von Verbundstoffen mit unterschiedlichen Nanostrukturen (mesoporöse Nanospindel, Dotterschalen-Nanospindel und Nanokapsel) wurden synthetisiert und als Schwefel-Wirtsmaterial für Li-S-Batterien eingesetzt. Ihre Wechselwirkungen mit LiPS und ihre Auswirkungen auf die elektrochemische Leistung von Li-S-Batterien wurden systematisch untersucht. Im ersten Teil der Arbeit wurden kohlenstoffbeschichtete mesoporöse Fe3O4 (C@M-Fe3O4) Nanospindeln synthetisiert, um den Shuttle-Effekt von LiPSs zu unterdrücken. Zunächst wurden β-FeOOH-Nanospindeln durch Hydrolyse von Eisen(III)-chlorid in wässriger Lösung synthetisiert. Nach der Beschichtung mit Siliziumdioxid und anschließender Kalzinierung wurde mesoporöses Fe2O3 (M-Fe2O3) innerhalb der begrenzten Siliziumdioxidschicht durch Pyrolyse von β-FeOOH erhalten. Nach der Entfernung der Siliziumdioxidschicht wurde Elektronentomographie (ET) eingesetzt, um die 3D-Struktur der M-Fe2O3-Nanospindeln zu rekonstruieren. Nach der Beschichtung mit einer dünnen Schicht Polydopamin (PDA) als Kohlenstoffquelle wurden die PDA-beschichteten M-Fe2O3-Partikel kalziniert, um C@M-Fe3O4-Nanospindeln zu synthetisieren. Durch die Chemisorption von Fe3O4 und die Einschließung der mesoporösen Struktur zur Verankerung der LiPSs liefert die zusammengesetzte C@M-Fe3O4/S-Elektrode nach 600 Zyklen eine Restkapazität von 507,7 mAh g-1 bei 1 C. Im zweiten Teil der Arbeit wurde eine Reihe von eisenbasierten Verbindungen (Fe3O4, FeS2, und FeS) mit der gleichen Dotterschalen-Nanospindel-Morphologie synthetisiert, was einen direkten Vergleich der Auswirkungen der Zusammensetzungen auf die elektrochemische Leistung von Li S-Batterien ermöglicht. Die Fe3O4-Kohlenstoff-Dotterschalen-Nanospindeln wurden unter Verwendung der β-FeOOH-Nanospindeln als harte Vorlage synthetisiert. Anschließend wurden Fe3O4-Kohlenstoff-Dotterschalen-Nanospindeln als Vorläufer verwendet, um Eisensulfide (FeS und FeS2) - Kohlenstoff-Dotterschalen-Nanospindeln durch Sulfidierung bei verschiedenen Temperaturen zu erhalten. Durch Verwendung der drei Arten von Dotterschalen-Nanospindeln als Schwefelwirt wurden die Auswirkungen der Zusammensetzungen auf die Wechselwirkungen mit LiPS und die elektrochemische Leistung in Li-S-Batterien systematisch untersucht und verglichen. Die FeS2-C/S-Elektrode, die von der Chemisorption und der katalytischen Wirkung der FeS2-Teilchen und dem physikalischen Einschluss der Kohlenstoffschale profitiert, zeigt die beste elektrochemische Leistung mit einer anfänglichen spezifischen Entladekapazität von 877,6 mAh g-1 bei 0,5 C und einem Kapazitätserhalt von 86,7 % nach 350 Zyklen. Im dritten Teil wurden PILs-Vesikel als weiche Vorlage verwendet, um Kohlenstoff-Nanokapseln zu synthetisieren, die mit Eisennitridpartikeln durchsetzt sind, um LiPSs in Li-S-Batterien zu immobilisieren und deren Umwandlung zu katalysieren. Zunächst wurde 3-n-Decyl-1-Vinylimidazoliumbromid als Monomer für die Synthese von PIL-Nanovesikeln durch radikalische Polymerisation verwendet. Mit Hilfe der PDA-Beschichtung und des Ionenaustauschs wurden die PIL-Nanomoleküle erfolgreich als weiche Vorlage bei der morphologieerhaltenden Karbonisierung eingesetzt, um Kohlenstoff-Nanokapseln mit eingebetteten Eisennitrid-Nanopartikeln (FexN@C) herzustellen. Die gut dispergierten Eisennitrid-Nanopartikel katalysieren die Umwandlung von LiPS in Li2S aufgrund ihrer hohen elektrischen Leitfähigkeit und starken chemischen Bindung an LiPS effektiv. Die konstruierte FexN@C/S-Kathode zeigt eine hohe anfängliche Entladekapazität von 1085,0 mAh g-1 bei 0,5 C mit einer verbleibenden Kapazität von 930,0 mAh g-1 nach 200 Zyklen. Die Ergebnisse dieser Arbeit zeigen, dass sich nanostrukturierte eisenbasierte Verbindungen mit kontrollierbarer Morphologie und Zusammensetzung leicht synthetisieren lassen, indem weiche und harte kolloidale Template verwendet werden, die als Schwefelwirt eingesetzt werden können, um das Shuttle-Verhalten von LiPS zu unterdrücken. Die in dieser Arbeit entwickelten Syntheseansätze sind auch für die Herstellung anderer Verbindungen auf Übergangsmetallbasis mit porösen Nanostrukturen für andere Anwendungen einsetzbar. KW - sulfur host KW - Schwefelwirt KW - Li-S batteries KW - Li-S-Batterien KW - iron-based compounds KW - Verbindungen auf Eisenbasis KW - nanospindles KW - Nanospindeln KW - vesicles KW - Vesikel KW - nanocapsules KW - Nanokapseln KW - poly(ionic liquid)s KW - poly(ionische Flüssigkeiten) KW - electron tomography KW - Elektronentomographie KW - cryo-electron microscopy KW - Kryo-Elektronenmikroskopie Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-610369 ER - TY - THES A1 - Wätzoldt, Sebastian T1 - Modeling collaborations in adaptive systems of systems T1 - Modellierung von Kollaborationen für adaptive Systeme von Systemen N2 - Recently, due to an increasing demand on functionality and flexibility, beforehand isolated systems have become interconnected to gain powerful adaptive Systems of Systems (SoS) solutions with an overall robust, flexible and emergent behavior. The adaptive SoS comprises a variety of different system types ranging from small embedded to adaptive cyber-physical systems. On the one hand, each system is independent, follows a local strategy and optimizes its behavior to reach its goals. On the other hand, systems must cooperate with each other to enrich the overall functionality to jointly perform on the SoS level reaching global goals, which cannot be satisfied by one system alone. Due to difficulties of local and global behavior optimizations conflicts may arise between systems that have to be solved by the adaptive SoS. This thesis proposes a modeling language that facilitates the description of an adaptive SoS by considering the adaptation capabilities in form of feedback loops as first class entities. Moreover, this thesis adopts the Models@runtime approach to integrate the available knowledge in the systems as runtime models into the modeled adaptation logic. Furthermore, the modeling language focuses on the description of system interactions within the adaptive SoS to reason about individual system functionality and how it emerges via collaborations to an overall joint SoS behavior. Therefore, the modeling language approach enables the specification of local adaptive system behavior, the integration of knowledge in form of runtime models and the joint interactions via collaboration to place the available adaptive behavior in an overall layered, adaptive SoS architecture. Beside the modeling language, this thesis proposes analysis rules to investigate the modeled adaptive SoS, which enables the detection of architectural patterns as well as design flaws and pinpoints to possible system threats. Moreover, a simulation framework is presented, which allows the direct execution of the modeled SoS architecture. Therefore, the analysis rules and the simulation framework can be used to verify the interplay between systems as well as the modeled adaptation effects within the SoS. This thesis realizes the proposed concepts of the modeling language by mapping them to a state of the art standard from the automotive domain and thus, showing their applicability to actual systems. Finally, the modeling language approach is evaluated by remodeling up to date research scenarios from different domains, which demonstrates that the modeling language concepts are powerful enough to cope with a broad range of existing research problems. N2 - Seit einiger Zeit führen ein ansteigender Bedarf nach erweiterter Systemfunktionalität und deren flexible Verwendung zu vernetzten Systemen, die sich zu einem übergeordneten adaptiven System von Systemen (SoS) zusammenschließen. Dieser SoS Zusammenschluss zeigt ein gewünschtes, robustes und flexibles Gesamtverhalten, welches sich aus der Funktionalität der einzelnen Systeme zusammensetzt. Das SoS beinhaltet eine Vielzahl von verschiedenen Systemarten, die sich von eingebetteten bis hin zu Cyber-Physical Systems erstrecken. Einerseits optimiert jedes einzelne System sein Verhalten bezüglich lokaler Ziele. Anderseits müssen die Systeme miteinander interagieren, um neue, zusammengesetzte Funktionalitäten bereitzustellen und damit vorgegebene SoS Ziele zu erreichen, welche durch ein einzelnes System nicht erfüllt werden können. Die Schwierigkeit besteht nun darin, Konflikte zwischen lokalen und globalen Verhaltensstrategien zwischen Systemen innerhalb des SoS zu beseitigen. Diese Doktorarbeit stellt eine Modellierungssprache vor, welche für die Beschreibung von adaptiven SoS geeignet ist. Dabei berücksichtigt die Modellierungssprache die Adaptionslogik des SoS in Form von periodischen Adaptationsschleifen als primäres Sprachkonstrukt. Außerdem übernimmt diese Arbeit den Models@runtime Ansatz, um verfügbares Systemwissen als Laufzeitmodelle in die Adaptationslogik des Systems zu integrieren. Weiterhin liegt der Fokus der Modellierungssprache auf der Beschreibung von Systeminteraktionen innerhalb des SoS. Dies ermöglicht Schlussfolgerungen von individuellem Systemverhalten sowie deren Aggregation zu kollaborativem Verhalten im Kontext von Systeminteraktionen im SoS. Damit unterstützt die entwickelte Modellierungssprache die Beschreibung von lokalem adaptivem Verhalten, die Integration von Wissen über die Modellierung von Laufzeitmodellen und Systeminteraktionen in Form von kollaborativem Verhalten. Alle drei Aspekte werden in die adaptive SoS Architektur integriert. Neben der entwickelten Modellierungssprache führt diese Doktorarbeit Analyseregeln zur Untersuchung des modellierten SoS ein. Diese Regeln ermöglichen die Erkennung von Architekturmustern und möglichen Schwächen im Systementwurf. Zusätzlich wird eine Simulationsumgebung für die Modellierungssprache präsentiert, welche die direkte Ausführung von einer modellierten SoS Architektur erlaubt. Die Analyseregeln und die Simulationsumgebung dienen demnach sowohl der Verifizierung von Systeminteraktionen als auch der spezifizierten Adaptationslogik innerhalb des SoS. Die vorliegende Arbeit implementiert die vorgestellten Konzepte der Modellierungssprache durch deren Abbildung auf einen aktuellen Standard im Automobilbereich und zeigt damit die Anwendbarkeit der Sprache auf gegenwärtige Systeme. Zum Schluss findet eine Evaluierung der Modellierungssprache statt, wobei aktuelle Forschungsszenarien aus unterschiedlichen Bereichen erneut mit der vorgestellten Sprache modelliert werden. Dies zeigt, dass die Modellierungskonzepte geeignet sind, um weite Bereiche existierender Forschungsprobleme zu bewältigen. KW - deurema modeling language KW - adaptive systems KW - systems of systems KW - runtime models KW - feedback loop modeling KW - collaborations KW - Deurema Modellierungssprache KW - Kollaborationen KW - adaptive Systeme KW - Systeme von Systemen KW - Laufzeitmodelle KW - Feedback Loop Modellierung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97494 ER - TY - THES A1 - Wunderling, Nico T1 - Nichtlineare Dynamiken und Interaktionen von Kippelementen im Erdsystem T1 - Nonlinear dynamics and interactions of tipping elements in the Earth system N2 - With ongoing anthropogenic global warming, some of the most vulnerable components of the Earth system might become unstable and undergo a critical transition. These subsystems are the so-called tipping elements. They are believed to exhibit threshold behaviour and would, if triggered, result in severe consequences for the biosphere and human societies. Furthermore, it has been shown that climate tipping elements are not isolated entities, but interact across the entire Earth system. Therefore, this thesis aims at mapping out the potential for tipping events and feedbacks in the Earth system mainly by the use of complex dynamical systems and network science approaches, but partially also by more detailed process-based models of the Earth system. In the first part of this thesis, the theoretical foundations are laid by the investigation of networks of interacting tipping elements. For this purpose, the conditions for the emergence of global cascades are analysed against the structure of paradigmatic network types such as Erdös-Rényi, Barabási-Albert, Watts-Strogatz and explicitly spatially embedded networks. Furthermore, micro-scale structures are detected that are decisive for the transition of local to global cascades. These so-called motifs link the micro- to the macro-scale in the network of tipping elements. Alongside a model description paper, all these results are entered into the Python software package PyCascades, which is publicly available on github. In the second part of this dissertation, the tipping element framework is first applied to components of the Earth system such as the cryosphere and to parts of the biosphere. Afterwards it is applied to a set of interacting climate tipping elements on a global scale. Using the Earth system Model of Intermediate Complexity (EMIC) CLIMBER-2, the temperature feedbacks are quantified, which would arise if some of the large cryosphere elements disintegrate over a long span of time. The cryosphere components that are investigated are the Arctic summer sea ice, the mountain glaciers, the Greenland and the West Antarctic Ice Sheets. The committed temperature increase, in case the ice masses disintegrate, is on the order of an additional half a degree on a global average (0.39-0.46 °C), while local to regional additional temperature increases can exceed 5 °C. This means that, once tipping has begun, additional reinforcing feedbacks are able to increase global warming and with that the risk of further tipping events. This is also the case in the Amazon rainforest, whose parts are dependent on each other via the so-called moisture-recycling feedback. In this thesis, the importance of drought-induced tipping events in the Amazon rainforest is investigated in detail. Despite the Amazon rainforest is assumed to be adapted to past environmental conditions, it is found that tipping events sharply increase if the drought conditions become too intense in a too short amount of time, outpacing the adaptive capacity of the Amazon rainforest. In these cases, the frequency of tipping cascades also increases to 50% (or above) of all tipping events. In the model that was developed in this study, the southeastern region of the Amazon basin is hit hardest by the simulated drought patterns. This is also the region that already nowadays suffers a lot from extensive human-induced changes due to large-scale deforestation, cattle ranching or infrastructure projects. Moreover, on the larger Earth system wide scale, a network of conceptualised climate tipping elements is constructed in this dissertation making use of a large literature review, expert knowledge and topological properties of the tipping elements. In global warming scenarios, tipping cascades are detected even under modest scenarios of climate change, limiting global warming to 2 °C above pre-industrial levels. In addition, the structural roles of the climate tipping elements in the network are revealed. While the large ice sheets on Greenland and Antarctica are the initiators of tipping cascades, the Atlantic Meridional Overturning Circulation (AMOC) acts as the transmitter of cascades. Furthermore, in our conceptual climate tipping element model, it is found that the ice sheets are of particular importance for the stability of the entire system of investigated climate tipping elements. In the last part of this thesis, the results from the temperature feedback study with the EMIC CLIMBER-2 are combined with the conceptual model of climate tipping elements. There, it is observed that the likelihood of further tipping events slightly increases due to the temperature feedbacks even if no further CO$_2$ would be added to the atmosphere. Although the developed network model is of conceptual nature, it is possible with this work for the first time to quantify the risk of tipping events between interacting components of the Earth system under global warming scenarios, by allowing for dynamic temperature feedbacks at the same time. N2 - Bei fortdauerndem anthropogenem Klimawandel, könnten einige der vulnerabelsten Komponenten des Erdsystem instabil werden und in einen anderen Zustand übergehen. Diese Komponenten des Erdsystems sind die sogenannten Kippelemente. Bei ihnen wird angenommen, dass sie einen Kipppunkt besitzen ab dem sie in einen qualitativ anderen Zustand übergehen können. Sollte das passieren, hätte das schwerwiegende Konsequenzen für die Biosphäre und menschliche Gesellschaften. Des Weiteren ist gezeigt worden, dass Kippelemente keine isolierte Reigionen oder Prozesse sind, sondern über das gesamte Erdsystem hinweg interagieren. Das Ziel dieser Arbeit ist es daher, die Wahrscheinlichkeit für Kippereignisse sowie deren Feedbacks im Erdsystem zu quantifizieren. Zu diesem Zweck kommen vor allem Frameworks aus der Wissenschaft komplexer Systeme und Netzwerke zum Einsatz. Für einige Teilaspekte dieser Arbeit wird aber auch ein detaillierteres und prozessbasierteres Erdsystemmodell verwendet. Im ersten Teil dieser Arbeit werden die theoretischen Grundlagen gelegt, indem komplexe Netzwerke bestehend aus interagierenden Kippelementen untersucht werden. Hier werden Voraussetzungen für das Auftreten globaler Kippkaskaden anhand der Struktur paradigmatischer Netzwerktypen analysiert. Diese Typen sind Netzwerke wie Erdös-Rényi, Barabási-Albert, Watts-Strogatz Netzwerke oder auch explizit räumlich eingebettete Netzwerke. Darüber hinaus sind bestimmte Mikrostrukturen in Netzwerken dafür entscheidend, ob sich eine lokale Kaskaden auf das globale Netzwerk ausbreiten kann. Diese Strukturen sind das Bindeglied zwischen der Mikro- und der Makroebene des Netzwerks und werden Motive genannt. Zusammen mit einer Publikation zur Modellbeschreibung, werden alle diese Ergebnisse im Python-Softwarepaket PyCascades veröffentlicht, das auf github öffentlich verfügbar ist. Im zweiten Teil dieser Dissertation wird das Kippelementframework zunächst auf Kompenenten des Erdsystems angewendet wie der Kryosphäre und Teilen der Biosphäre, und danach auf globaler Skala für interagierende Klimakippelemente. In einem ersten Schritt werden mit dem Erdsystemmodell mittlerer Komplexität CLIMBER-2 die Temperaturfeedbacks ermittelt, die entstehen würden, wenn große Gebiete der Kryosphäre auf lange Sicht eisfrei werden. In dieser Berechnung werden das arktische Sommermeereis, die Gebirgsgletscher, der grönländische und der westantarktische Eisschild berücksichtigt. Die quantifizierte Temperaturerhöhung liegt in der Größenordnung von einem halben Grad zusätzlicher globaler Erwärmung (0.39--0.46°C). Lokale bis regionale Temperaturerhöhungen können allerdings 5°C übersteigen. Wenn also das Kippen einiger Elemente begonnen hat, bedeutet dieses Ergebnis, dass Temperaturfeedbacks in der Lage sind, das Risiko weiterer Kippereignisse zu erhöhen. Dies ist auch der Fall im Amazonasregenwald, dessen Unterregionen über den sogenannten Feuchtig-keits-Recycling-Feedback miteinander in Beziehung stehen und voneinander abhängen. In dieser Dissertation wird die Bedeutung von Kippereignissen im Detail untersucht, die aufgrund von Dürreperioden zustande kommen. Obwohl man davon ausgehen kann, dass der Regenwald sich an zurückliegende und gegenwärtige Klimabedingungen angepasst hat, kann festgestellt werden, dass die Häu-figkeit von Kippereignissen stark zunimmt, wenn die jeweilige Trockenperiode eine gewisse Intensität übersteigt und damit die Anpassungsfähigkeit des Amazonasregenwalds überschritten wird. In solchen Fällen steigt auch die Häufigkeit von Kippkaskaden unter allen Kippereignissen auf 50% (und mehr) an. In dem Modell, das in dieser Studie entwickelt wurde, zeigt sich, dass der Südosten des Amazonasbeckens am stärksten von den simulierten Trockenheitsmustern betroffen ist. Das ist gleichzeitig die Region, die bereits heute stark unter anthropogener Veränderung leidet, unter anderem aufgrund von großflächiger Abholzung, Viehzucht oder Infrastrukturprojekten. Zudem wird in dieser Dissertation auf der größeren, erdsystemweiten Skala ein Netzwerk konzeptionalisierter Klimakippelemente aufgebaut. Zu diesem Zweck wird eine umfangreiche Literaturrecherche durchgeführt, die zusammen mit Expertenwissen und den topologischen Eigenschaften der Kippelemente in die Studien mit einfließt. In Klimawandelszenarien können dann Kippkaskaden beobachtet werden, selbst wenn die globale Erderwärmung auf 2°C über dem vorindustriellen Niveau begrenzt werden kann. Außerdem werden die strukturellen Rollen der Klimakippelemente im Netzwerk ermittelt. Während die großen Eisschilde auf Grönland und der Westantarktis viele Kippkaskaden initiieren, ist die Atlantische Umwälzzirkulation für die Weitergabe vieler dieser Kaskaden verantwortlich. In unserem konzeptionellen Modell für Klimakippelemente wird darüber hinaus festgestellt, dass die Eisschilde von besonderer Bedeutung für die Stabilität des Gesamtsystems sind. Im letzen Teil dieser Dissertation werden die Ergebnisse der Feedbackstudie (CLIMBER-2-Studie) zusammengebracht mit dem konzeptionellen Klimakippelementmodell. Dabei zeigt sich, dass die Wahrscheinlichkeit zusätzlicher Kippereignisse aufgrund der berücksichtigten Temperaturfeedbacks auch ohne das Zuführen eines zusätzlichen CO2-Eintrags in die Atmosphäre leicht ansteigt. Trotz der konzeptionellen Natur des entwickelten Netzwerkmodells, ist es mit dieser Arbeit erstmals möglich eine Risikoabschätzung über das Auftreten von Kippkaskaden im Erdsystem vorzunehmen. Darüber hinaus können, unter der Annahme globaler Erwärmungsszenarien, auch dynamische Temperaturfeedbacks berücksichtigt werden. KW - tipping element KW - nonlinear dynamics KW - tipping cascade KW - climate change KW - complex networks KW - Klimawandel KW - komplexe Netzwerke KW - nichtlineare Dynamiken KW - Kippkaskade KW - Kippelement Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-525140 ER - TY - THES A1 - Wulff, Alexander T1 - Essays in macroeconomics and financial market imperfections N2 - This dissertation consists of four self-contained papers that deal with the implications of financial market imperfections and heterogeneity. The analysis mainly relates to the class of incomplete-markets models but covers different research topics. The first paper deals with the distributional effects of financial integration for developing countries. Based on a simple heterogeneous-agent approach, it is shown that capital owners experience large welfare losses while only workers moderately gain due to higher wages. The large welfare losses for capital owners contrast with the small average welfare gains from representative-agent economies and indicate that a strong opposition against capital market opening has to be expected. The second paper considers the puzzling observation of capital flows from poor to rich countries and the accompanying changes in domestic economic development. Motivated by the mixed results from the literature, we employ an incomplete-markets model with different types of idiosyncratic risk and borrowing constraints. Based on different scenarios, we analyze under what conditions the presence of financial market imperfections contributes to explain the empirical findings and how the conditions may change with different model assumptions. The third paper deals with the interplay of incomplete information and financial market imperfections in an incomplete-markets economy. In particular, it analyzes the impact of incomplete information about idiosyncratic income shocks on aggregate saving. The results show that the effect of incomplete information is not only quantitatively substantial but also qualitatively ambiguous and varies with the influence of the income risk and the borrowing constraint. Finally, the fourth paper analyzes the influence of different types of fiscal rules on the response of key macroeconomic variables to a government spending shock. We find that a strong temporary increase in public debt contributes to stabilizing consumption and leisure in the first periods following the change in government spending, whereas a non-debt-intensive fiscal rule leads to a faster recovery of consumption, leisure, capital and output in later periods. Regarding optimal debt policy, we find that a debt-intensive fiscal rule leads to the largest aggregate welfare benefit and that the individual welfare gain is particularly high for wealth-poor agents. N2 - Die vorliegende Dissertation besteht aus vier eigenständigen Papieren, die sich mit den Auswirkungen von Finanzmarktunvollkommenheiten und Heterogenität beschäftigen. Die Analyse bezieht sich dabei vorwiegend auf die Klasse heterogener-Agenten Modelle mit Finanzmarktunvollkommenheiten, greift aber verschiedene Fragestellungen auf. Das erste Papier beschäftigt sich mit den Verteilungseffekten finanzieller Integration in sich entwickelnden Volkswirtschaften. Mit Hilfe eines einfachen heterogene-Agenten Ansatzes wird gezeigt, dass inländische Kapitalbesitzer massiv durch finanzielle Integration verlieren, während ausschließlich Arbeitnehmer moderat durch Lohnanstiege gewinnen. Die erheblichen Wohlfahrtsverluste für Kapitalbesitzer stehen dabei im Kontrast zu den geringen durchschnittlichen Wohlfahrtseffekten und zeigen, dass eine starke Opposition gegenüber der Öffnung von Kapitalmärkten in sich entwickelnde Länder zu erwarten ist. Der zweite Aufsatz beschäftigt sich mit dem neueren Phänomen von Kapitalflüssen von armen zu reichen Ländern sowie mit den einhergehenden inländischen Entwicklungen. Ausgehend von den stark divergierenden Ergebnissen der Literatur wird ein umfassendes heterogene-Agenten Modell mit nicht versicherbaren idiosynkratischen Risiken und Verschuldungsrestriktionen betrachtet. Anhand verschiedener Szenarien wird gezeigt, unter welchen Bedingungen Finanzmarktunvollkommenheiten zur Klärung der empirischen Befunde beitragen können und inwiefern sich die Parameterrestriktionen unter verschiedenen Modellannahmen ändern. Der dritte Aufsatz beschäftigt sich mit den Auswirkungen unvollständiger Informationen im Rahmen eines heterogene-Agenten Modells. Insbesondere werden die Auswirkungen unvollständiger Informationen bezüglich idiosynkratischer Einkommensschocks auf die aggregierte Ersparnisbildung untersucht. Die Ergebnisse zeigen, dass der Einfluss unvollständiger Information nicht nur quantitativ bedeutsam, sondern auch qualitativ verschieden ist und stark mit der konkreten Ausprägung der Finanzmarktunvollkommenheiten variiert. Der vierte Aufsatz beschäftigt sich mit der Ausgestaltung staatlicher Verschuldungspolitik. Insbesondere wird die Finanzierung einer vorübergehenden Erhöhung von Staatsausgaben unter verschiedenen Fiskalregeln analysiert. Die Ergebnisse zeigen, dass eine verschuldungsintensive Fiskalregel einen kurzfristig stabilisierenden Effekt auf Konsum und Freizeit aufweist, von dem insbesondere vermögensarme Haushalte profitieren, die besonders stark von den Verschuldungsrestriktionen betroffen sind. KW - incomplete markets KW - heterogeneous agents KW - financial integration KW - incomplete information KW - fiscal policy KW - unvollständige Märkte KW - heterogene Agenten KW - finanzielle Integration KW - unvollständige Information KW - Fiskalpolitik Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429956 ER - TY - THES A1 - Wulf, Hendrik T1 - Seasonal precipitation, river discharge, and sediment flux in the western Himalaya T1 - Saisonaler Niederschlag, Wasserabfluss und Sedimentationsfluss im westlichen Himalaya N2 - Rainfall, snow-, and glacial melt throughout the Himalaya control river discharge, which is vital for maintaining agriculture, drinking water and hydropower generation. However, the spatiotemporal contribution of these discharge components to Himalayan rivers is not well understood, mainly because of the scarcity of ground-based observations. Consequently, there is also little known about the triggers and sources of peak sediment flux events, which account for extensive hydropower reservoir filling and turbine abrasion. We therefore lack basic information on the distribution of water resources and controls of erosion processes. In this thesis, I employ various methods to assess and quantify general characteristics of and links between precipitation, river discharge, and sediment flux in the Sutlej Valley. First, I analyze daily precipitation data (1998-2007) from 80 weather stations in the western Himalaya, to decipher the distribution of rain- and snowfall. Rainfall magnitude frequency analyses indicate that 40% of the summer rainfall budget is attributed to monsoonal rainstorms, which show higher variability in the orogenic interior than in frontal regions. Combined analysis of rainstorms and sediment flux data of a major Sutlej River tributary indicate that monsoonal rainfall has a first order control on erosion processes in the orogenic interior, despite the dominance of snowfall in this region. Second, I examine the contribution of rainfall, snow and glacial melt to river discharge in the Sutlej Valley (s55,000 km2), based on a distributed hydrological model, which covers the period 2000-2008. To achieve high spatial and daily resolution despite limited ground-based observations the hydrological model is forced by daily remote sensing data, which I adjusted and calibrated with ground station data. The calibration shows that the Tropical Rainfall Measuring Mission (TRMM) 3B42 rainfall product systematically overestimates rainfall in semi-arid and arid regions, increasing with aridity. The model results indicate that snowmelt-derived discharge (74%) is most important during the pre-monsoon season (April to June) whereas rainfall (56%) and glacial melt (17%) dominate the monsoon season (July-September). Therefore, climate change most likely causes a reduction in river discharge during the pre-monsoon season, which especially affects the orogenic interior. Third, I investigate the controls on suspended sediment flux in different parts of the Sutlej catchments, based on daily gauging data from the past decade. In conjunction with meteorological data, earthquake records, and rock strength measurements I find that rainstorms are the most frequent trigger of high-discharge events with peaks in suspended sediment concentrations (SSC) that account for the bulk of the suspended sediment flux. The suspended sediment flux increases downstream, mainly due to increases in runoff. Pronounced erosion along the Himalayan Front occurs throughout the monsoon season, whereas efficient erosion of the orogenic interior is confined to single extreme events. The results of this thesis highlight the importance of snow and glacially derived melt waters in the western Himalaya, where extensive regions receive only limited amounts of monsoonal rainfall. These regions are therefore particularly susceptible to global warming with major implications on the hydrological cycle. However, the sediment discharge data show that infrequent monsoonal rainstorms that pass the orographic barrier of the Higher Himalaya are still the primary trigger of the highest-impact erosion events, despite being subordinate to snow and glacially–derived discharge. These findings may help to predict peak sediment flux events and could underpin the strategic development of preventative measures for hydropower infrastructures. N2 - Regen, Schnee- und Gletscherschmelze speisen die Flüsse des Himalajas, die eine große Bedeutung für die Landwirtschaft, Trinkwasserversorgung und Wasserkraftnutzung in Südasien aufweisen. Welchen Anteil die einzelnen Abflusskomponenten am Gesamtabfluss in Raum und Zeit besitzen, ist jedoch kaum quantifiziert, da es in der entlegenen Region an Bodenmessstationen mangelt. Aus diesem Grund ist auch wenig über die Auslöser und Herkunftsgebiete von hohen Sedimentaustragsereignissen bekannt, die im erheblichen Maße dazu beitragen, dass die Kapazität vonWasserkraftreservoiren abnimmt undWasserkraftturbinen abradieren. Daher fehlen bisher grundlegende Informationen zur räumlichen Verteilung von Wasserressourcen und zu den Ursachen von Erosionsprozessen. In dieser Arbeit benutze ich verschiedene Methoden um die Eigenschaften von und die Beziehungen zwischen Niederschlag, Abflussmenge und Sedimentaustrag im Sutlej-Tal zu untersuchen. In einer ersten Studie analysiere ich Tagesniederschläge (1998-2007) von 80 Wetterstationen aus dem westlichen Himalaja, um die räumliche Verteilung von Regen- und Schneeniederschlägen zu charakterisieren. Die weitere Analyse der Magnituden-Häufigkeitsverteilung von Regenfällen zeigt, dass 40% der sommerlichen Niederschläge auf monsunale Starkregenereignisse zurückgehen, die eine höhere Variabilität im Gebirgsinneren aufweisen als an der Gebirgsfront. Die Kombination von Niederschlagsdaten mit Sedimentaustragsdaten für einen der größten Zuflüsse des Sutlejs zeigt, dass monsunaler Niederschlag der primäre Auslöser von Erosionsprozessen im Gebirgsinneren ist, ungeachtet größerer Abflussmengen durch Schnee- und Gletscherschmelze. In einer zweiten Studie untersuche ich den Beitrag von Regen, Schnee- und Gletscherschmelze zur Abflussmenge im Sutlej-Tal (s55.000 km2) mit Hilfe eines hydrologischen Modells für den Jahreszeitraum 2000-2008. Um trotz der begrenzten Bodenmessungen eine hohe räumliche und zeitliche Auflösung zu erzielen, basiert das Modell auf täglichen Fernerkundungsdaten, die ich mit allen verfügbaren Bodenstationsdaten kalibriert und an diese angepasst habe. Die Kalibrierung zeigt, dass das Regenniederschlagsprodukt 3B42 der „Tropical Rainfall Measuring Mission“ (TRMM) den Bodenniederschlag in den semi-ariden bis ariden Gebirgsregionen mit zunehmender Trockenheit systematisch überschätzt. Die Modellierungsergebnisse verdeutlichen, dass die Schneeschmelze den bedeutendsten Beitrag zur Abflussmenge (74 %) zwischen April und Juni aufbringt, während Regen (56%) und Gletscherschmelze (17%) die Monsunsaison (Juli-September) prägen. Daher ist anzunehmen, dass der Klimawandel zu einer Verringerung der Abflussmenge zwischen April und Juni führen wird, was sich besonders auf das Gebirgsinnere auswirkt. In einer dritten Studie untersuche ich mit Hilfe von täglichen Messdaten der letzten Dekade die Ursachen und Eigenschaften des Sedimentaustrags in verschiedenen Bereichen des Sutlej-Einzugsgebietes. Auf der Grundlage von meteorologischen Daten, Erdbebenaufzeichnungen und Gesteinsfestigkeitsmessungen identifiziere ich Starkregenereignisse als häufigste Ursache für extreme Erosionsereignisse, die einen Großteil des gesamten Sedimentaustrags ausmachen. Großräumig betrachtet nimmt der Sedimentaustrag flussabwärts zu, was hauptsächlich auf den Anstieg der Abflussmenge zurückzuführen ist. Zur Monsunzeit treten Erosionsprozesse entlang der Himalajafront besonders häufig auf, während im Gebirgsinneren die Erosion auf einzelne Extremereignisse beschränkt ist. Die Ergebnisse dieser Arbeit untersteichen die Bedeutung von Schnee- und Gletscherschmelze im westlichen Himalaja, in dem große Gebiete nur vereinzelt von monsunalen Niederschlägen erreicht werden. Diese Gebiete sind daher besonders anfällig für den Klimawandel mit weitreichenden Konsequenzen für den Wasserhaushalt in der Region. Die Analyse von Sedimentaustragsdaten zeigt jedoch, dass vereinzelte monsunale Regenstürme, welche die topographische Barriere des Himalaja überqueren, die primäre Ursache von extremen Erosionsereignissen sind, trotz der größeren Abflussmengen von Schnee- und Gletscherschmelze im Gebirgsinneren. Diese Ergebnisse können dazu beitragen, große Erosionsereignisse vorherzusagen und vorbeugende Maßnahmen zum Schutz von Wasserkraftanlagen zu entwickeln. KW - Klimawandel KW - Erosion KW - Monsun KW - Regensturm KW - Suspendsionsfracht KW - climate change KW - erosion KW - monsoon KW - rainstorm KW - suspended sediment Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57905 ER - TY - THES A1 - Wu, Ye T1 - Nonlinear dynamics in complex networks and modeling human dynamics T1 - Nichtlineare Dynamik in komplexen Netzwerken und Modellierung menschlicher Dynamik N2 - Durch große Datenmengen können die Forscher die Eigenschaften komplexer Systeme untersuchen, z.B. komplexe Netzwerk und die Dynamik des menschlichen Verhaltens. Eine große Anzahl an Systemen werden als große und komplexe Netzwerke dargestellt, z.B. das Internet, Stromnetze, Wirtschaftssysteme. Immer mehr Forscher haben großes Interesse an der Dynamik des komplexen Netzwerks. Diese Arbeit besteht aus den folgenden drei Teilen. Der erste Teil ist ein einfacher dynamischer Optimierungs-Kopplungs-Mechanismus, aber sehr wirksam. Durch den Mechanismus kann synchronisation in komplexen Netzwerken mit und ohne Zeitverzögerung realisiert, und die Fähigkeit der Synchronisation von small-world und scale-free Netze verbessert werden. Im zweiten Teil geht um die Verstärkung der Robustheit der scale-free Netze im Zusammenhang mit der Gemeinden-Struktur. Einige Reaktionsmuster und topologische Gemeinden sind einheitlich. Die Ergebnisse zeigen einen neuen Aspekt der Beziehung zwischen den Funktionen und der Netzwerk-Topologie von komplexen Netzwerken. Im dritten Teil welche eine wichtige Rolle in komplexen Netzwerken spielt, wird die Verhaltens-Dynamik der menschliche Mitteilung durch Daten- und Modellanalysierung erforscht, dann entsteht ein neues Mitteilungsmodell. Mit Hilfe von einem Interaktion priority-Queue Model kann das neue Modell erklärt werden. Mit Hilfe des Models können viele praktische Interaktions-Systeme erklärt werden, z.B. E-Mail und Briefe (oder Post). Mit Hilfe meiner Untersuchung kann man menschliches Verhalten auf der Individuums- und Netzwerkebene neu kennenlernen. Im vierter Teil kann ich nachweisen, dass menschliches Kommentar-Verhalten in on-line Sozialsystemen, eine andere Art der Interaktionsdynamik von Mensch non-Poisson ist und dieses am Modell erklären. Mit Hilfe der non-Poisson Prozesse kann man das persönliche Anziehungskraft-Modell besser verstehen. Die Ergebnisse sind hilfreich zum Kennenlernen des Musters des menschlichen Verhaltens in on-line Gesellschaften und der Entwicklung von öffentlicher Meinung nicht nur in der virtuellen Gesellschaftn sondern auch in der Realgesellschaft. Am Ende geht es um eine Prognose von menschlicher Dynamik und komplexen Netzwerken. N2 - The availability of large data sets has allowed researchers to uncover complex properties in complex systems, such as complex networks and human dynamics. A vast number of systems, from the Internet to the brain, power grids, ecosystems, can be represented as large complex networks. Dynamics on and of complex networks has attracted more and more researchers’ interest. In this thesis, first, I introduced a simple but effective dynamical optimization coupling scheme which can realize complete synchronization in networks with undelayed and delayed couplings and enhance the small-world and scale-free networks’ synchronizability. Second, I showed that the robustness of scale-free networks with community structure was enhanced due to the existence of communities in the networks and some of the response patterns were found to coincide with topological communities. My results provide insights into the relationship between network topology and the functional organization in complex networks from another viewpoint. Third, as an important kind of nodes of complex networks, human detailed correspondence dynamics was studied by both data and the model. A new and general type of human correspondence pattern was found and an interacting priority-queues model was introduced to explain it. The model can also embrace a range of realistic social interacting systems such as email and letter communication. My findings provide insight into various human activities both at the individual and network level. Fourth, I present clearly new evidence that human comment behavior in on-line social systems, a different type of interacting human dynamics, is non-Poissonian and a model based on the personal attraction was introduced to explain it. These results are helpful for discovering regular patterns of human behavior in on-line society and the evolution of the public opinion on the virtual as well as real society. Finally, there are conclusion and outlook of human dynamics and complex networks. KW - komplexe Netzwerke KW - menschliche Dynamik KW - complex networks KW - human dynamics Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47358 ER - TY - THES A1 - Wrzus, Cornelia T1 - Similarity in personal relationships : associations with relationship regulation between and within individuals T1 - Ähnlichkeit in Sozialen Beziehungen : intra- und interindividuelle Zusammenhänge mit Beziehungsregulation N2 - People engage in a multitude of different relationships. Relatives, spouses, and friends are modestly to moderately similar in various characteristics, e.g., personality characteristics, interests, appearance. The role of psychological (e.g., skills, global appraisal) and social (e.g., gender, familial status) similarities in personal relationships and the association with relationship quality (emotional closeness and reciprocity of support) were examined in four independent studies. Young adults (N = 456; M = 27 years) and middle-aged couples from four different family types (N = 171 couples, M = 38 years) gave answer to a computer-aided questionnaire regarding their ego-centered networks. A subsample of 175 middle-aged adults (77 couples and 21 individuals) participated in a one-year follow-up questioning. Two experimental studies (N = 470; N = 802), both including two assessments with an interval of five weeks, were conducted to examine causal relationships among similarity, closeness, and reciprocity expectations. Results underline the role of psychological and social similarities as covariates of emotional closeness and reciprocity of support on the between-relationship level, but indicate a relatively weak effect within established relationships. In specific relationships, such as parent-child relationships and friendships, psychological similarity partly alleviates the effects of missing genetic relatedness. Individual differences moderate these between-relationship effects. In all, results combine evolutionary and social psychological perspectives on similarity in personal relationships and extend previous findings by means of a network approach and an experimental manipulation of existing relationships. The findings further show that psychological and social similarity have different implications for the study of personal relationships depending on the phase in the developmental process of relationships. N2 - Verwandte, Partner und Freunde ähneln sich in einer Vielzahl von Merkmalen wie z.B. Persönlichkeitseigenschaften, Einstellungen oder Aussehen. Die Bedeutung von Ähnlichkeit in psychologischen und demografischen Eigenschaften von Beziehungspartnern und die Zusammenhänge mit der Qualität der Beziehung wurden in vier unabhängigen Studien untersucht. Junge Erwachsene (N = 456; M = 27 Jahre) und Paare aus vier verschiedenen Familienformen (N = 171 Paare, M = 38 Jahre) beurteilten in einem PC-gestützten Fragebogen die sozialen Beziehungen in ihrem ego-zentrierten Netzwerk hinsichtlich wahrgenommener Ähnlichkeit, emotionaler Nähe und Reziprozität der Unterstützung. Ein Teil der Paare (77 Paare und 21 Einzelpersonen) nahm an der Ein-Jahres-Längsschnittstudie teil. In zwei Experimenten (N = 470; N = 802) wurde die Wahrnehmung von Ähnlichkeit manipuliert, um die Kausalwirkung auf die emotionale Nähe und die Erwartung von reziprokem Verhalten in Beziehungen zu prüfen. Die Studien zeigten, dass innerhalb eines sozialen Netzwerkes ähnliche Beziehungspartner auch emotional näher beurteilt wurden, es jedoch kaum wechselseitige Beeinflussungen innerhalb bestehender Beziehungen gab. In spezifischen Beziehungen, wie Eltern-Kind- oder Freundschaftsbeziehungen, konnte psychologische Ähnlichkeit den Effekt der fehlenden genetischen Verwandtschaft teilweise aufheben. Merkmale der Person moderierten diese Zusammenhänge auf der Beziehungsebene. Die Ergebnisse verknüpfen die evolutionspsychologische und die sozialpsychologische Perspektive der Ähnlichkeitsforschung und ergänzen bisherige Befunde durch den Einsatz des Sozialen Netzwerkansatzes und der experimentellen Manipulation von bestehenden Beziehungen. Zudem zeigen die Befunde, dass psychologische und demografische Ähnlichkeit unterschiedliche Implikationen für die Beziehungsforschung haben, in Abhängigkeit von der Entwicklungsphase der Beziehung. KW - Ähnlichkeit KW - soziale Beziehungen KW - Mehrebenenanalyse KW - Evolutionspsychologie KW - Experiment KW - similarity KW - personal relationships KW - multilevel analysis KW - evolutionary psychology KW - experiment Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-20158 ER - TY - THES A1 - Wriedt, Gunter T1 - Modelling of nitrogen transport and turnover during soil and groundwater passage in a small lowland catchment of Northern Germany N2 - Stoffumsatzreaktionen und hydraulische Prozesse im Boden und Grundwasser können in Tieflandeinzugsgebieten zu einer Nitratretention führen. Die Untersuchung dieser Prozesse in Raum und Zeit kann mit Hilfe geeigneter Modelle erfolgen. Ziele dieser Arbeit sind: i) die Entwicklung eines geeigneten Modellansatzes durch Kombination von Teilmodellen zur Simulation des N-Transportes im Boden und Grundwasser von Tieflandeinzugsgebieten und ii) die Untersuchung von Wechselwirkungen zwischen Gebietseigenschaften und N-Transport unter besonderer Berücksichtigung der potentiellen N-Zufuhr in die Oberflächengewässer. Der Modellansatz basiert auf der Kombination verschiedener Teilmodelle: das Bodenwasser- und -stickstoffmodell mRISK-N, das Grundwassermodell MODFLOW und das Stofftransportmodell RT3D. Zur Untersuchung der Wechselwirkungen mit den Gebietseigenschaften muss die Verteilung und Verfügbarkeit von Reaktionspartnern berücksichtigt werden. Dazu wurde ein Reaktionsmodul entwickelt, welches chemische Prozesse im Grundwasser simuliert. Hierzu gehören die Mineralisation organischer Substanz durch Sauerstoff, Nitrat und Sulfat sowie die Pyritoxidation durch Sauerstoff und Nitrat. Der Modellansatz wurde in verschiedenen Einzelstudien angewandt, wobei jeweils bestimmte Teilmodelle im Vordergrund stehen. Alle Modellstudien basieren auf Daten aus dem Schaugrabeneinzugsgebiet (ca. 25 km²), in der Nähe von Osterburg(Altmark) im Norden Sachsen-Anhalts. Die folgenden Einzelstudien wurden durchgeführt: i) Evaluation des Bodenmodells anhand von Lysimeterdaten, ii) Modellierung eines Tracerexperimentes im Feldmaßstab als eine erste Anwendung des Reaktionsmoduls, iii) Untersuchung hydraulisch-chemischer Wechselwirkungen an einem 2D-Grundwassertransekt, iv) Flächenverteilte Modellierung von Grundwasserneubildung und Bodenstickstoffaustrag im Untersuchungsgebiet als Eingangsdaten für nachfolgende Grundwassersimulationen, und v) Untersuchung der Ausbreitung von Nitrat im Grundwasser und des Durchbruchs in die Oberflächengewässer im Untersuchungsgebiet auf Basis einer 3D-Modellierung von Grundwasserströmung und reaktivem Stofftransport. Die Modellstudien zeigen, dass der Modellansatz geeignet ist, die Wechselwirkungen zwischen Stofftransport und –umsatz und den hydraulisch-chemischen Gebietseigenschaften zu modellieren. Die Ausbreitung von Nitrat im Sediment wird wesentlich von der Verfügbarkeit reaktiver Substanzen sowie der Verweilzeit im Grundwasserleiter bestimmt. Bei der Simulation des Untersuchungsgebietes wurde erst nach 70 Jahren eine der gegebenen Eintragssitutation entsprechende Nitratkonzentration im Grundwasserzustrom zum Grabensystem erreicht (konservativer Transport). Die Berücksichtigung von reaktivem Stofftransport führt zu einer deutlichen Reduktion der Nitratkonzentrationen. Die Modellergebnisse zeigen, dass der Grundwasserzustrom die beobachtete Nitratbelastung im Grabensystem nicht erklären kann, da der Großteil des Nitrates durch Denitrifikation verloren geht. Andere Quellen, wie direkte Einträge oder Dränagenzuflüsse müssen ebenfalls in Betracht gezogen werden. Die Prognosefähigkeit des Modells für das Untersuchungsgebiet wird durch die Datenunsicherheiten und die Schätzung der Modellparameter eingeschränkt. Dennoch ist der Modellansatz eine wertvolle Hilfe bei der Identifizierung von belastungsrelevanten Teilflächen (Stoffquellen und -senken) sowie bei der Modellierung der Auswirkungen von Managementmaßnahmen oder Landnutzungsveränderungen auf Grundlage von Szenario-Simulationen. Der Modellansatz unterstützt auch die Interpretation von Beobachtungsdaten, da so die lokalen Informationen in einen räumlichen und zeitlichen Zusammenhang gestellt werden können. N2 - Chemical transformations and hydraulic processes in soil and groundwater often lead to an apparent retention of nitrate in lowland catchments. Models are needed to evaluate the interaction of these processes in space and time. The objectives of this study are i) to develop a specific modelling approach by combining selected modelling tools simulating N-transport and turnover in soils and groundwater of lowland catchments, ii) to study interactions between catchment properties and nitrogen transport. Special attention was paid to potential N-loads to surface waters. The modelling approach combines various submodels for water flow and solute transport in soil and groundwater: The soil-water- and nitrogen-model mRISK-N, the groundwater flow model MODFLOW and the solute transport model RT3D. In order to investigate interactions of N-transport and catchment characteristics, the distribution and availability of reaction partners have to be taken into account. Therefore, a special reaction-module is developed, which simulates various chemical processes in groundwater, such as the degradation of organic matter by oxygen, nitrate, sulphate or pyrite oxidation by oxygen and nitrate. The model approach is applied to different simulation, focussing on specific submodels. All simulation studies are based on field data from the Schaugraben catchment, a pleistocene catchment of approximately 25 km², close to Osterburg(Altmark) in the North of Saxony-Anhalt. The following modelling studies have been carried out: i) evaluation of the soil-water- and nitrogen-model based on lysimeter data, ii) modelling of a field scale tracer experiment on nitrate transport and turnover in the groundwater as a first application of the reaction module, iii) evaluation of interactions between hydraulic and chemical aquifer properties in a two-dimensional groundwater transect, iv) modelling of distributed groundwater recharge and soil nitrogen leaching in the study area, to be used as input data for subsequent groundwater simulations, v) study of groundwater nitrate distribution and nitrate breakthrough to the surface water system in the Schaugraben catchment area and a subcatchment, using three-dimensional modelling of reactive groundwater transport. The various model applications prove the model to be capable of simulating interactions between transport, turnover and hydraulic and chemical catchment properties. The distribution of nitrate in the sediment and the resulting loads to surface waters are strongly affected by the amount of reactive substances and by the residence time within the aquifer. In the Schaugraben catchment simulations, it is found that a period of 70 years is needed to raise the average seepage concentrations of nitrate to a level corresponding to the given input situation, if no reactions are considered. Under reactive transport conditions, nitrate concentrations are reduced effectively. Simulation results show that groundwater exfiltration does not contribute considerably to the nitrate pollution of surface waters, as most nitrate entering soils and groundwater is lost by denitrification. Additional sources, such as direct inputs or tile drains have to be taken into account to explain surface water loads. The prognostic value of the models for the study site is limited by uncertainties of input data and estimation of model parameters. Nevertheless, the modelling approach is a useful aid for the identification of source and sink areas of nitrate pollution as well as the investigation of system response to management measures or landuse changes with scenario simulations. The modelling approach assists in the interpretation of observed data, as it allows to integrate local observations into a spatial and temporal framework. KW - Stickstoff KW - Nitrat KW - Modellierung KW - Grundwasser KW - Einzugsgebiet KW - Reaktiver Stofftransport KW - Denitrifikation KW - Nitrogen KW - Nitrate KW - modelling KW - groundwater KW - catchment KW - reactive transport KW - denitrification Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001307 ER - TY - THES A1 - Wozny, Florian T1 - Three empirical essays in health economics T1 - Drei empirische Essays in Gesundheitsökonomik N2 - Modern health care systems are characterized by pronounced prevention and cost-optimized treatments. This dissertation offers novel empirical evidence on how useful such measures can be. The first chapter analyzes how radiation, a main pollutant in health care, can negatively affect cognitive health. The second chapter focuses on the effect of Low Emission Zones on public heath, as air quality is the major external source of health problems. Both chapters point out potentials for preventive measures. Finally, chapter three studies how changes in treatment prices affect the reallocation of hospital resources. In the following, I briefly summarize each chapter and discuss implications for health care systems as well as other policy areas. Based on the National Educational Panel Study that is linked to data on radiation, chapter one shows that radiation can have negative long-term effects on cognitive skills, even at subclinical doses. Exploiting arguably exogenous variation in soil contamination in Germany due to the Chernobyl disaster in 1986, the findings show that people exposed to higher radiation perform significantly worse in cognitive tests 25 years later. Identification is ensured by abnormal rainfall within a critical period of ten days. The results show that the effect is stronger among older cohorts than younger cohorts, which is consistent with radiation accelerating cognitive decline as people get older. On average, a one-standarddeviation increase in the initial level of CS137 (around 30 chest x-rays) is associated with a decrease in the cognitive skills by 4.1 percent of a standard deviation (around 0.05 school years). Chapter one shows that sub-clinical levels of radiation can have negative consequences even after early childhood. This is of particular importance because most of the literature focuses on exposure very early in life, often during pregnancy. However, population exposed after birth is over 100 times larger. These results point to substantial external human capital costs of radiation which can be reduced by choices of medical procedures. There is a large potential for reductions because about one-third of all CT scans are assumed to be not medically justified (Brenner and Hall, 2007). If people receive unnecessary CT scans because of economic incentives, this chapter points to additional external costs of health care policies. Furthermore, the results can inform the cost-benefit trade-off for medically indicated procedures. Chapter two provides evidence about the effectiveness of Low Emission Zones. Low Emission Zones are typically justified by improvements in population health. However, there is little evidence about the potential health benefits from policy interventions aiming at improving air quality in inner-cities. The chapter ask how the coverage of Low Emission Zones air pollution and hospitalization, by exploiting variation in the roll out of Low Emission Zones in Germany. It combines information on the geographic coverage of Low Emission Zones with rich panel data on the universe of German hospitals over the period from 2006 to 2016 with precise information on hospital locations and the annual frequency of detailed diagnoses. In order to establish that our estimates of Low Emission Zones’ health impacts can indeed be attributed to improvements in local air quality, we use data from Germany’s official air pollution monitoring system and assign monitor locations to Low Emission Zones and test whether measures of air pollution are affected by the coverage of a Low Emission Zone. Results in chapter two confirm former results showing that the introduction of Low Emission Zones improved air quality significantly by reducing NO2 and PM10 concentrations. Furthermore, the chapter shows that hospitals which catchment areas are covered by a Low Emission Zone, diagnose significantly less air pollution related diseases, in particular by reducing the incidents of chronic diseases of the circulatory and the respiratory system. The effect is stronger before 2012, which is consistent with a general improvement in the vehicle fleet’s emission standards. Depending on the disease, a one-standard-deviation increase in the coverage of a hospitals catchment area covered by a Low Emission Zone reduces the yearly number of diagnoses up to 5 percent. These findings have strong implications for policy makers. In 2015, overall costs for health care in Germany were around 340 billion euros, of which 46 billion euros for diseases of the circulatory system, making it the most expensive type of disease caused by 2.9 million cases (Statistisches Bundesamt, 2017b). Hence, reductions in the incidence of diseases of the circulatory system may directly reduce society’s health care costs. Whereas chapter one and two study the demand-side in health care markets and thus preventive potential, chapter three analyzes the supply-side. By exploiting the same hospital panel data set as in chapter two, chapter three studies the effect of treatment price shocks on the reallocation of hospital resources in Germany. Starting in 2005, the implementation of the German-DRG-System led to general idiosyncratic treatment price shocks for individual hospitals. Thus far there is little evidence of the impact of general price shocks on the reallocation of hospital resources. Additionally, I add to the exiting literature by showing that price shocks can have persistent effects on hospital resources even when these shocks vanish. However, simple OLS regressions would underestimate the true effect, due to endogenous treatment price shocks. I implement a novel instrument variable strategy that exploits the exogenous variation in the number of days of snow in hospital catchment areas. A peculiarity of the reform allowed variation in days of snow to have a persistent impact on treatment prices. I find that treatment price increases lead to increases in input factors such as nursing staff, physicians and the range of treatments offered but to decreases in the treatment volume. This indicates supplier-induced demand. Furthermore, the probability of hospital mergers and privatization decreases. Structural differences in pre-treatment characteristics between hospitals enhance these effects. For instance, private and larger hospitals are more affected. IV estimates reveal that OLS results are biased towards zero in almost all dimensions because structural hospital differences are correlated with the reallocation of hospital resources. These results are important for several reasons. The G-DRG-Reform led to a persistent polarization of hospital resources, as some hospitals were exposed to treatment price increases, while others experienced reductions. If hospitals increase the treatment volume as a response to price reductions by offering unnecessary therapies, it has a negative impact on population wellbeing and public spending. However, results show a decrease in the range of treatments if prices decrease. Hospitals might specialize more, thus attracting more patients. From a policy perspective it is important to evaluate if such changes in the range of treatments jeopardize an adequate nationwide provision of treatments. Furthermore, the results show a decrease in the number of nurses and physicians if prices decrease. This could partly explain the nursing crisis in German hospitals. However, since hospitals specialize more they might be able to realize efficiency gains which justify reductions in input factors without loses in quality. Further research is necessary to provide evidence for the impact of the G-DRG-Reform on health care quality. Another important aspect are changes in the organizational structure. Many public hospitals have been privatized or merged. The findings show that this is at least partly driven by the G-DRG-Reform. This can again lead to a lack in services offered in some regions if merged hospitals specialize more or if hospitals are taken over by ecclesiastical organizations which do not provide all treatments due to moral conviction. Overall, this dissertation reveals large potential for preventive health care measures and helps to explain reallocation processes in the hospital sector if treatment prices change. Furthermore, its findings have potentially relevant implications for other areas of public policy. Chapter one identifies an effect of low dose radiation on cognitive health. As mankind is searching for new energy sources, nuclear power is becoming popular again. However, results of chapter one point to substantial costs of nuclear energy which have not been accounted yet. Chapter two finds strong evidence that air quality improvements by Low Emission Zones translate into health improvements, even at relatively low levels of air pollution. These findings may, for instance, be of relevance to design further policies targeted at air pollution such as diesel bans. As pointed out in chapter three, the implementation of DRG-Systems may have unintended side-effects on the reallocation of hospital resources. This may also apply to other providers in the health care sector such as resident doctors. N2 - Moderne Gesundheitssysteme zeichnen sich sowohl durch eine ausgeprägte Prävention als auch durch kostenoptimierte Behandlungen aus. Diese Dissertation bietet neue empirische Erkenntnisse darüber, wie nützlich solche Maßnahmen sein können. Das erste Kapitel analysiert, wie Strahlung, ein Hauptschadstoff im Gesundheitswesen, die kognitive Gesundheit negativ beeinflussen kann. Das zweite Kapitel konzentriert sich auf die Auswirkungen von Umweltzonen auf die öffentliche Gesundheit, da die Luftqualität die wichtigste externe Quelle für Gesundheitsprobleme ist. Beide Kapitel zeigen Potenziale für präventive Maßnahmen auf. Schließlich wird in Kapitel drei untersucht, wie sich Änderungen von Behandlungspreisen auf die Reallokation von Krankenhausressourcen auswirken. Im Folgenden fasse ich jedes Kapitel kurz zusammen und diskutiere die Relevanz für Gesundheitssysteme und andere Politikbereiche. Basierend auf dem Nationalen Bildungspanel, welches wir mit Strahlungsdaten verknüpfen, zeigt Kapitel eins, dass Strahlung, auch in geringen Dosen, negative Langzeitwirkungen auf die kognitiven Fähigkeiten haben kann. Dazu nutzen wir die exogene Variation der Bodenkontamination in Deutschland nach der Tschernobyl-Katastrophe von 1986. Die Ergebnisse zeigen, dass Menschen, die einer höheren Strahlung ausgesetzt waren, 25 Jahre später in kognitiven Tests deutlich schlechter abschneiden. Die Identifizierung wird durch anormale Niederschläge innerhalb eines kritischen Zeitraums von zehn Tagen nach dem Reaktorunfall gewährleistet. Die Ergebnisse zeigen, dass der Effekt bei älteren Kohorten stärker ist als bei jüngeren Kohorten, was mit der Theorie übereinstimmt, dass Strahlung den altersbedingten Rückgang der kognitiven Leistungsfähigkeit beschleunigt. Im Durchschnitt ist eine Erhöhung des Anfangsniveaus von CS137 um eine Standardabweichung (ca. 30 Thoraxröntgenaufnahmen) mit einer Abnahme der kognitiven Fähigkeiten um 4,1 Prozent einer Standardabweichung verbunden (ca. 0.05 Schuljahre). Die Ergebnisse in Kapitel eins zeigen, dass geringe Strahlungswerte auch nach der frühen Kindheit negative Folgen haben können. Dies ist von besonderer Bedeutung, da sich der Großteil der Literatur auf die Exposition in sehr frühen Lebensphasen konzentriert, oft während der Schwangerschaft. Die nach der Geburt exponierte Bevölkerung ist jedoch über 100-mal größer. Diese Ergebnisse deuten auf erhebliche externe Humankapitalkosten der Strahlung hin, die zum Beispiel durch die Wahl medizinischer Verfahren reduziert werden können. Es bestehen große Reduktionspotenziale, da beispielsweise etwa ein Drittel aller CT-Scans als medizinisch nicht gerechtfertigt angesehen werden (Brenner and Hall, 2007). Unter der Annahme, dass Menschen aufgrund wirtschaftlicher Anreize unnötige CT-Scans erhalten, weist dieses Kapitel auf zusätzliche externe Kosten von Gesundheitsmaßnahmen für die Gesundheit der Patienten hin. Außerdem erweitern die Ergebnisse die Informationsgrundlage für Risiko-Nutzen-Abwägungen medizinischer Behandlungen. Kapitel zwei liefert Belege für die Wirksamkeit von Umweltzonen. Umweltzonen sind in der Regel durch eine Verbesserung der Gesundheit der Bevölkerung gerechtfertigt. Es gibt jedoch wenig Belege für den gesundheitlichen Nutzen solcher politischen Maßnahmen zur Verbesserung der Luftqualität in Innenstädten. In dem Kapitel analysieren wir, wie sich die Ausdehnung der Umweltzonen auf die Luftverschmutzung und die Krankenhausaufenthalte auswirkt. Dazu nutzen wir zeitliche Unterschiede bei der Einführung der Umweltzonen in Deutschland. Hierfür kombinieren wir Informationen über die geografische Abdeckung der Umweltzonen mit umfangreichen Paneldaten von allen deutschen Krankenhäusern im Zeitraum von 2006 bis 2016. Die Krankenhausdaten enthalten präzise Informationen über Krankenhausstandorte und die jährliche Häufigkeit detaillierter Diagnosen. Um sicherzustellen, dass unsere Schätzungen der gesundheitlichen Auswirkungen der Umweltzonen auf eine Verbesserung der lokalen Luftqualität zurückzuführen sind, verwenden wir Daten aus dem offiziellen deutschen Luftmessnetz und ordnen den Umweltzonen Monitorstandorte zu. Hierdurch prüfen wir, ob Messungen der Luftverschmutzung durch die Abdeckung einer Umweltzone beeinflusst werden. Die Ergebnisse in Kapitel zwei bestätigen frühere Ergebnisse, die zeigen, dass die Einführung von Umweltzonen die Luftqualität durch die Reduzierung der NO2- und PM10-Konzentrationen deutlich verbessert. Darüber hinaus zeigt das Kapitel, dass Krankenhäuser, deren Einzugsgebiete in eine Umweltzone fallen, deutlich weniger durch Luftverschmutzung bedingte Krankheiten diagnostizieren, insbesondere durch die Verringerung von chronischen Krankheiten des Kreislaufs und der Atemwege. Der Effekt ist vor 2012 stärker, was sich durch eine allgemeine Verbesserung der Abgasnormen für Fahrzeuge erklären lässt. Wird der Anteil eines Krankenhauseinzugsgebiets mit Umweltzone um eine Standardabweichung erhöht, reduziert sich die jährliche Anzahl der entsprechenden Diagnosen um bis zu 5 Prozent. Diese Ergebnisse sind für politische Entscheidungsträger von Bedeutung. Im Jahr 2015 gab Deutschland 46 Milliarden Euro für Herz-Kreislauf-Erkrankungen aus, die teuerste Krankheitsform mit 2,9 Millionen Fällen. Die Reduktion von Herz-Kreislauf-Erkrankungen würde die Gesundheitskosten der Gesellschaft unmittelbar senken. Während Kapitel eins und zwei die Nachfrageseite in Gesundheitsmärkten und damit das Präventionspotenzial untersuchen, analysiert Kapitel drei die Angebotsseite. Unter Verwendung desselben Krankenhauspaneldatensatzes wie in Kapitel zwei untersuche ich die Auswirkungen von veränderten Behandlungspreisen auf Krankenhausressourcen in Deutschland. Ab 2005 wurden die Behandlungspreise für Patienten durch das G-DRG- System umgewandelt, was bis 2010 zu allgemeinen idiosynkratischen Preisschocks für einzelne Krankenhäuser führte. Die vorhandene Literatur bildet den Effekt von allgemeinen Preisschocks auf Krankenhausressourcen jedoch nur unzureichend ab. Außerdem erweitere ich die vorhandene Literatur indem ich zeige, dass Preisänderungen auch dann langfristige Auswirkungen auf Krankenhausressourcen haben können, wenn die Preisschocks verschwinden. Einfache OLS-Regressionen würden den wahren Effekt aufgrund von endogenen Preisschocks unterschätzen. Unter Zuhilfenahme von hochauflösenden Satellitendaten nutze ich eine Instrumentenvariablenstrategie, welche exogene Schwankungen der Wetterbedingungen im Einzugsbereich von Krankenhäusern nutzt. Eine Besonderheit der Reform führt dazu, dass Abweichungen der Wetterbedingungen zum Zeitpunkt der Reformeinführung einen nachhaltigen Einfluss auf die Behandlungspreise hatten. Die Ergebnisse zeigen, dass Preiserhöhungen im Laufe der Zeit zu einem Anstieg des Pflegepersonals, von Ärzten und der Vielfalt der angebotenen Behandlungen führen, aber zu einem Rückgang des Behandlungsvolumens. Bei privaten und größeren Krankenhäusern sind die Auswirkungen stärker. Darüber hinaus sinkt die Wahrscheinlichkeit von Krankenhausfusionen und Privatisierungen. IV-Ergebnisse zeigen gegen Null verzerrte OLS-Schätzungen in fast allen Dimensionen, da strukturelle Krankenhausunterschiede mit der Reallokation von Ressourcen korreliert sind. Diese Ergebnisse sind aus mehreren Gründen wichtig. Die G-DRG-Reform führte zu einer anhaltenden Polarisation von Krankenhausressourcen, da Krankenhäuser sowohl Preisanstiege als auch Preissenkungen erfuhren. Wenn Krankenhäuser das Behandlungsvolumen durch unnötige Therapien erhöhen, hat das negative Auswirkungen auf die öffentliche Gesundheit der Bevölkerung und die öffentlichen Ausgaben. Andererseits zeigen die Ergebnisse einen Rückgang der Bandbreite der angebotenen Behandlungen bei sinkenden Preisen. Krankenhäuser könnten sich stärker spezialisieren und so mehr Patienten anziehen. Aus politischer Sicht ist es wichtig zu beurteilen, ob solche Veränderungen in der Vielfalt der angebotenen Behandlungen eine angemessene flächendeckende Versorgung gefährden. Des Weiteren zeigen die Ergebnisse einen Rückgang der Zahl der Krankenschwestern und Ärzte, wenn die Preise sinken. Dies könnte die Pflegekrise, welche die Bundesregierung in Deutschland beschreibt, teilweise erklären. Da sich die Krankenhäuser jedoch stärker spezialisieren, können sie möglicherweise Effizienzsteigerungen erzielen, die eine Verringerung der Inputfaktoren rechtfertigen, ohne an Qualität zu verlieren. Weitere Untersuchungen sind notwendig, um die Auswirkungen auf die Qualität der Gesundheitsversorgung nachzuweisen. Ein weiterer wichtiger Aspekt sind Veränderungen in der Organisationsstruktur. Viele öffentliche Krankenhäuser werden privatisiert oder mit anderen Krankenhäusern fusioniert. Meine Ergebnisse zeigen, dass dies zumindest teilweise auf die G-DRG-Reform zurückzuführen ist. Dies kann zu einem Mangel an angebotenen Behandlungen in einigen Regionen führen, wenn sich fusionierte Krankenhäuser spezialisieren oder wenn Krankenhäuser von kirchlichen Organisationen übernommen werden, die aus moralischen Gründen nicht alle Behandlungen anbieten. Insgesamt unterstreicht diese Dissertation das große Potenzial von Gesundheitsvorsorgemaßnahmen und hilft, Reallokationsprozesse im Krankenhaussektor zu erklären. Darüber hinaus haben die Ergebnisse potenziell relevante Auswirkungen auf andere Bereiche der Politik. Kapitel Eins identifiziert einen Einfluss von geringer Radioaktivität auf die kognitive Gesundheit. Auf der Suche nach neuen Energiequellen wird die Kernenergie wieder populär. Die Ergebnisse von Kapitel Eins deuten jedoch auf erhebliche Kosten von Kernenergie hin, die in der aktuellen Debatte noch nicht berücksichtigt wurden. Kapitel Zwei findet starke Hinweise darauf, dass die Verbesserung der Luftqualität durch Umweltzonen, selbst bei relativ geringer Luftverschmutzung, zu einer Verbesserung der Gesundheit führt. Diese Ergebnisse können für die Einführung weiterer Maßnahmen zur Bekämpfung der Luftverschmutzung von Bedeutung sein, wie beispielsweise Fahrverbote für Dieselfahrzeuge. Wie in Kapitel Drei dargelegt, kann die Einführung von DRG-Systemen unbeabsichtigte Effekte bei der Reallokation von Krankenhausressourcen haben. Dies kann auch für andere Anbieter im Gesundheitswesen wie niedergelassene Ärzte gelten. KW - health economics KW - managment KW - hospital KW - Gesundheitsökonomik KW - Management KW - Krankenhaus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469910 ER - TY - THES A1 - Wotschack, Christiane T1 - Eye movements in reading strategies : how reading strategies modulate effects of distributed processing and oculomotor control T1 - Lesestrategien und Blickbewegungen : wie Lesestrategien Effekte der verteilten Verarbeitung und der okulomotorischen Kontrolle modulieren N2 - Throughout its empirical research history eye movement research has always been aware of the differences in reading behavior induced by individual differences and task demands. This work introduces a novel comprehensive concept of reading strategy, comprising individual differences in reading style and reading skill as well as reader goals. In a series of sentence reading experiments recording eye movements, the influence of reading strategies on reader- and word-level effects assuming distributed processing has been investigated. Results provide evidence for strategic, top-down influences on eye movement control that extend our understanding of eye guidance in reading. N2 - Seit Beginn der Blickbewegungsforschung beim Lesen ist man sich über Unterschiede im Blickverhalten bewusst, die im Zusammenhang mit individuellen Unterschieden oder Aufgabenanforderungen stehen. Unter dem Begriff ‚Lesestrategie’ wurden diese Unterschiede hauptsächlich für diagnostische Zwecke verwendet. Diese Studie verwendet eine neue, umfassende Definition von Lesestrategie und berücksichtigt sowohl individuelle Unterschiede in Lesestil und Lesevermögen als auch Ziel und Intention des Lesers. In einer Reihe von Satzleseexperimenten, bei denen die Blickbewegungen aufgezeichnet wurden, wurde der Einfluss von Lesestrategien auf Effekte der Leser-und Wortebene untersucht, wobei eine verteilte Verarbeitung beim Lesen angenommen wird. Die Ergebnisse liefern Evidenzen für strategische, top-down Einflüsse auf die Blickbewegungen und leisten einen wichtigen Beitrag für das bessere Verständnis der Blickbewegungskontrolle beim Lesen. T3 - Spektrum Patholinguistik - Schriften - 1 KW - Blickbewegungen KW - Satzlesen KW - Lesestrategie KW - verteilte Verarbeitung KW - individuelle Unterschiede KW - eye movements KW - sentence reading KW - reading strategy KW - distributed processing KW - individual differences Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-36846 SN - 978-3-86956-021-2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Worseck, Gábor T1 - The transverse proximity effect in quasar spectra T1 - Der Transversale Proximity-Effekt in Quasarspektren N2 - The intergalactic medium is kept highly photoionised by the intergalactic UV background radiation field generated by the overall population of quasars and galaxies. In the vicinity of sources of UV photons, such as luminous high-redshift quasars, the UV radiation field is enhanced due to the local source contribution. The higher degree of ionisation is visible as a reduced line density or generally as a decreased level of absorption in the Lyman alpha forest of neutral hydrogen. This so-called proximity effect has been detected with high statistical significance towards luminous quasars. If quasars radiate rather isotropically, background quasar sightlines located near foreground quasars should show a region of decreased Lyman alpha absorption close to the foreground quasar. Despite considerable effort, such a transverse proximity effect has only been detected in a few cases. So far, studies of the transverse proximity effect were mostly limited by the small number of suitable projected pairs or groups of high-redshift quasars. With the aim to substantially increase the number of quasar groups in the vicinity of bright quasars we conduct a targeted survey for faint quasars around 18 well-studied quasars at employing slitless spectroscopy. Among the reduced and calibrated slitless spectra of 29000 objects on a total area of 4.39 square degrees we discover in total 169 previously unknown quasar candidates based on their prominent emission lines. 81 potential z>1.7 quasars are selected for confirmation by slit spectroscopy at the Very Large Telescope (VLT). We are able to confirm 80 of these. 64 of the newly discovered quasars reside at z>1.7. The high success rate of the follow-up observations implies that the majority of the remaining candidates are quasars as well. In 16 of these groups we search for a transverse proximity effect as a systematic underdensity in the HI Lyman alpha absorption. We employ a novel technique to characterise the random absorption fluctuations in the forest in order to estimate the significance of the transverse proximity effect. Neither low-resolution spectra nor high-resolution spectra of background quasars of our groups present evidence for a transverse proximity effect. However, via Monte Carlo simulations the effect should be detectable only at the 1-2sigma level near three of the foreground quasars. Thus, we cannot distinguish between the presence or absence of a weak signature of the transverse proximity effect. The systematic effects of quasar variability, quasar anisotopy and intrinsic overdensities near quasars likely explain the apparent lack of the transverse proximity effect. Even in absence of the systematic effects, we show that a statistically significant detection of the transverse proximity effect requires at least 5 medium-resolution quasar spectra of background quasars near foreground quasars whose UV flux exceeds the UV background by a factor 3. Therefore, statistical studies of the transverse proximity effect require large numbers of suitable pairs. Two sightlines towards the central quasars of our survey fields show intergalactic HeII Lyman alpha absorption. A comparison of the HeII absorption to the corresponding HI absorption yields an estimate of the spectral shape of the intergalactic UV radiation field, typically parameterised by the HeII/HI column density ratio eta. We analyse the fluctuating UV spectral shape on both lines of sight and correlate it with seven foreground quasars. On the line of sight towards Q0302-003 we find a harder radiation field near 4 foreground quasars. In the direct vicinity of the quasars eta is consistent with values of 25-100, whereas at large distances from the quasars eta>200 is required. The second line of sight towards HE2347-4342 probes lower redshifts where eta is directly measurable in the resolved HeII forest. Again we find that the radiation field near the 3 foreground quasars is significantly harder than in general. While eta still shows large fluctuations near the quasars, probably due to radiative transfer, the radiation field is on average harder near the quasars than far away from them. We interpret these discoveries as the first detections of the transverse proximity effect as a local hardness fluctuation in the UV spectral shape. No significant HI proximity effect is predicted for the 7 foreground quasars. In fact, the HI absorption near the quasars is close to or slightly above the average, suggesting that the weak signature of the transverse proximity effect is masked by intrinsic overdensities. However, we show that the UV spectral shape traces the transverse proximity effect even in overdense regions or at large distances. Therefore, the spectral hardness is a sensitive physical measure of the transverse proximity effect that is able to break the density degeneracy affecting the traditional searches. N2 - Das intergalaktische Medium wird durch das intergalaktische UV-Hintergrundsstrahlungsfeld in einem hochgradig photoionisierten Zustand gehalten. Der UV-Hintergrund stammt von der gesamten Population von Quasaren und Galaxien. In der Nähe von leuchtkräftigen Quasaren, ist das UV-Strahlungsfeld lokal erhöht durch den Anteil der Quelle. Der höhere Ionisationsgrad ist beobachtbar als eine reduzierte Liniendichte oder allgemein als ein vermindertes Maß an Absorption im Lyman-alpha Wald des neutralen Wasserstoffs. Dieser sogenannte Proximity-Effekt ist bei leuchtkräftigen Quasaren mit hoher statistischer Signifikanz nachgewiesen worden. Falls Quasare fast isotrop strahlen, dann sollten Sichtlinien zu Hintergrundquasaren in der Nähe von Vordergrundquasaren eine Region mit verminderter Absorption zeigen. Trotz beträchtlichen Aufwands wurde solch ein transversaler Proximity-Effekt nur in wenigen Fällen entdeckt. Bisher waren Studien des transversalen Proximity-Effekts meist begrenzt durch die kleine Anzahl von geeigneten projizierten Paaren oder Gruppen von hochrotverschobenen Quasaren. Mit dem Ziel die Zahl der Quasargruppen in der Nähe von hellen Quasaren beträchtlich zu erhöhen, führen wir eine gezielte Suche nach schwachen Quasaren um 18 oft studierte Quasare durch. Unter den reduzierten und kalibrierten spaltlosen Spektren von 29000 Objekten auf einer Gesamtfläche von 4.39 Quadratgrad entdecken wir insgesamt 169 vorher unbekannte Quasarkandidaten anhand ihrer Emissionslinien. 81 potentielle z>1.7 Quasare werden ausgesucht zur Bestätigung mittels Spaltspektroskopie am Very Large Telescope (VLT). Wir können 80 von diesen als Quasare bestätigen. 64 der neu entdeckten Quasare liegen bei z>1.7. Die hohe Erfolgsrate der Nachfolgebeobachtungen deutet an, dass die Mehrzahl der verbleibenden Kandidaten ebenfalls Quasare sind. In 16 dieser Gruppen suchen wir nach dem transversalen Proximity-Effekt als eine systematische Unterdichte in der HI Lyman-alpha-Absorption. Wir nutzen eine neuartige Methode die zufälligen Absorptionsfluktuationen zu charakterisieren, um die Signifikanz des transversalen Proximity-Effekts abschätzen zu können. Weder schwach aufgelöste noch hoch aufgelöste Spektren von Hintergrundquasaren unserer Gruppen zeigen Anzeichen für einen transversalen Proximity-Effekt. Aufgrund von Monte Carlo Simulationen sollte der Effekt jedoch nur schwach in der Nähe von 3 Vordergrundquasaren detektierbar sein. Deshalb können wir nicht zwischen An- oder Abwesenheit des Effekts unterscheiden. Selbst in Abwesenheit von systematischen Effekten zeigen wir, dass eine statistisch signifikante Detektion des transversalen Proximity-Effekts mindestens 5 Hintergrundquasarspektren bei mittlerer Auflösung nahe Vordergrundquasaren erfordert, deren UV-Fluss den UV-Hintergrund um einen Faktor 3 übersteigt. Deshalb erfordern statistische Studien des transversalen Proximity-Effekts große Zahlen von geeigneten Quasaren. Zwei Sichtlinien zeigen HeII-Absorption. Ein Vergleich der HeII-Absorption mit der entsprechenden HI-Absorption liefert eine Abschätzung der Spektralform des UV-Strahlungsfelds, das typischerweise durch das HeII/HI Säulendichteverhältnis eta parameterisiert wird. Wir analysieren die fluktuierende spektrale Form des UV-Strahlungsfelds auf beiden Sichtlinien und korrelieren sie mit 7 Vordergrundquasaren. Auf der Sichtlinie zu Q0302-003 finden wir ein härteres Strahlungsfeld nahe 4 Vordergrundquasaren. In der direkten Umgebung der Quasare ist eta konsistent mit Werten von 25-100, wogegen bei großen Entfernungen zu den Quasaren eta>200 erforderlich ist. Die zweite Sichtlinie zu HE2347-4342 sondiert kleinere Rotverschiebungen. Wieder finden wir, dass das Strahlungsfeld nahe der 3 Vordergrundquasaren signifikant härter ist als im allgemeinen. Während eta trotzdem große Fluktuationen nahe den Quasaren aufweist, die wahrscheinlich von Strahlungstransport herrühren, ist das Strahlungsfeld in der Nähe der Quasare im Mittel härter als in großer Entfernung. Wir interpretieren diese Entdeckungen als die ersten Detektionen des transversalen Proximity-Effekts als eine lokale Fluktuation im spektralen Härtegrad. Kein signifikanter HI Proximity-Effekt ist für die 7 Vordergrundquasare vorhergesagt. Tatsächlich ist die HI-Absorption nahe den Quasaren nahe am oder etwas über dem Mittelwert, was darauf hindeutet, dass die schwache Signatur des transversalen Proximity-Effekts maskiert wird durch intrinsische Überdichten. Jedoch zeigen wir, dass der Härtegrad den transversalen Proximity-Effekt selbst in überdichten Regionen oder auf großen Distanzen sichtbar werden läßt. Deshalb ist der spektrale Härtegrad ein empfindliches physikalisches Maß für den transversalen Proximity-Effekt, der in der Lage ist, die Dichteentartung zu brechen, die die traditionelle Suche behindert. KW - Quasar KW - Proximity-Effekt KW - intergalaktisches Medium KW - quasar KW - proximity effect KW - intergalactic medium Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18738 ER - TY - THES A1 - Won, Jooyoung T1 - Dynamic and equilibrium adsorption behaviour of ß-lactoglobulin at the solution/tetradecane interface: Effect of solution concentration, pH and ionic strength T1 - Dynamik und Gleichgewicht der Adsorption von ß-Lactoglobulin an der Grenzfläche Lösung / Tetradecan (W/TD) N2 - Proteins are amphiphilic and adsorb at liquid interfaces. Therefore, they can be efficient stabilizers of foams and emulsions. β-lactoglobulin (BLG) is one of the most widely studied proteins due to its major industrial applications, in particular in food technology. In the present work, the influence of different bulk concentration, solution pH and ionic strength on the dynamic and equilibrium pressures of BLG adsorbed layers at the solution/tetradecane (W/TD) interface has been investigated. Dynamic interfacial pressure (Π) and interfacial dilational elastic modulus (E’) of BLG solutions for various concentrations at three different pH values of 3, 5 and 7 at a fixed ionic strength of 10 mM and for a selected fixed concentration at three different ionic strengths of 1 mM, 10 mM and 100 mM are measured by Profile Analysis Tensiometer PAT-1 (SINTERFACE Technologies, Germany). A quantitative data analysis requires additional consideration of depletion due to BLG adsorption at the interface at low protein bulk concentrations. This fact makes experiments more efficient when oil drops are studied in the aqueous protein solutions rather than solution drops formed in oil. On the basis of obtained experimental data, concentration dependencies and the effect of solution pH on the protein surface activity was qualitatively analysed. In the presence of 10 mM buffer, we observed that generally the adsorbed amount is increasing with increasing BLG bulk concentration for all three pH values. The adsorption kinetics at pH 5 result in the highest Π values at any time of adsorption while it exhibits a less active behaviour at pH 3. Since the experimental data have not been in a good agreement with the classical diffusion controlled model due to the conformational changes which occur when the protein molecules get in contact with the hydrophobic oil phase in order to adapt to the interfacial environment, a new theoretical model is proposed here. The adsorption kinetics data were analysed with the newly proposed model, which is the classical diffusion model but modified by assuming an additional change in the surface activity of BLG molecules when adsorbing at the interface. This effect can be expressed through the adsorption activity constant in the corresponding equation of state. The dilational visco-elasticity of the BLG adsorbed interfacial layers is determined from measured dynamic interfacial tensions during sinusoidal drop area variations. The interfacial tension responses to these harmonic drop oscillations are interpreted with the same thermodynamic model which is used for the corresponding adsorption isotherm. At a selected BLG concentration of 2×10-6 mol/l, the influence of the ionic strength using different buffer concentration of 1, 10 and 100 mM on the interfacial pressure was studied. It is affected weakly at pH 5, whereas it has a strong impact by increasing buffer concentration at pH 3 and 7. In conclusion, the structure formation of BLG adsorbed layer in the early stage of adsorption at the W/TD interface is similar to those of the solution/air (W/A) surface. However, the equation of state at the W/TD interface provides an adsorption activity constant which is almost two orders of magnitude higher than that for the solution/air surface. At the end of this work, a new experimental tool called Drop and Bubble Micro Manipulator DBMM (SINTERFACE Technologies, Germany) has been introduced to study the stability of protein covered bubbles against coalescence. Among the available protocols the lifetime between the moment of contact and coalescence of two contacting bubble is determined for different BLG concentrations. The adsorbed amount of BLG is determined as a function of time and concentration and correlates with the observed coalescence behaviour of the contacting bubbles. N2 - Die vorliegende Arbeit ist ein Beitrag zum Verständnis des Überganges von der qualitativen zur quantitativen Beschreibung der Adsorption von Proteinen an der Wasser/Öl- Grenzfläche. Dabei wird die Adsorption des Molkeproteins ß-Lactoglobulin (BLG) an der Wasser/Tetradekan (W/TD) Grenzfläche untersucht. Die Proteinadsorption an Grenzflächen zwischen zwei nicht mischbaren Flüssigkeiten ist ein Zeitprozess. Die Tropfenprofil-Analysen-Tensiometrie (PAT) hat sich als optimale Methode erwiesen, um den Prozess der Bildung von Proteinadsorptionsschichten an Flüssig-/flüssig-Grenzflächen quantitativ zu untersuchen. Die gemessenen dynamischen Grenzflächenspannungen können genutzt werden, um die adsorbierte Menge von Protein an Grenzflächen zu bestimmen. Zusätzlich erlaubt die Methode, durch periodische Tropfenoszillationen, die Messung der Dilatations-Viskoelastizität. Die experimentellen Ergebnisse zeigen deutlich, dass die Adsorption von Proteinen mit der Konzentration ansteigt. Der Adsorptionsprozess von Proteinen ist ähnlich dem von Tensiden, allerdings wird seine Beschreibung wesentlich komplizierter, durch die zusätzliche Möglichkeit der Konformationsänderungen der Proteinmoleküle an der Grenzfläche. Ein kürzlich im Rahmen dieser Dissertation entwickeltes Modell zur Adsorptionskinetik von Proteinen wurde genutzt, um experimentelle Daten für BLG zu interpretieren. Dieses kinetische Modell erlaubt es, den Mechanismus der Proteinadsorption an der Wasser/Öl-Grenzfläche zu beschreiben, was durch ältere Modelle bisher nicht möglich war. Im neu entwickelten Modell wurde die klassische Diffusionstheorie so modifiziert, dass eine Änderung der Adsorptionsaktivität der adsorbierenden Proteinmoleküle berücksichtigt wird. Die Änderung der Adsorptionsaktivität geschieht durch den Kontakt adsorbierter BLG-Moleküle an der Wasser/Öl-Grenzfläche. Es wird nach diesem neuen Modell angenommen, dass die Adsorptionsaktivität eine Funktion der Adsorptionszeit ist. Die ansteigende Adsorptionaktivität ist erforderlich, um den Adsorptionsprozess von BLG über den gesamten Zeitbereich quantitativ zu beschrieben. Mit diesem neuen Modell wurde es möglich, die experimentellen Daten zur Adsorptionskinetik sowie zur Dilatationsrheologie von Adsorptionsschichten bei unterschiedlichen BLG-Konzentrationen, pH-Werten und Ionenstärken an der Grenzfläche Lösung/Tetradekan quantitativ zu beschreiben. Die Ergebnisse dienen als Ausgangspunkt für weitere Entwicklungen zur Verbesserung des Verständnisses der Stabilität von Schäumen und Emulsionen, die durch die Dynamik der Adsorption von Molekülen wie BLG signifikant beeinflusst wird. KW - beta-lactoglobulin KW - water/tetradecane interface KW - drop profile analysis tensiometry KW - dynamic interfacial tensions KW - protein adsorption KW - pH effect KW - ionic strength effect KW - protein stabilized foams KW - drop and bubble coalescence KW - interfacial dynamics KW - capillary pressure tensiometry KW - drop-drop interaction KW - bubble-bubble interaction KW - ß-Lactoglobulin KW - Flüssig-/flüssig-Grenzflächen KW - Wasser/Öl-Grenzfläche KW - Grenzfläche Lösung/Tetradecan KW - Dynamik der Adsorption KW - Gleichgewicht der Adsorption KW - Proteinadsorption KW - Tropfenprofil-Analysen-Tensiometrie KW - Tropfenoszillationen KW - Dilatations-Viskoelastizität KW - klassische Diffusionstheorie KW - Konformationsänderungen KW - Adsorptionsaktivität KW - Wirkung des pH-Werten KW - Wirkung des Ionenstärken KW - Stabilität von Schäumen KW - Stabilität von Emulsionen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-99167 ER - TY - THES A1 - Wolff, Markus T1 - Geovisual methods and techniques for the development of three-dimensional tactical intelligence assessments T1 - Methoden und Techniken zur Entwicklung dreidimensionaler Lagebilder für Belange der zivilen Sicherheit N2 - This thesis presents methods, techniques and tools for developing three-dimensional representations of tactical intelligence assessments. Techniques from GIScience are combined with crime mapping methods. The range of methods applied in this study provides spatio-temporal GIS analysis as well as 3D geovisualisation and GIS programming. The work presents methods to enhance digital three-dimensional city models with application specific thematic information. This information facilitates further geovisual analysis, for instance, estimations of urban risks exposure. Specific methods and workflows are developed to facilitate the integration of spatio-temporal crime scene analysis results into 3D tactical intelligence assessments. Analysis comprises hotspot identification with kernel-density-estimation techniques (KDE), LISA-based verification of KDE hotspots as well as geospatial hotspot area characterisation and repeat victimisation analysis. To visualise the findings of such extensive geospatial analysis, three-dimensional geovirtual environments are created. Workflows are developed to integrate analysis results into these environments and to combine them with additional geospatial data. The resulting 3D visualisations allow for an efficient communication of complex findings of geospatial crime scene analysis. N2 - Diese Arbeit präsentiert Methoden, Techniken und Werkzeuge für die Entwicklung dreidi-mensionaler Lagebilder. Zu diesem Zweck werden Verfahren der Geoinformatik mit solchen der raumbezogenen Straftatenanalyse kombiniert. Das Spektrum der angewandten Methoden und Techniken umfasst raumzeitliche GIS-Analysen ebenso wie 3D Geovisualisierungen und GIS-Anwendungsprogrammierung. Um komplexe geovisuelle Analysen auf Basis virtueller 3D-Stadtmodelle zu ermöglichen, werden Datenbanken digitaler Stadtmodelle um anwendungsspezifische Fachinformationen ergänzt. Dies ermöglicht weiterführende Analysen, zum Beispiel zur räumlichen Verteilung urbaner Risiken. Weiterhin präsentiert die Arbeit Methoden und Verfahren zur Integration der Ergebnisse komplexer raumzeitlicher Straftatenanalysen in dreidimensionale Lagebilder. Die durchgeführten Analysen umfassen die Identifikation von Brennpunkten spezifischer Delikte mittels Techniken der Kerndichteschätzung, die Verifikation dieser Hotspots durch LISA-Statistiken, GIS-basierte räumliche Charakterisierungen von Brennpunkten sowie Analysen zur wiederholten Viktimisierung. Zur Visualisierung der Ergebnisse komplexer raumzeitlicher Analysen werden dreidimensionale geovirtuelle Umgebungen erzeugt. Um weitere raumbezogene Daten ergänzt, werden sämtliche Analyseergebnisse in diese Umgebungen integriert. Die resultierenden 3D-Visualisierungen erlauben eine effiziente Kommunikation der Ergebnisse komplexer raumbezogener Straftatenanalysen. KW - raumbezogene Straftatenanalyse KW - GIS KW - geovirtuelle Umgebungen KW - 3D-Geovisualisierung KW - 3D-Stadtmodelle KW - Crime mapping KW - GIS KW - geovirtual environments KW - 3D geovisualisation KW - 3D city models Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50446 ER - TY - THES A1 - Wolff, Christian Michael T1 - East African monsoon variability since the last glacial T1 - Ostafrikanische Monsunvariabilität seit dem letztem Glazial N2 - The impact of global warming on human water resources is attracting increasing attention. No other region in this world is so strongly affected by changes in water supply than the tropics. Especially in Africa, the availability and access to water is more crucial to existence (basic livelihoods and economic growth) than anywhere else on Earth. In East Africa, rainfall is mainly influenced by the migration of the Inter-Tropical Convergence Zone (ITCZ) and by the El Niño Southern Oscillation (ENSO) with more rain and floods during El Niño and severe droughts during La Niña. The forecasting of East African rainfall in a warming world requires a better understanding of the response of ENSO-driven variability to mean climate. Unfortunately, existing meteorological data sets are too short or incomplete to establish a precise evaluation of future climate. From Lake Challa near Mount Kilimanjaro, we report records from a laminated lake sediment core spanning the last 25,000 years. Analyzing a monthly cleared sediment trap confirms the annual origin of the laminations and demonstrates that the varve-thicknesses are strongly linked to the duration and strength of the windy season. Given the modern control of seasonal ITCZ location on wind and rain in this region and the inverse relation between the two, thicker varves represent windier and thus drier years. El Niño (La Niña) events are associated with wetter (drier) conditions in east Africa and decreased (increased) surface wind speeds. Based on this fact, the thickness of the varves can be used as a tool to reconstruct a) annual rainfall b) wind season strength, and c) ENSO variability. Within this thesis, I found evidence for centennialscale changes in ENSO-related rainfall variability during the last three millennia, abrupt changes in variability during the Medieval Climate Anomaly and the Little Ice Age, and an overall reduction in East African rainfall and its variability during the Last Glacial period. Climate model simulations support forward extrapolation from these lake-sediment data, indicating that a future Indian Ocean warming will enhance East Africa’s hydrological cycle and its interannual variability in rainfall. Furthermore, I compared geochemical analyses from the sediment trap samples with a broad range of limnological, meteorological, and geological parameters to characterize the impact of sedimentation processes from the in-situ rocks to the deposited sediments. As a result an excellent calibration for existing μXRF data from Lake Challa over the entire 25,000 year long profile was provided. The climate development during the last 25,000 years as reconstructed from the Lake Challa sediments is in good agreement with other studies and highlights the complex interactions between long-term orbital forcing, atmosphere, ocean and land surface conditions. My findings help to understand how abrupt climate changes occur and how these changes correlate with climate changes elsewhere on Earth. N2 - Änderungen des Klimas in einer sich erwärmenden Erde haben große Auswirkungen auf den globalen und lokalen Wasserhaushalt und rücken anhand starker Extremereignisse immer häufiger in den Fokus der Öffentlichkeit. Besonders die Regionen der Tropen sind von derartigen Einschnitten stark gefährdet. Der jährliche Niederschlag in Ostafrika ist stark mit der saisonalen Wanderung der ITCZ (Innertropischen Konvergenzzone) sowie mit dem El Niño/Southern Oscillation (ENSO) Phänomen verbunden. Extreme Regenfälle und Überschwemmungen während El Niño Jahren stehen Trockenheit und Dürren in La Niña Jahren gegenüber. Prognosen über zukünftige Veränderungen der ostafrikanischen Niederschläge erfordern ein verbessertes Verständnis der ENSO antreibenden Faktoren. Unglücklicherweise sind die vorhandenen meteorologischen Datenreihen nicht lang genug oder besitzen nicht die benötigte Homogenität. Einen hilfreichen Beitrag können jährlich geschichtete Seesedimente des am Fuße des Kilimandscharo gelegenen Lake Challa leisten. Anhand einer monatlich aufgelösten Sedimentfalle konnte ich nachweisen, dass die rund 25.000 Jahre zurückreichenden Sedimente eine jährliche Struktur besitzen sowie die Dicke dieser jährlichen Schichtung (Warve) stark mit der Dauer und Intensität der saisonal windreichen/trockenen Jahreszeit verbunden ist. Dickere Warven repräsentieren windige/trockene Jahre, wohingegen dünnere Warven für windschwache und feuchte Jahre stehen. Stärkere Winde und kaum Niederschläge treten oft im Zusammenhang mit einem La Niña Ereignis in Ostafrika auf, wohingegen während eines El Niño Ereignisses häufig extreme Niederschläge mit wenig Wind zu beobachten sind. Anhand der Vermessung der Warven kann man verschiedene Klimaparameter rekonstruieren: a) den jährlichen Niederschlag b) jährliche Windgeschwindigkeiten und ihre Intensitäten sowie c) ENSO Variabilitäten. Die in meiner Arbeit gewonnenen klimatischen Informationen zeigen starke Änderungen der ENSO Variabilität innerhalb der letzten 3.000 Jahre mit starken Unterschieden während der Kleinen Eiszeit und während der Mittelalterlichen Warmzeit sowie deutlich trockene und windige Bedingungen mit sehr geringen ENSO Aktivitäten im glazialem Zeitraum (18.500 und 21.000 Jahren). Modellberechnungen unterstützen diese Ergebnisse einer Zunahme von Extremereignissen und feuchteren Bedingungen im Zuge einer Erwärmung des Indischen Ozeans. Mittels geochemischer Analysen der Sedimentfallenproben sowie die daraus resultierende Verknüpfung mit limnologischen und meteorologischen Parametern, konnte ich einen entscheidenden Beitrag zur erfolgreichen Interpretation der existierenden 25.000 Jahre langen μXRF Datensätze leisten. Der Anteil an allochthonem und autochthonem Eintrag kann so genau klassifiziert werden. Das dadurch gewonnene Bild der Klimaentwicklung der letzten 25.000 Jahre deckt sich hervorragend mit anderen Studien und ermöglicht Einblicke in das komplexe Zusammenspiel zwischen Ozean-Atmosphäre und Umwelt auf dem afrikanischen Kontinent. Besonders die für die Ostafrikaforschung extrem hohe Auflösung der Daten wird helfen, die abrupten Klimawechsel und Interaktionen besser verstehen zu können. KW - Lake Challa KW - Sedimentfalle KW - Warve KW - ENSO KW - Monsun KW - Lake Challa KW - sediment trap KW - varve KW - ENSO KW - monsoon Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58079 ER - TY - THES A1 - Wolff, Christian Michael T1 - Identification and reduction of losses in perovskite solar cells N2 - Perovskite solar cells have become one of the most studied systems in the quest for new, cheap and efficient solar cell materials. Within a decade device efficiencies have risen to >25% in single-junction and >29% in tandem devices on top of silicon. This rapid improvement was in many ways fortunate, as e. g. the energy levels of commonly used halide perovskites are compatible with already existing materials from other photovoltaic technologies such as dye-sensitized or organic solar cells. Despite this rapid success, fundamental working principles must be understood to allow concerted further improvements. This thesis focuses on a comprehensive understanding of recombination processes in functioning devices. First the impact the energy level alignment between the perovskite and the electron transport layer based on fullerenes is investigated. This controversial topic is comprehensively addressed and recombination is mitigated through reducing the energy difference between the perovskite conduction band minimum and the LUMO of the fullerene. Additionally, an insulating blocking layer is introduced, which is even more effective in reducing this recombination, without compromising carrier collection and thus efficiency. With the rapid efficiency development (certified efficiencies have broken through the 20% ceiling) and thousands of researchers working on perovskite-based optoelectronic devices, reliable protocols on how to reach these efficiencies are lacking. Having established robust methods for >20% devices, while keeping track of possible pitfalls, a detailed description of the fabrication of perovskite solar cells at the highest efficiency level (>20%) is provided. The fabrication of low-temperature p-i-n structured devices is described, commenting on important factors such as practical experience, processing atmosphere & temperature, material purity and solution age. Analogous to reliable fabrication methods, a method to identify recombination losses is needed to further improve efficiencies. Thus, absolute photoluminescence is identified as a direct way to quantify the Quasi-Fermi level splitting of the perovskite absorber (1.21eV) and interfacial recombination losses the transport layers impose, reducing the latter to ~1.1eV. Implementing very thin interlayers at both the p- and n-interface (PFN-P2 and LiF, respectively), these losses are suppressed, enabling a VOC of up to 1.17eV. Optimizing the device dimensions and the bandgap, 20% devices with 1cm2 active area are demonstrated. Another important consideration is the solar cells’ stability if subjected to field-relevant stressors during operation. In particular these are heat, light, bias or a combination thereof. Perovskite layers – especially those incorporating organic cations – have been shown to degrade if subjected to these stressors. Keeping in mind that several interlayers have been successfully used to mitigate recombination losses, a family of perfluorinated self-assembled monolayers (X-PFCn, where X denotes I/Br and n = 7-12) are introduced as interlayers at the n-interface. Indeed, they reduce interfacial recombination losses enabling device efficiencies up to 21.3%. Even more importantly they improve the stability of the devices. The solar cells with IPFC10 are stable over 3000h stored in the ambient and withstand a harsh 250h of MPP at 85◦C without appreciable efficiency losses. To advance further and improve device efficiencies, a sound understanding of the photophysics of a device is imperative. Many experimental observations in recent years have however drawn an inconclusive picture, often suffering from technical of physical impediments, disguising e. g. capacitive discharge as recombination dynamics. To circumvent these obstacles, fully operational, highly efficient perovskites solar cells are investigated by a combination of multiple optical and optoelectronic probes, allowing to draw a conclusive picture of the recombination dynamics in operation. Supported by drift-diffusion simulations, the device recombination dynamics can be fully described by a combination of first-, second- and third-order recombination and JV curves as well as luminescence efficiencies over multiple illumination intensities are well described within the model. On this basis steady state carrier densities, effective recombination constants, densities-of-states and effective masses are calculated, putting the devices at the brink of the radiative regime. Moreover, a comprehensive review of recombination in state-of-the-art devices is given, highlighting the importance of interfaces in nonradiative recombination. Different strategies to assess these are discussed, before emphasizing successful strategies to reduce interfacial recombination and pointing towards the necessary steps to further improve device efficiency and stability. Overall, the main findings represent an advancement in understanding loss mechanisms in highly efficient solar cells. Different reliable optoelectronic techniques are used and interfacial losses are found to be of grave importance for both efficiency and stability. Addressing the interfaces, several interlayers are introduced, which mitigate recombination losses and degradation. N2 - Auf der Suche nach neuen, kostengünstigen und effizienten Systemen zur photovoltaischen Energiegewinnung, sind Perowskit Solarzellen zu einem der am meistuntersuchtesten Systeme avanciert. Innerhalb einer Dekade konnten unabhängig zertifizierte Umwandlungseffizienzen von >25% in Einzelschicht- und >29% in Mehrschichtzellen basierend auf Siliziumzellen realisiert werden. Die schnelle Entwicklung war in vielerlei Hinsicht glücklich, da beispielsweise die Energielevel typischer Perowskitschichten mit bereits existierenden Kontaktschichtsystemen anderer Photovoltaiksysteme, wie etwa Farbstoffsolarzellen oder Organische Solarzellen, kompatibel sind. Trotz dieses schnellen Erfolges, müssen zur weiteren Effizienzsteigerung grundlegende Wirkprinzipien der Solarzellen verstanden werden. Diese Arbeit beschäftigt sich mit dem umfassenden Verständnis von Rekombinationsprozessen in voll funktionstüchtigen Bauteilen. Zunächst wird der Einfluss unterschiedlicher Energielevel einer Transportschicht, basierend auf Fullerenen untersucht. Dieses kontrovers diskutierte Thema wurde umfassend untersucht und Rekombinationsverluste aufgrund ungünstiger Energielevel reduziert indem - durch die Wahl unterschiedlicher Fulleren-Derivate - der energetische Abstand zwischen Leitungsband des Perowskit und dem niedrigsten unbesetzten Zustand des Fullerenes reduziert wird. Zusätzlich wurde eine ultradünne elektrisch isolierende Zwischenschicht eingebracht, die noch effektiver Rekombinationsverluste unterdrückt, ohne die Fähigkeit zur Ladungsextraktion - und damit Effizienz einzuschränken. Das breite Interesse tausender Forschenden weltweit hat zur schnellen Entwicklung besagter hoher Effizienzen geführt, obgleich verlässliche, leicht nachzuvollziehende Herstellungsprotokolle nicht existierten. Auf Basis der hier entwickelten Protokolle, werden Methoden dargestellt, mit denen verlässlich >20% effiziente Solarzellen produziert werden können. Hierbei wird insbesondere auf sogenannte invertierte (p-i-n) Zellen eingegangen, wobei ein Fokus auf der Beschreibung essentieller Faktoren wie Atmosphärenkontrolle, Temperaturkontrolle, Materialreinheit oder praktischer Erfahrung liegt. Analog zu verlässlichen Herstellungsmethoden bedarf es robuster Techniken um Rekombinationsverluste zu identifizieren und zu lokalisieren. Zu diesem Zweck wird die Messung der absoluten Photolumineszenzeffizienz eingeführt, die erlaubt die Aufspaltung der Quasi-Fermi Level des Perowskiten zu quantifizieren (1.22eV). Ebenso ist es mit dieser Methode möglich Rekombinationsverluste an Grenzflächen zu lokalisieren, die die Leerlaufspannung auf 1.1V limitieren. Zur Vermeidung dieser Verluste werden erneut ultradünne Zwischenschichten an sowohl der p- als auch n- Grenzschicht eingebracht (PFN-P2 und LiF), die Leerlaufspannungen von bis zu 1.17V ermöglichen. Mithilfe eines optimierten Designs und einer Reduzierung der Bandlücke können Bauteile mit 20% Effizienz bei einer Größe von 1cm2 realisiert werden. Nebst hoher Effizienz ist die Stabilität der Bauteile unter einsatzrelevanten Umweltbedingungen ein wichtiger Faktor auf dem Weg zu einer Kommerzialisierung. Dies gilt insbesondere für Hitze, Beleuchtung, elektrische Ladung oder eine Kombination letzterer. Perowskitschichten -- insbesondere diejenigen, die organische Kationen beinhalten -- sind wohlbekannt dafür unter genannten Bedingungen zu degradieren. Das Konzept der ultradünnen Zwischenschichten wird daher um eine Familie fluornierter selbstorganisierender molekularer Monoschichten erweitert X-PFC_n, wobei X ein Halogen I/Br darstellt und n = 7-12 die Länge der fluorinerten Alkylkette angibt), die an der n-Grenzfläche zum Einsatz kommen. Diese Zwischenschicht reduziert Rekombinationsverluste resultierend in 21.3% effizienten Bauteilen und ermöglicht zusätzlich eine drastische erhöhte Stabilität. Bauteile mit dem Molekül IPFC10 sind über 3000h stabil unter Lagerungsbedingungen im Dunkeln und überstehen 250h unter voller Last bei 85°C ohne nennenswerte Verluste. Weitere Fortschritte in der Steigerung der Effizienz sind nur zu erwarten, wenn eine vollständige Beschreibung der Wirkprinzipien und Schwachstellen vorliegt. Eine Vielzahl experimenteller Studien haben bisher jedoch ein lückenhaftes Bild gemalt. Häufig sind physikalische Beschränkungen, etwa die hohe Kapazität aufgrund der sehr dünnen Schichten dafür verantwortlich, dass Rekombinationsdynamiken durch kapazitive Entladungsprozesse verdeckt werden. Um diese Probleme zu umgehen, werden hocheffiziente Solarzellen mit einer Kombination mehrerer optischer und optoelektronischer Messmethoden untersucht. Dies ermöglicht die Rekombinationsdynamik mit einer Superposition aus Rekombination erster, zweiter und dritter Ordnung der Ladungsträgerdichte vollumfänglich zu beschreiben. Drift-Diffusions Simulationen unterstützen die experimentellen Ergebnisse, selbst unter Einbeziehung mobiler Ionen. Weiterhin wird in einem Übersichtsartikel ein Ausblick auf den gegenwärtigen Stand des Wissens im Bezug auf Rekombinationsverluste in besagten Solarzellen gegeben. Unterschiedliche Messmethoden werden vorgestellt und erfolgreiche Methoden zur Minderung genannter Verluste diskutiert. Insgesamt stellt diese Arbeit einen Fortschritt im Verständnis und der Verminderung unterschiedlicher Verlustprozesse dar. Mithilfe unterschiedlicher verlässlicher optoelektronischer Messmethoden, wird gezeigt, dass der Ursprung von Rekombinations- und Stabilitätsverlusten häufig an den Grenzflächen liegt. Mithilfe gezielt eingesetzter ultradünner Zwischenschichten werden diese Verluste reduziert und die Stabilität erhöht. T2 - Identifizierung und Reduzierung von Verlusten in Perowskit Solarzellen KW - perovskite solar cells KW - interfacial recombination KW - nonradiative losses KW - Perowskit Solarzellen KW - Grenzflächenrekombination KW - nichtstrahlende Verluste Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-479301 ER - TY - THES A1 - Wolf, Mathias Johannes T1 - The role of partial melting on trace element and isotope systematics of granitic melts T1 - Die Bedeutung partieller Schmelzbildung für die Spurenelement- und Isotopensystematik granitischer Schmelzen N2 - Partial melting is a first order process for the chemical differentiation of the crust (Vielzeuf et al., 1990). Redistribution of chemical elements during melt generation crucially influences the composition of the lower and upper crust and provides a mechanism to concentrate and transport chemical elements that may also be of economic interest. Understanding of the diverse processes and their controlling factors is therefore not only of scientific interest but also of high economic importance to cover the demand for rare metals. The redistribution of major and trace elements during partial melting represents a central step for the understanding how granite-bound mineralization develops (Hedenquist and Lowenstern, 1994). The partial melt generation and mobilization of ore elements (e.g. Sn, W, Nb, Ta) into the melt depends on the composition of the sedimentary source and melting conditions. Distinct source rocks have different compositions reflecting their deposition and alteration histories. This specific chemical “memory” results in different mineral assemblages and melting reactions for different protolith compositions during prograde metamorphism (Brown and Fyfe, 1970; Thompson, 1982; Vielzeuf and Holloway, 1988). These factors do not only exert an important influence on the distribution of chemical elements during melt generation, they also influence the volume of melt that is produced, extraction of the melt from its source, and its ascent through the crust (Le Breton and Thompson, 1988). On a larger scale, protolith distribution and chemical alteration (weathering), prograde metamorphism with partial melting, melt extraction, and granite emplacement are ultimately depending on a (plate-)tectonic control (Romer and Kroner, 2016). Comprehension of the individual stages and their interaction is crucial in understanding how granite-related mineralization forms, thereby allowing estimation of the mineralization potential of certain areas. Partial melting also influences the isotope systematics of melt and restite. Radiogenic and stable isotopes of magmatic rocks are commonly used to trace back the source of intrusions or to quantify mixing of magmas from different sources with distinct isotopic signatures (DePaolo and Wasserburg, 1979; Lesher, 1990; Chappell, 1996). These applications are based on the fundamental requirement that the isotopic signature in the melt reflects that of the bulk source from which it is derived. Different minerals in a protolith may have isotopic compositions of radiogenic isotopes that deviate from their whole rock signature (Ayres and Harris, 1997; Knesel and Davidson, 2002). In particular, old minerals with a distinct parent-to-daughter (P/D) ratio are expected to have a specific radiogenic isotope signature. As the partial melting reaction only involves selective phases in a protolith, the isotopic signature of the melt reflects that of the minerals involved in the melting reaction and, therefore, should be different from the bulk source signature. Similar considerations hold true for stable isotopes. N2 - Partielle Schmelzbildung ist ein zentraler Prozess für die geochemische Differentiation der Erdkruste (Vielzeuf et al., 1990). Die Umverteilung chemischer Elemente während der Schmelzbildung beeinflusst die Zusammensetzung der oberen und unteren Erdkruste entscheidend und stellt einen Mechanismus zur Konzentration und zum Transport chemischer Elemente dar. Das Verständnis der diversen Prozesse und der kontrollierenden Faktoren ist deshalb nicht nur von wissenschaftlichem Interesse sondern auch von ökonomischer Bedeutung um die Nachfrage für seltene Metalle zu decken. Die Umverteilung von Haupt- und Spurenelementen während des partiellen Aufschmelzens ist ein entscheidender Schritt für das Verständnis wie sich granitgebundene Lagerstätten bilden (Hedenquist and Lowenstern, 1994). Die Schmelzbildung und die Mobilisierung von Erz-Elementen (z. B. Sn, W, Nb, Ta) in die Schmelze hängt von der Zusammensetzung der sedimentären Ausgangsgesteine und den Schmelzbedingungen ab. Verschiedene Ausgangsgesteine haben aufgrund ihrer Ablagerungs- und Verwitterungsgeschichte unterschiedliche Zusammensetzungen. Dieses spezifische geochemische „Gedächtnis“ resultiert in unterschiedlichen Mineralparagenesen und Schmelzreaktionen in verschiedenen Ausgangsgesteinen während der prograden Metamorphose. (Brown and Fyfe, 1970; Thompson, 1982; Vielzeuf and Holloway, 1988). Diese Faktoren haben nicht nur einen wichtigen Einfluss auf die Verteilung chemischer Elemente während der Schmelzbildung, sie beeinflussen auch das Volumen an Schmelze, die Extraktion der Schmelze aus dem Ausgangsgestein und deren Aufstieg durch die Erdkruste (Le Breton and Thompson, 1988). Auf einer grösseren Skala unterliegen die Verteilung der Ausgangsgesteine und deren chemische Alteration (Verwitterung), die prograde Metamorphose mit partieller Schmelzbildung, Schmelzextraktion und die Platznahme granitischer Intrusionen einer plattentektonischen Kontrolle. Das Verständnis der einzelnen Schritte und deren Wechselwirkungen ist entscheidend um zu verstehen wie granitgebunden Lagerstätten entstehen und erlaubt es, das Mineralisierungspotential bestimmter Gebiete abzuschätzen. Partielles Aufschmelzen beeinflusst auch die Isotopensystematik der Schmelze und des Restites. Die Zusammensetzungen radiogener und stabiler Isotopen von magmatischen Gesteinen werden im Allgemeinen dazu verwendet um deren Ursprungsgesteine zu identifizieren oder um Mischungsprozesses von Magmen unterschiedlichen Ursprunges zu quantifizieren (DePaolo and Wasserburg, 1979; Lesher, 1990; Chappell, 1996). Diese Anwendungen basieren auf der fundamentalen Annahme, dass die Isotopenzusammensetzung der Schmelze derjenigen des Ausgangsgesteines entspricht. Unterschiedliche Minerale in einem Gestein können unterschiedliche, vom Gesamtgestein abweichende, Isotopenzusammensetzungen haben (Ayres and Harris, 1997; Knesel and Davidson, 2002). Insbesondere für alte Minerale, mit einem unterschiedlichen Mutter-Tochter Nuklidverhältnis, ist eine spezifische Isotopenzusammensetzung zu erwarten. Da im partiellen Schmelzprozess nur bestimmte Minerale eines Gesteines involviert sind, entspricht die Isotopenzusammensetzung der Schmelze derjenigen der Minerale welche an der Schmelzreaktion teilnehmen. Daher sollte die Isotopenzusammensetzung der Schmelze von derjenigen des Ursprungsgesteines abweichen. Ähnliche Überlegungen treffen auch für stabile Isotopen zu. KW - geochemistry KW - trace elements KW - radiogenic isotopes KW - stable isotopes KW - resources KW - Sn Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423702 ER - TY - THES A1 - Wolf, Johannes T1 - Analysis and visualization of transport infrastructure based on large-scale geospatial mobile mapping data T1 - Analyse und Visualisierung von Verkehrsinfrastruktur basierend auf großen Mobile-Mapping-Datensätzen N2 - 3D point clouds are a universal and discrete digital representation of three-dimensional objects and environments. For geospatial applications, 3D point clouds have become a fundamental type of raw data acquired and generated using various methods and techniques. In particular, 3D point clouds serve as raw data for creating digital twins of the built environment. This thesis concentrates on the research and development of concepts, methods, and techniques for preprocessing, semantically enriching, analyzing, and visualizing 3D point clouds for applications around transport infrastructure. It introduces a collection of preprocessing techniques that aim to harmonize raw 3D point cloud data, such as point density reduction and scan profile detection. Metrics such as, e.g., local density, verticality, and planarity are calculated for later use. One of the key contributions tackles the problem of analyzing and deriving semantic information in 3D point clouds. Three different approaches are investigated: a geometric analysis, a machine learning approach operating on synthetically generated 2D images, and a machine learning approach operating on 3D point clouds without intermediate representation. In the first application case, 2D image classification is applied and evaluated for mobile mapping data focusing on road networks to derive road marking vector data. The second application case investigates how 3D point clouds can be merged with ground-penetrating radar data for a combined visualization and to automatically identify atypical areas in the data. For example, the approach detects pavement regions with developing potholes. The third application case explores the combination of a 3D environment based on 3D point clouds with panoramic imagery to improve visual representation and the detection of 3D objects such as traffic signs. The presented methods were implemented and tested based on software frameworks for 3D point clouds and 3D visualization. In particular, modules for metric computation, classification procedures, and visualization techniques were integrated into a modular pipeline-based C++ research framework for geospatial data processing, extended by Python machine learning scripts. All visualization and analysis techniques scale to large real-world datasets such as road networks of entire cities or railroad networks. The thesis shows that some use cases allow taking advantage of established image vision methods to analyze images rendered from mobile mapping data efficiently. The two presented semantic classification methods working directly on 3D point clouds are use case independent and show similar overall accuracy when compared to each other. While the geometry-based method requires less computation time, the machine learning-based method supports arbitrary semantic classes but requires training the network with ground truth data. Both methods can be used in combination to gradually build this ground truth with manual corrections via a respective annotation tool. This thesis contributes results for IT system engineering of applications, systems, and services that require spatial digital twins of transport infrastructure such as road networks and railroad networks based on 3D point clouds as raw data. It demonstrates the feasibility of fully automated data flows that map captured 3D point clouds to semantically classified models. This provides a key component for seamlessly integrated spatial digital twins in IT solutions that require up-to-date, object-based, and semantically enriched information about the built environment. N2 - 3D-Punktwolken sind eine universelle und diskrete digitale Darstellung von dreidimensionalen Objekten und Umgebungen. Für raumbezogene Anwendungen sind 3D-Punktwolken zu einer grundlegenden Form von Rohdaten geworden, die mit verschiedenen Methoden und Techniken erfasst und erzeugt werden. Insbesondere dienen 3D-Punktwolken als Rohdaten für die Erstellung digitaler Zwillinge der bebauten Umwelt. Diese Arbeit konzentriert sich auf die Erforschung und Entwicklung von Konzepten, Methoden und Techniken zur Vorverarbeitung, semantischen Anreicherung, Analyse und Visualisierung von 3D-Punktwolken für Anwendungen im Bereich der Verkehrsinfrastruktur. Es wird eine Sammlung von Vorverarbeitungstechniken vorgestellt, die auf die Harmonisierung von 3D-Punktwolken-Rohdaten abzielen, so z.B. die Reduzierung der Punktdichte und die Erkennung von Scanprofilen. Metriken wie bspw. die lokale Dichte, Vertikalität und Planarität werden zur späteren Verwendung berechnet. Einer der Hauptbeiträge befasst sich mit dem Problem der Analyse und Ableitung semantischer Informationen in 3D-Punktwolken. Es werden drei verschiedene Ansätze untersucht: Eine geometrische Analyse sowie zwei maschinelle Lernansätze, die auf synthetisch erzeugten 2D-Bildern, bzw. auf 3D-Punktwolken ohne Zwischenrepräsentation arbeiten. Im ersten Anwendungsfall wird die 2D-Bildklassifikation für Mobile-Mapping-Daten mit Fokus auf Straßennetze angewendet und evaluiert, um Vektordaten für Straßenmarkierungen abzuleiten. Im zweiten Anwendungsfall wird untersucht, wie 3D-Punktwolken mit Bodenradardaten für eine kombinierte Visualisierung und automatische Identifikation atypischer Bereiche in den Daten zusammengeführt werden können. Der Ansatz erkennt zum Beispiel Fahrbahnbereiche mit entstehenden Schlaglöchern. Der dritte Anwendungsfall untersucht die Kombination einer 3D-Umgebung auf Basis von 3D-Punktwolken mit Panoramabildern, um die visuelle Darstellung und die Erkennung von 3D-Objekten wie Verkehrszeichen zu verbessern. Die vorgestellten Methoden wurden auf Basis von Software-Frameworks für 3D-Punktwolken und 3D-Visualisierung implementiert und getestet. Insbesondere wurden Module für Metrikberechnungen, Klassifikationsverfahren und Visualisierungstechniken in ein modulares, pipelinebasiertes C++-Forschungsframework für die Geodatenverarbeitung integriert, das durch Python-Skripte für maschinelles Lernen erweitert wurde. Alle Visualisierungs- und Analysetechniken skalieren auf große reale Datensätze wie Straßennetze ganzer Städte oder Eisenbahnnetze. Die Arbeit zeigt, dass es in einigen Anwendungsfällen möglich ist, die Vorteile etablierter Bildverarbeitungsmethoden zu nutzen, um aus Mobile-Mapping-Daten gerenderte Bilder effizient zu analysieren. Die beiden vorgestellten semantischen Klassifikationsverfahren, die direkt auf 3D-Punktwolken arbeiten, sind anwendungsfallunabhängig und zeigen im Vergleich zueinander eine ähnliche Gesamtgenauigkeit. Während die geometriebasierte Methode weniger Rechenzeit benötigt, unterstützt die auf maschinellem Lernen basierende Methode beliebige semantische Klassen, erfordert aber das Trainieren des Netzwerks mit Ground-Truth-Daten. Beide Methoden können in Kombination verwendet werden, um diese Ground Truth mit manuellen Korrekturen über ein entsprechendes Annotationstool schrittweise aufzubauen. Diese Arbeit liefert Ergebnisse für das IT-System-Engineering von Anwendungen, Systemen und Diensten, die räumliche digitale Zwillinge von Verkehrsinfrastruktur wie Straßen- und Schienennetzen auf der Basis von 3D-Punktwolken als Rohdaten benötigen. Sie demonstriert die Machbarkeit von vollautomatisierten Datenflüssen, die erfasste 3D-Punktwolken auf semantisch klassifizierte Modelle abbilden. Dies stellt eine Schlüsselkomponente für nahtlos integrierte räumliche digitale Zwillinge in IT-Lösungen dar, die aktuelle, objektbasierte und semantisch angereicherte Informationen über die bebaute Umwelt benötigen. KW - 3D point cloud KW - geospatial data KW - mobile mapping KW - semantic classification KW - 3D visualization KW - 3D-Punktwolke KW - räumliche Geodaten KW - Mobile Mapping KW - semantische Klassifizierung KW - 3D-Visualisierung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536129 ER - TY - THES A1 - Wohlgemuth, Stephanie-Angelika T1 - Functional nanostructured hydrothermal carbons for sustainable technologies : heteroatom doping and superheated vapor T1 - Funktionelle, Nanostrukturierte Hydrothermal-Kohlenstoffe für Nachhaltige Technnologien: Heteroatom-Dotierung und Überkritischer Dampf N2 - The underlying motivation for the work carried out for this thesis was the growing need for more sustainable technologies. The aim was to synthesize a “palette” of functional nanomaterials using the established technique of hydrothermal carbonization (HTC). The incredible diversity of HTC was demonstrated together with small but steady advances in how HTC can be manipulated to tailor material properties for specific applications. Two main strategies were used to modify the materials obtained by HTC of glucose, a model precursor representing biomass. The first approach was the introduction of heteroatoms, or “doping” of the carbon framework. Sulfur was for the first time introduced as a dopant in hydrothermal carbon. The synthesis of sulfur and sulfur/nitrogen doped microspheres was presented whereby it was shown that the binding state of sulfur could be influenced by varying the type of sulfur source. Pyrolysis may additionally be used to tune the heteroatom binding states which move to more stable motifs with increasing pyrolysis temperature. Importantly, the presence of aromatic binding states in the as synthesized hydrothermal carbon allows for higher heteroatom retention levels after pyrolysis and hence more efficient use of dopant sources. In this regard, HTC may be considered as an “intermediate” step in the formation of conductive heteroatom doped carbon. To assess the novel hydrothermal carbons in terms of their potential for electrochemical applications, materials with defined nano-architectures and high surface areas were synthesized via templated, as well as template-free routes. Sulfur and/or nitrogen doped carbon hollow spheres (CHS) were synthesized using a polystyrene hard templating approach and doped carbon aerogels (CA) were synthesized using either the albumin directed or borax-mediated hydrothermal carbonization of glucose. Electrochemical testing showed that S/N dual doped CHS and aerogels derived via the albumin approach exhibited superior catalytic performance compared to solely nitrogen or sulfur doped counterparts in the oxygen reduction reaction (ORR) relevant to fuel cells. Using the borax mediated aerogel formation, nitrogen content and surface area could be tuned and a carbon aerogel was engineered to maximize electrochemical performance. The obtained sample exhibited drastically improved current densities compared to a platinum catalyst (but lower onset potential), as well as excellent long term stability. In the second approach HTC was carried out at elevated temperatures (550 °C) and pressure (50 bar), corresponding to the superheated vapor regime (htHTC). It was demonstrated that the carbon materials obtained via htHTC are distinct from those obtained via ltHTC and subsequent pyrolysis at 550 °C. No difference in htHTC-derived material properties could be observed between pentoses and hexoses. The material obtained from a polysaccharide exhibited a slightly lower degree of carbonization but was otherwise similar to the monosaccharide derived samples. It was shown that in addition to thermally induced carbonization at 550 °C, the SHV environment exhibits a catalytic effect on the carbonization process. The resulting materials are chemically inert (i.e. they contain a negligible amount of reactive functional groups) and possess low surface area and electronic conductivity which distinguishes them from carbon obtained from pyrolysis. Compared to the materials presented in the previous chapters on chemical modifications of hydrothermal carbon, this makes them ill-suited candidates for electronic applications like lithium ion batteries or electrocatalysts. However, htHTC derived materials could be interesting for applications that require chemical inertness but do not require specific electronic properties. The final section of this thesis therefore revisited the latex hard templating approach to synthesize carbon hollow spheres using htHTC. However, by using htHTC it was possible to carry out template removal in situ because the second heating step at 550 °C was above the polystyrene latex decomposition temperature. Preliminary tests showed that the CHS could be dispersed in an aqueous polystyrene latex without monomer penetrating into the hollow sphere voids. This leaves the stagnant air inside the CHS intact which in turn is promising for their application in heat and sound insulating coatings. Overall the work carried out in this thesis represents a noteworthy development in demonstrating the great potential of sustainable carbon materials. N2 - Das Ziel der vorgelegten Arbeit war es, mit Hilfe der Hydrothermalen Carbonisierung (HTC) eine Palette an verschiedenen Materialien herzustellen, deren physikalische und chemische Eigenschaften auf spezifische Anwendungen zugeschnitten werden können. Die Motivation hierfür stellt die Notwendigkeit, Alternativen zu Materialien zu finden, die auf fossilen Brennstoffen basieren. Dabei stellen vor allem nachhaltige Energien eine der größten Herausforderungen der Zukunft dar. HTC ist ein mildes, nachhaltiges Syntheseverfahren welches prinzipiell die Nutzung von biologischen Rohstoffen (z. B. landwirtschaftlichen Abfallprodukten) für die Herstellung von wertvollen, Kohlenstoff-basierten Materialien erlaubt. Es wurden zwei verschiedene Ansätze verwendet, um hydrothermalen Kohlenstoff zu modifizieren. Zum einen wurde HTC unter „normalen“ Bedingungen ausgeführt, d. h. bei 180 °C und einem Druck von etwa 10 bar. Der Zucker Glukose diente in allen Fällen als Kohlenstoff Vorläufer. Durch Zugabe von stickstoff und /oder schwefelhaltigen Additiven konnte dotierte Hydrothermalkohle hergestellt werden. Dotierte Kohlenstoffe sind bereits für ihre positiven Eigenschaften, wie verbesserte Leitfähigkeit oder erhöhte Stabilität, bekannt. Zusätzlich zu Stickstoff dotierter Hydrothermalkohle, die bereits von anderen Gruppen hergestellt werden konnte, wurde in dieser Arbeit zum ersten Mal Schwefel in Hydrothermalkohle eingebaut. Außerdem wurden verschiedene Ansätze verwendet, um Oberfläche und definierte Morphologie der dotierten Materialien zu erzeugen, welche wichtig für elektrochemische Anwendungen sind. Schwefel- und/oder stickstoffdotierte Kohlenstoff Nanohohlkugeln sowie Kohlenstoff Aerogele konnten hergestellt werden. Mit Hilfe von einem zusätzlichen Pyrolyseschritt (d. h. Erhitzen unter Schutzgas) konnte die Leitfähigkeit der Materialien hergestellt werden, die daraufhin als Nichtmetall-Katalysatoren für Wasserstoff-Brennstoffzellen getestet wurden. Im zweiten Ansatz wurde HTC unter extremen Bedingungen ausgeführt, d. h. bei 550 °C und einem Druck von ca. 50 bar, welches im Wasser Phasendiagram dem Bereich des Heißdampfes entspricht. Es konnte gezeigt werden, dass die so erhaltene Hydrothermalkohle ungewöhnliche Eigenschaften besitzt. So hat die Hochtemperatur-Hydrothermalkohle zwar einen hohen Kohlenstoffgehalt (mehr als 90 Massenprozent), enthält aber auch viele Wasserstoffatome und ist dadurch schlecht leitfähig. Da damit elektrochemische Anwendungen so gut wie ausgeschlossen sind, wurde die Hochtemperatur-Hydrothermalkohle für Anwendungen vorgesehen, welche chemische Stabilität aber keine Leitfähigkeit voraussetzen. So wurden beispielsweise Hochtemperatur-Kohlenstoff-Nanohohlkugeln synthetisiert, die großes Potential als schall- und wärmeisolierende Additive für Beschichtungen darstellen. Insgesamt konnten erfolgreich verschiedenste Materialien mit Hilfe von HTC hergestellt werden. Es ist zu erwarten, dass sie in Zukunft zu nachhaltigen Technologien und damit zu einem weiteren Schritt weg von fossilen Brennstoffen beitragen werden. KW - Hydrothermale Karbonisierung KW - Heteroatom-Dotierung KW - Aerogele KW - Hohlkugeln KW - Elektrokatalyse KW - Hydrothermal Carbonization KW - Heteroatom Doping KW - Aerogels KW - Hollow Spheres KW - Electrocatalysis Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60120 ER - TY - THES A1 - Wittenberg, Eva T1 - With Light Verb Constructions from Syntax to Concepts T1 - Mit Funktionsverbgefügen von der Syntax zur konzeptuellen Struktur N2 - This dissertation uses a common grammatical phenomenon, light verb constructions (LVCs) in English and German, to investigate how syntax-semantics mapping defaults influence the relationships between language processing, representation and conceptualization. LVCs are analyzed as a phenomenon of mismatch in the argument structure. The processing implication of this mismatch are experimentally investigated, using ERPs and a dual task. Data from these experiments point to an increase in working memory. Representational questions are investigated using structural priming. Data from this study suggest that while the syntax of LVCs is not different from other structures’, the semantics and mapping are represented differently. This hypothesis is tested with a new categorization paradigm, which reveals that the conceptual structure that LVC evoke differ in interesting, and predictable, ways from non-mismatching structures’. N2 - Diese Dissertation untersucht mittels psycho- und neurolinguistischer Experimente, wie deutsche und englische Funktionsverbgefüge (’light verb constructions’) mental repräsentiert und verarbeitet werden. Funktionsverbgefüge sind Konstruktionen wie einen Kuss geben, in denen die Semantik überwiegend durch die Nominalisierung Kuss geliefert wird, während das Funktionsverb geben lediglich den syntaktischen Rahmen und grammatische Marker, aber nur wenige Bedeutungsaspekte beiträgt. T3 - Potsdam Cognitive Science Series - 7 KW - light verb constructions KW - syntax KW - semantics KW - event-related potential KW - priming KW - Syntax KW - Semantik KW - Sprachverarbeitung KW - Funktionsverbgefüge KW - Priming Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82361 SN - 978-3-86956-329-9 SN - 2190-4545 SN - 2190-4553 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wittenbecher, Clemens T1 - Linking whole-grain bread, coffee, and red meat to the risk of type 2 diabetes T1 - Der Einfluss von Vollkornbrot, Kaffee, und rotem Fleisch auf das Typ 2 Diabetesrisiko BT - using metabolomics networks to infer potential biological mechanisms BT - Verwendung von Metabolomics-Netzwerken, um auf biologische Mechanismen zu schließen N2 - Background: Consumption of whole-grain, coffee, and red meat were consistently related to the risk of developing type 2 diabetes in prospective cohort studies, but potentially underlying biological mechanisms are not well understood. Metabolomics profiles were shown to be sensitive to these dietary exposures, and at the same time to be informative with respect to the risk of type 2 diabetes. Moreover, graphical network-models were demonstrated to reflect the biological processes underlying high-dimensional metabolomics profiles. Aim: The aim of this study was to infer hypotheses on the biological mechanisms that link consumption of whole-grain bread, coffee, and red meat, respectively, to the risk of developing type 2 diabetes. More specifically, it was aimed to consider network models of amino acid and lipid profiles as potential mediators of these risk-relations. Study population: Analyses were conducted in the prospective EPIC-Potsdam cohort (n = 27,548), applying a nested case-cohort design (n = 2731, including 692 incident diabetes cases). Habitual diet was assessed with validated semiquantitative food-frequency questionnaires. Concentrations of 126 metabolites (acylcarnitines, phosphatidylcholines, sphingomyelins, amino acids) were determined in baseline-serum samples. Incident type 2 diabetes cases were assed and validated in an active follow-up procedure. The median follow-up time was 6.6 years. Analytical design: The methodological approach was conceptually based on counterfactual causal inference theory. Observations on the network-encoded conditional independence structure restricted the space of possible causal explanations of observed metabolomics-data patterns. Given basic directionality assumptions (diet affects metabolism; metabolism affects future diabetes incidence), adjustment for a subset of direct neighbours was sufficient to consistently estimate network-independent direct effects. Further model-specification, however, was limited due to missing directionality information on the links between metabolites. Therefore, a multi-model approach was applied to infer the bounds of possible direct effects. All metabolite-exposure links and metabolite-outcome links, respectively, were classified into one of three categories: direct effect, ambiguous (some models indicated an effect others not), and no-effect. Cross-sectional and longitudinal relations were evaluated in multivariable-adjusted linear regression and Cox proportional hazard regression models, respectively. Models were comprehensively adjusted for age, sex, body mass index, prevalence of hypertension, dietary and lifestyle factors, and medication. Results: Consumption of whole-grain bread was related to lower levels of several lipid metabolites with saturated and monounsaturated fatty acids. Coffee was related to lower aromatic and branched-chain amino acids, and had potential effects on the fatty acid profile within lipid classes. Red meat was linked to lower glycine levels and was related to higher circulating concentrations of branched-chain amino acids. In addition, potential marked effects of red meat consumption on the fatty acid composition within the investigated lipid classes were identified. Moreover, potential beneficial and adverse direct effects of metabolites on type 2 diabetes risk were detected. Aromatic amino acids and lipid metabolites with even-chain saturated (C14-C18) and with specific polyunsaturated fatty acids had adverse effects on type 2 diabetes risk. Glycine, glutamine, and lipid metabolites with monounsaturated fatty acids and with other species of polyunsaturated fatty acids were classified as having direct beneficial effects on type 2 diabetes risk. Potential mediators of the diet-diabetes links were identified by graphically overlaying this information in network models. Mediation analyses revealed that effects on lipid metabolites could potentially explain about one fourth of the whole-grain bread effect on type 2 diabetes risk; and that effects of coffee and red meat consumption on amino acid and lipid profiles could potentially explain about two thirds of the altered type 2 diabetes risk linked to these dietary exposures. Conclusion: An algorithm was developed that is capable to integrate single external variables (continuous exposures, survival time) and high-dimensional metabolomics-data in a joint graphical model. Application to the EPIC-Potsdam cohort study revealed that the observed conditional independence patterns were consistent with the a priori mediation hypothesis: Early effects on lipid and amino acid metabolism had the potential to explain large parts of the link between three of the most widely discussed diabetes-related dietary exposures and the risk of developing type 2 diabetes. N2 - Hintergrund: Evidenz aus prospektiven Kohortenstudien belegt, dass der gewohnheitsmäßige Verzehr von Vollkorn, Kaffee und rotem Fleisch mit dem Risiko an Typ 2 Diabetes zu erkranken assoziiert ist. Dieser Risikobeziehung eventuell zugrunde liegende Mechanismen sind allerdings noch weitgehend unklar. Des Weiteren wurde gezeigt, dass Metabolitenprofile im Blut durch die oben genannten Ernährungs-expositionen beeinflusst werden und außerdem in Zusammenhang mit dem Typ 2 Diabetesrisiko stehen. Zusätzlich wurde beschrieben, dass grafische Netzwerkmodelle von Metabolitenprofilen die zugrunde liegenden Stoffwechselprozesse gut abbilden. Zielstellung: Das Ziel dieser Arbeit war es, Hypothesen bezüglich biologischer Mechanismen zu generieren, die die Assoziationen des Vollkornverzehrs, des Kaffeekonsums und des Fleischverzehrs mit dem Typ 2 Diabetesrisiko erklären könnten. Im speziellen sollten Aminosäure- und Lipidprofile als mögliche Mediatoren des Risikozusammenhangs untersucht werden. Studienpopulation: Analysen wurden auf Grundlage von Daten aus der prospektiven EPIC-Potsdam Kohortenstudie (n=27,548) durchgeführt, wobei ein Fall-Kohorten-Design verwendet wurde (n=2317, darunter 692 inzidente Typ 2 Diabetesfälle). Ernährungsgewohnheiten wurden mit einem validierten, semiquantitativen Verzehrshäufigkeitsfragebogen erfasst. Die Konzentrationen von 126 Metaboliten (Aminosäuren, Acylcarnitine, Sphingomyeline und Phosphatidylcholine) wurden zur Basiserhebung genommen Blutproben gemessen. Inzidente Typ 2 Diabetesfälle wurden im Rahmen einer aktiven Folgeerhebung detektiert und verifiziert. Die mediane Dauer des berücksichtigten prospektiven Erhebungszeitraums lag für diese Studie bei 6,6 Jahren. Aufbau der Analysen: Die theoretische Grundlage für den methodischen Ansatz dieser Arbeit bildete die kontrafaktische Theorie der Kausalinferenz. Die in Netzwerken kodierte konditionale Unabhängigkeitsstruktur wurde genutzt, um den Raum möglicher Modelle zu begrenzen, die die beobachteten Zusammenhänge zwischen den Metaboliten erklären könnten. Unter Annahme weniger grundlegender Effektrichtungen (von der Ernährung auf die Netzwerke gerichtete Effekte; von den Netzwerken auf das Diabetesrisiko gerichtete Effekte) genügt die Adjustierung für eine Teilmenge der direkten Nachbarn im Netzwerk, um netzwerkunabhängige direkte Effekte konsistent zu schätzen. Eine weitere Spezifizierung der Modelle war allerdings aufgrund fehlender Richtungsinformationen zu den Metaboliten-abhängigkeiten nicht möglich. Deshalb wurde ein Multi-Modellierungsansatz gewählt, um die Grenzen möglicher Effekte zu schlussfolgern. Alle möglichen Ernährungs-Metaboliten-Beziehungen und Metaboliten-Typ 2 Diabetesrisiko-Beziehungen wurden dadurch in eine der folgenden drei Kategorien klassifiziert: Direkter Effekt, Unklar, Kein Effekt. Querschnittsbeziehungen wurden in multivariabel adjustierten linearen Regressionsmodellen untersucht. Longitudinale Zusammenhänge wurden mit Cox-Regressionsmodellen geschätzt. Alle Modelle wurden für Alter, Geschlecht, Body-Mass-Index, prävalente Hypertonie, Ernährungs- und Lebensstilfaktoren und die Einnahme von Medikamenten adjustiert. Ergebnisse: Der Verzehr von Vollkornbrot stand im Zusammenhang mit niedrigeren Konzentrationen gesättigter und einfach ungesättigter Fettsäuren. Kaffee stand in Beziehung zu niedrigeren Konzentrationen verzweigtkettiger und aromatischer Aminosäuren und hatte potentielle Effekte auf das Fettsäureprofil in den Lipidmetaboliten. Rotes Fleisch zeigte einen Zusammenhang mit niedrigeren Glyzinspiegeln und mit höheren Konzentrationen verzweigtkettiger Aminosäuren. Außerdem stand das Fettsäureprofil in den verschieden Gruppen von Lipidmetaboliten in Zusammenhang mit dem Fleischverzehr. Des Weiteren wurden potentielle Effekte der Metabolite auf das Typ 2 Diabetesrisiko gefunden. Aromatische Aminosäuren und Lipidmetabolite mit geradzahligen, gesättigten (C14-C16) und mit spezifischen mehrfach ungesättigten Fettsäureseitenketten standen mit einem erhöhten Typ 2 Diabetesrisiko in Beziehung. Glyzin, Glutamin und Lipidmetabolite mit einfach ungesättigten und anderen mehrfach ungesättigten Fettsäureseitenketten zeigten einen günstigen Zusammenhang mit dem Diabetesrisiko. Mögliche Mediatoren der Beziehung der Ernährungsexpositionen wurden identifiziert, indem diese Informationen in gemeinsamen grafischen Modellen integriert wurden. Mediationsanalysen zeigten, dass die möglichen Effekte von Vollkornverzehr auf die Lipidmetabolite ungefähr ein Viertel des günstigen Einflusses von Vollkornverzehr auf das Diabetesrisikos erklären könnten. Die möglichen Effekte von Kaffeekonsum und von Fleischverzehr auf Aminosäuren und Lipidmetabolite könnten jeweils ungefähr zwei Drittel der Zusammenhänge mit dem Diabetesrisiko erklären. Schlussfolgerung: Grundlage für die Ergebnisse dieser Arbeit war die Entwicklung eines Algorithmus, der externe Faktoren (kontinuierlich Expositionsvariablen, Ereigniszeit-Daten) und hochdimensionale Metabolitenprofile in einem gemeinsamen grafischen Modell integriert. Die Anwendung dieses Algorithmus auf Daten aus der EPIC-Potsdam Kohortenstudie hat gezeigt, dass die beobachteten konditionalen Unabhängigkeitsstrukturen mit der a priori Mediationshypothese konsistent waren. Der frühe Einfluss auf den Aminosäure- und Lipidstoffwechsel könnte die beobachteten Zusammenhänge zwischen drei wichtigen Ernährungsfaktoren und dem Risiko an Typ 2 Diabetes zu erkranken zu großen Teilen erklären. KW - type 2 diabetes KW - nutrition KW - lipid metabolism KW - metabolomics KW - epidemiology KW - networks KW - graphical models KW - mediation analysis KW - red meat KW - whole-grain KW - Diabetes mellitus Typ 2 KW - Ernährung KW - Fettstoffwechsel KW - Metabolomics KW - Epidemiologie KW - Netzwerke KW - grafische Modelle KW - Mediationsanalyse KW - rotes Fleisch KW - Vollkorn KW - Kaffee KW - coffee Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404592 ER - TY - THES A1 - Wittek, Laura T1 - Comparison of metabolic cages - analysis of refinement measures on the welfare and metabolic parameters of laboratory mice T1 - Der Vergleich von Stoffwechselkäfigen - Analyse von Refinement-Maßnahmen auf das Wohlbefinden und Stoffwechselparameter von Labormäusen N2 - Housing in metabolic cages can induce a pronounced stress response. Metabolic cage systems imply housing mice on metal wire mesh for the collection of urine and feces in addition to monitoring food and water intake. Moreover, mice are single-housed, and no nesting, bedding, or enrichment material is provided, which is often argued to have a not negligible impact on animal welfare due to cold stress. We therefore attempted to reduce stress during metabolic cage housing for mice by comparing an innovative metabolic cage (IMC) with a commercially available metabolic cage from Tecniplast GmbH (TMC) and a control cage. Substantial refinement measures were incorporated into the IMC cage design. In the frame of a multifactorial approach for severity assessment, parameters such as body weight, body composition, food intake, cage and body surface temperature (thermal imaging), mRNA expression of uncoupling protein 1 (Ucp1) in brown adipose tissue (BAT), fur score, and fecal corticosterone metabolites (CMs) were included. Female and male C57BL/6J mice were single-housed for 24 h in either conventional Macrolon cages (control), IMC, or TMC for two sessions. Body weight decreased less in the IMC (females—1st restraint: 6.94%; 2nd restraint: 6.89%; males—1st restraint: 8.08%; 2nd restraint: 5.82%) compared to the TMC (females—1st restraint: 13.2%; 2nd restraint: 15.0%; males—1st restraint: 13.1%; 2nd restraint: 14.9%) and the IMC possessed a higher cage temperature (females—1st restraint: 23.7°C; 2nd restraint: 23.5 °C; males—1st restraint: 23.3 °C; 2nd restraint: 23.5 °C) compared with the TMC (females—1st restraint: 22.4 °C; 2nd restraint: 22.5 °C; males—1st restraint: 22.6 °C; 2nd restraint: 22.4 °C). The concentration of fecal corticosterone metabolites in the TMC (females—1st restraint: 1376 ng/g dry weight (DW); 2nd restraint: 2098 ng/g DW; males—1st restraint: 1030 ng/g DW; 2nd restraint: 1163 ng/g DW) was higher compared to control cage housing (females—1st restraint: 640 ng/g DW; 2nd restraint: 941 ng/g DW; males—1st restraint: 504 ng/g DW; 2nd restraint: 537 ng/g DW). Our results show the stress potential induced by metabolic cage restraint that is markedly influenced by the lower housing temperature. The IMC represents a first attempt to target cold stress reduction during metabolic cage application thereby producing more animal welfare friendly data. N2 - Die Unterbringung in Stoffwechselkäfigen kann eine ausgeprägte Stressreaktion hervorrufen. Mäuse werden in Stoffwechselkäfigen auf Metallgittern gehalten, um zusätzlich zur Überwachung der Futter- und Wasseraufnahme Urin und Kot aufzufangen. Darüber hinaus werden die Mäuse einzeln gehalten und es wird kein Nist-, Einstreu- oder Anreicherungs-Material zur Verfügung gestellt, was oft als Ursache für Kältestress angeführt wird, welcher sich auf das Wohlergehen der Tiere auswirkt. Wir haben daher versucht, den Stress bei der Haltung von Mäusen in Stoffwechselkäfigen zu reduzieren, indem wir einen innovativen Stoffwechselkäfig (IMC) mit einem kommerziell erhältlichen Stoffwechselkäfig der Tecniplast GmbH (TMC) und einem Kontrollkäfig verglichen haben. Für das Käfigdesign des IMC wurden wesentliche Refinement-Maßnahmen realisiert. Im Rahmen einer multifaktoriellen Beurteilung des Schweregrades wurden Parameter wie Körpergewicht, Körperzusammensetzung, Nahrungsaufnahme, Käfig- und Körperoberflächentemperatur (Wärmebildaufnahmen), mRNA-Expression von Uncoupling Protein 1 (Ucp1) im braunen Fettgewebe (BAT), Fur Score und fäkale Corticosteron-Metabolite (CMs) einbezogen. Weibliche und männliche C57BL/6J-Mäuse wurden für jeweils 24 Stunden entweder in konventionellen Macrolon-Käfigen (Kontrolle), IMC oder TMC zweimal untergebracht. Das Körpergewicht nahm in dem IMC weniger ab (Weibchen - 1. Haltung: -6,94%; 2. Haltung: -6,89%; Männchen - 1. Haltung: -8,08%; 2. Haltung: -5,82%) als in dem TMC (Weibchen - 1. Haltung: -13,2%; 2. Haltung: -15,0%; Männchen - 1. Haltung: -13,1%; 2. Haltung: -14,9%) und der IMC wies eine höhere Käfigtemperatur (Weibchen - 1. Haltung: 23,7 °C; 2. Haltung 23,5 °C; Männchen - 1. Haltung: 23,3 °C; 2. Haltung: 23,5 °C) im Vergleich zum TMC auf (Weibchen - 1. Haltung: 22,4 °C; 2. Haltung: 22,5 °C; Männchen - 1. Haltung: 22,6 °C; 2. Haltung: 22,4 °C). Die Konzentration der fäkalen Corticosteron-Metabolite im TMC (Weibchen - 1. Haltung: 1376 ng/g Trockengewicht (DW); 2. Haltung: 2098 ng/g DW; Männchen – 1. Haltung: 1030 ng/g DW; 2. Haltung: 1163 ng/g DW) war im Vergleich zur Kontrollkäfighaltung höher (Weibchen - 1. Haltung: 640 ng/g DW; 2. Haltung: 941 ng/g DW; Männchen - 1. Haltung: 504 ng/g DW; 2. Haltung: 537 ng/g DW). Unsere Ergebnisse zeigen das Stresspotenzial, welches durch die Haltung in Stoffwechselkäfigen ausgelöst wird, und dass durch die niedrigere Haltungstemperatur deutlich beeinflusst wird. Der IMC stellt einen ersten Versuch dar, den Kältestress während der Anwendung des Stoffwechselkäfigs zu reduzieren und dadurch tierschutzgerechtere Daten zu produzieren. KW - metabolic cage KW - laboratory mice KW - refinement KW - animal welfare KW - Tierschutz KW - Labormäuse KW - Stoffwechselkäfig KW - Refinement Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-611208 ER - TY - THES A1 - Wittbrodt, Linda T1 - Minimum wage effects in Germany and Europe – four essays N2 - Am 1. Januar 2015 wurde in Deutschland ein allgemeiner gesetzlicher Mindestlohn in Höhe von 8,50 € brutto pro Stunde eingeführt. Diese Dissertation widmet sich den Auswirkungen der Mindestlohneinführung in Deutschland sowie Lohnuntergrenzen im Europäischen Kontext und trägt damit zur nationalen und internationalen Forschung bei. Das zweite Kapitel dieser Arbeit fasst die in bisherigen Studien herausgearbeiteten kurzfristigen Effekte der Mindestlohnreform in einem Überblick zusammen. Es zeigt sich, dass die Mindestlohneinführung einen deutlich positiven Effekt auf die Löhne am unteren Ende der Verteilung hatte. Allerdings wies kurz nach der Reform noch ein nicht unerheblicher Anteil der Beschäftigungsverhältnisse Löhne unter 8,50 € auf. Weiterhin deutet die Evidenz auf geringe negative Beschäftigungseffekte hin, welche durch eine Reduktion von Minijobs getrieben ist. Entgegen der Erwartungen konnten jedoch in der kurzen Frist keine Effekte auf Armut und allgemeine Ungleichheit gefunden werden. Dies hängt insbesondere mit der Tatsache zusammen, dass Arbeitsstunden reduziert wurden und sich die Stundenlohnerhöhung daher nicht auf die Monatslöhne niederschlug. Das dritte Kapitel geht der Frage nach, ob die im Vorfeld prognostizierten Arbeitsplatzverluste im Zuge der Reform kurzfristig eingetreten sind und welche Art der Beschäftigung davon gegebenenfalls stärker betroffen war. Zur empirischen Identifikation der Effekte wird in diesem (sowie im vierten Kapitel) ein regionaler Differenzen-von-Differenzen-Ansatz verwendet, mit dem die Auswirkungen auf reguläre Beschäftigung (Teil- und Vollzeit) sowie Minijobs geschätzt werden. Unsere Ergebnisse deuten darauf hin, dass der Mindestlohn die Gesamtbeschäftigung leicht reduziert hat, was im Wesentlichen auf einen Rückgang von Minijobs zurückzuführen ist. Das vierte Kapitel schließt methodisch an das vorige an. Seine Motivation ergibt sich aus der Beobachtung, dass Frauen unter den Niedriglohnempfänger:innen häufig überrepräsentiert sind. Die primäre Forschungsfrage in diesem Kapitel ist daher, ob der Mindestlohn zu einer Verringerung der geschlechterspezifischen Lohnlücke geführt hat. Dazu identifizieren wir die Effekte auf die Lohnlücke am 10. und 25. Perzentil sowie beim Mittelwert der zugrundeliegenden geschlechtsspezifischen Lohnverteilungen. Unsere Ergebnisse zeigen, dass – verglichen mit Regionen mit niedriger Eingriffstiefe – die geschlechtsspezifische Lohnlücke am 10. Perzentil für mindestlohnberechtigte Beschäftigte in Regionen mit hoher Eingriffstiefe um 4,6 Prozentpunkte gesunken ist. Wir schätzen, dass dies eine Reduktion um 32\% im Vergleich zu 2014 bedeutet. Am 25. Perzentil und am Mittelwert sind die Auswirkungen geringer und nicht gleichermaßen robust. Das fünfte Kapitel behält den geschlechterspezifischen Fokus auf die Mindestlohneffekte bei. Im Vergleich zum Rest der Dissertation weitet es jedoch den Blick auf andere Länder der Europäischen Union. Gemäß der für das vorangegangene Kapitel dargelegten Überlegungen, könnten Frauen potenziell besonders von einem Mindestlohn profitieren. Dies könnte jedoch auch bedeuten, dass sie dadurch auch öfter von Arbeitsplatzverlusten oder Arbeitszeitverkürzungen betroffen sind. Dieses Kapitel resümiert daher einerseits vorhandene Evidenz aus EU-Staaten, die sich auf den Zusammenhang zwischen Lohnuntergrenzen und der geschlechtsspezifischen Lohnlücke bezieht. Darüber hinaus enthält es eine systematische Zusammenfassung von Studien, die den Einfluss von Mindestlöhnen auf Beschäftigungsverluste oder Arbeitszeitveränderungen untersuchen, von denen insbesondere Frauen betroffen sind. Es zeigen sich Hinweise, dass höhere Lohnuntergrenzen mit einer geringeren geschlechtsspezifischen Lohnlücke verbunden sind. Hinsichtlich der Beschäftigung scheinen Frauen nicht per se größere Beschäftigungsverluste zu erleiden als Männer. Allerdings zeigen Studien, dass sich der Mindestlohn hier besonders auf Teilzeitbeschäftigte auswirkt. Es ist daher nicht auszuschließen, dass der negative Zusammenhang zwischen dem Mindestlohn und dem geschlechtsspezifischen Lohngefälle mit den Arbeitsplatzverlusten dieser schlechter bezahlten, oft weiblichen Teilzeitbeschäftigten zusammenhängt. Diese spezifische Form der Arbeit sollte daher im Zusammenhang mit dem Mindestlohn besondere Beachtung finden. N2 - On January 1, 2015, Germany introduced a general statutory minimum wage of €8.50 gross per hour. This thesis analyses the effects of the minimum wage introduction in Germany as well as wage floors in the European context, contributing to national and international research. The second chapter of this dissertation summarizes the short-run effects of the minimum wage reform found in previous studies. We show that the introduction of the minimum wage had a positive effect on wages at the bottom of the distribution. Yet, there was still a significant amount of non-compliance shortly after the reform. Additionally, previous evidence points to small negative employment effects mainly driven by a reduction in mini-jobs. Contrary to expectations, though, there were no effects on poverty and general inequality found in the short run. This is mostly due to the fact that working hours were reduced and the increase of hourly wages was therefore not reflected in monthly wages. The third chapter identifies whether the job losses predicted in ex-ante studies materialized in the short run and, if so, which type of employment was affected the most. To identify the effects, this chapter (as well as chapter four) uses a regional difference-in-difference approach to estimate the effects on regular employment (part- and full-time) and mini-jobs. Our results suggest that the minimum wage has slightly reduced overall employment, mainly due to a decline in mini-jobs. The fourth chapter has the same methodological approach as the previous one. Its motivated by the fact that women are often overrepresented among low-wage employees. Thus, the primary research question in this chapter is whether the minimum wage has led to a narrowing of the gender wage gap. In order to answer that, we identify the effects on the wage gap at the 10th and 25th percentiles and at the mean of the underlying gender-specific wage distributions. Our results imply that for eligible employees the gender wage gap at the 10th percentile decreased by 4.6 percentage points between 2014 and 2018 in high-bite regions compared to low-bite regions. We estimate this to be a reduction of 32% compared to 2014. Higher up the distribution – i.e. at the 25th percentile and the mean – the effects are smaller and not as robust. The fifth chapter keeps the gender-specific emphasis on minimum wage effects. However, in contrast to the rest of the dissertation, it widens the scope to other European Union countries. Following the rationale of the previous chapter, women could potentially benefit particularly from a minimum wage. However, they could also be more prone to suffer from the possibly induced job losses or reductions in working hours. Therefore, this chapter summarizes existing evidence from EU member states dealing with the relationship between wage floors and the gender wage gap. In addition, it provides a systematic summary of studies that examine the impact of minimum wages on employment losses or changes in working hours that particularly affect women. The evidence shows that higher wage floors are often associated with smaller gender wage gaps. With respect to employment, women do not appear to experience greater employment losses than men per se. However, studies show that the minimum wage has a particular impact on part-time workers. Therefore, it cannot be ruled out that the negative correlation between the minimum wage and the gender wage gap is related to the job losses of these lower-paid, often female, part-time workers. This working arrangement should therefore be specially focused on in the context of minimum wages. KW - minimum wage KW - employment effects KW - gender wage gap KW - Beschäftigungseffekte KW - Mindestlohn KW - geschlechtsspezifische Lohnlücke Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-556977 ER - TY - THES A1 - Witt, Tanja Ivonne T1 - Camera Monitoring at volcanoes T1 - Kameramonitoring an Vulkanen BT - Identification and characterization of lava fountain activity and near-vent processes and their relevance for early warning systems BT - Identifikation und Charakterizierung der Aktivität von Lavafontänen und Near-Vent Prozesse und deren Relevanz für Frühwarnsysteme N2 - Basaltic fissure eruptions, such as on Hawai'i or on Iceland, are thought to be driven by the lateral propagation of feeder dikes and graben subsidence. Associated solid earth processes, such as deformation and structural development, are well studied by means of geophysical and geodetic technologies. The eruptions themselves, lava fountaining and venting dynamics, in turn, have been much less investigated due to hazardous access, local dimension, fast processes, and resulting poor data availability. This thesis provides a detailed quantitative understanding of the shape and dynamics of lava fountains and the morphological changes at their respective eruption sites. For this purpose, I apply image processing techniques, including drones and fixed installed cameras, to the sequence of frames of video records from two well-known fissure eruptions in Hawai'i and Iceland. This way I extract the dimensions of multiple lava fountains, visible in all frames. By putting these results together and considering the acquisition times of the frames I quantify the variations in height, width and eruption velocity of the lava fountains. Then I analyse these time-series in both time and frequency domains and investigate the similarities and correlations between adjacent lava fountains. Following this procedure, I am able to link the dynamics of the individual lava fountains to physical parameters of the magma transport in the feeder dyke of the fountains. The first case study in this thesis focuses on the March 2011 Pu'u'O'o eruption, Hawai'i, where a continuous pulsating behaviour at all eight lava fountains has been observed. The lava fountains, even those from different parts of the fissure that are closely connected, show a similar frequency content and eruption behaviour. The regular pattern in the heights of lava fountain suggests a controlling process within the magma feeder system like a hydraulic connection in the underlying dyke, affecting or even controlling the pulsating behaviour. The second case study addresses the 2014-2015 Holuhraun fissure eruption, Iceland. In this case, the feeder dyke is highlighted by the surface expressions of graben-like structures and fault systems. At the eruption site, the activity decreases from a continuous line of fire of ~60 vents to a limited number of lava fountains. This can be explained by preferred upwards magma movements through vertical structures of the pre-eruptive morphology. Seismic tremors during the eruption reveal vent opening at the surface and/or pressure changes in the feeder dyke. The evolving topography of the cinder cones during the eruption interacts with the lava fountain behaviour. Local variations in the lava fountain height and width are controlled by the conduit diameter, the depth of the lava pond and the shape of the crater. Modelling of the fountain heights shows that long-term eruption behaviour is controlled mainly by pressure changes in the feeder dyke. This research consists of six chapters with four papers, including two first author and two co-author papers. It establishes a new method to analyse lava fountain dynamics by video monitoring. The comparison with the seismicity, geomorphologic and structural expressions of fissure eruptions shows a complex relationship between focussed flow through dykes, the morphology of the cinder cones, and the lava fountain dynamics at the vents of a fissure eruption. N2 - Basaltische Spalteneruptionen, wie auf Hawaii oder Island, werden vermutlich durch die laterale Ausbreitung von Förderdikes und damit verbundener Grabenbildung verursacht. Prozesse der festen Erde sind mittels geophysikalischer und geodätischer Technologien gut erforscht. Die Ausbrüche selbst, d.h. die Lavafontä}nen und die Ventdynamik wiederum wurden aufgrund des gefährlichen Zugangs, der lokalen Dimension, der schnellen Prozesse und der daraus resultierenden schlechten Datenverfügbarkeit kaum untersucht. Diese Arbeit liefert ein detailliertes quantitatives Verständnis über Form und Dynamik von Lavafontänen und der morphologischen Veränderungen an ihren jeweiligen Eruptionsstellen. Mittels Bildverarbeitungstechniken, einschließlich Dronen und festen Kameras, wurden von mir die Videoframes von zwei bekannten Spaltausbrüchen auf Hawaii und Island ausgewertet. Auf diese Weise extrahiere ich die Dimensionen mehrerer Lavafontänen, die in allen Frames sichtbar sind. Durch die Zusammenstellung dieser Ergebnisse und unter Berücksichtigung der Erfassungszeiten quantifiziere ich die Schwankungen in Höhe, Breite und Eruptionsgeschwindigkeit. Dann analysiere ich diese Zeitreihen im Zeit- und Frequenzbereich und untersuche die Ähnlichkeiten und Zusammenhänge zwischen benachbarten Lavafontänen. Anschließend verknüpfte ich die Dynamik der einzelnen Lavafontänen mit den physikalischen Parametern des Magmatransports im Förderdike. Die erste Fallstudie dieser Arbeit konzentriert sich auf die Pu'u'O'o Ausbruch, Hawaii im März 2011, bei der ein kontinuierliches pulsierendes Verhalten an allen Lavafontänen beobachtet werden konnte. Lavafontänen verschiedener Teilsegmenten der Spalte sind eng miteinander verbunden, sie weisen Ähnlichkeiten im Frequenzgehalt und Ausbruchsverhalten auf. Das regelmäßige Muster in den Lavafontänenhöhen deutet auf eine hydraulische Verbindung im darunter liegenden Dike als steuernden Prozess innerhalb des Magma-Fördersystems hin. Die zweite Fallstudie befasst sich mit dem Holuhraun-Ausbruch 2014/2015. In diesem Fall wird der horizontale Förderdike durch grabenartige Strukturen und Bruchsysteme an der Oberfläche hervorgehoben. An der Ausbruchsstelle nimmt die Aktivität von einer kontinuierlichen Feuerlinie auf einzelne Lavafontänen ab. Dies lässt sich durch eine bevorzugte Aufwärtsbewegung des Magmas durch vertikale Strukturen der prä-eruptiven Morphologie erklären. Seismische Erschütterungen während des Ausbruchs zeigen Ventöffnungen an der Oberfläche und/oder Druckveränderungen im Förderdike. Die sich während des Ausbruchs entwickelnde Topographie der Schlackenkegel interagiert mit dem Verhalten der Lavafontänen. Lokale Schwankungen in Höhe und Breite der Lavafontäne werden jedoch durch den Schlotdurchmesser, die Tiefe des Lavaponds und die Form des Kraters gesteuert. Die Modellierung der Fontänenhöhe zeigt, dass das langfristige Ausbruchsverhalten vor allem durch Druckänderungen im Förderdike gesteuert wird. Diese Forschungsarbeit besteht aus sechs Kapiteln mit je zwei Papern als Erst- bzw. Co-Autor. Es etabliert eine neue Methode zur Analyse der Dynamik von Lavafontänen durch Videoüberwachung. Der Vergleich mit der Seismizität, den geomorphologischen und strukturellen Ausprägungen von Spalteneruptionen zeigt einen komplexen Zusammenhang zwischen der Dikeströmung, der Vulkanmorphologie und der Dynamik der Lavafontänen an einer Spalteneruption. KW - volcanology KW - Spalteneruption KW - fissure eruption KW - Vulkanologie KW - lava fountains KW - video analysis KW - basaltic volcanoes KW - Lavafontänen KW - Videoanalyse KW - Basalt-Vulkane Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421073 ER - TY - THES A1 - Wist, Dominic T1 - Attacking complexity in logic synthesis of asynchronous circuits T1 - Komplexitätsbewältigung in der Logiksynthese asynchroner Schaltungen N2 - Most of the microelectronic circuits fabricated today are synchronous, i.e. they are driven by one or several clock signals. Synchronous circuit design faces several fundamental challenges such as high-speed clock distribution, integration of multiple cores operating at different clock rates, reduction of power consumption and dealing with voltage, temperature, manufacturing and runtime variations. Asynchronous or clockless design plays a key role in alleviating these challenges, however the design and test of asynchronous circuits is much more difficult in comparison to their synchronous counterparts. A driving force for a widespread use of asynchronous technology is the availability of mature EDA (Electronic Design Automation) tools which provide an entire automated design flow starting from an HDL (Hardware Description Language) specification yielding the final circuit layout. Even though there was much progress in developing such EDA tools for asynchronous circuit design during the last two decades, the maturity level as well as the acceptance of them is still not comparable with tools for synchronous circuit design. In particular, logic synthesis (which implies the application of Boolean minimisation techniques) for the entire system's control path can significantly improve the efficiency of the resulting asynchronous implementation, e.g. in terms of chip area and performance. However, logic synthesis, in particular for asynchronous circuits, suffers from complexity problems. Signal Transitions Graphs (STGs) are labelled Petri nets which are a widely used to specify the interface behaviour of speed independent (SI) circuits - a robust subclass of asynchronous circuits. STG decomposition is a promising approach to tackle complexity problems like state space explosion in logic synthesis of SI circuits. The (structural) decomposition of STGs is guided by a partition of the output signals and generates a usually much smaller component STG for each partition member, i.e. a component STG with a much smaller state space than the initial specification. However, decomposition can result in component STGs that in isolation have so-called irreducible CSC conflicts (i.e. these components are not SI synthesisable anymore) even if the specification has none of them. A new approach is presented to avoid such conflicts by introducing internal communication between the components. So far, STG decompositions are guided by the finest output partitions, i.e. one output per component. However, this might not yield optimal circuit implementations. Efficient heuristics are presented to determine coarser partitions leading to improved circuits in terms of chip area. For the new algorithms correctness proofs are given and their implementations are incorporated into the decomposition tool DESIJ. The presented techniques are successfully applied to some benchmarks - including 'real-life' specifications arising in the context of control resynthesis - which delivered promising results. N2 - Moderner Schaltungsentwurf fokussiert hauptsächlich synchrone Schaltungstechnik mit allen inhärenten Problemen. Asynchone (d.h. ungetaktete) Schaltungen zeichnen sich jedoch nicht nur durch das Fehlen der Taktversatzproblematik gegenüber ihren synchronen Pendents aus, sondern auch insbesondere durch geringeren Energieverbrauch, günstigere EMV-Eigenschaften, hohe Performance, Modularität und Robustheit gegenüber Schwankungen in der Spannungsversorgung, im Herstellungsprozess sowie Temperaturunterschieden. Diese Vorteile werden mit höherer Integration sowie höheren Taktraten signifikanter. Jedoch ist der Entwurf und auch der Test asynchroner Schaltungen erheblich schwieriger verglichen mit synchronen Schaltungen. Entwurfswerkzeuge zur Synthese asynchroner Schaltungen aus Hochsprachen-Spezifikationen sind zwar inzwischen verfügbar, sie sind jedoch noch nicht so ausgereift und bei weitem noch nicht so akzeptiert in der Industrie, wie ihre Äquivalente für den synchronen Schaltungsentwurf. Insbesondere fehlt es an Werkzeugunterstützung im Bereich der Logiksynthese komplexer Steuerungen („Controller“), welche kritisch für die Effizienz – z.B. in Bezug auf Chipfläche und Geschwindigkeit – der resultierenden Schaltungen oder Systeme ist. Zur Spezifikation von Steuerungen haben sich Signalflankengraphen („signal transition graphs“, STGs) bewährt, die auch als Entwurfseinstieg für eine Logiksynthese von SI-Schaltungen („speed independent“) verwendet werden. (SI-Schaltungen gelten als sehr robuste asynchrone Schaltungen.) Aus den STGs werden zwecks Logiksynthese Automaten abgeleitet werden, deren Zustandszahl aber oft prohibitiv groß werden kann. Durch sogenannte STG-Dekomposition wird die Logiksynthese einer komplexen Schaltung ermöglicht, was bislang aufgrund von Zustandsexplosion oft nicht möglich war. Dabei wird der Spezifikations-STG laut einer gegebenen Partition von Ausgangssignalen in viele kleinere Teilnetze dekomponiert, wobei zu jedem Partitionsblock ein Teilnetz – mit normalerweise signifikant kleinerem Zustandsraum im Vergleich zur Spezifikation – erzeugt wird. Zu jedem Teilnetz wird dann eine Teilschaltung (Komponente) mittels Logiksynthese generiert. Durch die Anwendung von STG-Dekomposition können jedoch Teilnetze erzeugt werden, die sogenannte irreduzible CSC-Konflikte aufweisen (d.h. zu diesen Teilnetzen kann keine SI-Schaltung erzeugt werden), obwohl die Spezifikation keine solchen Konflikte hatte. Diese Arbeit präsentiert einen neuen Ansatz, welcher die Entstehung solcher irreduziblen Konflikte vermeidet, und zwar durch die Einführung interner Kommunikation zwischen den (zu den Teilnetzen gehörenden) Schaltungskomponenten. Bisher werden STG-Dekompositionen total durchgeführt, d.h. pro resultierender Komponente wird ein Ausgangssignal erzeugt. Das führt gewöhnlich nicht zu optimalen Schaltungsimplementierungen. In dieser Arbeit werden Heuristiken zur Bestimmung gröberer Ausgabepartitionen (d.h. Partitionsblöcke mit mehreren Ausgangssignalen) vorgestellt, die zu kleineren Schaltungen führen. Die vorgestellten Algorithmen werden formal abgesichert und wurden in das bereits vorhandene Dekompositionswerkzeug DESIJ integriert. An praxisrelevanten Beispielen konnten die vorgestellten Verfahren erfolgreich erprobt werden. KW - Asynchrone Schaltung KW - Logiksynthese KW - Komplexitätsbewältigung KW - STG-Dekomposition KW - CSC KW - asynchronous circuit KW - logic synthesis KW - speed independence KW - STG decomposition KW - CSC Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59706 ER - TY - THES A1 - Wischnewski, Juliane T1 - Reconstructing climate variability on the Tibetan Plateau : comparing aquatic and terrestrial signals T1 - Klimarekonstruktionen auf dem Tibet Plateau : aquatische und terrestrische Signale im Vergleich N2 - Spatial and temporal temperature and moisture patterns across the Tibetan Plateau are very complex. The onset and magnitude of the Holocene climate optimum in the Asian monsoon realm, in particular, is a subject of considerable debate as this time period is often used as an analogue for recent global warming. In the light of contradictory inferences regarding past climate and environmental change on the Tibetan Plateau, I have attempted to explain mismatches in the timing and magnitude of change. Therefore, I analysed the temporal variation of fossil pollen and diatom spectra and the geochemical record from palaeo-ecological records covering different time scales (late Quaternary and the last 200 years) from two core regions in the NE and SE Tibetan Plateau. For interpretation purposes I combined my data with other available palaeo-ecological data to set up corresponding aquatic and terrestrial proxy data sets of two lake pairs and two sets of sites. I focused on the direct comparison of proxies representing lacustrine response to climate signals (e.g., diatoms, ostracods, geochemical record) and proxies representing changes in the terrestrial environment (i.e., terrestrial pollen), in order to asses whether the lake and its catchments respond at similar times and magnitudes to environmental changes. Therefore, I introduced the established numerical technique procrustes rotation as a new approach in palaeoecology to quantitatively compare raw data of any two sedimentary records of interest in order to assess their degree of concordance. Focusing on the late Quaternary, sediment cores from two lakes (Kuhai Lake 35.3°N; 99.2°E; 4150 m asl; and Koucha Lake 34.0°N; 97.2°E; 4540 m asl) on the semi-arid northeastern Tibetan Plateau were analysed to identify post-glacial vegetation and environmental changes, and to investigate the responses of lake ecosystems to such changes. Based on the pollen record, five major vegetation and climate changes could be identified: (1) A shift from alpine desert to alpine steppe indicates a change from cold, dry conditions to warmer and more moist conditions at 14.8 cal. ka BP, (2) alpine steppe with tundra elements points to conditions of higher effective moisture and a stepwise warming climate at 13.6 cal. ka BP, (3) the appearance of high-alpine meadow vegetation indicates a further change towards increased moisture, but with colder temperatures, at 7.0 cal. ka BP, (4) the reoccurrence of alpine steppe with desert elements suggests a return to a significantly colder and drier phase at 6.3 cal. ka BP, and (5) the establishment of alpine steppe-meadow vegetation indicates a change back to relatively moist conditions at 2.2 cal. ka BP. To place the reconstructed climate inferences from the NE Tibetan Plateau into the context of Holocene moisture evolution across the Tibetan Plateau, I applied a five-scale moisture index and average link clustering to all available continuous pollen and non-pollen palaeoclimate records from the Tibetan Plateau, in an attempt to detect coherent regional and temporal patterns of moisture evolution on the Plateau. However, no common temporal or spatial pattern of moisture evolution during the Holocene could be detected, which can be assigned to the complex responses of different proxies to environmental changes in an already very heterogeneous mountain landscape, where minor differences in elevation can result in marked variations in microenvironments. Focusing on the past 200 years, I analysed the sedimentary records (LC6 Lake 29.5°N, 94.3°E, 4132 m asl; and Wuxu Lake 29.9°N, 101.1°E, 3705 m asl) from the southeastern Tibetan Plateau. I found that despite presumed significant temperature increases over that period, pollen and diatom records from the SE Tibetan Plateau reveal only very subtle changes throughout their profiles. The compositional species turnover investigated over the last 200 years appears relatively low in comparison to the species reorganisations during the Holocene. The results indicate that climatically induced ecological thresholds are not yet crossed, but that human activity has an increasing influence, particularly on the terrestrial ecosystem. Forest clearances and reforestation have not caused forest decline in our study area, but a conversion of natural forests to semi-natural secondary forests. The results from the numerical proxy comparison of the two sets of two pairs of Tibetan lakes indicate that the use of different proxies and the work with palaeo-ecological records from different lake types can cause deviant stories of inferred change. Irrespective of the timescale (Holocene or last 200 years) or region (SE or NE Tibetan Plateau) analysed, the agreement in terms of the direction, timing, and magnitude of change between the corresponding terrestrial data sets is generally better than the match between the corresponding lacustrine data sets, suggesting that lacustrine proxies may partly be influenced by in-lake or local catchment processes whereas the terrestrial proxy reflects a more regional climatic signal. The current disaccord on coherent temporal and spatial climate patterns on the Tibetan Plateau can partly be ascribed to the complexity of proxy response and lake systems on the Tibetan Plateau. Therefore, a multi-proxy, multi-site approach is important in order to gain a reliable climate interpretation for the complex mountain landscape of the Tibetan Plateau. N2 - Die räumlichen und zeitlichen Temperatur- und Feuchtigkeitsmuster auf dem Tibet-Plateau sind sehr komplex. Im Einzugsbereich der asiatischen Monsune sind insbesondere der Beginn und das Ausmaß des Klimaoptimums während des Holozäns von wissenschaftlichem Interesse, da diese Periode oft als Analogie für die derzeitige globale Klimaerwärmung herangezogen wird. In Hinblick auf sich teilweise widersprechende Paläoklima- und Umweltrekonstruktionen für das Tibet-Plateau, ist es mein Ziel, die bestehenden Unstimmigkeiten bezüglich des Zeitpunktes und des Ausmaßes des Umweltwandels zu erklären. Dafür wurden von mir zeitliche Variationen fossiler Pollen- und Diatomeenspektren und geochemische Untersuchungen an Seesedimenten unterschiedlicher Zeitskalen (Spätquartär und die letzten 200 Jahre) aus zwei Kernregionen auf dem NO und SO Tibet-Plateau analysiert. Zur Unterstützung der Interpretation wurden die hier erhobenen Daten mit bereits vorhandenen paläoökologischen Aufzeichnungen der Lokalitäten kombiniert, um Datensätze der entsprechenden aquatischen und terrestrischen Proxy-Daten (Stellvertreterdaten) zweier Seenpaare aus den beiden Regionen gegenüberstellen zu können. Hierbei konzentrierte ich mich auf den direkten Vergleich von Proxies, die die Seenentwicklung reflektieren (z.B. Diatomeen, Ostracoden, geochemische Eigenschaften), mit Proxies, die Veränderungen der terrestrischen Umgebung des Sees beschreiben (terrestrische Pollen). Durch diesen Vergleich lässt sich beurteilen, ob Veränderungen im See selbst mit Umweltveränderungen in dem jeweiligen Einzugsgebiet zeitlich übereinstimmen. Dafür habe ich die bereits etablierte numerische Methode Procrustes-Rotation als neuen Ansatz in der Paläoökologie eingeführt. Damit ist ein quantitativer Vergleich von Rohdaten zweier beliebiger sedimentärer Datensätze möglich, um den Grad der Übereinstimmung zu prüfen. Um die in dieser Arbeit rekonstruierten Umwelt- und Klimaereignisse des nordöstlichen Tibet-Plateaus in einen größeren Zusammenhang hinsichtlich holozäner Klimaentwicklung des gesamten Plateaus setzen zu können, und um schlüssige zeitliche und räumliche Klimatrends auf dem Plateau erkennen zu können, habe ich auf alle vorhandenen Paläoklimadatensätze einen Fünf-Skalen Feuchtigkeitsindex und eine Clusteranalyse angewandt. Es konnten jedoch keine einheitlichen zeitlichen und räumlichen Trends der holozänen Klimaentwicklung nachgewiesen werden, was meiner Analyse entsprechend, auf die komplexen Reaktionen verschiedener Proxies auf Umweltveränderungen in einer ohnehin sehr heterogen Berglandschaft, zurückgeführt werden kann. Die Ergebnisse des numerischen Proxy-Vergleichs beider Seenpaare zeigen, dass die Verwendung von verschiedenen Proxies und die Arbeit mit paläo-ökologischen Datensätzen unterschiedlicher See-Typen zu abweichenden Klimaableitungen führen können. Unabhängig vom untersuchten Zeitraum (Holozän oder die letzten 200 Jahren) oder der Region (SO oder NO Tibet-Plateau), ist die Übereinstimmung zweier Datensätze hinsichtlich der Richtung, des Zeitpunktes und des Ausmaßes der abgeleiteten Paläo-Umweltverhältnisse in der Regel zwischen den entsprechenden terrestrischen Datensätzen besser als zwischen den entsprechenden lakustrinen Datensätzen. Die derzeitige Uneinigkeit über stimmige zeitliche und räumliche Klimatrends auf dem Tibet-Plateau kann daher teilweise der Komplexität der verschieden Proxies und ihrer individuellen Empfindlichkeiten gegenüber Umweltveränderungen sowie der unterschiedlichen Reaktionsweise verschiedenartiger See-Systeme auf dem Plateau zugeschrieben werden. Meine Ergebnisse zeigen, dass ein „Multi-Proxy-Multi-Site-Ansatz“ für zuverlässige Paläoklimaableitungen für das Tibet-Plateau von zentraler Bedeutung ist. KW - Tibet Plateau KW - Holozän KW - Pollen KW - Diatomeen KW - Prokrustes Analyse KW - Tibetan Plateau KW - Holocene KW - Pollen KW - Diatoms KW - Procrustes rotation analysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52453 ER - TY - THES A1 - Windirsch-Woiwode, Torben T1 - Permafrost carbon stabilisation by recreating a herbivore-driven ecosystem T1 - Stabilisierung von Permafrostkohlenstoff durch die Wiedereinführung eines Herbivor-geprägten Ökosystems N2 - With Arctic ground as a huge and temperature-sensitive carbon reservoir, maintaining low ground temperatures and frozen conditions to prevent further carbon emissions that contrib-ute to global climate warming is a key element in humankind’s fight to maintain habitable con-ditions on earth. Former studies showed that during the late Pleistocene, Arctic ground condi-tions were generally colder and more stable as the result of an ecosystem dominated by large herbivorous mammals and vast extents of graminoid vegetation – the mammoth steppe. Characterised by high plant productivity (grassland) and low ground insulation due to animal-caused compression and removal of snow, this ecosystem enabled deep permafrost aggrad-ation. Now, with tundra and shrub vegetation common in the terrestrial Arctic, these effects are not in place anymore. However, it appears to be possible to recreate this ecosystem local-ly by artificially increasing animal numbers, and hence keep Arctic ground cold to reduce or-ganic matter decomposition and carbon release into the atmosphere. By measuring thaw depth, total organic carbon and total nitrogen content, stable carbon iso-tope ratio, radiocarbon age, n-alkane and alcohol characteristics and assessing dominant vegetation types along grazing intensity transects in two contrasting Arctic areas, it was found that recreating conditions locally, similar to the mammoth steppe, seems to be possible. For permafrost-affected soil, it was shown that intensive grazing in direct comparison to non-grazed areas reduces active layer depth and leads to higher TOC contents in the active layer soil. For soil only frozen on top in winter, an increase of TOC with grazing intensity could not be found, most likely because of confounding factors such as vertical water and carbon movement, which is not possible with an impermeable layer in permafrost. In both areas, high animal activity led to a vegetation transformation towards species-poor graminoid-dominated landscapes with less shrubs. Lipid biomarker analysis revealed that, even though the available organic material is different between the study areas, in both permafrost-affected and sea-sonally frozen soils the organic material in sites affected by high animal activity was less de-composed than under less intensive grazing pressure. In conclusion, high animal activity af-fects decomposition processes in Arctic soils and the ground thermal regime, visible from reduced active layer depth in permafrost areas. Therefore, grazing management might be utilised to locally stabilise permafrost and reduce Arctic carbon emissions in the future, but is likely not scalable to the entire permafrost region. N2 - Mit dem arktischen Boden als riesigem und temperatursensiblen Kohlenstoffspeicher ist die Aufrechterhaltung niedriger Bodentemperaturen und gefrorener Bedingungen zur Verhinde-rung weiterer Kohlenstoffemissionen, die zum globalen Klimawandel beitragen, ein Schlüs-selelement im Kampf der Menschheit, die Erde weiterhin bewohnbar zu halten. Vorangehen-de Studien ergaben, dass die Bodenbedingungen in der Arktis während des späten Pleisto-zäns im Allgemeinen kälter und dadurch stabiler waren, als Ergebnis eines Ökosystems, das von großen pflanzenfressenden Säugetieren und weiten Flächen grasartiger Vegetation do-miniert wurde - der Mammutsteppe. Gekennzeichnet durch hohe Pflanzenproduktivität (Gras-land) und geringe Bodenisolierung aufgrund von Kompression und Schneeräumung durch Tiere, ermöglichte dieses Ökosystem eine tiefreichende Entwicklung des Permafrosts. Heut-zutage, mit der vorherrschenden Tundra- und Strauchvegetation in der Arktis, sind diese Ef-fekte nicht mehr präsent. Es scheint aber möglich, dieses Ökosystem lokal durch künstliche Erhöhung der Tierbestände nachzubilden und somit den arktischen Boden kühl zu halten, um den Abbau von organischem Material und die Freisetzung von Kohlenstoff in die Atmosphäre zu verringern. Durch Messungen der Auftautiefe, des Gesamtgehalts des organischen Kohlenstoffs und Stickstoffs, des stabilen Kohlenstoff-Isotopenverhältnisses, des Radiocarbonalters, der n-Alkan- und Alkoholcharakteristika sowie durch Bestimmung der vorherrschenden Vegetati-onstypen entlang von Beweidungsgradienten in zwei unterschiedlichen arktischen Gebieten habe ich festgestellt, dass die Schaffung ähnlicher Bedingungen wie in der Mammutsteppe möglich sein könnte. Für durch Permafrost beeinflusste Böden konnte ich zeigen, dass eine intensive Beweidung im direkten Vergleich mit unbeweideten Gebieten die Tiefe der Auftau-schicht verringert und zu höheren Gehalten an organischem Kohlenstoff im oberen Bodenbe-reich führt. Für im Winter nur oberflächlich gefrorene Böden konnte kein Anstieg des organi-schen Kohlenstoffgehalts mit zunehmender Beweidungsintensität festgestellt werden, höchstwahrscheinlich aufgrund von Störfaktoren wie vertikalen Wasser- und Kohlenstoffbe-wegungen, die nicht durch eine undurchlässige Schicht wie beim Permafrost begrenzt sind. In beiden Gebieten führte eine hohe Tieraktivität zu einer Umwandlung der Vegetation hin zu artenarmen, von Gräsern dominierten Landschaften mit weniger Sträuchern. Die Analyse von Lipid-Biomarkern ergab, dass das verfügbare organische Material zwar zwischen den Unter-suchungsgebieten unterschiedlich war, aber sowohl in Permafrostgebieten als auch in saiso-nal gefrorenen Böden in Bereichen mit hoher Tieraktivität weniger stark zersetzt war als unter geringerer Beweidungsintensität. Zusammenfassend beeinflusst eine hohe Tieraktivität die Zersetzungsvorgänge in arktischen Böden und das thermische Regime des Bodens, was sich in einer reduzierten Tiefe der Auftauschicht in Permafrostgebieten widerspiegelt. Daher könn-te das Beweidungsmanagement in Zukunft aktiv eingesetzt werden, um den Permafrost lokal zu stabilisieren und gefroren zu halten sowie die Kohlenstoffemissionen in der Arktis zu ver-ringern. Aufgrund der Größe der Fläche, die in der terrestrischen Arktis von Permafrost be-einflusst ist, wird ein solches Beweidungsmanagement aber nicht als Maßnahme auf die ge-samte Permafrostregion ausgedehnt werden können. KW - permafrost KW - carbon KW - climate change KW - grazing KW - Arctic KW - Arktis KW - Kohlenstoff KW - Klimawandel KW - Beweidung KW - Permafrost Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-624240 ER - TY - THES A1 - Winck, Flavia Vischi T1 - Nuclear proteomics and transcription factor profiling in Chlamydomonas reinhardtii T1 - Nukleare Proteomics und Transkriptionsfaktoren : Profiling in Chlamydomonas reinhardtii N2 - The transcriptional regulation of the cellular mechanisms involves many different components and different levels of control which together contribute to fine tune the response of cells to different environmental stimuli. In some responses, diverse signaling pathways can be controlled simultaneously. One of the most important cellular processes that seem to possess multiple levels of regulation is photosynthesis. A model organism for studying photosynthesis-related processes is the unicellular green algae Chlamydomonas reinhardtii, due to advantages related to culturing, genetic manipulation and availability of genome sequence. In the present study, we were interested in understanding the regulatory mechanisms underlying photosynthesis-related processes. To achieve this goal different molecular approaches were followed. In order to indentify protein transcriptional regulators we optimized a method for isolation of nuclei and performed nuclear proteome analysis using shotgun proteomics. This analysis permitted us to improve the genome annotation previously published and to discover conserved and enriched protein motifs among the nuclear proteins. In another approach, a quantitative RT-PCR platform was established for the analysis of gene expression of predicted transcription factor (TF) and other transcriptional regulator (TR) coding genes by transcript profiling. The gene expression profiles for more than one hundred genes were monitored in time series experiments under conditions of changes in light intensity (200 µE m-2 s-1 to 700 µE m-2 s-1), and changes in concentration of carbon dioxide (5% CO2 to 0.04% CO2). The results indicate that many TF and TR genes are regulated in both environmental conditions and groups of co-regulated genes were found. Our findings also suggest that some genes can be common intermediates of light and carbon responsive regulatory pathways. These approaches together gave us new insights about the regulation of photosynthesis and revealed new candidate regulatory genes, helping to decipher the gene regulatory networks in Chlamydomonas. Further experimental studies are necessary to clarify the function of the candidate regulatory genes and to elucidate how cells coordinately regulate the assimilation of carbon and light responses. N2 - Pflanzen nutzen das Sonnenlicht um Substanzen, sogenannte Kohlenhydrate, zu synthetisieren. Diese können anschließend als Energielieferant für das eigene Wachstum genutzt werden. Der aufbauende Prozess wird als Photosynthese bezeichnet. Ein wichtiges Anliegen ist deshalb zu verstehen, wie Pflanzen äußere Einflüsse wahrnehmen und die Photosynthese dementsprechend regulieren. Ihre Zellen tragen diese Informationen in den Genen. Die Pflanzen nutzen aber in der Regel nicht alle ihre Gene gleichzeitig, die sie zur Anpassung an Umwelteinflüsse besitzen. Zu meist wird nur eine Teilfraktion der gesamten Information benötigt. Wir wollten der Frage nachgehen, welche Gene die Zellen für welche Situation regulieren. Im Zellkern gibt es Proteine, sogenannte Transkriptionsfaktoren, die spezifische Gene finden können und deren Transkription modulieren. Wenn ein Gen gebraucht wird, wird seine Information in andere Moleküle übersetzt (transkribiert), sogenannte Transkripte. Die Information dieser Transkripte wird benutzt um Proteine, Makromoleküle aus Aminsäuren, zu synthetisieren. Aus der Transkription eines Gens kann eine große Zahl des Transkripts entstehen. Es ist wahrscheinlich, dass ein Gen, dass gerade gebraucht wird, mehr Transkriptmoleküle hat als andere Gene. Da die Transkriptionsfaktoren mit der Transkription der Gene interferieren können, entwickelten wir in der vorliegenden Arbeit Strategien zur Identifikation dieser im Zellkern zu findenden Proteine mittels eines „Proteomics“-Ansatzes. Wir entwickelten weiterhin eine Strategie zur Identififikation von Transkripten Transkriptionsfaktor-codierender Gene in der Zelle und in welche Menge sie vorkommen. Dieser Ansatz wird als „Transcript-Profiling“ bezeichnet. Wir fanden Zellkern-lokalisierte Proteine, die als Signalmoleküle funktionieren könnten und Transkripte, die bei unterschiedlichen Umweltbedingungen in der Zelle vorhanden waren. Wir benutzten, die oben genannten Ansätze um die einzellige Grünalge Chlamydomonas zu untersuchen. Die Informationen, die wir erhielten, halfen zu verstehen welche Transkriptionsfaktoren notwendig sind, damit Chlamydomonas bei unterschiedlichen Umweltbedingungen, wie z.B. unterschiedliche Lichtintensitäten und unterschiedlicher Konzentration von Kohlenstoffdioxid, überlebt. KW - Proteomics KW - Transkriptionsfaktoren KW - Pflanzen KW - Chlamydomonas KW - Transcriptomics KW - Proteomics KW - Transcription factors KW - Plants KW - Chlamydomonas KW - Transcriptomics Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53909 ER - TY - THES A1 - Willig, Lisa T1 - Ultrafast magneto-optical studies of remagnetisation dynamics in transition metals T1 - Ultraschnelle Magneto-Optische Studien der Remagnetisierungsdynamik von Übergangsmetallen N2 - Ultrafast magnetisation dynamics have been investigated intensely for two decades. The recovery process after demagnetisation, however, was rarely studied experimentally and discussed in detail. The focus of this work lies on the investigation of the magnetisation on long timescales after laser excitation. It combines two ultrafast time resolved methods to study the relaxation of the magnetic and lattice system after excitation with a high fluence ultrashort laser pulse. The magnetic system is investigated by time resolved measurements of the magneto-optical Kerr effect. The experimental setup has been implemented in the scope of this work. The lattice dynamics were obtained with ultrafast X-ray diffraction. The combination of both techniques leads to a better understanding of the mechanisms involved in magnetisation recovery from a non-equilibrium condition. Three different groups of samples are investigated in this work: Thin Nickel layers capped with nonmagnetic materials, a continuous sample of the ordered L10 phase of Iron Platinum and a sample consisting of Iron Platinum nanoparticles embedded in a carbon matrix. The study of the remagnetisation reveals a general trend for all of the samples: The remagnetisation process can be described by two time dependences. A first exponential recovery that slows down with an increasing amount of energy absorbed in the system until an approximately linear time dependence is observed. This is followed by a second exponential recovery. In case of low fluence excitation, the first recovery is faster than the second. With increasing fluence the first recovery is slowed down and can be described as a linear function. If the pump-induced temperature increase in the sample is sufficiently high, a phase transition to a paramagnetic state is observed. In the remagnetisation process, the transition into the ferromagnetic state is characterised by a distinct transition between the linear and exponential recovery. From the combination of the transient lattice temperature Tp(t) obtained from ultrafast X-ray measurements and magnetisation M(t) gained from magneto-optical measurements we construct the transient magnetisation versus temperature relations M(Tp). If the lattice temperature remains below the Curie temperature the remagnetisation curve M(Tp) is linear and stays below the M(T) curve in equilibrium in the continuous transition metal layers. When the sample is heated above phase transition, the remagnetisation converges towards the static temperature dependence. For the granular Iron Platinum sample the M(Tp) curves for different fluences coincide, i.e. the remagnetisation follows a similar path irrespective of the initial laser-induced temperature jump. N2 - Ultraschnelle Magnetisierungsdynamiken wurden in den letzten zwei Jahrzehnten intensiv untersucht. Hingegen der Wiederherstellungsprozess der Magnetisierung nach einer ultraschnellen Demagnetisierung wird selten experimentell untersucht und im Detail diskutiert. Der Fokus dieser Arbeit liegt auf der Untersuchung der Magnetisierung auf langen Zeitskalen nach der Anregung durch einen Laserpuls. Dazu werden zwei ultraschnelle zeitaufgelöste Techniken verwendet, um die Relaxierung von dem magnetischen System und dem System des Gitters nach Anregung mit einem hochenergetischen ultrakurzen Laserpuls zu untersuchen. Das magnetische System wurde untersucht mithilfe von Messungen des zeitaufgelösten magneto-optischen Kerr Effekts. Der experimentelle Aufbau wurde im Rahmen dieser Arbeit entwickelt. Die Gitterdynamik wurde mittels ultraschneller Röntgendiffraktometrie aufgenommen. Die Kombination beider Techniken liefert ein besseres Verständnis von den Prozessen involviert in Magnetisierungsrelaxation aus einem Nicht-Gleichgewichtszustand. Drei unterschiedliche Probensysteme wurden im Rahmen dieser Arbeit untersucht: Dünne Nickel Schichten umgeben von nicht-magnetischen Schichten, eine kontinuierliche Schicht aus einer Eisen Platin Legierung und eine Probe bestehend aus Eisen Platin Nanopartikeln eingebettet in einer Kohlenstoffmatrix. Die Studie der Remagnetisierung zeigt einen generellen Trend für alle diese Systeme auf: Der Remagnetisierungsprozess kann mit zwei Zeitabhängikeiten beschrieben werden. Eine erste exponentielle Zeitabhängigkeit, die mit zunehmender Menge an absorbierter Energie verlangsamt wird bis ein lineares Verhalten beobachtet wird. Darauf folgend gibt es eine zweite exponentielle funktionale Abhängigkeit in der Zeit. Im Falle einer geringen Energieabsorption ist die erste Remagnetisierung schneller als die zweite. Mit steigender Fluenz wird die Remagnetisierung in der ersten Zeitabhängigkeit verlangsamt und kann als lineare Funktion beschrieben werden. Wenn der durch den Pump Puls induzierte Temperatursprung in der Probe ausreichend groß ist, wird ein Phasenübergang in die paramagnetische Phase beobachtet. In dem Remagnetisierungsprozess wird dieser Übergang durch einen deutlich sichtbaren Wechsel zwischen linearem und exponentiellen Verhalten sichtbar. Mithilfe der Kombination aus der von Rötngendaten gewonnener Gittertemperatur Tp(t) und der Magnetisierung M(t) erhalten wir die zeitliche Abhängigkeit der Magnetisierung von der Gittertemperatur M(Tp). Falls die Gittertemperatur unter der Curietemperatur bleibt, ist die Remagnetisierungskurve M(Tp) linear und bleibt unterhalb der statischen Gleichgewichtskurve M(T) für die kontinuierlichen Übergangsmetalle. Wenn die Probe über den Phasenübergang geheizt wird, nähert sich die Remagnetisierung der statischen Kurve an. Die transiente Remagnetisierungskurven M(Tp) der granularen Eisen Platin Probe folgen immer einem der statischen Magnetisierungskurve ähnlichen Verlauf, unabhängig von dem laser-induzierten Temperatursprung. KW - ultrafast dynamics KW - remagnetization KW - magnetization dynamics KW - transition metals KW - condensed matter KW - ultraschnelle Dynamik KW - magneto-optics KW - Magneto-Optik KW - Remagnetisierung KW - Magnetisierungsdynamik KW - Übergangsmetalle KW - kondensierte Materie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441942 ER - TY - THES A1 - Willersinn, Jochen T1 - Self-Assembly of double hydrophilic block copolymers T1 - Selbstorganisation Doppelt Hydrophiler Blockcopolymere BT - organized particles and vesicles beyond amphiphiles BT - organisierte Partikel und Vesikel jenseits von Amphiphilen N2 - The motivation of this work was to investigate the self-assembly of a block copolymer species that attended little attraction before, double hydrophilic block copolymers (DHBCs). DHBCs consist of two linear hydrophilic polymer blocks. The self-assembly of DHBCs towards suprastructures such as particles and vesicles is determined via a strong difference in hydrophilicity between the corresponding blocks leading to a microphase separation due to immiscibility. The benefits of DHBCs and the corresponding particles and vesicles, such as biocompatibility, high permeability towards water and hydrophilic compounds as well as the large amount of possible functionalizations that can be addressed to the block copolymers make the application of DHBC based structures a viable choice in biomedicine. In order to assess a route towards self-assembled structures from DHBCs that display the potential to act as cargos for future applications, several block copolymers containing two hydrophilic polymer blocks were synthesized. Poly(ethylene oxide)-b-poly(N-vinylpyrrolidone) (PEO-b-PVP) and Poly(ethylene oxide)-b-poly(N-vinylpyrrolidone-co-N-vinylimidazole) (PEO-b-P(VP-co-VIm) block copolymers were synthesized via reversible deactivation radical polymerization (RDRP) techniques starting from a PEO-macro chain transfer agent. The block copolymers displayed a concentration dependent self-assembly behavior in water which was determined via dynamic light scattering (DLS). It was possible to observe spherical particles via laser scanning confocal microscopy (LSCM) and cryogenic scanning electron microscopy (cryo SEM) at highly concentrated solutions of PEO-b-PVP. Furthermore, a crosslinking strategy with (PEO-b-P(VP-co-VIm) was developed applying a diiodo derived crosslinker diethylene glycol bis(2-iodoethyl) ether to form quaternary amines at the VIm units. The formed crosslinked structures proved stability upon dilution and transfer into organic solvents. Moreover, self-assembly and crosslinking in DMF proved to be more advantageous and the crosslinked structures could be successfully transferred to aqueous solution. The afforded spherical submicron particles could be visualized via LSCM, cryo SEM and Cryo TEM. Double hydrophilic pullulan-b-poly(acrylamide) block copolymers were synthesized via copper catalyzed alkyne azide cycloaddition (CuAAC) starting from suitable pullulan alkyne and azide functionalized poly(N,N-dimethylacrylamide) (PDMA) and poly(N-ethylacrylamide) (PEA) homopolymers. The conjugation reaction was confirmed via SEC and 1H-NMR measurements. The self-assembly of the block copolymers was monitored with DLS and static light scattering (SLS) measurements indicating the presence of hollow spherical structures. Cryo SEM measurements could confirm the presence of vesicular structures for Pull-b-PEA block copolymers. Solutions of Pull-b-PDMA displayed particles in cryo SEM. Moreover, an end group functionalization of Pull-b-PDMA with Rhodamine B allowed assessing the structure via LSCM and hollow spherical structures were observed indicating the presence of vesicles, too. An exemplified pathway towards a DHBC based drug delivery vehicle was demonstrated with the block copolymer Pull-b-PVP. The block copolymer was synthesized via RAFT/MADIX techniques starting from a pullulan chain transfer agent. Pull-b-PVP displayed a concentration dependent self-assembly in water with an efficiency superior to the PEO-b-PVP system, which could be observed via DLS. Cryo SEM and LSCM microscopy displayed the presence of spherical structures. In order to apply a reversible crosslinking strategy on the synthesized block copolymer, the pullulan block was selectively oxidized to dialdehydes with NaIO4. The oxidation of the block copolymer was confirmed via SEC and 1H-NMR measurements. The self-assembled and oxidized structures were subsequently crosslinked with cystamine dihiydrochloride, a pH and redox responsive crosslinker resulting in crosslinked vesicles which were observed via cryo SEM. The vesicular structures of crosslinked Pull-b-PVP could be disassembled by acid treatment or the application of the redox agent tris(2-carboxyethyl)-phosphin-hydrochloride. The successful disassembly was monitored with DLS measurements. To conclude, self-assembled structures from DHBCs such as particles and vesicles display a strong potential to generate an impact on biomedicine and nanotechnologies. The variety of DHBC compositions and functionalities are very promising features for future applications. N2 - Die Selbstanordnung von amphiphilen Blockcopolymeren in Wasser zu Strukturen höherer Ordnung, wie Partikel oder Vesikel, ist seit vielen Jahren bekannt und findet Anwendung in vielen Aspekten der Medizin und Materialwissenschaft. Allerdings ist die treibende Kraft dieser Selbstanordnung zu Vesikeln, die Hydrophobie des wasserunlöslichen Polmyerblocks, auch ein Hindernis für den gezielten Transport von neuen Medikamenten und Wirkstoffen, da die Membran dieser Vesikel aufgrund des hydrophoben Anteils sehr dicht gepackt ist und eine Diffusion der Wirkstoffe durch diese Membran häufig nur durch hohen synthetischen Aufwand gewährleistet werden kann. Einen möglichen Ausweg bietet die Anwendung von doppelt hydrophilen Blockcopolymeren (DHBCs), respektive Blockcopolymere die aus zwei Polymerblöcken mit unterschiedlicher Hydrophilie bestehen. Ist dieser Unterschied groß genug, können DHBCs Partikel- und Vesikelstrukturen ausbilden, die denen der amphiphilen Blockcopolymere ähnlich sind. Um das Potential von DHBC Strukturen zu untersuchen und einen tieferen Einblick in die fundamentalen Prinzipien dieser Selbstanordnung zu erhalten, wurden in dieser Arbeit fünf verschiedene Blockcopolymere hergestellt. Poly(Ethylenoxid)-b-Poly(N-Vinylpyrrolidon) und Poly(Ethylenoxid)-b-Poly(N-Vinylpyrrolidon-co-N-Vinylimidazol) Blockcopolymere wurden über eine kontrollierte radikalische Polymerisation hergestellt und zeigten eine konzentrationsabhängige Selbstanordnung zu Partikeln mit Größen unter einem Mikrometer. Diese Partikel konnten vernetzt werden, sodass sie auch bei starker Verdünnung nicht zerfallen. Zwei Pullulan-b-Poly(Acrylamid) Blockcopolymere wurden über eine Konjugationsreaktion hergestellt, die die beiden separaten Polymerblöcke miteinander verbindet. Diese Blockcopolymere ordneten sich in Wasser zu Vesikulären Strukturen mit Größen zwischen 250 nm und 500 nm. Des Weiteren war es möglich, einen Farbstoff an ein Blockcopolymer anzubringen und den vesikulären Charakter mit konfokaler Mikroskopie zu untersuchen. Ein Ausblick auf mögliche medizinische Anwendung von DHBCs wurde mit dem letzten Blockcopolymer Pullulan-b-Poly(N-Vinylpyrrolidon) gegeben. Vesikel aus diesem Blockcopolymer wurden mit einem pH- und Redox-responsivem Vernetzer vernetzt und es wurde gezeigt, dass sich die vesikulären Strukturen durch Säurebehandlung zersetzen lassen. Dieses System veranschaulicht die theoretische Anwendungsmöglichkeit von DHBCs im gezielten Medikamententransport. KW - self-assembly KW - double hydrophilic block copolymers KW - polymer chemistry KW - RAFT/MADIX polymerization KW - block copolymer vesicles KW - Selbstorganisation KW - Doppelt hydrophile Blockcopolymere KW - Polymerchemie KW - RAFT/MADIX Polymerisation KW - Blockcopolymervesikel Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408578 ER - TY - THES A1 - Wilke, Franziska Daniela Helena T1 - Quantifying crystalline exhumation in the Himalaya T1 - Quantifizierung von Exhumationsbedingungen der kristallinen Gesteine aus dem Himalaja N2 - In 1915, Alfred Wegener published his hypotheses of plate tectonics that revolutionised the world for geologists. Since then, many scientists have studied the evolution of continents and especially the geologic structure of orogens: the most visible consequence of tectonic processes. Although the morphology and landscape evolution of mountain belts can be observed due to surface processes, the driving force and dynamics at lithosphere scale are less well understood despite the fact that rocks from deeper levels of orogenic belts are in places exposed at the surface. In this thesis, such formerly deeply-buried (ultra-) high-pressure rocks, in particular eclogite facies series, have been studied in order to reveal details about the formation and exhumation conditions and rates and thus provide insights into the geodynamics of the most spectacular orogenic belt in the world: the Himalaya. The specific area investigated was the Kaghan Valley in Pakistan (NW Himalaya). Following closure of the Tethyan Ocean by ca. 55-50 Ma, the northward subduction of the leading edge of India beneath the Eurasian Plate and subsequent collision initiated a long-lived process of intracrustal thrusting that continues today. The continental crust of India – granitic basement, Paleozoic and Mesozoic cover series and Permo-Triassic dykes, sills and lavas – has been buried partly to mantle depths. Today, these rocks crop out as eclogites, amphibolites and gneisses within the Higher Himalayan Crystalline between low-grade metamorphosed rocks (600-640°C/ ca. 5 kbar) of the Lesser Himalaya and Tethyan sediments. Beside tectonically driven exhumation mechanisms the channel flow model, that describes a denudation focused ductile extrusion of low viscosity material developed in the middle to lower crust beneath the Tibetan Plateau, has been postulated. To get insights into the lithospheric and crustal processes that have initiated and driven the exhumation of this (ultra-) high-pressure rocks, mineralogical, petrological and isotope-geochemical investigations have been performed. They provide insights into 1) the depths and temperatures to which these rocks were buried, 2) the pressures and temperatures the rocks have experienced during their exhumation, 3) the timing of these processes 4) and the velocity with which these rocks have been brought back to the surface. In detail, through microscopical studies, the identification of key minerals, microprobe analyses, standard geothermobarometry and modelling using an effective bulk rock composition it has been shown that published exhumation paths are incomplete. In particular, the eclogites of the northern Kaghan Valley were buried to depths of 140-100 km (36-30 kbar) at 790-640°C. Subsequently, cooling during decompression (exhumation) towards 40-35 km (17-10 kbar) and 630-580°C has been superseded by a phase of reheating to about 720-650°C at roughly the same depth before final exhumation has taken place. In the southern-most part of the study area, amphibolite facies assemblages with formation conditions similar to the deduced reheating phase indicate a juxtaposition of both areas after the eclogite facies stage and thus a stacking of Indian Plate units. Radiometric dating of zircon, titanite and rutile by U-Pb and amphibole and micas by Ar-Ar reveal peak pressure conditions at 47-48 Ma. With a maximum exhumation rate of 14 cm/a these rocks reached the crust-mantle boundary at 40-35 km within 1 Ma. Subsequent exhumation (46-41 Ma, 40-35 km) decelerated to ca. 1 mm/a at the base of the continental crust but rose again to about 2 mm/a in the period of 41-31 Ma, equivalent to 35-20 km. Apatite fission track (AFT) and (U-Th)/He ages from eclogites, amphibolites, micaschists and gneisses yielded moderate Oligocene to Miocene cooling rates of about 10°C/Ma in the high altitude northern parts of the Kaghan Valley using the mineral-pair method. AFT ages are of 24.5±3.8 to 15.6±2.1 Ma whereas apatite (U-Th)/He analyses yielded ages between 21.0±0.6 and 5.3±0.2 Ma. The southern-most part of the Valley is dominated by younger late Miocene to Pliocene apatite fission track ages of 7.6±2.1 and 4.0±0.5 Ma that support earlier tectonically and petrologically findings of a juxtaposition and stack of Indian Plate units. As this nappe is tectonically lowermost, a later distinct exhumation and uplift driven by thrusting along the Main Boundary Thrust is inferred. A multi-stage exhumation path is evident from petrological, isotope-geochemical and low temperature thermochronology investigations. Buoyancy driven exhumation caused an initial rapid exhumation: exhumation as fast as recent normal plate movements (ca. 10 cm/a). As the exhuming units reached the crust-mantle boundary the process slowed down due to changes in buoyancy. Most likely, this exhumation pause has initiated the reheating event that is petrologically evident (e.g. glaucophane rimmed by hornblende, ilmenite overgrowth of rutile). Late stage processes involved widespread thrusting and folding with accompanied regional greenschist facies metamorphism, whereby contemporaneous thrusting on the Batal Thrust (seen by some authors equivalent to the MCT) and back sliding of the Kohistan Arc along the inverse reactivated Main Mantle Thrust caused final exposure of these rocks. Similar circumstances have been seen at Tso Morari, Ladakh, India, 200 km further east where comparable rock assemblages occur. In conclusion, as exhumation was already done well before the initiation of the monsoonal system, climate dependent effects (erosion) appear negligible in comparison to far-field tectonic effects. N2 - Seit der von Alfred Wegener 1915 postulierten Hypothese der Plattentektonik haben viele Forscher Anstrengungen unternommen die Entstehungsgeschichte und den geologischen Aufbau von Gebirgen nachzuvollziehen. Oberflächennahe Abläufe sind ansatzweise verstanden, während Prozesse im Erdinneren weit weniger bekannt sind. Informationen hierüber können jedoch aus den Gesteinen, ihren Mineralen und wiederum deren chemischen Komponenten gewonnen werden, da diese die Entstehung und Entwicklung der Gebirgsbildung “miterlebt”, und wichtige Informationen gespeichert haben. In dieser Arbeit wurden dazu exemplarisch (Ultra-) Hochdruckgesteine ((U-)HP), sogenannte Eklogite, und deren Umgebungsgesteine aus dem nordwestlichen Himalaja, insbesondere aus dem Kaghan Tal in Pakistan untersucht um den Exhumationsprozess von tief subduzierten Krustengesteinen im allgemeinen, und im Hinblick auf mögliche klimabedingte Einflüsse, besser zu verstehen. Die Bildung des Himalajas ist auf die Versenkung, eines südlich der eurasischen Platte angesiedelten Ozeans, der Tethys, und die nachfolgende Kollision Indiens mit dem Eurasischen Kontinent vor und seit etwa 50-55 Millionen Jahre zurück zu führen. Dabei wurden kalter, dichter Ozeanboden und leichtere Krustensegmente rasch in große Tiefen subduziert. Heute sind diese Hochdruck- und ultra Hochdruckgesteine in einigen Bereichen des Himalaja zwischen schwach metamorph überprägten (600-640°C/ca. 5 kbar) Gesteinen und alten Sedimenten der Tethys aufgeschlossen. Anhand von petrographischen, mineral-chemischen, petrologischen und isotopen-geochemischen Untersuchungen dieser (Ultra) Hochdruckgesteine konnte ich zeigen, dass 1) die Gesteine in über 100 km Tiefe also bis in den Erdmantel vordrangen, 2) sie bei ihrem Aufstieg in Krustenbereiche von 40-35 km zuerst von 790-640°C auf 630-580°C abgekühlten um danach wieder auf 720-650°C aufgeheizt zu werden, sie 3) innerhalb von 700.000 Jahren um mindestens 60 km Richtung Erdoberfläche exhumiert wurden und somit 4) Geschwindigkeiten von 9-14 cm pro Jahr erreichten, die der normaler Plattengeschwindigkeiten (>10 cm/a) entspricht, wobei sich 5) dieser Prozess ab 40-35 km auf 0.1-0.2 cm/a stark verlangsamte und auch 6) ab einer Tiefe von 6 km bis zur Erdoberfläche keine, z. B. niederschlagsbedingt, erhöhte Abkühlungsrate zu erkennen ist. Eine schnelle initiale Exhumierung erfolgte durch den Dichteunterschied von leichtem, subduzierten Krustengestein zum dichteren Mantel. Dieser Prozess kam an der Krusten-Mantel-Grenze nahezu zum erliegen, einhergehend mit einer sekundären Aufheizung des Gesteins und wurde, jedoch weit weniger schnell, durch die Kollision der beiden Kontinente Eurasien und Indien und dadurch bedingte Überschiebungen, Faltungen und gravitative Abschiebungen fortgesetzt, die Gesteine zur Oberfläche transportiert und dort freigelegt. Eine erosions- und damit klimabedingte Beschleunigung oder gar gänzlich davon abhängige kontinuierliche Exhumation konnte in dieser Region des Himalajas nicht bestätigt werden. Vielmehr belegen die Daten eine mehrstufige Exhumation wie sie auch im Tso Morari Gebiet (NW Indien) angenommen wird, für weitere Ultrahochdruckareale wie, z. B. das Kokchetav Massif (Kasachstan), den Dabie Shan (China) oder den europäischen Varisziden (z. B. Böhmisches Massiv) jedoch noch geklärt werden muss, um generell gültige Mantel- und Krustenprozesse abzuleiten. KW - Himalaja (Kaghan) KW - Eklogite KW - Druck-Temperatur Bedingungen KW - (Alters-) Datierungen KW - Exhumationsraten KW - Himalaya (Kaghan Valley) KW - eclogite (UHP) KW - multi-stage exhumation KW - exhumation rates KW - geochronology Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-43138 ER - TY - THES A1 - Wilhelm, Susann T1 - Climate induced impacts on lake functioning in summer T1 - Auswirkungen des Klimawandels auf Seen im Sommer N2 - Es gibt bereits viele Hinweise dafür, dass Seen sehr sensibel auf die anthropogen verursachte Klimaerwärmung reagiert haben. Bis jetzt haben sich die Studien der Klimafolgenforschung hauptsächlichst auf die Auswirkungen der Erwärmung im Winter und Frühling konzentriert. Über den Einfluss der Klimaerwärmung auf Seen in den gemäßigten Breiten im Sommer ist weniger bekannt. In der vorliegenden Doktorarbeit habe ich einige Faktoren, welche die Reaktion von Seen auf die Erwärmung im Sommer vermutlich stark mitbestimmt haben, untersucht. Der Schwerpunkt lag dabei auf klimatisch induzierten Auswirkungen auf die thermische Charakteristik und die Phänologie und Abundanz des Planktons eines flachen und polymiktischen Sees (Müggelsee, Berlin). Zuerst wurde der Einfluss der Klimaerwärmung auf die Phänologie und Abundanz des Planktons in verschiedenen Jahreszeiten untersucht. Das schnellwachsende Phyto- und Zooplankton (Daphnia) im Frühjahr hat sich vorwiegend synchron vorverschoben, wohingegen Veränderungen des Sommerzooplanktons deutlich artspezifisch und nicht synchron waren. Die Phänologie oder Abundanz einiger Sommercopepoden hat sich entsprechend der individuellen thermischen Anforderungen innerhalb bestimmter Entwicklungsstufen, wie zum Beispiel der Emergenz von der Diapause im Frühling, verändert. Die Studie unterstreicht, dass nicht nur der Grad der Erwärmung, sondern auch dessen Zeitpunkt innerhalb des Jahres von großer ökologischer Bedeutung ist. Um die Auswirkungen des Klimawandels auf die thermischen Eigenschaften des Sees zu erforschen, habe ich die Langzeitentwicklung der täglichen epilimnischen Temperaturextrema während des Sommers untersucht. Durch diese Studie wurde zum ersten Mal für Seen gezeigt, dass die täglichen epilimnischen Minima (Nacht) stärker angestiegen sind als die Maxima (Tag), wodurch sich der tägliche epilimnische Temperaturbereich deutlich verringert hat. Diese Tag-Nacht-Asymmetrie in der epilimnischen Temperatur wurde durch eine erhöhte Emission von Langwellenstrahlung aus der Atmosphäre während der Nacht verursacht. Dies unterstreicht, dass nicht nur Erhöhungen der Lufttemperatur, sondern auch Änderungen anderer meteorologischer Variablen wie der Windgeschwindigkeit, der Luftfeuchte und der Bewölkung eine wichtige Rolle bei der Bestimmung der Seetemperatur im Hinblick auf weitere Klimaveränderungen spielen werden. Zudem wurde eine Kurzzeitanalyse zum Schichtungsverhalten des polymiktischen Sees durchgeführt, um die Häufigkeit und Dauer von Schichtungsereignissen und deren Einfluss auf den gelösten Sauerstoff, die gelösten Nährstoffe und das Phytoplankton zu untersuchen. Selbst während der längsten Schichtungsereignisse (Hitzewellen 2003 und 2006) unterschieden sich die Auswirkungen auf den See von denen, welche in flachen dimiktischen Seen während der kontinuierlichen Sommerschichtung auftreten. Die hypolimnische Temperatur war höher, was die Sauerstoffzehrung und die Akkumulation von gelösten Nährstoffen begünstigt hat. Die thermische Schichtung wird in Zukunft sehr wahrscheinlich zunehmen. Dies lässt darauf schließen, dass polymiktische Seen sehr anfällig gegenüber Änderungen im Hinblick auf projizierte Klimaveränderungen sein werden. Abschließend wurde eine Studie über Lang- und Kurzzeitveränderungen in der Entwicklung der planktischen Larven der Muschel Dreissena polymorpha durchgeführt, um den Einfluss der Veränderungen im thermischen und trophischen Regime des Sees zu analysieren. Die Klimaerwärmung und die Verringerung in der externen Nährstofffracht haben die Abundanz der Larven stark beeinflusst indem sie jeweils auf bestimmte Entwicklungsphasen dieser Art während der warmen Jahreszeiten gewirkt haben. Der Anstieg in der Abundanz und der Länge der Larven stand im Zusammenhang mit dem Rückgang der Nährstofffracht und der Veränderung der Phytoplanktonzusammensetzung. Die Hitzewellen in den Jahren 2003 und 2006 haben diesen positiven Effekt auf die Larvenabundanz jedoch durch ungünstige Sauerstoffkonzentrationen während der sehr langen Schichtung aufgehoben. Die Klimaerwärmung kann demzufolge entgegenwirkende Effekte in produktiven flachen Seen, in welchen die externe Nährstofffracht reduziert wurde, auslösen. Aus diesen Ergebnissen schließe ich, dass nicht nur die Art des Klimawandels und damit der Zeitpunkt der Erwärmung und das Auftreten von Extremen wie Hitzewellen, sondern auch standortspezifische Bedingungen wie Schichtungsverhalten und Trophiegrad entscheidende Faktoren sind, welche die Auswirkungen der Klimaerwärmung auf interne Seeprozesse im Sommer bestimmen. Somit sollte sich die weiterführende Klimafolgenforschung für Seen darauf konzentrieren, wie verschiedene Seetypen auf die komplexen Umweltveränderungen im Sommer reagieren, damit ein umfassenderes Verständnis über den Einfluss von anthropogen verursachten Veränderungen auf Seen der gemäßigten Breiten erreicht wird. N2 - There is already strong evidence that temperate lakes have been highly vulnerable to human induced climate warming during the last century. Hitherto climate impact studies have mainly focussed on the impacts of the recent long-term warming in winter and spring and little is known on the influence of climate warming on temperate lakes in summer. In the present thesis, I studied some aspects, which may have been strongly involved in determining the response of a lake to climate warming in summer. Thereby I have focussed on climate induced impacts on the thermal characteristics and the phenology and abundance of summer plankton in a shallow polymictic lake (Müggelsee, Germany). First, the influence of climate warming on the phenology and abundance of the lake plankton was investigated across seasons. Fast-growing spring phytoplankton and zooplankton (Daphnia) advanced largely synchronously, whereas long-term changes in the phenology of slow-growing summer zooplankton were clearly species-specific and not synchronised. The phenology and/or abundance of several summer copepod species changed according to their individual thermal requirements at decisive developmental stages such as emergence from diapause in spring. The study emphasises that not only the degree of warming, but also its timing within the annual cycle is of great ecological importance. To analyse the impact of climate change on the thermal characteristics of the lake, I examined the long-term development of the daily epilimnetic temperature extrema during summer. The study demonstrated for the first time for lakes that the daily epilimnetic minima (during nighttime) have increased more rapidly than the daily epilimnetic maxima (during daytime), resulting in a distinct decrease in the daily epilimnetic temperature range. This day-night asymmetry in epilimnetic temperature was likely caused by an increased nighttime emission of long-wave radiation from the atmosphere. This underlines that not only increases in air temperature, but also changes in other meteorological variables such as wind speed, relative humidity and cloud cover may play an important role in determining the lake temperature with respect to further climate change. Furthermore, a short-term analysis on the mixing regime of the polymictic lake was conducted to examine the frequency and duration of stratification events and their impacts on dissolved oxygen, dissolved nutrients and summer phytoplankton. Even during the longest stratification events (heatwaves in 2003 and 2006) the thermal characteristics of the lake differed from those typically found in shallow dimictic lakes, which exhibit a continuous stratification during summer. Particularly, hypolimnetic temperatures were higher, favouring the depletion of oxygen and the accumulation of dissolved nutrient in the hypolimnion. Thermal stratification will be very likely amplified in the future, thus, I conclude that polymictic lakes will be very vulnerable to alterations in the thermal regime with respect to projections of further climate change during summer. Finally, a long-term case study on the long and short-term changes in the development of the planktonic larvae of the freshwater mussel Dreissena polymorpha was performed to analyse the impacts of simultaneous changes in the thermal and in the trophic regime of the lake. Both the climate warming and the decrease in external nutrient load were important in determining the abundance of the pelagic larvae by affecting different features of the life-history of this species throughout the warm season. The long-term increase in the abundance and length of larvae was related to the decrease in external nutrient loading and the change in phytoplankton composition. However, the recent heatwaves in 2003 and 2006 have offset this positive effect on larval abundance, due to unfavourable low oxygen concentrations that had resulted from extremely long stratification events, mimicking the effects of nutrient enrichment. Climate warming may thus induce counteracting effects in productive shallow lakes that underwent lake restoration through a decrease in external nutrient loading. I conclude that not only the nature of climate change and thus the timing of climate warming throughout the seasons and the occurrence of climatic extremes as heatwaves, but also site-specific lake conditions as the thermal mixing regime and the trophic state are crucial factors governing the impacts of climate warming on internal lake processes during summer. Consequently, further climate impact research on lake functioning should focus on how the different lake types respond to the complex environmental forcing in summer, to allow for a comprehensive understanding of human induced environmental changes in lakes. KW - Klimawandel KW - Gewässerökologie KW - Seen KW - Climate change KW - freshwater ecology KW - lakes Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-14599 ER - TY - THES A1 - Wilhelm, Alina T1 - Stochastic re-acceleration of particles in supernova remnants T1 - Stochastische Nachbeschleunigung von Teilchen in Supernovaüberresten N2 - Supernova remnants (SNRs) are discussed as the most promising sources of galactic cosmic rays (CR). The diffusive shock acceleration (DSA) theory predicts particle spectra in a rough agreement with observations. Upon closer inspection, however, the photon spectra of observed SNRs indicate that the particle spectra produced at SNRs shocks deviate from the standard expectation. This work suggests a viable explanation for a softening of the particle spectra in SNRs. The basic idea is the re-acceleration of particles in the turbulent region immediately downstream of the shock. This thesis shows that at the re-acceleration of particles by the fast-mode waves in the downstream region can be efficient enough to impact particle spectra over several decades in energy. To demonstrate this, a generic SNR model is presented, where the evolution of particles is described by the reduced transport equation for CR. It is shown that the resulting particle and the corresponding synchrotron spectra are significantly softer compared to the standard case. Next, this work outlines RATPaC, a code developed to model particle acceleration and corresponding photon emissions in SNRs. RATPaC solves the particle transport equation in test-particle mode using hydrodynamic simulations of the SNR plasma flow. The background magnetic field can be either computed from the induction equation or follows analytic profiles. This work presents an extended version of RATPaC that accounts for stochastic re-acceleration by fast-mode waves that provide diffusion of particles in momentum space. This version is then applied to model the young historical SNR Tycho. According to radio observations, Tycho’s SNR features the radio spectral index of approximately −0.65. In previous modeling approaches, this fact has been attributed to the strongly distinctive Alfvénic drift, which is assumed to operate in the shock vicinity. In this work, the problems and inconsistencies of this scenario are discussed. Instead, stochastic re-acceleration of electrons in the immediate downstream region of Tycho’s SNR is suggested as a cause for the soft radio spectrum. Furthermore, this work investigates two different scenarios for magnetic-field distributions inside Tycho’s SNR. It is concluded that magnetic-field damping is needed to account for the observed filaments in the radio range. Two models are presented for Tycho’s SNR, both of them feature strong hadronic contribution. Thus, a purely leptonic model is considered as very unlikely. Additionally, to the detailed modeling of Tycho’s SNR, this dissertation presents a relatively simple one-zone model for the young SNR Cassiopeia A and an interpretation for the recently analyzed VERITAS and Fermi-LAT data. It shows that the γ-ray emission of Cassiopeia A cannot be explained without a hadronic contribution and that the remnant accelerates protons up to TeV energies. Thus, Cassiopeia A is found to be unlikely a PeVatron. N2 - Supernovaüberreste werden als meistversprechende Quellen für die galaktische kosmische Strahlung angesehen. Die Theorie der diffusen Schockbeschleunigung prognostiziert ein Teilchenspektrum, das grob mit den Beobachtungen übereinstimmt. Dennoch weisen die Emissionsspektren von mehreren Supernovaüberresten bei näherer Betrachtung darauf hin, dass die an der Schockwelle erzeugten Teilchenspektren von der üblichen Erwartung abweichen. Im Rahmen dieser Dissertation wird eine tragfähige Erklärung für die weicheren Teilchenspektren in Supernovaüberresten vorgestellt. Die Grundidee ist dabei eine Nachbeschleunigung von Teilchen in einem turbulenten Bereich stromabwärts unmittelbar hinter der Stoßfront. Die vorliegende Arbeit demonstriert, dass die Nachbeschleunigung von Teilchen mittels der schnellen magnetoakustischen Wellen direkt hinter dem Shock das Teilchenspektrum signifikant beeinflussen kann. Um dies zu zeigen, wird ein generisches Modell für Supernovaüberreste benutzt, bei dem die Zeitentwicklung der Teilchen durch die reduzierte Transportgleichung der kosmischen Strahlung beschrieben wird. Es zeigt sich, dass die resultierenden Teilchen- sowie dazugehörigen Synchrotronspektren im Vergleich zum Standardfall deutlich weicher sind. Als Nächstes beschreibt diese Dissertation einen Code namens RATPaC, der zur Modellierung der Teilchenbeschleunigung und entsprechenden Photonenemissionen in Supernovaüberresten entwickelt wurde. RATPaC löst die Transportgleichung der kosmischen Strahlung im Test-Teilchen-Regime unter Verwendung hydrodynamischer Simulationen für den Plasmastrom eines Supernovaüberrestes. Das Magnetfeld kann entweder mithilfe der Induktionsgleichung berechnet werden oder folgt einer analytischen Verteilung. Diese Arbeit präsentiert eine erweiterte Version von RATPaC, die unter anderem die stochastische Nachbeschleunigung mittels der schnellen magnetoakustischen Wellen und damit die Teilchendiffusion im Impulsraum enthält. Diese Version wird angewendet, um den jungen historischen Supernovaüberrest Tycho zu modellieren. Gemäß den Beobachtungen im Radiobereich weist Tycho einen spektralen Index von ungefähr -0.65 auf. In den früheren Modellierungsansätzen wurde diese Tatsache dem stark ausgeprägten Alfvénischen Drift in der Schockumgebung zugeschrieben. Im Rahmen dieser Arbeit werden Probleme und Inkonsistenzen dieses Szenarios erläutert und diskutiert. Die Nachbeschleunigung von Elektronen unmittelbar stromabwärts hinter dem Schock wird stattdessen als mögliche Ursache für das weiche Photonenspektrum im Radiobereich vorgeschlagen. Darüber hinaus werden in dieser Dissertation zwei unterschiedliche Szenarien für die Magnetfeldverteilung in Tychos Supernovaüberrest untersucht. Es wird festgestellt, dass die Dämpfung des Magnetfeldes erforderlich ist, um die beobachteten Filamente im Radiobereich zu erklären. Insgesamt werden zwei Modelle für Tychos Supernovaüberrest vorgestellt, die beide einen ausgeprägten hadronischen Beitrag aufweisen. Daraus wird festgestellt, dass ein rein leptonishes Model äußerst unwahrscheinlich ist. Zusätzlich zur detaillierten Modellierung von Tycho präsentiert diese Dissertation ein relativ einfaches Ein-Zonen-Modell für den jungen Supernovaüberrest Cassiopeia A und eine Interpretation für seine vor Kurzem analysierten VERITAS- und Fermi-LAT-Daten. Im Rahmen dieser Arbeit wird gezeigt, dass die -Strahlung von Cassiopeia A ohne einen hadronischen Beitrag nicht erklärt werden kann. Der Überrest soll dabei Protonen bis auf TeV-Energielevel beschleunigen. Somit ist es sehr unwahrscheinlich, dass es sich bei Cassiopeia A um ein PeVatron handelt. KW - supernova remnants KW - particle acceleration KW - Cassiopeia A KW - SN 1572 KW - cosmic rays KW - Supernovaüberreste KW - kosmische Strahlung KW - Teilchenbeschleunigung KW - Cassiopeia A KW - SN 1572 Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512915 ER - TY - THES A1 - Wijesingha Ahchige, Micha T1 - Canalization of plant metabolism and yield T1 - Kanalisierung des Pflanzenmetabolismus und -ertrags N2 - Plant metabolism is the main process of converting assimilated carbon to different crucial compounds for plant growth and therefore crop yield, which makes it an important research topic. Although major advances in understanding genetic principles contributing to metabolism and yield have been made, little is known about the genetics responsible for trait variation or canalization although the concepts have been known for a long time. In light of a growing global population and progressing climate change, understanding canalization of metabolism and yield seems ever-more important to ensure food security. Our group has recently found canalization metabolite quantitative trait loci (cmQTL) for tomato fruit metabolism, showing that the concept of canalization applies on metabolism. In this work two approaches to investigate plant metabolic canalization and one approach to investigate yield canalization are presented. In the first project, primary and secondary metabolic data from Arabidopsis thaliana and Phaseolus vulgaris leaf material, obtained from plants grown under different conditions was used to calculate cross-environment coefficient of variations or fold-changes of metabolite levels per genotype and used as input for genome wide association studies. While primary metabolites have lower CV across conditions and show few and mostly weak associations to genomic regions, secondary metabolites have higher CV and show more, strong metabolite to genome associations. As candidate genes, both potential regulatory genes as well as metabolic genes, can be found, albeit most metabolic genes are rarely directly related to the target metabolites, suggesting a role for both potential regulatory mechanisms as well as metabolic network structure for canalization of metabolism. In the second project, candidate genes of the Solanum lycopersicum cmQTL mapping are selected and CRISPR/Cas9-mediated gene-edited tomato lines are created, to validate the genes role in canalization of metabolism. Obtained mutants appeared to either have strong aberrant developmental phenotypes or appear wild type-like. One phenotypically inconspicuous mutant of a pantothenate kinase, selected as candidate for malic acid canalization shows a significant increase of CV across different watering conditions. Another such mutant of a protein putatively involved in amino acid transport, selected as candidate for phenylalanine canalization shows a similar tendency to increased CV without statistical significance. This potential role of two genes involved in metabolism supports the hypothesis of structural relevance of metabolism for its own stability. In the third project, a mutant for a putative disulfide isomerase, important for thylakoid biogenesis, is characterized by a multi-omics approach. The mutant was characterized previously in a yield stability screening and showed a variegated leaf phenotype, ranging from green leaves with wild type levels of chlorophyll over differently patterned variegated to completely white leaves almost completely devoid of photosynthetic pigments. White mutant leaves show wild type transcript levels of photosystem assembly factors, with the exception of ELIP and DEG orthologs indicating a stagnation at an etioplast to chloroplast transition state. Green mutant leaves show an upregulation of these assembly factors, possibly acting as overcompensation for partially defective disulfide isomerase, which seems sufficient for proper chloroplast development as confirmed by a wild type-like proteome. Likely as a result of this phenotype, a general stress response, a shift to a sink-like tissue and abnormal thylakoid membranes, strongly alter the metabolic profile of white mutant leaves. As the severity and pattern of variegation varies from plant to plant and may be effected by external factors, the effect on yield instability, may be a cause of a decanalized ability to fully exploit the whole leaf surface area for photosynthetic activity. N2 - Der pflanzliche Stoffwechsel ist der Hauptprozess, der assimilierten Kohlenstoff in unterschiedliche Stoffe umwandelt, die wichtig für das Pflanzenwachstum und somit den Ertrag sind, weswegen es ein wichtiges Forschungsthema ist. Obwohl große Fortschritte beim Verständnis der genetischen Prinzipien, die zum Stoffwechsel und Ertrag beitragen, gemacht wurden, ist noch relativ wenig über die genetischen Prinzipien bekannt, die für die Variation oder Kanalisierung von Eigenschaften verantwortlich sind, obwohl diese Konzepte schon lange bekannt sind. In Anbetracht einer wachsenden Weltbevölkerung und des fortschreitenden Klimawandels, scheint es immer wichtiger zu sein, Kanalisierung von Metabolismus und Ertrag zu verstehen, um Ernährungssicherheit zu garantieren. Unsere Gruppe hat kürzlich metabolisch kanalisierte quantitative Merkmalsregionen für den Stoffwechsel von Tomatenfrüchten gefunden und damit gezeigt, dass sich das Konzept der Kanalisierung sich auf den Stoffwechsel anwenden lässt. In dieser Arbeit werden zwei Ansätze zu Untersuchung von Kanalisierung des pflanzlichen Stoffwechsels und ein Ansatz zur Untersuchung von Ertragskanalisierung präsentiert. Im ersten Projekt, wurden Daten von Primär- und Sekundärmetaboliten von Arabidopsis thaliana und Phaseolus vulgaris, gewonnen von Pflanzen, die unter unterschiedlichen Bedingungen wuchsen, verwendet, um den Variationskoeffizient (VarK) oder die relative Änderung von Stoffgehalten umweltübergreifend für jeden Genotyp zu berechnen und als Eingabe für genomweite Assoziationsstudien verwendet. Während Primärmetabolite über unterschiedliche Umweltbedingungen einen geringeren VarK haben und nur wenige eher schwache Assoziationen zu genomischen Regionen zeigen, haben Sekundärstoffe einen höheren VarK und zeigen mehr und stärkere Assoziationen zwischen Metabolit und Genom. Als Kandidatengene können sowohl potenziell regulatorische, als auch metabolische Gene gefunden werden, jedoch sind metabolische Gene selten direkt zu den Zielmetaboliten verbunden, was für eine Rolle von sowohl regulatorischen Mechanismen als auch metabolischer Netzwerkstruktur für die Kanalisierung des Stoffwechsels spricht. Im zweiten Projekt wurden Kandidatengene aus der Solanum lycopersicum cmQTL-Kartierung, ausgewählt und CRISPR/Cas9-vermittelte, genomeditierte Tomatenlinien erschaffen, um die Rolle dieser Gene in der Kanalisierung des Metabolismus zu validieren. Erhaltene Mutanten zeigten entweder starke Fehlentwicklungsphänotypen oder erschienen wildtypähnlich. Eine phänotypisch unauffällige Mutante einer Pantothensäurekinase, die als Kandidat für die Kanalisierung von Apfelsäure gewählt wurde, zeigte einen signifikanten Anstieg des VarK über unterschiedliche Bewässerungsbedingungen. Eine andere solche Mutante eines Proteins, welches mutmaßlich im Aminosäuretransport involviert ist, welches als Kandidat für die Kanalisierung von Phenylalanin gewählt wurde, zeigt eine ähnliche Tendenz zu einem erhöhten VarK ohne statistische Signifikanz. Diese potenzielle Rolle von zwei Genen, die im Stoffwechsel involviert sind, unterstützt die Hypothese einer strukturellen Relevanz des Metabolismus für seine eigene Stabilität. Im dritten Projekt wurde eine Mutante einer mutmaßlichen Disulfid-Isomerase, welche wichtig für die Thylakoidbiogenese ist, durch einen Multiomik Ansatz charakterisiert. Die Mutante wurde vorher in einer Ertragsstabilitäts-Selektierung charakterisiert und zeigte einen panaschierten Blattphänotyp, welcher von grünen Blättern mit Wildtyp Chlorophyllgehalt über unterschiedlich gemustert panaschierte Blätter bis zu komplett weißen Blätter reichte, die fast gar keine photosynthetischen Pigmente enthielten. Weiße Blätter der Mutante zeigen Wildtyp Transkriptlevel von Photosystem-Aufbaufaktoren, mit der Ausnahme von ELIP und DEG Orthologen, was indikativ für eine Stagnation in einer Etioplast-zu-Chloroplast-Übergangsphase ist. Grüne Blätter der Mutante zeigen eine Hochregulierung dieser Aufbaufaktoren, was möglicherweise als Überkompensation für eine partiell defekte Disulfid-Isomerase wirkt und letztlich ausreichend für Chloroplastenentwicklung zu sein scheint, was wiederum durch ein wildtyp-ähnliches Proteom bestätigt wird. Wahrscheinlich als Effekt dieses Phänotyps ändern, eine generelle Stressantwort, eine Umschaltung zu einem Senke-ähnlichen Gewebe und abnormale Thylakoidmembranen, stark das metabolische Profil von weißen Blättern der Mutante. Da der Schweregrad und das Muster der Panaschierung von Pflanze zu Pflanze unterschiedlich ist und durch äußere Faktoren beeinflusst sein könnte, könnte der Effekt auf die Ertragsstabilität eine Folge einer dekanalisierten Fähigkeit sein die ganze Blattoberfläche für photosynthetische Aktivität zu nutzen. KW - canalization KW - phenotypic variation KW - metabolism KW - CRISPR/Cas9 KW - GWAS KW - CRISPR/Cas9 KW - GWAS KW - Kanalisierung KW - Metabolismus KW - phänotypische Variation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-548844 ER - TY - THES A1 - Wierzba, Marta T1 - Revisiting prosodic reconstruction T1 - Prosodische Rekonstruktion neu betrachtet BT - an interface-based approach to partial focus and topic fronting in German BT - eine schnittstellenbasierte Analyse partieller Fokus- und Topikvoranstellung im Deutschen N2 - In this thesis, I develop a theoretical implementation of prosodic reconstruction and apply it to the empirical domain of German sentences in which part of a focus or contrastive topic is fronted. Prosodic reconstruction refers to the idea that sentences involving syntactic movement show prosodic parallels with corresponding simpler structures without movement. I propose to model this recurrent observation by ordering syntax-prosody mapping before copy deletion. In order to account for the partial fronting data, the idea is extended to the mapping between prosody and information structure. This assumption helps to explain why object-initial sentences containing a broad focus or broad contrastive topic show similar prosodic and interpretative restrictions as sentences with canonical word order. The empirical adequacy of the model is tested against a set of gradient acceptability judgments. N2 - In dieser Dissertation wird ein theoretisches Modell prosodischer Rekonstruktion entwickelt und auf den empirischen Bereich deutscher Sätze mit teilweiser Voranstellung eines Fokus oder eines kontrastiven Topiks angewendet. Mit prosodischer Rekonstruktion ist die Idee gemeint, dass Sätze, die syntaktische Bewegung enthalten, prosodische Parallelen mit einfacheren Konstruktionen ohne Bewegung aufweisen. Es wird vorgeschlagen, diese Beobachtung dadurch zu modellieren, dass die Abbildungsoperation zwischen Syntax und Prosodie der Löschung von Kopien vorangeht. Auf diese Weise ist die Ausgangsposition bewegter Konstituenten noch zugänglich, wenn die prosodische Struktur bestimmt wird, und kann somit die Akzentverteilung beeinflussen. Um die Daten zu partieller Voranstellung mitzuerfassen, wird das Modell auf die Abbildung zwischen Prosodie und Informationsstruktur ausgeweitet. Diese Annahme trägt dazu bei zu erklären, wieso objektinitiale Sätze, die einen weiten Fokus oder ein weites kontrastives Topik enthalten, ähnliche prosodische und interpretative Beschränkungen aufweisen wie Sätze mit kanonischer Wortfolge. Die empirische Adäquatheit des Modells wird anhand eines neuen Datensatzes gradienter Akzeptabilitätsurteile getestet. KW - prosody KW - syntax KW - interface KW - focus KW - contrastive topic KW - Prosodie KW - Syntax KW - Schnittstelle KW - Fokus KW - kontrastives Topik Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403152 ER - TY - THES A1 - Wieland, Volkmar T1 - Particle-in-cell simulations of perpendicular supernova shock fronts T1 - Particle-in-Cell Simulationen von senkrechten Supernova Schock-Fronten N2 - The origin of cosmic rays was the subject of several studies for over a century. The investigations done within this dissertation are one small step to shed some more light on this mystery. Locating the sources of cosmic rays is not trivial due to the interstellar magnetic field. However, the Hillas criterion allows us to arrive at the conclusion that supernova remnants are our main suspect for the origin of galactic cosmic rays. The mechanism by which they are accelerating particles is found within the field of shock physics as diffusive shock acceleration. To allow particles to enter this process also known as Fermi acceleration pre-acceleration processes like shock surfing acceleration and shock drift acceleration are necessary. Investigating the processes happening in the plasma shocks of supernova remnants is possible by utilising a simplified model which can be simulated on a computer using Particle-in-Cell simulations. We developed a new and clean setup to simulate the formation of a double shock, i.e., consisting of a forward and a reverse shock and a contact discontinuity, by the collision of two counter-streaming plasmas, in which a magnetic field can be woven into. In a previous work, we investigated the processes at unmagnetised and at magnetised parallel shocks, whereas in the current work, we move our investigation on to magnetised perpendicular shocks. Due to a much stronger confinement of the particles to the collision region the perpendicular shock develops much faster than the parallel shock. On the other hand, this leads to much weaker turbulence. We are able to find indications for shock surfing acceleration and shock drift acceleration happening at the two shocks leading to populations of pre-accelerated particles that are suitable as a seed population to be injected into further diffusive shock acceleration to be accelerated to even higher energies. We observe the development of filamentary structures in the shock ramp of the forward shock, but not at the reverse shock. This leads to the conclusion that the development of such structures in the shock ramp of quasi-perpendicular collisionless shocks might not necessarily be determined by the existence of a critical sonic Mach number but by a critical shock speed. The results of the investigations done within this dissertation might be useful for further studies of oblique shocks and for studies using hybrid or magnetohydrodynamic simulations. Together with more sophisticated observational methods, these studies will help to bring us closer to an answer as to how particles can be accelerated in supernova remnants and eventually become cosmic rays that can be detected on Earth. N2 - Der Ursprung der kosmischen Strahlung war seit über einem Jahrhundert Gegenstand von zahlreichen Untersuchungen. Die Untersuchungen, welche innerhalb dieser Dissertation gemacht wurden, sind ein kleiner Schritt dazu etwas mehr Licht auf dieses Geheimnis zu werfen. Die Quellen der kosmischen Strahlung herauszufinden stellt sich aufgrund des interstellaren Magnetfeldes als nicht trivial heraus. Jedoch erlaubt uns das Hillas-Kriterium die Schlussfolgerung, dass Supernovaüberreste unsere Hauptverdächtigen für den Ursprung der galaktischen kosmischen Strahlung sind. Der Mechanismus, durch welchen sie Teilchen beschleunigen, kann im Gebiet der Schock-Physik in Form der diffusen Schockbeschleunigung gefunden werden. Um den Teilchen zu ermöglichen an diesem Prozess, der auch als Fermi-Beschleunigung bekannt ist, teilzunehmen, sind Vorbeschleunigungsprozesse wie die Schock-Surfing-Beschleunigung und die Schock-Drift-Beschleunigung nötig. Die Untersuchung der Prozesse in Plasma-Schocks ist durch die Verwendung eines vereinfachten Modells möglich, welches sich mit Hilfe von Particle-in-Cell Simulationen auf einem Computer simulieren lässt. Wir haben einen neuen und sauberen Setup entwickelt um die Entstehung eines Doppelschocks, bestehend aus einem vorwärts und einem rückwärts gerichtet Schock und einer Kontakt-Diskontinuität, durch die Kollision zweier gegeneinander strömender Plasmen, in welche ein Magnetfeld eingelagert werden kann, zu simulieren. In einer vorhergehenden Arbeit haben wir bereits die Prozesse an unmagnetisierten und an magnetisierten parallelen Schocks untersucht, weshalb wir in der vorliegenden Arbeit zu der Untersuchung magnetisierter senkrechter Schocks weiter gegangen sind. Aufgrund eines sehr viel stärkeren Einfangens der Teilchen in der Kollisionsregion, entwickelt sich der senkrechte Schock sehr viel schneller als der parallele Schock. Andererseits führt dies zu einer viel schwächeren Turbulenz. Wir finden Anzeichen für Schock-Surfing-Beschleunigung und Schock-Drift-Beschleunigung in beiden Schocks, welche Populationen von vorbeschleunigten Teilchen erzeugen, die wiederum als Ausgangspopulation für die Injektion in die diffusive Schock-Beschleunigung geeignet sind um zu noch höheren Energien beschleunigt zu werden. Wir beobachten die Entwicklung von Filamentstrukturen in der Schockrampe des vorwärts gerichteten Schocks, jedoch nicht im rückwärts gerichtet Schock. Dies führt zu der Schlussfolgerung, dass die Entwicklung dieser Strukturen in der Schockrampe von quasi-senkrechten kollisionsfreien Schocks nicht notwendigerweise durch die Existenz einer kritischen sonischen Machzahl bestimmt ist, sondern durch eine kritische Schock-Geschwindigkeit. Die Ergebnisse der Untersuchungen in dieser Dissertation können sich für weiterführende Untersuchungen von schrägen Schocks und für Untersuchungen mit Hilfe von hybriden oder magnetohydrodynamischen Simulationen als nützlich erweisen. Zusammen mit ausgefeilteren Beobachtungsmethoden helfen uns diese Untersuchungen dabei näher an eine Antwort auf die Frage zu kommen, wie Teilchen in Supernovaüberresten beschleunigt werden können um schließlich als kosmische Strahlung auf der Erde detektiert werden zu können. KW - cosmic rays KW - kosmische Strahlung KW - supernova remnants KW - Supernovaüberreste KW - particle-in-cell simulations Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74532 ER - TY - THES A1 - Widdrat, Marc T1 - Formation and alteration of magnetite nanoparticles N2 - Magnetite is an iron oxide, which is ubiquitous in rocks and is usually deposited as small nanoparticulate matter among other rock material. It differs from most other iron oxides because it contains divalent and trivalent iron. Consequently, it has a special crystal structure and unique magnetic properties. These properties are used for paleoclimatic reconstructions where naturally occurring magnetite helps understanding former geological ages. Further on, magnetic properties are used in bio- and nanotechnological applications –synthetic magnetite serves as a contrast agent in MRI, is exploited in biosensing, hyperthermia or is used in storage media. Magnetic properties are strongly size-dependent and achieving size control under preferably mild synthesis conditions is of interest in order to obtain particles with required properties. By using a custom-made setup, it was possible to synthesize stable single domain magnetite nanoparticles with the co-precipitation method. Furthermore, it was shown that magnetite formation is temperature-dependent, resulting in larger particles at higher temperatures. However, mechanistic approaches about the details are incomplete. Formation of magnetite from solution was shown to occur from nanoparticulate matter rather than solvated ions. The theoretical framework of such processes has only started to be described, partly due to the lack of kinetic or thermodynamic data. Synthesis of magnetite nanoparticles at different temperatures was performed and the Arrhenius plot was used determine an activation energy for crystal growth of 28.4 kJ mol-1, which led to the conclusion that nanoparticle diffusion is the rate-determining step. Furthermore, a study of the alteration of magnetite particles of different sizes as a function of their storage conditions is presented. The magnetic properties depend not only on particle size but also depend on the structure of the oxide, because magnetite oxidizes to maghemite under environmental conditions. The dynamics of this process have not been well described. Smaller nanoparticles are shown to oxidize more rapidly than larger ones and the lower the storage temperature, the lower the measured oxidation. In addition, the magnetic properties of the altered particles are not decreased dramatically, thus suggesting that this alteration will not impact the use of such nanoparticles as medical carriers. Finally, the effect of biological additives on magnetite formation was investigated. Magnetotactic bacteria¬¬ are able to synthesize and align magnetite nanoparticles of well-defined size and morphology due to the involvement of special proteins with specific binding properties. Based on this model of morphology control, phage display experiments were performed to determine peptide sequences that preferably bind to (111)-magnetite faces. The aim was to control the shape of magnetite nanoparticles during the formation. Magnetotactic bacteria are also able to control the intracellular redox potential with proteins called magnetochromes. MamP is such a protein and its oxidizing nature was studied in vitro via biomimetic magnetite formation experiments based on ferrous ions. Magnetite and further trivalent oxides were found. This work helps understanding basic mechanisms of magnetite formation and gives insight into non-classical crystal growth. In addition, it is shown that alteration of magnetite nanoparticles is mainly based on oxidation to maghemite and does not significantly influence the magnetic properties. Finally, biomimetic experiments help understanding the role of MamP within the bacteria and furthermore, a first step was performed to achieve morphology control in magnetite formation via co-precipitation. N2 - Magnetit ist ein Eisenoxid, welches ein häufiger Bestandteil in Mineralen ist und normalerweise als nm-großen Teilchen unter anderem Gesteinsmaterial verteilt ist. Es unterscheidet sich in seiner Zusammensetzung von den meisten anderen Eisenoxiden, da es sowohl divalente als auch trivalente Eisenoxide enthält. Die Folge ist eine besondere Kristallstruktur und somit einzigartige magnetische Eigenschaften. Diese Eigenschaften werden bei paläoklimatologischen Rekonstruktionen genutzt, bei denen natürlich vorkommender Magnetit hilft, die Bedingungen vergangener Zeitalter zu verstehen. Weiterhin werden die magnetischen Eigenschaften in bio- und nanotechnologischen Anwendungen genutzt. Synthetischer Magnetit dient als Kontrastmittel in der MRT, in biologischen Sensorsystemen, bei Hyperthermie-Behandlungen oder als Grundlage für Datenspeichermedien. Da die magnetischen Eigenschaften im nm-Bereich stark von der Größe der Teilchen abhängen, ist eine möglichst präzise Kontrolle der Größe von enormer Bedeutung. Mit Hilfe eines maßgefertigten Syntheseaufbaus war es möglich durch Mitfällung Teilchen oberhalb des superparamagnetischen Schwellenwerts zu produzieren. Außerdem konnte eine Temperaturabhängigkeit gezeigt werden; höhere Temperaturen während der Magnetit-Bildung resultieren in größeren Teilchen. Der Prozess dahinter ist jedoch noch nicht vollständig geklärt. Die Bildung von Magnetit in wässriger Lösung erfolgt nicht über Ionen, sondern wird über die zwischenzeitliche Bildung von nm-großen Vorläufern realisiert. Unter Berücksichtigung dieser Vorläufer wurde die Bildung von Magnetit in einen neuen theoretischen Rahmen gesetzt, jedoch mangelt es bisher an kinetischen Daten. Durch die Synthese von Magnetit bei unterschiedlichen Temperaturen konnte mit Hilfe des Arrhenius-Plots eine Aktivierungsenergie für das Kristallwachstum von 28.4 kJ mol-1 ermittelt werden. Dieser Wert deutet auf einen diffusionskontrollierten Prozess hin. Auch die Alterung von Magnetit-Nanopartikeln spielt eine wichtige Rolle, da Magnetit unter Umgebungsbedingungen zu Maghämit oxidiert wird. Deshalb wird hier eine Studie zur Alterung von Magnetit-Nanopartikeln unterschiedlicher Größe unter verschiedenen Lagerungsbedingungen präsentiert. Kleine Teilchen tendieren zu stärkerer Oxidation im selben Zeitraum und weiterhin oxidieren die Teilchen weniger, je geringer die Temperatur ist. Da Magnetit und Maghämit sich in ihren magnetischen Eigenschaften nur geringfügig unterscheiden, werden diese durch den oxidativen Prozess nur geringfügig beeinflusst. Als letztes wurde der Einfluss biologischer Zusätze zur Magnetit-Bildung überprüft. Magnetotaktische Bakterien sind in der Lage, Magnetit-Nanopartikel von definierter Größe und Morphologie herzustellen, involviert sind eine Reihe von spezifischen Proteinen mit speziellen Bindungseigenschaften. Darauf basierend wurden, zur Selektion spezifischer Peptidsequenzen, Phagen-Display-Experimente an einer (111)-Magnetitoberfläche durchgeführt. Diese sollten eine Morphologie-Kontrolle während der Magnetit-Synthese ermöglichen. Magnetotaktische Bakterien sind außerdem in der Lage das intrazelluläre Redox-Potential mit Hilfe von Proteinen, den Magnetochromen, zu kontrollieren. MamP ist eines dieser Proteine und sein oxidatives Potential wurde in einer in vitro-Magnetit-Synthese überprüft. Der Einsatz von FeII ergab sowohl Magnetit als auch trivalente Eisenoxide als Produkte. Diese Arbeit ermöglicht einen Einblick in die grundlegenden Mechanismen der Magnetit-Bildung, welche unter nicht-klassischen Bedingungen abläuft. Die Alterung der Nanopartikel, welche hauptsächlich die Oxidation zu Maghämit beinhaltet, hat nur geringen Einfluss auf die magnetischen Eigenschaften. Biomimetische Experimente halfen die Rolle von MamP innerhalb der Bakterien zu verstehen und zuletzt wurde ein erster Versuch unternommen, die von den Bakterien erreichte Morphologie-Kontrolle auch in vitro zu ermöglichen. T2 - Bildung und Alterung von Magnetit-Nanopartikeln KW - crystallization of magnetite nanoparticle KW - alteration of magnetite KW - growth kinetics KW - Kristallisation von Magnetit-Nanopartikeln KW - Wachstumskinetik KW - magnetische Eigenschaften KW - Röntgenbeugung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72239 ER - TY - THES A1 - Wick, Kristin T1 - Motor and cognitive performance in kindergarten children T1 - Motorische und kognitive Leistungsfähigkeit bei Kindergartenkindern N2 - Childhood compared to adolescence and adulthood is characterized by high neuroplasticity represented by accelerated cognitive maturation and rapid cognitive developmental trajectories. Natural growth, biological maturation and permanent interaction with the physical and social environment fosters motor and cognitive development in children. Of note, the promotion of physical activity, physical fitness, and motor skill learning at an early age is mandatory first, as these aspects are essential for a healthy development and an efficient functioning in everyday life across the life span and second, physical activity behaviors and lifestyle habits tend to track from childhood into adulthood. The main objective of the present thesis was to optimize and deepen the knowledge of motor and cognitive performance in young children and to develop an effective and age-appropriate exercise program feasible for the implementation in kindergarten and preschool settings. A systematic review with meta-analysis was conducted to examine the effectiveness of fundamental movement skill and exercise interventions in healthy preschool-aged children. Further, the relation between measures of physical fitness (i.e., static balance, muscle strength, power, and coordination) and attention as one domain of cognitive performance in preschool-aged children was analyzed. Subsequently, effects of a strength-dominated kindergarten-based exercise program on physical fitness components (i.e., static balance, muscle strength, power, and coordination) and cognitive performance (i.e., attention) compared to a usual kindergarten curriculum was examined. The systematic review included trials focusing on healthy young children in kindergarten or preschool settings that applied fundamental movement skill-enhancing intervention programs of at least 4 weeks and further reported standardized motor skill outcome measures for the intervention and the control group. Children aged 4-6 years from three kindergartens participated in the cross-sectional and the longitudinal study. Product-orientated measures were conducted for the assessment of muscle strength (i.e., handgrip strength), muscle power (i.e., standing long jump), balance (i.e., timed single-leg stand), coordination (hopping on right/left leg), and attentional span (i.e., “Konzentrations-Handlungsverfahren für Vorschulkinder” [concentration-action procedure for preschoolers]). With regards to the scientific literature, exercise and fundamental movement skill interventions are an effective method to promote overall proficiency in motor skills (i.e., object control and locomotor skills) in preschool children particularly when conducted by external experts with a duration of 4 weeks to 5 months. Moreover, significant medium associations were found between the composite score of physical fitness and attention as well as between coordination separately and attention in children aged 4-6 years. A 10-weeks strength-dominated exercise program implemented in kindergarten and preschool settings by educated and trained kindergarten teachers revealed significant improvements for the standing long jump test and the Konzentrations-Handlungsverfahren of intervention children compared to children of the control group. The findings of the present thesis imply that fundamental movement skill and exercise interventions improve motor skills (i.e., locomotor and object control skills). Nonetheless, more high-quality research is needed. Additionally, physical fitness, particularly high performance in complex fitness components (i.e., coordination measured with the hopping on one leg test), tend to predict attention in preschool age. Furthermore, an exercise program including strength-dominated exercises, fundamental movement skills and elements of gymnastics has a beneficial effect on jumping performance with a concomitant trend toward improvements in attentional capacity in healthy preschool children. Finally, it is recommended to start early with the integration of muscular fitness (i.e., muscle strength, muscle power, muscular endurance) next to coordination, agility, balance, and fundamental movement skill exercises into regular physical activity curriculums in kindergarten settings. N2 - Das Kindesalter ist im Vergleich zum Jugend- und Erwachsenenalter durch eine hohe Neuroplastizität, charakterisiert, welche durch beschleunigte Reifungsprozesse und rasche kognitive Entwicklungsverläufe gekennzeichnet ist. Natürliches Wachstum, biologische Reifung und die permanente Auseinandersetzung mit der physischen und sozialen Umwelt unterstützen und fördern die motorische und kognitive Entwicklung von Kindern. Bemerkenswert ist, dass bereits ab dem frühen Kindesalter die Förderung von körperlicher Aktivität, motorischen Fähigkeiten und Fertigkeiten unablässig ist, da sie zum einen wesentliche Faktoren für eine gesunde Entwicklung sowie eine effiziente alltägliche Funktionstüchtigkeit im Lebensverlauf darstellen und zum anderen das Aktivitätsverhalten und die Lebensgewohnheiten des Kindesalters tendenziell ins Erwachsenenalter übernommen werden. Die Zielstellung der vorliegenden Arbeit war es, das Wissen über motorische und kognitive Leistungsfähigkeit im frühen Kindesalter zu vertiefen und effektive altersgerechte Bewegungsprogramme für die Umsetzung im Setting Kindertagesstätte zu entwickeln. Es wurde ein systematisches Review mit Metaanalyse erarbeitet, um die Effekte von Bewegungsprogrammen zur Verbesserung elementarer Bewegungsfertigkeiten bei gesunden Vorschulkindern zu untersuchen. Zudem wurden die Zusammenhänge zwischen motorischen Fähigkeiten (z.B. statisches Gleichgewicht, Maximalkraft, Schnellkraft und Koordination) und der Konzentration, als ein Bereich der kognitiven Leistungsfähigkeit, im Kindesalter analysiert. Anschließend wurde die Wirksamkeit eines kraft-orientierten Bewegungsprogramms gegenüber einem gewöhnlichen Kindergartencurriculums auf motorische Fähigkeiten, wie statisches Gleichgewicht, Maximalkraft, Schnellkraft und Koordination sowie auf kognitive Leistungsfähigkeit, wie die Konzentration, überprüft. Das systematische Review beinhaltete Studien mit gesunden jungen Kindern im Setting Kindertagesstätte, welche Bewegungsprogramme von mindestens 4 Wochen zur Verbesserung der elementaren Bewegungsfertigkeiten durchführten und Ergebnisse der Interventions- sowie Kontrollgruppen mithilfe standardisierter motorischer Tests berichteten. In der Querschnitts- und Längsschnittstudie nahmen Kinder im Alter von 4-6 Jahren aus drei Kindertagesstätten teil. Ergebnisorientierte motorische Messungen wurden durchgeführt, um die Maximalkraft (Handkraft), die Schnellkraft (Standweitsprung), das Gleichgewicht (Einbeinstand), die Koordination (einbeiniges Hüpfen rechts/links) und die Konzentrationsfähigkeit (Konzentrations-Handlungsverfahren für Vorschulkinder (KHV-VK)) zu erheben. Mit Bezug zur wissenschaftlichen Literatur stellen Bewegungsprogramme eine effektive Möglichkeit dar, motorische Fertigkeiten (lokomotorische sowie objektbezogene Fertigkeiten) bei Vorschulkindern zu fördern, vor allem, wenn sie von externen Experten durchgeführt werden und eine Dauer von 4 Wochen bis 5 Monaten haben. Darüber hinaus konnten signifikante Zusammenhänge zwischen motorischen Fähigkeiten und der Konzentration sowie insbesondere zwischen der Koordination allein und der Konzentration bei Kindern im Alter von 4-6 Jahren gefunden werden. Ein 10-wöchiges kraft-orientiertes Bewegungsprogramm, welches durch geschultes und qualifiziertes Kindergartenpersonal in Kindertagesstätten durchgeführt wurde, führte zudem zu signifikanten Verbesserungen im Standweitsprung und im KHV-VK bei Kindern der Interventionsgruppe im Vergleich zu Kontrollgruppe. Die Ergebnisse der vorliegenden Arbeit zeigen, dass Bewegungsprogramme motorische Fertigkeiten, wie lokomotorische und objektbezogenen Fertigkeiten, verbessern. Dennoch gibt es Bedarf an weiterführenden, methodisch gut designten und qualitativ hochwertigen Interventionsstudien. Motorische Fähigkeiten, besonders gut ausgebildete komplexe Fähigkeiten wie die Koordination (gemessen mit dem einbeinigen Hüpfen), scheinen die Konzentrationsfähigkeit im Vorschulalter zu beeinflussen. Zudem verbessert ein Trainingsprogramm mit kraft-orientierte Übungen, elementare Bewegungsfertigkeiten und turnerischen Elementen die Sprungleistung und scheint gleichzeitig einen Einfluss auf die Konzentrationsfähigkeit bei gesunden Vorschulkindern zu haben. Letztendlich empfiehlt es sich, bereits in jungen Jahren Kraftfähigkeiten, wie Maximal- und Schnellkraft und Kraftausdauer neben Koordination, Agilität, Gleichgewicht und elementaren Bewegungsfertigkeiten zu schulen und diese in regelmäßige Bewegungsstunden im Setting Kindertagesstätte zu integrieren. KW - kindergarten KW - preschool children KW - cognitive skills KW - fundamental movement skills KW - physical fitness KW - kognitive Fähigkeiten KW - elementare Bewegungsfertigkeiten KW - körperliche Fitness KW - Vorschulkinder KW - Kindergarten Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-592532 ER - TY - THES A1 - Wichura, Henry T1 - Topographic evolution of the East African Plateau : a combined study on lava-flow modeling and paleo-topography T1 - Die topographische Entwicklung des Ostafrikanischen Plateaus : eine kombinierte Studie über Lavastrommodellierung und Paläotopographie N2 - The East African Plateau provides a spectacular example of geodynamic plateau uplift, active continental rifting, and associated climatic forcing. It is an integral part of the East African Rift System and has an average elevation of approximately 1,000 m. Its location coincides with a negative Bouguer gravity anomaly with a semi-circular shape, closely related to a mantle plume, which influences the Cenozoic crustal development since its impingement in Eocene-Oligocene time. The uplift of the East African Plateau, preceding volcanism, and rifting formed an important orographic barrier and tectonically controlled environment, which is profoundly influenced by climate driven processes. Its location within the equatorial realm supports recently proposed hypotheses, that topographic changes in this region must be considered as the dominant forcing factor influencing atmospheric circulation patterns and rainfall distribution. The uplift of this region has therefore often been associated with fundamental climatic and environmental changes in East Africa and adjacent regions. While the far-reaching influence of the plateau uplift is widely accepted, the timing and the magnitude of the uplift are ambiguous and are still subject to ongoing discussion. This dilemma stems from the lack of datable, geomorphically meaningful reference horizons that could record surface uplift. In order to quantify the amount of plateau uplift and to find evidence for the existence of significant relief along the East African Plateau prior to rifting, I analyzed and modeled one of the longest terrestrial lava flows; the 300-km-long Yatta phonolite flow in Kenya. This lava flow is 13.5 Ma old and originated in the region that now corresponds to the eastern rift shoulders. The phonolitic flow utilized an old riverbed that once drained the eastern flank of the plateau. Due to differential erosion this lava flow now forms a positive relief above the parallel-flowing Athi River, which is mimicking the course of the paleo-river. My approach is a lava-flow modeling, based on an improved composition and temperature dependent method to parameterize the flow of an arbitrary lava in a rectangular-shaped channel. The essential growth pattern is described by a one-dimensional model, in which Newtonian rheological flow advance is governed by the development of viscosity and/or velocity in the internal parts of the lava-flow front. Comparing assessments of different magma compositions reveal that length-dominated, channelized lava flows are characterized by high effusion rates, rapid emplacement under approximately isothermal conditions, and laminar flow. By integrating the Yatta lava flow dimensions and the covered paleo-topography (slope angle) into the model, I was able to determine the pre-rift topography of the East African Plateau. The modeling results yield a pre-rift slope of at least 0.2°, suggesting that the lava flow must have originated at a minimum elevation of 1,400 m. Hence, high topography in the region of the present-day Kenya Rift must have existed by at least 13.5 Ma. This inferred mid-Miocene uplift coincides with the two-step expansion of grasslands, as well as important radiation and speciation events in tropical Africa. Accordingly, the combination of my results regarding the Yatta lava flow emplacement history, its location, and its morphologic character, validates it as a suitable “paleo-tiltmeter” and has thus to be considered as an important topographic and volcanic feature for the topographic evolution in East Africa. N2 - Das Ostafrikanische Plateau ist ein eindrucksvolles Beispiel für aktive, kontinentale Grabenbildung, aber auch für geodynamische Hochebenenbildung mit weitreichendem klimatischen Einfluss auf die gesamte Region. Als integraler Bestandteil des Ostafrikanischen Grabensystems beläuft sich die mittlere Höhe des Plateaus auf durchschnittlich 1000 m ü.NN. Seine Lage korreliert gut mit der Präsenz einer halbkreisförmigen negativen Bouguer-Schwereanomalie, die an den Aufstieg eines Manteldiapirs im Untergrund gekoppelt ist. Dieser prägte die känozoische Krustenentwicklung seit seinem Aufstieg im Eozän-Oligozän. Die Hebungsgeschichte und topographische Entwicklung des Hochlandes steht seither in enger Beziehung zum einsetzenden Vulkanismus, der Bildung erster Abschiebungssysteme und führte schließlich zur Entwicklung des heutigen Vollgrabensystems. Neueste Hypothesen lassen den Schluss zu, dass topographische Veränderungen als dominierende Einflussgrößen atmosphärischer Zirkulationsmuster sowie der regionalen Niederschlagsverbreitung anzusehen sind. Zusätzlich werden diese Prozesse durch die äquatoriale Lage des Ostafrikanischen Plateaus verstärkt und die Hebung dieser Region oft mit wichtigen Klima- und Umweltveränderungen in Ostafrika und angrenzende Gebiete in Verbindung gebracht. Während der weitreichende klimatische Einfluss des Hochlandes größtenteils akzeptiert ist, sind Zeitpunkt und Ausmaß seiner Heraushebung nicht eindeutig bestimmt und daher noch immer Grundlage bestehender Diskussionen. Diese Zwangslage hat ihre Ursache im Fehlen aussagekräftiger und datierbarer Referenzhorizonte. Um den Hebungsbetrag zu quantifizieren und Beweise signifikanten Reliefs vor der Entwicklung des Grabensystems entlang des Ostafrikanischen Hochlandes zu erbringen, analysierte und modellierte ich einen der längsten terrestrischen Lavaströme. Dieser vor 13,5 Ma abgelagerte Yatta-Lavastrom hat mit 300 km Länge seinen Ursprung in der Region der heutigen östlichen Grabenschulter des zentralen Kenia-Rifts. Die phonolitische Lava ergoss sich entlang eines Flussbettes, das einst die östliche Flanke des Hochlandes entwässerte. Aufgrund unterschiedlicher Erosionspotentiale bildet der Lavastrom gegenwärtig ein positives Relief und befindet sich oberhalb des Athi Flusses, der parallel zum Paläofluß, und somit versetzt zu seinen früheren Verlauf, strömt. Mein Ansatz der Lavastrom-Modellierung basiert auf einer Methode, die das Fließverhalten einer beliebigen Lava in Abhängigkeit von Temperatur und Magmenzusammensetzung in einem rechtwinkligen Kanal berechnet. Die wesentlichen Wachstumsmuster des Lavastroms sind durch ein eindimensionales Modell beschrieben, wobei Newtonsches Fließverhalten im Innern hinter der Lavastromfront von der zeitlichen Entwicklung der Viskosität und/oder der Fließgeschwindigkeit bestimmt wird. Vergleiche meiner Resultate mit verschiedenen Magmenzusammensetzungen zeigen, dass sich lange, kanalisierte Lavaströme mit hohen Ergussraten und schneller Platznahme bilden können. Dies geschieht unter annähernd isothermalen Bedingungen und erfordert laminares Fließen. Die Integration der Yatta- Lavastrom-Dimensionen und der bedeckten Paläotopographie (Neigungswinkel) in das Modell, erlaubte es mir die Topographie des Ostafrikanischen Hochlandes vor der Grabenbildung zu modellieren. Das Ergebnis der Modellierung ergibt einen Neigungswinkel von mindestens 0,2° und impliziert, dass der Lavastrom seinen Ursprung in einer Höhe von mindestens 1400 m ü.NN gehabt haben muss. Somit existierte bereits vor 13,5 Ma hohe Topographie in der heutigen Region des zentralen Kenia-Rifts. Diese abgeleitete regionale Hebungsgeschichte im mittleren Miozän korreliert mit der zweistufigen Ausbreitung der Graslandschaften, sowie dem Aufkommen neuer Arten im tropischen Afrika. Die Kombination aus Fließverhalten, Entstehungsort und morphologischer Eigenschaften macht den Yatta-Lavastrom zu einem “Paläoneigungsmesser” und wichtigen vulkanischen Untersuchungsobjekt für die topographische Entwicklung in Ostafrika. KW - Ostafrika KW - Plateau KW - Paläotopographie KW - Miozän KW - Yatta KW - East African Plateau KW - paleo-topography KW - Miocene KW - Yatta Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52363 ER - TY - THES A1 - Wichitsa-nguan, Korakot T1 - Modifications and extensions of the logistic regression and Cox model T1 - Modifikationen und Erweiterungen des logistischen Regressionsmodells und des Cox-Modells N2 - In many statistical applications, the aim is to model the relationship between covariates and some outcomes. A choice of the appropriate model depends on the outcome and the research objectives, such as linear models for continuous outcomes, logistic models for binary outcomes and the Cox model for time-to-event data. In epidemiological, medical, biological, societal and economic studies, the logistic regression is widely used to describe the relationship between a response variable as binary outcome and explanatory variables as a set of covariates. However, epidemiologic cohort studies are quite expensive regarding data management since following up a large number of individuals takes long time. Therefore, the case-cohort design is applied to reduce cost and time for data collection. The case-cohort sampling collects a small random sample from the entire cohort, which is called subcohort. The advantage of this design is that the covariate and follow-up data are recorded only on the subcohort and all cases (all members of the cohort who develop the event of interest during the follow-up process). In this thesis, we investigate the estimation in the logistic model for case-cohort design. First, a model with a binary response and a binary covariate is considered. The maximum likelihood estimator (MLE) is described and its asymptotic properties are established. An estimator for the asymptotic variance of the estimator based on the maximum likelihood approach is proposed; this estimator differs slightly from the estimator introduced by Prentice (1986). Simulation results for several proportions of the subcohort show that the proposed estimator gives lower empirical bias and empirical variance than Prentice's estimator. Then the MLE in the logistic regression with discrete covariate under case-cohort design is studied. Here the approach of the binary covariate model is extended. Proving asymptotic normality of estimators, standard errors for the estimators can be derived. The simulation study demonstrates the estimation procedure of the logistic regression model with a one-dimensional discrete covariate. Simulation results for several proportions of the subcohort and different choices of the underlying parameters indicate that the estimator developed here performs reasonably well. Moreover, the comparison between theoretical values and simulation results of the asymptotic variance of estimator is presented. Clearly, the logistic regression is sufficient for the binary outcome refers to be available for all subjects and for a fixed time interval. Nevertheless, in practice, the observations in clinical trials are frequently collected for different time periods and subjects may drop out or relapse from other causes during follow-up. Hence, the logistic regression is not appropriate for incomplete follow-up data; for example, an individual drops out of the study before the end of data collection or an individual has not occurred the event of interest for the duration of the study. These observations are called censored observations. The survival analysis is necessary to solve these problems. Moreover, the time to the occurence of the event of interest is taken into account. The Cox model has been widely used in survival analysis, which can effectively handle the censored data. Cox (1972) proposed the model which is focused on the hazard function. The Cox model is assumed to be λ(t|x) = λ0(t) exp(β^Tx) where λ0(t) is an unspecified baseline hazard at time t and X is the vector of covariates, β is a p-dimensional vector of coefficient. In this thesis, the Cox model is considered under the view point of experimental design. The estimability of the parameter β0 in the Cox model, where β0 denotes the true value of β, and the choice of optimal covariates are investigated. We give new representations of the observed information matrix In(β) and extend results for the Cox model of Andersen and Gill (1982). In this way conditions for the estimability of β0 are formulated. Under some regularity conditions, ∑ is the inverse of the asymptotic variance matrix of the MPLE of β0 in the Cox model and then some properties of the asymptotic variance matrix of the MPLE are highlighted. Based on the results of asymptotic estimability, the calculation of local optimal covariates is considered and shown in examples. In a sensitivity analysis, the efficiency of given covariates is calculated. For neighborhoods of the exponential models, the efficiencies have then been found. It is appeared that for fixed parameters β0, the efficiencies do not change very much for different baseline hazard functions. Some proposals for applicable optimal covariates and a calculation procedure for finding optimal covariates are discussed. Furthermore, the extension of the Cox model where time-dependent coefficient are allowed, is investigated. In this situation, the maximum local partial likelihood estimator for estimating the coefficient function β(·) is described. Based on this estimator, we formulate a new test procedure for testing, whether a one-dimensional coefficient function β(·) has a prespecified parametric form, say β(·; ϑ). The score function derived from the local constant partial likelihood function at d distinct grid points is considered. It is shown that the distribution of the properly standardized quadratic form of this d-dimensional vector under the null hypothesis tends to a Chi-squared distribution. Moreover, the limit statement remains true when replacing the unknown ϑ0 by the MPLE in the hypothetical model and an asymptotic α-test is given by the quantiles or p-values of the limiting Chi-squared distribution. Finally, we propose a bootstrap version of this test. The bootstrap test is only defined for the special case of testing whether the coefficient function is constant. A simulation study illustrates the behavior of the bootstrap test under the null hypothesis and a special alternative. It gives quite good results for the chosen underlying model. References P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large samplestudy. Ann. Statist., 10(4):1100{1120, 1982. D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187{220, 1972. R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1{11, 1986. N2 - In vielen statistischen Anwendungen besteht die Aufgabe darin, die Beziehung zwischen Einflussgrößen und einer Zielgröße zu modellieren. Die Wahl eines geeigneten Modells hängt vom Typ der Zielgröße und vom Ziel der Untersuchung ab - während lineare Modelle für die Beschreibung des Zusammenhanges stetiger Outputs und Einflussgrößen genutzt werden, dienen logistische Regressionsmodelle zur Modellierung binärer Zielgrößen und das Cox-Modell zur Modellierung von Lebendauer-Daten. In epidemiologischen, medizinischen, biologischen, sozialen und ökonomischen Studien wird oftmals die logistische Regression angewendet, um den Zusammenhang zwischen einer binären Zielgröße und den erklärenden Variablen, den Kovariaten, zu modellieren. In epidemiologischen Studien muss häufig eine große Anzahl von Individuen für eine lange Zeit beobachtet werden. Um hierbei Kosten zu reduzieren, wird ein "Case-Cohort-Design" angewendet. Hierbei werden die Einflussgrößen nur für die Individuen erfasst, für die das interessierende Ereignis eintritt, und für eine zufällig gewählte kleine Teilmenge von Individuen, die Subkohorte. In der vorliegenden Arbeit wird das Schätzen im logistischen Regressionsmodell unter Case-Cohort-Design betrachtet. Für den Fall, dass auch die Kovariate binär ist, wurde bereits von Prentice (1986) die asymptotische Normalität des Maximum-Likelihood-Schätzers für den Logarithmus des "odds ratio", einen Parameter, der den Effekt der Kovariate charakterisiert, angegeben. In dieser Arbeit wird über einen Maximum-Likelihood-Zugang ein Schätzer für die Varianz der Grenzverteilung hergeleitet, für den durch empirische Untersuchungen gezeigt wird, dass er dem von Prentice überlegen ist. Ausgehend von dem binärem Kovariate-Modell werden Maximum-Likelihood-Schätzer für logistische Regressionsmodelle mit diskreten Kovariaten unter Case-Cohort-Design hergeleitet. Die asymptotische Normalität wird gezeigt; darauf aufbauend können Formeln für die Standardfehler angegeben werden. Simulationsstudien ergänzen diesen Abschnitt. Sie zeigen den Einfluss des Umfanges der Subkohorte auf die Varianz der Schätzer. Logistische Regression ist geeignet, wenn man das interessierende Ereignis für alle Individuen beobachten kann und wenn man ein festes Zeitintervall betrachtet. Will man die Zeit bis zum Eintreten eines Ereignisses bei der Untersuchung der Wirkung der Kovariate berücksichtigen, so sind Lebensdauermodelle angemessen. Hierbei können auch zensierte Daten behandelt werden. Ein sehr häufig angewendetes Regressionsmodell ist das von Cox (1972) vorgeschlagene, bei dem die Hazardrate durch λ(t|x) = λ0(t) exp(β^Tx) definiert ist. Hierbei ist λ0(t) eine unspezifizierte Baseline-Hazardrate und X ist ein Kovariat-Vektor, β ist ein p-dimensionaler Koeffizientenvektor. Nachdem ein Überblick über das Schätzen und Testen im Cox-Modell und seinen Erweiterungen gegeben wird, werden Aussagen zur Schätzbarkeit des Parameters β durch die "partiallikelihood"- Methode hergeleitet. Grundlage hierzu sind neue Darstellungen der beobachteten Fisher-Information, die die Ergebnisse von Andersen and Gill (1982) erweitern. Unter Regularitätsbedingungen ist der Schätzer asymptotisch normal; die Inverse der Grenzmatrix der Fisher-Information ist die Varianzmatrix der Grenzverteilung. Bedingungen für die Nichtsingularität dieser Grenzmatrix führen zum Begriff der asymptotischen Schätzbarkeit, der in der vorliegenden Arbeit ausführlich untersucht wird. Darüber hinaus ist diese Matrix Grundlage für die Herleitung lokal optimaler Kovariate. In einer Sensitivitätsanalyse wird die Effizienz gewählter Kovariate berechnet. Die Berechnungen zeigen, dass die Baseline-Verteilung nur wenig Einfluss auf die Effizienz hat. Entscheidend ist die Wahl der Kovariate. Es werden einige Vorschläge für anwendbare optimale Kovariate und Berechnungsverfahren für das Auffinden optimaler Kovariate diskutiert. Eine Erweiterung des Cox-Modells besteht darin, zeitabhängige Koeffizienten zuzulassen. Da diese Koeffizientenfunktionen nicht näher spezifiziert sind, werden sie nichtparametrisch geschätzt. Eine mögliche Methode ist die "local-linear-partial-likelihood"-Methode, deren Eigenschaften beispielsweise in der Arbeit von Cai and Sun (2003) untersucht wurden. In der vorliegenden Arbeit werden Simulationen zu dieser Methode durchgeführt. Hauptaspekt ist das Testen der Koeffizientenfunktion. Getestet wird, ob diese Funktion eine bestimmte parametrische Form besitzt. Betrachtet wird der Score-Vektor, der von der "localconstant-partial-likelihood"-Funktion abgeleitet wird. Ausgehend von der asymptotischen Normalität dieses Vektors an verschiedenen Gitterpunkten kann gezeigt werden, dass die Verteilung der geeignet standardisierten quadratischen Form unter der Nullhypothese gegen eine Chi-Quadrat-Verteilung konvergiert. Die Eigenschaften des auf dieser Grenzverteilungsaussage aufbauenden Tests hängen nicht nur vom Stichprobenumfang, sondern auch vom verwendeten Glättungsparameter ab. Deshalb ist es sinnvoll, auch einen Bootstrap-Test zu betrachten. In der vorliegenden Arbeit wird ein Bootstrap-Test zum Testen der Hypothese, dass die Koeffizienten-Funktion konstant ist, d.h. dass das klassische Cox-Modell vorliegt, vorgeschlagen. Der Algorithmus wird angegeben. Simulationen zum Verhalten dieses Tests unter der Nullhypothese und einer speziellen Alternative werden durchgeführt. Literatur P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large sample study. Ann. Statist., 10(4):1100{1120, 1982. Z. Cai and Y. Sun. Local linear estimation for time-dependent coefficients in Cox's regression models. Scand. J. Statist., 30(1):93-111, 2003. D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187-220, 1972. R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1-11, 1986. KW - survival analysis KW - Cox model KW - logistic regression analysis KW - logistische Regression KW - Case-Cohort-Design KW - Cox-Modell Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90033 ER - TY - THES A1 - Wetzel, Maria T1 - Pore space alterations and their impact on hydraulic and mechanical rock properties quantified by numerical simulations T1 - Numerische Simulationen zum Einfluss von Porenraumveränderungen auf die Entwicklung hydraulischer und mechanischer Gesteinseigenschaften N2 - Geochemical processes such as mineral dissolution and precipitation alter the microstructure of rocks, and thereby affect their hydraulic and mechanical behaviour. Quantifying these property changes and considering them in reservoir simulations is essential for a sustainable utilisation of the geological subsurface. Due to the lack of alternatives, analytical methods and empirical relations are currently applied to estimate evolving hydraulic and mechanical rock properties associated with chemical reactions. However, the predictive capabilities of analytical approaches remain limited, since they assume idealised microstructures, and thus are not able to reflect property evolution for dynamic processes. Hence, aim of the present thesis is to improve the prediction of permeability and stiffness changes resulting from pore space alterations of reservoir sandstones. A detailed representation of rock microstructure, including the morphology and connectivity of pores, is essential to accurately determine physical rock properties. For that purpose, three-dimensional pore-scale models of typical reservoir sandstones, obtained from highly resolved micro-computed tomography (micro-CT), are used to numerically calculate permeability and stiffness. In order to adequately depict characteristic distributions of secondary minerals, the virtual samples are systematically altered and resulting trends among the geometric, hydraulic, and mechanical rock properties are quantified. It is demonstrated that the geochemical reaction regime controls the location of mineral precipitation within the pore space, and thereby crucially affects the permeability evolution. This emphasises the requirement of determining distinctive porosity-permeability relationships by means of digital pore-scale models. By contrast, a substantial impact of spatial alterations patterns on the stiffness evolution of reservoir sandstones are only observed in case of certain microstructures, such as highly porous granular rocks or sandstones comprising framework-supporting cementations. In order to construct synthetic granular samples a process-based approach is proposed including grain deposition and diagenetic cementation. It is demonstrated that the generated samples reliably represent the microstructural complexity of natural sandstones. Thereby, general limitations of imaging techniques can be overcome and various realisations of granular rocks can be flexibly produced. These can be further altered by virtual experiments, offering a fast and cost-effective way to examine the impact of precipitation, dissolution or fracturing on various petrophysical correlations. The presented research work provides methodological principles to quantify trends in permeability and stiffness resulting from geochemical processes. The calculated physical property relations are directly linked to pore-scale alterations, and thus have a higher accuracy than commonly applied analytical approaches. This will considerably improve the predictive capabilities of reservoir models, and is further relevant to assess and reduce potential risks, such as productivity or injectivity losses as well as reservoir compaction or fault reactivation. Hence, the proposed method is of paramount importance for a wide range of natural and engineered subsurface applications, including geothermal energy systems, hydrocarbon reservoirs, CO2 and energy storage as well as hydrothermal deposit exploration. N2 - Geochemische Lösungs- und Fällungsprozesse verändern die Struktur des Porenraums und können dadurch die hydraulischen und mechanischen Gesteinseigenschaften erheblich beeinflussen. Die Quantifizierung dieser Parameteränderung und ihre Berücksichtigung in Reservoirmodellen ist entscheidend für eine nachhaltige Nutzung des geologischen Untergrunds. Aufgrund fehlender Alternativen werden dafür bisher analytische Methoden genutzt. Da diese Ansätze eine idealisierte Mikrostruktur annehmen, können insbesondere Änderungen der Gesteinseigenschaften infolge von dynamischen Prozessen nicht zuverlässig abgebildet werden. Ziel der vorliegenden Doktorarbeit ist es deshalb, die Entwicklung von Gesteinspermeabilitäten und -steifigkeiten aufgrund von Porenraumveränderungen genauer vorherzusagen. Für die möglichst exakte Bestimmung physikalischer Gesteinsparameter ist eine detaillierte Darstellung der Mikrostruktur notwendig. Basierend auf mikro-computertomographischen Scans werden daher hochaufgelöste, dreidimensionale Modelle typischer Reservoirsandsteine erstellt und Gesteinspermeabilität und -steifigkeit numerisch berechnet. Um charakteristische Verteilungen von Sekundärmineralen abzubilden, wird der Porenraum dieser virtuellen Sandsteinproben systematisch verändert und die resultierenden Auswirkungen auf die granulometrischen, hydraulischen und elastischen Gesteinseigenschaften bestimmt. Die Ergebnisse zeigen deutlich, dass charakteristische Fällungsmuster unterschiedlicher geochemischer Reaktionsregime die Permeabilität erheblich beeinflussen. Folglich ist die Nutzung von porenskaligen Modellen zur Bestimmung der Porosität-Permeabilitätsbeziehungen unbedingt notwendig. Im Gegensatz dazu ist die Verteilung von Sekundärmineralen für die Gesteinssteifigkeit nur bei bestimmten Mikrostrukturen von Bedeutung, hierzu zählen hochporöse Sandsteine oder solche mit Korngerüst-stützenden Zementierungen. In der Arbeit wird außerdem ein Ansatz zur Konstruktion granularer Gesteine vorgestellt, welcher sowohl die Kornsedimentation als auch die diagenetische Verfestigung umfasst. Es wird gezeigt, dass die synthetischen Proben die mikrostrukturelle Komplexität natürlicher Reservoirsandsteine gut abbilden. Dadurch können generelle Limitationen von bildgebenden Verfahren überwunden und unterschiedlichste virtuelle Repräsentationen von granularen Gesteinen generiert werden. Die synthetischen Proben können zukünftig in virtuellen Experimenten verwendet werden, um die Auswirkungen von Lösungs- und Fällungsreaktionen auf verschiedene petrophysikalische Korrelationen zu untersuchen. Die vorgestellte Arbeit liefert methodische Grundlagen zur Quantifizierung von Permeabilitäts- und Steifigkeitsänderungen infolge geochemischer Prozesse. Die berechneten petrophysikalischen Beziehungen basieren direkt auf mikrostrukturellen Veränderungen des Porenraums. Daher bieten sie eine genauere Vorhersage der Gesteinseigenschaften als herkömmliche analytische Methoden, wodurch sich die Aussagekraft von Reservoirmodellen erheblich verbessert. Somit können Risiken, wie Produktivitäts- oder Injektivitätsverluste sowie Reservoirkompaktion oder Störungsreaktivierung, verringert werden. Die präsentierten Ergebnisse sind daher relevant für verschiedenste Bereiche der geologischen Untergrundnutzung wie CO2- oder Energiespeicherung, Geothermie, Kohlenwasserstoffgewinnung sowie die Erkundung hydrothermaler Lagerstätten. KW - digital rock physics KW - synthetic sandstone KW - permeability evolution KW - elastic rock properties KW - micro-CT KW - Digitale Gesteinsphysik KW - Elastische Gesteinseigenschaften KW - Mikro-CT KW - Permeabilitätsentwicklung KW - Synthetische Sandsteine Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512064 ER - TY - THES A1 - Wettstein, Christoph T1 - Cytochrome c-DNA and cytochrome c-enzyme interactions for the construction of analytical signal chains N2 - Electron transfer (ET) reactions play a crucial role in the metabolic pathways of all organisms. In biotechnological approaches, the redox properties of the protein cytochrome c (cyt c), which acts as an electron shuttle in the respiratory chain, was utilized to engineer ET chains on electrode surfaces. With the help of the biopolymer DNA, the redox protein assembles into electro active multilayer (ML) systems, providing a biocompatible matrix for the entrapment of proteins. In this study the characteristics of the cyt c and DNA interaction were defined on the molecular level for the first time and the binding sites of DNA on cyt c were identified. Persistent cyt c/DNA complexes were formed in solution under the assembly conditions of ML architectures, i.e. pH 5.0 and low ionic strength. At pH 7.0, no agglomerates were formed, permitting the characterization of the NMR spectroscopy. Using transverse relaxation-optimized spectroscopy (TROSY)-heteronuclear single quantum coherence (HSQC) experiments, DNAs’ binding sites on the protein were identified. In particular, negatively charged AA residues, which are known interaction sites in cyt c/protein binding were identified as the main contact points of cyt c and DNA. Moreover, the sophisticated task of arranging proteins on electrode surfaces to create functional ET chains was addressed. Therefore, two different enzyme types, the flavin dependent fructose dehydrogenase (FDH) and the pyrroloquinoline quinone dependent glucose dehydrogenase (PQQ-GDH), were tested as reaction partners of freely diffusing cyt c and cyt c immobilized on electrodes in mono- and MLs. The characterisation of the ET processes was performed by means of electrochemistry and the protein deposition was monitored by microgravimetric measurements. FDH and PQQ-GDH were found to be generally suitable for combination with the cyt c/DNA ML system, since both enzymes interact with cyt c in solution and in the immobilized state. The immobilization of FDH and cyt c was achieved with the enzyme on top of a cyt c monolayer electrode without the help of a polyelectrolyte. Combining FDH with the cyt c/DNA ML system did not succeed, yet. However, the basic conditions for this protein-protein interaction were defined. PQQ-GDH was successfully coupled with the ML system, demonstrating that that the cyt c/DNA ML system provides a suitable interface for enzymes and that the creation of signal chains, based on the idea of co-immobilized proteins is feasible. Future work may be directed to the investigation of cyt c/DNA interaction under the precise conditions of ML assembly. Therefore, solid state NMR or X-ray crystallography may be required. Based on the results of this study, the combination of FDH with the ML system should be addressed. Moreover, alternative types of enzymes may be tested as catalytic component of the ML assembly, aiming on the development of innovative biosensor applications. N2 - In den Energiegewinnungsprozessen der Zellen spielen biochemische Reaktion, die auf Elektronentransfer (ET) basieren, eine wichtige Rolle. So sind die Proteinkomplexe der Atmungskette, welche an der inneren Membran der Mitochondrien abläuft, über eine ET-Kette miteinander verbunden. In biotechnologischen Anwendungen wird dieses Phänomen genutzt um Proteine auf der Oberfläche von Elektroden als funktionierende ET-Ketten zu arrangieren. Dabei kann der ET innerhalb dieser Kaskaden als elektrischer Strom gemessen und als Signal betrachtet werden. Dies ermöglicht die Anwendung von proteinmodifizierten Elektroden als Biosensoren und Biobrennstoffzellen. Ein geeigneter Baustein für den Aufbau vielschichtiger ET-Systeme ist das kleine, eisenhaltige Protein Cytochrom c (Cyt c), welches in der Lage ist Elektronen aufzunehmen, zu transportieren und wieder abzugeben. Als zweiter Baustein dient das lange, fadenartige Biomolekül DNA. DNA und Cyt c interagieren unter bestimmten Bedingungen aufgrund ihrer entgegengesetzten Oberflächenladungen. Dies ermöglicht den schichtweisen Aufbau stabiler Cyt c/DNA-Multischichten (MS) auf Elektrodenoberflächen, welche durch die sogenannte Layer-by-Layer (LbL) Technik aufgebaut werden. In diesen MS Systemen behält Cyt c trotz der Immobilisierung seine Beweglichkeit um die eigene Achse, wodurch der Selbstaustausch von Elektronen zwischen den Cyt c Molekülen sowie der ET zur Elektrode gewährleistet wird. Der molekulare Aufbau der Cyt c/DNA MS sowie die Interaktion zwischen den zwei biologischen Bausteine ist weitgehend unerforscht, daher wurden in der vorliegenden Studie die genauen Bedingungen der Cyt c/DNA Interaktion in Lösung untersucht. Außerdem wird die Eignung des MS Systems zur Einbettung von Enzymen getestet. Die Bausteine des MS-Systems, Cyt c und DNA bilden in Lösung stabile Komplexe unter den Assemblierungsbedingungen der MS (d.h. pH 5.0 und geringe Salzkonzentration). Im Vergleich dazu tritt bei pH 7.0 eine schwächere Interaktion auf, die für eine Komplexbildung nicht ausreicht. Dies ermöglicht die Untersuchung der Interaktion mittels Kernspinresonanzspektroskopie (NMR, engl. nuclear magnetic resonance spectroscopy), wobei die Interaktionsstellen des DNA-Moleküls auf Cyt c bestimmt werden. Im Vergleich zu pH 7.0 wird im leicht sauren pH-Bereich (6.0) eine erhöhte Anzahl an Interaktionspunkten gefunden, was Rückschlüsse auf eine erhöhte Interaktion zulässt. Dies resultiert schließlich in der starken Bindung bei pH 5.0, die den Aufbau stabiler Cyt c/DNA-MS auf Elektrodenoberflächen ermöglicht. Darüber hinaus spielen der Salzgehalt der Lösung sowie das Konzentrationsverhältnis von Cyt c und DNA eine wichtige Rolle. Auf der Grundlage des Cyt c/DNA-MS Aufbaus sollte durch die Kopplung eines Enzymes eine Signalkette mit sensorischen Eigenschaften geschaffen werden. Das Enzym dient dabei als Erkennungselement für bestimmte Moleküle in Lösung. Durch die Reaktion des Enzyms mit dem Molekül wird ein bioelektrisches Signal generiert, das durch elektrochemische Methoden gemessen wird. Dies wurde mit zwei verschiedenen Enzymen, der Glukose Dehydrogenase (GDH) und der Fruktose Dehydrogenase (FDH), untersucht. Beide Enzyme waren in der Lage mit einer Cyt c Monoschicht zu kommunizieren und konnten mit dem redox Protein auf der Elektrodenoberfläche immobilisiert werden. GDH konnte erfolgreich mit dem Cyt c/DNA-MS System gekoppelt und die Sensoreigenschaften der so aufgebauten Elektronentransferkette charakterisiert werden. Zusammenfassend charakterisiert diese Arbeit die Bedingungen der Cyt c/DNA-Komplexbildung und gibt einen Einblick in die bisher unbekannte Interaktion zwischen Cyt c und DNA auf der molekularen Ebene. Darüber hinaus wird die Nutzbarkeit des Cyt c/DNA MS Systems zur Einbettung von Enzymen am Beispiel der GDH gezeigt und schafft somit die Grundlage für das bessere Verständnis von ET Reaktionen zwischen Proteinen auf Elektrodenoberflächen. T2 - Cytochrom c-DNA und Cytochrom c-Enzym Interaktion für den Aufbau analytischer Signalketten KW - biosensor KW - protein KW - DNA KW - enzyme KW - interaction KW - DNA KW - Biosensor KW - Enzym KW - Interaktion KW - Protein Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78367 ER -