TY - THES A1 - Šustr, David T1 - Molecular diffusion in polyelectrolyte multilayers N2 - Research on novel and advanced biomaterials is an indispensable step towards their applications in desirable fields such as tissue engineering, regenerative medicine, cell culture, or biotechnology. The work presented here focuses on such a promising material: polyelectrolyte multilayer (PEM) composed of hyaluronic acid (HA) and poly(L-lysine) (PLL). This gel-like polymer surface coating is able to accumulate (bio-)molecules such as proteins or drugs and release them in a controlled manner. It serves as a mimic of the extracellular matrix (ECM) in composition and intrinsic properties. These qualities make the HA/PLL multilayers a promising candidate for multiple bio-applications such as those mentioned above. The work presented aims at the development of a straightforward approach for assessment of multi-fractional diffusion in multilayers (first part) and at control of local molecular transport into or from the multilayers by laser light trigger (second part). The mechanism of the loading and release is governed by the interaction of bioactives with the multilayer constituents and by the diffusion phenomenon overall. The diffusion of a molecule in HA/PLL multilayers shows multiple fractions of different diffusion rate. Approaches, that are able to assess the mobility of molecules in such a complex system, are limited. This shortcoming motivated the design of a novel evaluation tool presented here. The tool employs a simulation-based approach for evaluation of the data acquired by fluorescence recovery after photobleaching (FRAP) method. In this approach, possible fluorescence recovery scenarios are primarily simulated and afterwards compared with the data acquired while optimizing parameters of a model until a sufficient match is achieved. Fluorescent latex particles of different sizes and fluorescein in an aqueous medium are utilized as test samples validating the analysis results. The diffusion of protein cytochrome c in HA/PLL multilayers is evaluated as well. This tool significantly broadens the possibilities of analysis of spatiotemporal FRAP data, which originate from multi-fractional diffusion, while striving to be widely applicable. This tool has the potential to elucidate the mechanisms of molecular transport and empower rational engineering of the drug release systems. The second part of the work focuses on the fabrication of such a spatiotemporarily-controlled drug release system employing the HA/PLL multilayer. This release system comprises different layers of various functionalities that together form a sandwich structure. The bottom layer, which serves as a reservoir, is formed by HA/PLL PEM deposited on a planar glass substrate. On top of the PEM, a layer of so-called hybrids is deposited. The hybrids consist of thermoresponsive poly(N-isopropylacrylamide) (PNIPAM) -based hydrogel microparticles with surface-attached gold nanorods. The layer of hybrids is intended to serve as a gate that controls the local molecular transport through the PEM–solution-interface. The possibility of stimulating the molecular transport by near-infrared (NIR) laser irradiation is being explored. From several tested approaches for the deposition of hybrids onto the PEM surface, the drying-based approach was identified as optimal. Experiments, that examine the functionality of the fabricated sandwich at elevated temperature, document the reversible volume phase transition of the PEM-attached hybrids while sustaining the sandwich stability. Further, the gold nanorods were shown to effectively absorb light radiation in the tissue- and cell-friendly NIR spectral region while transducing the energy of light into heat. The rapid and reversible shrinkage of the PEM-attached hybrids was thereby achieved. Finally, dextran was employed as a model transport molecule. It loads into the PEM reservoir in a few seconds with the partition constant of 2.4, while it spontaneously releases in a slower, sustained manner. The local laser irradiation of the sandwich, which contains the fluorescein isothiocyanate tagged dextran, leads to a gradual reduction of fluorescence intensity in the irradiated region. The release system fabricated employs renowned photoresponsivity of the hybrids in an innovative setting. The results of the research are a step towards a spatially-controlled on-demand drug release system that paves the way to spatiotemporally controlled drug release. The approaches developed in this work have the potential to elucidate the molecular dynamics in ECM and to foster engineering of multilayers with properties tuned to mimic the ECM. The work aims at spatiotemporal control over the diffusion of bioactives and their presentation to the cells. N2 - Die Forschung an neuartigen und komplexen Biomaterialien ist unabdingbar für deren Einsatz in begehrten Bereichen wie der Gewebezüchtung, regenerativen Medizin, Zellkultivierung und Biotechnologie. Die hier vorgelegte Arbeit beschäftigt sich eingehend mit einem dieser vielversprechenden Materialien: Polyelektrolytische Multilayers (PEM), die aus Hyaluronsäure (Hyaluronic Acid, HA) und Poly-L-Lysin (PLL) zusammengesetzt sind. Diese gelartige Polymerbeschichtung ermöglicht es, (Bio-) Moleküle wie z.B. Proteine oder Medikamente zu akkumulieren und diese kontrolliert wieder abzugeben. Durch ihre Zusammensetzung und intrinsischen Merkmale können die PEM der Imitation einer Extrazellulären Matrix (ECM) dienen. Diese Eigenschaften machen die HA/PLL-PEM zu einem Anwärter auf verschiedene Bio-Anwendungen, wie den oben genannten. Die vorliegende Arbeit zielt auf die Entwicklung eines Ansatzes zur Einschätzung der multi-fraktionellen Diffusion in Multilayers (1. Teil), und auf die Kontrolle des lokalen molekularen Transports in und aus den Multilayers durch Laser-Stimulation (2. Teil). Der Aufnahme- und Freisetzungsmechanismus wird bestimmt von der Wechselwirkung zwischen Bioaktiva und den Bestandteilen der Multilayers, sowie allgemein vom Diffusionsprozess. Der Diffusion eines Molekül in HA/PLL-PEM weist unterschiedliche Diffusionsraten einzelner Molekülbestandteile auf. Derzeit existieren nur wenige Ansätze zur Einschätzung der Mobilität von Molekülen in derart komplexen Systemen. Diesem Mangel will die vorliegende Arbeit durch das Design eines neuartigen Evaluations-Instruments abhelfen. Dieses Instrument bedient sich eines simulationsbasierten Ansatzes zur Evaluation von Daten, die durch die fluorescence recovery after photobleaching (FRAP) -Methode erfasst wurden. Der Ansatz simuliert zunächst mögliche Szenarien der Fluoreszenz-Rückbildung, um diese anschließend mit Messdaten zu vergleichen; dazu werden Modell-Parameter angepasst, um suffiziente Vergleichswerte zu erzielen. Fluoreszierende Latex-Partikel verschiedener Größe und eine Fluoresceinlösung wurden als Kontroll- und Vergleichs-Proben verwendet, um die Ergebnisse zu überprüfen. Zusätzlich wurde die Diffusion des Proteins Cytochrom C in eine HA/PLL-PEM ausgewertet. Dieses Instrument weitet die Möglichkeiten der Analyse von spatiotemporären FRAP-Daten, die aus der multi-fraktionellen Diffusion stammen, erheblich und gleichzeitig ist es vielseitig einsetzbar. Das Instrument hat das Potential, die Mechanismen des Molekültransports weiter zu erhellen, und eine gezielte Steuerung der Freisetzung medikamentöser Wirkstoffe zu ermöglichen. Der zweite Teil der Arbeit widmet sich der Erstellung eines Systems zur spatiotemporären Wirkstofffreisetzung, das sich die HA/PLL-PEM zunutze macht. Dieses Freisetzungssystem umfasst verschiedene Lagen mit jeweils unterschiedlichen Funktionsweisen, die zusammen ein „Sandwich“ bilden. Die zugrundeliegende Schicht aus HA/PLL-PEM auf einem planaren Glassubstrat dient als Reservoir. Auf diese PEM ist eine Schicht sogenannter Hybride aufgebracht. Die Hybride bestehen aus thermoresponsiven Poly-N-Isopropylacrylamid (PNIPAM) -basierten Hydrogel-Mikropartikeln auf deren Gold-Nanostäbchen gebunden sind. Die Hybridschicht dient in der räumlichen Kontrolle des lokalen Molekültransports als „Schlupfloch“ an der Schnittstelle von PEM und Lösung. Die Möglichkeit der Stimulation des molekülaren Transports durch Bestrahlung mit einem Nah-Infrarot-Laser (NIR) wird hier untersucht. Von den mehreren getesteten Ansätzen zur Aufbringung von Hybriden auf die PEM-Oberfläche stellte sich die Trocknung als beste Möglichkeit heraus. Funktionalitätskontrollen des hergestellten Sandwiches bei erhöhter Temperatur ergaben eine reversible Volumenphasenübergang der PEM-gebundenen Hybride, wobei die Sandwich-Struktur erhalten blieb. Weiterhin wurde eine effektive Lichtabsorption durch die Gold-Nanostäbchen in den gewebe- und zellschonenden NIR-Spektrumsbereich gezeigt, wobei die aufgenommene Lichtenergie in Wärme umgewandelt wurde. Dadurch wurde eine schnelle und reversible Schrumpfung der PEM-gebundenen Hybride erreicht. Zuguterletzt wird Dextran als Modellmolekül für den Transport eingesetzt. Dieses wird in wenigen Sekunden – mit einem Verteilungskoeffizient von 2,4 – in das PEM-Reservoir aufgenommen, während es auf langsamere, anhaltende Weise freigesetzt wird. Die lokale Laser-Bestrahlung des Dextran-FITC-haltigen Sandwiches bewirkte eine schrittweise Reduktion der Fluoreszenz-Intensität in der bestrahlten Region. Das hier vorgestellte Molekül-Freisetzungssystem verwendet die vielzitierte Photoresponsivität von Hybriden auf neuartige Weise. Die Ergebnisse der Untersuchung bedeuten einen Fortschritt in Richtung eines räumlich kontrollierten, nach Bedarf steuerbaren Freisetzungs-Systems, das wiederum den Weg zu einer spatiotemporären Kontrollierbarkeit der Wirkstoff-Freisetzung bereiten könnte. Die in dieser Arbeit entwickelten Ansätze ermöglichen ein besseres Verständnis der Dynamik in der ECM, sowie die Entwicklung ECM-ähnlicher Multilayers. Die Arbeit hat die spatiotemporäre Kontrolle der Diffusion von bioaktiven Stoffen und deren Präsentation gegenüber Zellen zum Ziel. T2 - Molekulare Diffusion in Polyelektrolyt-Multischichten KW - polyelectrolyte multilayers KW - diffusion KW - simulation KW - FRAP KW - microgel KW - drug release KW - PNIPAM KW - IR laser KW - assessment of the diffusion KW - mulifractional diffusion KW - spatially and temporally controlled drug release KW - ordering of particles on the surface KW - close packing KW - dichteste Packung KW - Diffusion KW - Einschätzung der Diffusion KW - Wirkstoff-Freisetzun KW - Mikrogel KW - multi-fraktionelle Diffusion KW - Ordnung der Partikel auf der Oberfläche KW - Polyelektrolyt-Multischichten KW - Simulation KW - räumlich und zeitlich kontrollierte Wirkstoff-Freisetzung KW - FRAP KW - IR laser KW - PNIPAM Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-489038 ER - TY - THES A1 - Zorn, Edgar Ulrich T1 - Monitoring lava dome growth and deformation with photogrammetric methods and modelling N2 - Lava domes are severely hazardous, mound-shaped extrusions of highly viscous lava and commonly erupt at many active stratovolcanoes around the world. Due to gradual growth and flank oversteepening, such lava domes regularly experience partial or full collapses, resulting in destructive and far-reaching pyroclastic density currents. They are also associated with cyclic explosive activity as the complex interplay of cooling, degassing, and solidification of dome lavas regularly causes gas pressurizations on the dome or the underlying volcano conduit. Lava dome extrusions can last from days to decades, further highlighting the need for accurate and reliable monitoring data. This thesis aims to improve our understanding of lava dome processes and to contribute to the monitoring and prediction of hazards posed by these domes. The recent rise and sophistication of photogrammetric techniques allows for the extraction of observational data in unprecedented detail and creates ideal tools for accomplishing this purpose. Here, I study natural lava dome extrusions as well as laboratory-based analogue models of lava dome extrusions and employ photogrammetric monitoring by Structure-from-Motion (SfM) and Particle-Image-Velocimetry (PIV) techniques. I primarily use aerial photography data obtained by helicopter, airplanes, Unoccupied Aircraft Systems (UAS) or ground-based timelapse cameras. Firstly, by combining a long time-series of overflight data at Volcán de Colima, México, with seismic and satellite radar data, I construct a detailed timeline of lava dome and crater evolution. Using numerical model, the impact of the extrusion on dome morphology and loading stress is further evaluated and an impact on the growth direction is identified, bearing important implications for the location of collapse hazards. Secondly, sequential overflight surveys at the Santiaguito lava dome, Guatemala, reveal surface motion data in high detail. I quantify the growth of the lava dome and the movement of a lava flow, showing complex motions that occur on different timescales and I provide insight into rock properties relevant for hazard assessment inferred purely by photogrammetric processing of remote sensing data. Lastly, I recreate artificial lava dome and spine growth using analogue modelling under controlled conditions, providing new insights into lava extrusion processes and structures as well as the conditions in which they form. These findings demonstrate the capabilities of photogrammetric data analyses to successfully monitor lava dome growth and evolution while highlighting the advantages of complementary modelling methods to explain the observed phenomena. The results presented herein further bear important new insights and implications for the hazards posed by lava domes. N2 - Lavadome sind kuppelförmige Aufstauungen aus zähflüssiger Lava und bilden sich häufig bei Eruptionen an aktiven Stratovulkanen. Sie stellen dabei oft eine erhebliche Gefahr für Menschen und Infrastruktur dar, weil Lavadome instabil werden können und bei einem Kollaps pyroklastische Ströme (auch Glutlawinen) erzeugen können. Diese können innerhalb von Minuten weite Flächen verwüsten, daher ist die Überwachung von Lavadomen und deren Wachstum mit genauen und zuverlässigen Daten von großer Bedeutung. In dieser Arbeit werden das Wachstum und die Bewegungen von Lavadomen mit fotogrammetrischen Methoden (Vermessungen anhand von Fotos) und mit Modellierungen in drei Teilstudien getestet und untersucht. Dazu wurden Daten sowohl an Lavadomen von Vulkanen in Mexiko und Guatemala als auch mittels künstlich erzeugter Dome im Labor erhoben. Hierbei wurden insbesondere das Structure-from-Motion-Verfahren, bei dem mithilfe einer Serie von Luftaufnahmen ein hochauflösendes 3D-Modell des Lavadoms und des Vulkans erstellt wird, und das Particle-Image-Velocimetry-Verfahren, bei dem aus einer Zeitreihe von Fotos kleinste Bewegungen detailliert gemessen werden können, verwendet. In der ersten Teilstudie wird aus einer Kombination von Überflugsbildern, Radardaten eines Satelliten, und seismischen Daten eine detaillierte Zeitreihe des Lavadom-Wachstums und der Kraterentwickelung am Volcán de Colima, Méxiko, erstellt. Anschließend werden die dabei erfassten Richtungen des Domwachstums mit numerischen Modellen auf Basis der fotogrammetrischen 3D-Modelle simuliert, welche zeigen, dass sich lokale Änderungen der Topografie auf die Wachstumsrichtung auswirken können. In der zweiten Teilstudie werden Drohnen in verschiedenen Zeitintervallen über einen Lavadom am Santa Maria Vulkan, Guatemala, geflogen. Die Überflugsdaten zeigen dabei Bewegungen sowohl an einem Lavastrom als auch ein Anschwellen des Doms mit jeweils unterschiedlichen Geschwindigkeiten. Ferner können die Daten genutzt werden um Oberflächentemperatur und die Viskosität (Zähflüssigkeit) der Lava zu vermessen, welche für die Gefahrenanalyse eine wichtige Rolle spielen. In der dritten Teilstudie werden künstliche Dom-Modelle mithilfe von Sand-Gips-Gemischen erzeugt. Diese können sowohl den Aufbau und Morphologie als auch die internen Strukturen von Lavadomen simulieren und anhand von Zeitraffer-Aufnahmen im Detail nachstellen. Die Ergebnisse zeigen, dass Fotogrammetrie und Modellierungen geeignete Mittel sind um Lavadome sowie deren Entstehungsprozesse und Gefahren zu verfolgen und neue Erkenntnisse zu gewinnen. T2 - Überwachung von Wachstum und Deformation an Lavadomen mit fotogrammetrischen Methoden und Modellierungen KW - Lava dome KW - Lavadom KW - Photogrammetry KW - Fotogrammetrie KW - Volcano KW - Vulkan KW - Analogue Model KW - Analogmodell Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-483600 ER - TY - THES A1 - Zhelavskaya, Irina T1 - Modeling of the Plasmasphere Dynamics T1 - Modellierung der Plasmasphärendynamik N2 - The plasmasphere is a dynamic region of cold, dense plasma surrounding the Earth. Its shape and size are highly susceptible to variations in solar and geomagnetic conditions. Having an accurate model of plasma density in the plasmasphere is important for GNSS navigation and for predicting hazardous effects of radiation in space on spacecraft. The distribution of cold plasma and its dynamic dependence on solar wind and geomagnetic conditions remain, however, poorly quantified. Existing empirical models of plasma density tend to be oversimplified as they are based on statistical averages over static parameters. Understanding the global dynamics of the plasmasphere using observations from space remains a challenge, as existing density measurements are sparse and limited to locations where satellites can provide in-situ observations. In this dissertation, we demonstrate how such sparse electron density measurements can be used to reconstruct the global electron density distribution in the plasmasphere and capture its dynamic dependence on solar wind and geomagnetic conditions. First, we develop an automated algorithm to determine the electron density from in-situ measurements of the electric field on the Van Allen Probes spacecraft. In particular, we design a neural network to infer the upper hybrid resonance frequency from the dynamic spectrograms obtained with the Electric and Magnetic Field Instrument Suite and Integrated Science (EMFISIS) instrumentation suite, which is then used to calculate the electron number density. The developed Neural-network-based Upper hybrid Resonance Determination (NURD) algorithm is applied to more than four years of EMFISIS measurements to produce the publicly available electron density data set. We utilize the obtained electron density data set to develop a new global model of plasma density by employing a neural network-based modeling approach. In addition to the location, the model takes the time history of geomagnetic indices and location as inputs, and produces electron density in the equatorial plane as an output. It is extensively validated using in-situ density measurements from the Van Allen Probes mission, and also by comparing the predicted global evolution of the plasmasphere with the global IMAGE EUV images of He+ distribution. The model successfully reproduces erosion of the plasmasphere on the night side as well as plume formation and evolution, and agrees well with data. The performance of neural networks strongly depends on the availability of training data, which is limited during intervals of high geomagnetic activity. In order to provide reliable density predictions during such intervals, we can employ physics-based modeling. We develop a new approach for optimally combining the neural network- and physics-based models of the plasmasphere by means of data assimilation. The developed approach utilizes advantages of both neural network- and physics-based modeling and produces reliable global plasma density reconstructions for quiet, disturbed, and extreme geomagnetic conditions. Finally, we extend the developed machine learning-based tools and apply them to another important problem in the field of space weather, the prediction of the geomagnetic index Kp. The Kp index is one of the most widely used indicators for space weather alerts and serves as input to various models, such as for the thermosphere, the radiation belts and the plasmasphere. It is therefore crucial to predict the Kp index accurately. Previous work in this area has mostly employed artificial neural networks to nowcast and make short-term predictions of Kp, basing their inferences on the recent history of Kp and solar wind measurements at L1. We analyze how the performance of neural networks compares to other machine learning algorithms for nowcasting and forecasting Kp for up to 12 hours ahead. Additionally, we investigate several machine learning and information theory methods for selecting the optimal inputs to a predictive model of Kp. The developed tools for feature selection can also be applied to other problems in space physics in order to reduce the input dimensionality and identify the most important drivers. Research outlined in this dissertation clearly demonstrates that machine learning tools can be used to develop empirical models from sparse data and also can be used to understand the underlying physical processes. Combining machine learning, physics-based modeling and data assimilation allows us to develop novel methods benefiting from these different approaches. N2 - Die Plasmasphäre ist eine die Erde umgebende dynamische Region aus kaltem, dichtem Plasma. Ihre Form und Größe sind sehr anfällig für Schwankungen der solaren und geomagnetischen Bedingungen. Ein präzises Modell der Plasmadichte in der Plasmasphäre ist wichtig für die GNSS-Navigation und für die Vorhersage gefährlicher Auswirkungen der kosmischen Strahlung auf Raumfahrzeuge. Die Verteilung des kalten Plasmas und seine dynamische Abhängigkeit vom Sonnenwind und den geomagnetischen Bedingungen sind jedoch nach wie vor nur unzureichend quantifiziert. Bestehende empirische Modelle der Plasmadichte sind in der Regel zu stark vereinfacht, da sie auf statistischen Durchschnittswerten statischer Parameter basieren. Das Verständnis der globalen Dynamik der Plasmasphäre anhand von Beobachtungen aus dem Weltraum bleibt eine Herausforderung, da vorhandene Dichtemessungen spärlich sind und sich auf Orte beschränken, an denen Satelliten In-situ-Beobachtungen liefern können. In dieser Dissertation zeigen wir, wie solche spärlichen Elektronendichtemessungen verwendet werden können, um die globale Elektronendichteverteilung in der Plasmasphäre zu rekonstruieren und ihre dynamische Abhängigkeit vom Sonnenwind und den geomagnetischen Bedingungen zu erfassen. Zunächst entwickeln wir einen automatisierten Algorithmus zur Bestimmung der Elektronendichte aus In-situ-Messungen des elektrischen Feldes der Van Allen Probes Raumsonden. Insbesondere entwerfen wir ein neuronales Netzwerk, um die obere Hybridresonanzfrequenz aus den dynamischen Spektrogrammen abzuleiten, die wir durch die Instrumentensuite „Electric and Magnetic Field Instrument Suite“ (EMFISIS) erhielten, welche dann zur Berechnung der Elektronenzahldichte verwendet wird. Der entwickelte „Neural-network-based Upper Hybrid Resonance Determination“ (NURD)-Algorithmus wird auf mehr als vier Jahre der EMFISIS-Messungen angewendet, um den öffentlich verfügbaren Elektronendichte-Datensatz zu erstellen. Wir verwenden den erhaltenen Elektronendichte-Datensatz, um ein neues globales Modell der Plasmadichte zu entwickeln, indem wir einen auf einem neuronalen Netzwerk basierenden Modellierungsansatz verwenden. Zusätzlich zum Ort nimmt das Modell den zeitlichen Verlauf der geomagnetischen Indizes und des Ortes als Eingabe und erzeugt als Ausgabe die Elektronendichte in der äquatorialebene. Dies wird ausführlich anhand von In-situ-Dichtemessungen der Van Allen Probes-Mission und durch den Vergleich der vom Modell vorhergesagten globalen Entwicklung der Plasmasphäre mit den globalen IMAGE EUV-Bildern der He+ -Verteilung validiert. Das Modell reproduziert erfolgreich die Erosion der Plasmasphäre auf der Nachtseite sowie die Bildung und Entwicklung von Fahnen und stimmt gut mit den Daten überein. Die Leistung neuronaler Netze hängt stark von der Verfügbarkeit von Trainingsdaten ab, die für Intervalle hoher geomagnetischer Aktivität nur spärlich vorhanden sind. Um zuverlässige Dichtevorhersagen während solcher Intervalle zu liefern, können wir eine physikalische Modellierung verwenden. Wir entwickeln einen neuen Ansatz zur optimalen Kombination der neuronalen Netzwerk- und physikbasierenden Modelle der Plasmasphäre mittels Datenassimilation. Der entwickelte Ansatz nutzt sowohl die Vorteile neuronaler Netze als auch die physikalischen Modellierung und liefert zuverlässige Rekonstruktionen der globalen Plasmadichte für ruhige, gestörte und extreme geomagnetische Bedingungen. Schließlich erweitern wir die entwickelten auf maschinellem Lernen basierten Werkzeuge und wenden sie auf ein weiteres wichtiges Problem im Bereich des Weltraumwetters an, die Vorhersage des geomagnetischen Index Kp. Der Kp-Index ist einer der am häufigsten verwendeten Indikatoren für Weltraumwetterwarnungen und dient als Eingabe für verschiedene Modelle, z.B. für die Thermosphäre, die Strahlungsgürtel und die Plasmasphäre. Es ist daher wichtig, den Kp-Index genau vorherzusagen. Frühere Arbeiten in diesem Bereich verwendeten hauptsächlich künstliche neuronale Netze, um Kurzzeit-Kp-Vorhersagen zu treffen, wobei deren Schlussfolgerungen auf der jüngsten Vergangenheit von Kp- und Sonnenwindmessungen am L1-Punkt beruhten. Wir analysieren, wie sich die Leistung neuronaler Netze im Vergleich zu anderen Algorithmen für maschinelles Lernen verhält, um kurz- und längerfristige Kp-Voraussagen von bis zu 12 Stunden treffen zu können. Zusätzlich untersuchen wir verschiedene Methoden des maschinellen Lernens und der Informationstheorie zur Auswahl der optimalen Eingaben für ein Vorhersagemodell von Kp. Die entwickelten Werkzeuge zur Merkmalsauswahl können auch auf andere Probleme in der Weltraumphysik angewendet werden, um die Eingabedimensionalität zu reduzieren und die wichtigsten Treiber zu identifizieren. Die in dieser Dissertation skizzierten Untersuchungen zeigen deutlich, dass Werkzeuge für maschinelles Lernen sowohl zur Entwicklung empirischer Modelle aus spärlichen Daten als auch zum Verstehen zugrunde liegender physikalischer Prozesse genutzt werden können. Die Kombination von maschinellem Lernen, physikbasierter Modellierung und Datenassimilation ermöglicht es uns, kombinierte Methoden zu entwickeln, die von unterschiedlichen Ansätzen profitieren. KW - Plasmasphere KW - Inner magnetosphere KW - Neural networks KW - Machine learning KW - Modeling KW - Kp index KW - Geomagnetic activity KW - Data assimilation KW - Validation KW - IMAGE EUV KW - Kalman filter KW - Plasmasphäre KW - Innere Magnetosphäre KW - Neuronale Netze KW - Maschinelles Lernen KW - Modellieren KW - Forecasting KW - Kp-Index KW - Geomagnetische Aktivität KW - Datenassimilation KW - Validierung KW - Kalman Filter KW - Prognose Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-482433 ER - TY - THES A1 - Zhang, Jianrui T1 - Completely water-based emulsions as compartmentalized systems via pickering stabilization N2 - Completely water-based systems are of interest for the development of novel material for various reasons: On one hand, they provide benign environment for biological systems and on the other hand they facilitate effective molecular transport in a membrane-free environment. In order to investigate the general potential of aqueous two-phase systems (ATPSs) for biomaterials and compartmentalized systems, various solid particles were applied to stabilize all-aqueous emulsion droplets. The target ATPS to be investigated should be prepared via mixing of two aqueous solutions of water-soluble polymers, which turn biphasic when exceeding a critical polymer concentration. Hydrophilic polymers with a wide range of molar mass such as dextran/poly(ethylene glycol) (PEG) can therefore be applied. Solid particles adsorbed at the interfaces can be exceptionally efficient stabilizers forming so-called Pickering emulsions, and nanoparticles can bridge the correlation length of polymer solutions and are thereby the best option for water-in-water emulsions. The first approach towards the investigation of ATPS was conducted with all aqueous dextran-PEG emulsions in the presence of poly(dopamine) particles (PDP) in Chapter 4. The water-in-water emulsions were formed with a PEG/dextran system via utilizing PDP as stabilizers. Studies of the formed emulsions were performed via laser scanning confocal microscope (CLSM), optical microscope (OM), cryo-scanning electron microscope (SEM) and tensiometry. The stable emulsions (at least 16 weeks) were demulsified easily via dilution or surfactant addition. Furthermore, the solid PDP at the water-water interface were crosslinked in order to inhibit demulsification of the Pickering emulsion. Transmission electron microscope (TEM) and scanning electron microscope (SEM) were used to visualize the morphology of PDP before and after crosslinking. PDP stabilized water-in-water emulsions were utilized in the following Chapter 5 to form supramolecular compartmentalized hydrogels. Here, hydrogels were prepared in pre-formed water-in-water emulsions and gelled via α-cyclodextrin-PEG (α-CD-PEG) inclusion complex formation. Studies of the formed complexes were performed via X-ray powder diffraction (XRD) and the mechanical properties of the hydrogels were measured with oscillatory shear rheology. In order to verify the compartmentalized state and its triggered decomposition, hydrogels and emulsions were assessed via OM, SEM and CLSM. The last chapter broadens the investigations from the previous two systems by utilizing various carbon nitrides (CN) as different stabilizers in ATPS. CN introduces another way to trigger demulsification, namely irradiation with visible light. Therefore, emulsification and demulsification with various triggers were probed. The investigated all aqueous multi-phase systems will act as model for future fabrication of biocompatible materials, cell micropatterning as well as separation of compartmentalized systems. N2 - Komplett wässrige Systeme sind aus vielerlei Hinsicht interessant für die Entwicklung neuer Materialien: Zum Einen eignet sich die wässrige Umgebung für Anwendung in biologischen System und zum Anderen ermöglicht eine Membran-freie Umgebung erleichterten Stofftransport. In dieser Arbeit wurden verschiedene Partikeltypen zur Stabilisierung von Wasser-in-Wasser Emulsionströpfchen eingesetzt, um das Potenzial von ATPSs (Aqueous two-phase systems (DE: Wässrige Zweiphasensysteme)) für Biomaterialien und kompartmentalisierte Systeme zu untersuchen. Das zu untersuchende ATPS sollte durch Mischen von zwei wässrigen Lösungen wasserlöslicher Polymere hergestellt werden und bei Überschreiten einer kritischen Polymerkonzentration zweiphasig werden. Als hydrophile Polymer wurden Dextran und Poly(ethylenglycol) (PEG) für die Bildung des ATPS angewendet. Die Grenzfläche zwischen den beiden Phasen in ATPSs ist undefiniert und erstreckt sich über einen Bereich, deshalb müssen Partikel für die Stabilisierung des ATPS eingesetzt werden. Die an den Grenzflächen adsorbierten Partikel können effizient als Stabilisatoren fungieren und die sogenannten Pickering-Emulsionen bilden. Der erste Ansatz der Untersuchung von Wasser-in-Wasser Emulsionen wurde mit dem Dextran-PEG-System in Gegenwart von Poly(dopamin)-Partikeln (PDP) als Stabilisatoren durchgeführt. Die bis zu 16 Wochen stabilen Emulsionen konnten mittels Verdünnung oder Tensidzugabe gebrochen werden. Weiterhin wurde die stabilisierenden PDP vernetzt, um eine Deemulgierung der Pickering-Emulsion zu verhindern. Des Weiteren wurden PDP stabiliserte Emulsionen verwednet, um supramolekulare kompartmentalisierte Hydrogele herzustellen. Hier wurden Hydrogele in vorgeformten Wasser-in-Wasser-Emulsionen hergestellt und über die Bildung des α-Cyclodextrin-PEG Komplexes geliert. Die gebildeten Komplexe wurden mittels XRD erforscht und die mechanischen Eigenschaften der Hydrogele mit Rheologie gemessen. Zuletzt wurde die Forschung der zwei vorherigen erwähnten Systemen erweitert, indem verschiedene Kohlenstoffnitride (CN) als Stabilisatoren in ATPS verwendet wurden. Der Einsatz von CN ermöglichte dabei einen weiteren Stimulus zur Deemulgierung, nämlich sichtbares Licht. So wurden Emulgierung und Deemulgierung mit verschiedenen äußeren Reizen untersucht. Die verschiedenen Wasser-in-Wasser Emulsionen werden ein Modell für die zukünftige Herstellung biokompatibler Materialien, die örtlche Zellstrukturierung sowie die Trennung von Kompartimentsystemen liefern. T2 - Vollständig wasserbasierte Pickeringemulsionen als Kompartimentsysteme KW - emulsion KW - water-in-water KW - ATPS KW - Emulsionen KW - Wasser-in-Wasser Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-476542 ER - TY - THES A1 - Zeckra, Martin T1 - Seismological and seismotectonic analysis of the northwestern Argentine Central Andean foreland N2 - After a severe M W 5.7 earthquake on October 17, 2015 in El Galpón in the province of Salta NW Argentina, I installed a local seismological network around the estimated epicenter. The network covered an area characterized by inherited Cretaceous normal faults and neotectonic faults with unknown recurrence intervals, some of which may have been reactivated normal faults. The 13 three-component seismic stations recorded data continuously for 15 months. The 2015 earthquake took place in the Santa Bárbara System of the Andean foreland, at about 17km depth. This region is the easternmost morphostructural region of the central Andes. As a part of the broken foreland, it is bounded to the north by the Subandes fold-and-thrust belt and the Sierras Pampeanas to the south; to the east lies the Chaco-Paraná basin. A multi-stage morphotectonic evolution with thick-skinned basement uplift and coeval thin-skinned deformation in the intermontane basins is suggested for the study area. The release of stresses associated with the foreland deformation can result in strong earthquakes, as the study area is known for recurrent and historical, destructive earthquakes. The available continuous record reaches back in time, when the strongest event in 1692 (magnitude 7 or intensity IX) destroyed the city of Esteco. Destructive earthquakes and surface deformation are thus a hallmark of this part of the Andean foreland. With state-of-the-art Python packages (e.g. pyrocko, ObsPy), a semi-automatic approach is followed to analyze the collected continuous data of the seismological network. The resulting 1435 hypocenter locations consist of three different groups: 1.) local crustal earthquakes (nearly half of the events belong to this group), 2.) interplate activity, of regional distance in the slab of the Nazca-plate, and 3.) very deep earthquakes at about 600km depth. My major interest focused on the first event class. Those crustal events are partly aftershock events of the El Galpón earthquake and a second earthquake, in the south of the same fault. Further events can be considered as background seismicity of other faults within the study area. Strikingly, the seismogenic zone encompass the whole crust and propagates brittle deformation down, close to the Moho. From the collected seismological data, a local seismic velocity model is estimated, using VELEST. After the execution of various stability tests, the robust minimum 1D-velocity model implies guiding values for the composition of the local, subsurface structure of the crust. Afterwards, performing a hypocenter relocation enables the assignment of individual earthquakes to aftershock clusters or extended seismotectonic structures. This allows the mapping of previously unknown seismogenic faults. Finally, focal mechanisms are modeled for events with acurately located hypocenters, using the newly derived local velocity model. A compressive regime is attested by the majority of focal mechanisms, while the strike direction of the individual seismogenic structures is in agreement with the overall north – south orientation of the Central Andes, its mountain front, and individual mountain ranges in the southern Santa-Bárbara-System. N2 - Nach einem schweren Erdbeben der Magnitude M W 5.7 am 17. Oktober 2015 in El Galpón, in der Provinz Salta im Nordwesten Argentiniens, habe ich ein lokales seismologisches Netzwerk, um das vermutete Epizentrum herum, aufgebaut. Dabei haben 13 Stationen kontinuierlich für 15 Monate gemessen. Das Netzwerk wurde in einem Gebiet installiert, welches durch tektonische Störungen charakterisiert ist, die entweder in der Kreidezeit zunächst als Abschiebungen initiiert und später als Aufschiebungen reaktiviert wurden oder in der geologischen jüngeren Vergangenheit erst entstanden sind. Die Intervallzeiten zwischen zwei Erdbeben sind dabei häufig unbekannt. Das Erdbeben von 2015 trat im Santa-Barbara-System im Argentinischen Vorland, 17 km unter der Erdoberfläche auf. Diese Region ist die östlichste strukturgeologische Provinz der Zentralanden und dem broken-foreland-Typus zuzuordnen. Im Norden schließt sich der Bolivianische Faltengürtel (Sierras Subandinas) und im Süden die Sierras Pampeanas an; im Osten liegt das Chaco-Paraná Becken. Eine mehrstufige morphotektonische Entwicklung wird hier vermutet, bei der das Grundgebirge durch als thick-skinned bezeichnete Deformation herausgehoben wurde und die dazwischen liegenden Intermontanbecken gleichzeitig Deformation des Typs thin-skinned erfahren haben. Die plötzliche Spannungsfreisetzung, die mit dieser Vorlanddeformation einhergeht, kann zu starken Erdbeben führen. Das Untersuchungsgebiet ist für wiederkehrende und historische, zerstörerische Erdbeben bekannt. Der zur Verfügung stehenden Aufzeichnungen reichen bis in das Jahr 1692 zurück, als ein Erdbeben der Magnitude M 7 (oder Intensität IX) die Stadt Esteco zerstörte. Daher sind zerstörerische Erdbeben ein besonderes Kennzeichen in diesem Teil des Andenvorlands. Für die Analyse der im seismologischen Netzwerk aufgezeichneten kontinuierlichen Daten wurde ein semiautomatischer Ansatz verfolgt, der mittels hochmoderner Python-Bibliotheken informationstechnisch umgesetzt wurde. Die resultierenden 1435 Erdbeben bestehen aus drei verschiedenen Gruppen: 1.) lokale Erdbeben in der Erdkruste (die etwa die Hälfte aller Events ausmachen), 2.) weiter entfernte Interplattenaktivität, die durch die Subduktion der Nazca-Platte unter den Südamerikanischen Kontinent hervorgerufen wird und 3.) sehr tiefen Erdbeben in etwa 600 km Tiefe. Mein Hauptaugenmerk lag dabei auf der ersten Gruppe. Diese krustalen Ereignisse sind teilweise Nachbeben des El Galpón Erdbebens und eines weiteren Bebens, welches sich weiter im Süden an der gleichen Störung ereignete. Die restlichen Beben können der allgemeinen Hintergrundaktivität entlang weiterer Störungen im Untersuchungsgebiet zugeschrieben werden. Beachtenswert ist dabei der Umstand, dass die Erdbebenaktivität in der gesamten Kruste beobachtet werden kann und sich dadurch die Deformation bis a fast an den Erdmantel ausbreitet. Mit den gesammelten Daten kann, unter der Verwendung der VELEST Software, ein lokales seismisches Geschwindigkeitsmodell bestimmt werden. Nach der Durchführung verschiedener Stabilitätstests, können aus dem robusten eindimensionalen Modell Richtwerte für die Zusammensetzung und den Aufbau der Erdkruste gewonnen werden. Dieanschließende Relokalisierung von Erdbebenherden erlaubt die Zuordnung einzelner Erdbeben zu Erdbebenclustern oder ausgedehnten seismotektonischen Strukturen. Dadurch können sogar zuvor unbekannte seismogene Störungen kartiert werden. Schlussendlich, werden Herdflächenlösungen für Beben mit präzise lokalisierten Erdbebenherden und unter der Einbeziehung des neu bestimmten lokalen Geschwindigkeitsmodells modelliert. Der Großteil der resultierenden Lösungen bestätigt das vorherrschende kompressive Regime. Das Streichen der einzelnen seismogenen Strukturen stimmt größtenteils mit der allgemeinen Nord – Süd Ausrichtugn der Zentralanden, ihrer Gebirgsfront und den einzelnen Höhenzügen im Santa-Barbará-System überein. T2 - Seismologische und Seismotektonische Analyse des Vorlandsystems der nordwestargentinischen Zentralanden KW - Seismology KW - Seismotektonik KW - Geophysics KW - Andes KW - Geosciences KW - Argentina KW - Anden KW - Seismologie KW - Geophysik KW - Geowissenschaften KW - Argentinien Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-473240 ER - TY - THES A1 - Youakim, Kris T1 - Galactic archaeology with metal-poor stars from the Pristine survey N2 - The Milky Way is a spiral galaxy consisting of a disc of gas, dust and stars embedded in a halo of dark matter. Within this dark matter halo there is also a diffuse population of stars called the stellar halo, that has been accreting stars for billions of years from smaller galaxies that get pulled in and disrupted by the large gravitational potential of the Milky Way. As they are disrupted, these galaxies leave behind long streams of stars that can take billions of years to mix with the rest of the stars in the halo. Furthermore, the amount of heavy elements (metallicity) of the stars in these galaxies reflects the rate of chemical enrichment that occurred in them, since the Universe has been slowly enriched in heavy elements (e.g. iron) through successive generations of stars which produce them in their cores and supernovae explosions. Therefore, stars that contain small amounts of heavy elements (metal-poor stars) either formed at early times before the Universe was significantly enriched, or in isolated environments. The aim of this thesis is to develop a better understanding of the substructure content and chemistry of the Galactic stellar halo, in order to gain further insight into the formation and evolution of the Milky Way. The Pristine survey uses a narrow-band filter which specifically targets the Ca II H & K spectral absorption lines to provide photometric metallicities for a large number of stars down to the extremely metal-poor (EMP) regime, making it a very powerful data set for Galactic archaeology studies. In Chapter 2, we quantify the efficiency of the survey using a preliminary spectroscopic follow-up sample of ~ 200 stars. We also use this sample to establish a set of selection criteria to improve the success rate of selecting EMP candidates for follow-up spectroscopy. In Chapter 3, we extend this work and present the full catalogue of ~ 1000 stars from a three year long medium resolution spectroscopic follow-up effort conducted as part of the Pristine survey. From this sample, we compute success rates of 56% and 23% for recovering stars with [Fe/H] < -2.5 and [Fe/H] < -3.0, respectively. This demonstrates a high efficiency for finding EMP stars as compared to previous searches with success rates of 3-4%. In Chapter 4, we select a sample of ~ 80000 halo stars using colour and magnitude cuts to select a main sequence turnoff population in the distance range 6 < dʘ < 20 kpc. We then use the spectroscopic follow-up sample presented in Chapter 3 to statistically rescale the Pristine photometric metallicities of this sample, and present the resulting corrected metallicity distribution function (MDF) of the halo. The slope at the metal-poor end is significantly shallower than previous spectroscopic efforts have shown, suggesting that there may be more metal-poor stars with [Fe/H] < -2.5 in the halo than previously thought. This sample also shows evidence that the MDF of the halo may not be bimodal as was proposed by previous works, and that the lack of globular clusters in the Milky Way may be the result of a physical truncation of the MDF rather than just statistical under-sampling. Chapter 5 showcases the unexpected capability of the Pristine filter for separating blue horizontal branch (BHB) stars from Blue Straggler (BS) stars. We demonstrate a purity of 93% and completeness of 91% for identifying BHB stars, a substantial improvement over previous works. We then use this highly pure and complete sample of BHB stars to trace the halo density profile out to d > 100 kpc, and the Sagittarius stream substructure out to ~ 130 kpc. In Chapter 6 we use the photometric metallicities from the Pristine survey to perform a clustering analysis of the halo as a function of metallicity. Separating the Pristine sample into four metallicity bins of [Fe/H] < -2, -2 < [Fe/H] < -1.5, -1.5 < [Fe/H] < -1 and -0.9 < [Fe/H] < -0.8, we compute the two-point correlation function to measure the amount of clustering on scales of < 5 deg. For a smooth comparison sample we make a mock Pristine data set generated using the Galaxia code based on the Besançon model of the Galaxy. We find enhanced clustering on small scales (< 0.5 deg) for some regions of the Galaxy for the most metal-poor bin ([Fe/H] < -2), while in others we see large scale signals that correspond to known substructures in those directions. This confirms that the substructure content of the halo is highly anisotropic and diverse in different Galactic environments. We discuss the difficulties of removing systematic clustering signals from the data and the limitations of disentangling weak clustering signals from real substructures and residual systematic structure in the data. Taken together, the work presented in this thesis approaches the problem of better understanding the halo of our Galaxy from multiple angles. Firstly, presenting a sizeable sample of EMP stars and improving the selection efficiency of EMP stars for the Pristine survey, paving the way for the further discovery of metal-poor stars to be used as probes to early chemical evolution. Secondly, improving the selection of BHB distance tracers to map out the halo to large distances, and finally, using the large samples of metal-poor stars to derive the MDF of the inner halo and analyse the substructure content at different metallicities. The results of this thesis therefore expand our understanding of the physical and chemical properties of the Milky Way stellar halo, and provide insight into the processes involved in its formation and evolution. N2 - Die Milchstraße ist eine Spiralgalaxie, die aus einer Scheibe aus Gas, Staub und Sternen besteht und in einen Halo aus dunkler Materie eingebettet ist. Der Halo beherbergt auch eine diffuse Sternpopulation, den sogenanten stellaren Halo, welcher seit Milliarden von Jahren kleinere Galaxien verschlingt, die durch das große Gravitationspotenzial der Milchstraße angezogen werden. Wenn sie von der Gezeitenkraft der Milchstraße zerrissen werden, hinterlassen diese Galaxien lange Sternenströme, die ihrerseits Milliarden von Jahren überdauern können, bis sie sich komplett mit dem Rest der Halosterne vermischen. Die Menge an schweren chemischen Elementen (Metallizität) in den Sternen dieser Galaxien verrät uns ihre Sternentstehungsgeschichte: aufeinanderfolgende Generationen von Sternen und ihre Supernovae Explosionen reichern die Galaxie langsam mit schweren Elementen an. Sterne mit sehr wenig schweren Elementen (metallarme Sterne) bildeten sich daher entweder früh vor der signifikanten Anreicherung des Universums, oder in isolierten Umgebungen. Das Ziel dieser Arbeit ist eine genauere Charakterisierung der Struktur und Zusammensetzung des galaktischen stellaren Halos, um so die Entstehung und Entwicklung der Milchstraße besser zu verstehen. Metallarme Sterne sind schwierig zu finden, da sie viel seltener sind als Sterne mit höherer Metallizität, wie etwa unsere Sonne. Die Pristine Survey verwendet einen Schmalbandfilter, um metallarme Sterne photometrisch zu identifizieren, und kann daher Metallizitäten für eine große Anzahl von Sternen viel schneller bestimmen als spektroskopische Untersuchungen. Dies macht die Pristine Survey zu einem wertvollen Datensatz für Studien der Frühgeschichte der Milchstraße. In Kapitel 2 quantifizieren wir die Effizienz der Survey mit einer Stichprobe von ca. 200 Sternen, die spektroskopisch nachbeobachtet wurden. Wir verwenden diese Stichprobe auch, um eine Reihe von Auswahlkriterien festzulegen, um die Erfolgsrate bei der Auswahl metallarmer Kandidaten für die Folgespektroskopie zu verbessern. In Kapitel 3 erweitern wir diese Arbeit und präsentieren den vollständigen Katalog von ca. 1000 Sternen aus einem dreijährigen spektroskopischen Follow-up-Projekt, das im Rahmen der Pristine Survey durchgeführt wurde. Diese Stichprobe zeigt, dass die Pristine Survey circa fünfmal effizienter im Finden extrem metallarmer Sterne ist als frühere Studien. In Kapitel 4 wählen wir eine Stichprobe von ca. 80000 Halosternen aus der Pristine Survey aus, um die Verteilung der Sterne an verschiedenen Metallizitäten im Halo zu analysieren. Wir verwenden die spektroskopische Stichprobe von Kapitel 3 für die Reskalierung der photometrischen Metallizitäten, um Verzerrungen in der Probe zu reduzieren. Die Steigung am metallarmen Ende dieser Verteilung ist deutlich flacher als in früheren spektroskopischen Studien gemessen. Das bedeutet, dass es viel mehr sehr metallarme Sterne im Halo geben könnte als bisher angenommen. Blaue Horizontalaststerne (BHB-Sterne) sind sehr hell und ihre Entfernungen können sehr genau bestimmt werden. Deswegen sind sie ideale Standardkerzen für Studien von Sternpopulationen im galaktischen Halo. Kapitel 5 zeigt, wie die Pristine Survey dazu verwendet werden kann, BHB-Sterne besser zu identifizieren hinsichtlich ihrer Reinheit und Vollständigkeit als frühere Studien. Wir verwenden dann diese Stichprobe von BHB-Sternen, um das Dichteprofil des Halos sowie einige bekannte Halosubstrukturen über weite Entfernungen zu verfolgen. In Kapitel 6 verwenden wir die photometrischen Metallizitäten aus der Pristine Survey, um eine Clustering-Analyse des Halos für verschiedene Metallizitäten durchzuführen. Wir finden stärkeres Clustering auf kleiner Skala (< 0,5 Grad) für einige Regionen der Galaxie im metallärmsten Bereich, wohingegen wir in anderen Regionen große Signale sehen, die bereits bekannten Substrukturen in den jeweiligen Richtungen entsprechen. Dies zeigt die Fähigkeit dieser Methode, quantitative Vergleiche des Substrukturgehalts für verschiedene Proben und in verschiedenen galaktischen Umgebungen durchzuführen. Wir diskutieren auch die Schwierigkeiten bei der Entfernung systematischer Clustering-Signale aus den Daten und die Grenzen der Entflechtung schwacher Clustering-Signale von realen Substrukturen. Zusammengefasst nähert sich diese Arbeit dem Problem eines besseren Verständnisses unseres Galaxienhalos aus mehreren Blickwinkeln. Als erstes stellt sie die Pristine Survey vor, die uns eine neue beträchtlichen Stichprobe von extrem metallarmen Sternen mit verbesserter Selektionseffizienz liefert. Dies ebnet den Weg für die Entdeckung weiterer metallarmer Sterne, die als Sonden für die frühe chemische Evolution verwendet werden können. Außerdem verbessert diese Arbeit das Auswahlverfahren für BHB-Sterne zur großräumigen Vermessung des galaktischen Halos, die Verwendung von großen Stichproben metallarmer Sterne zur Ableitung der Metallizitätsverteilung des inneren Halos, sowie die Analyse von Halosubstrukturen für verschiedene Metallizitäten. Die Ergebnisse dieser Arbeit erweitern somit unsere Kenntnis physikalischer und chemischer Eigenschaften des Milchstraßenhalos und vertiefen unser Verständnis von dessen Entstehung und Entwicklung. T2 - Galaktische Archäologie mit metallarmen Sternen des Pristine Surveys KW - Milky Way Halo KW - Metal-poor stars KW - Dwarf galaxies KW - Galactic archaeology KW - Halo der Milchstraße KW - Metallarme Sterne KW - Zwerg Galaxien KW - Galaktische Archäologie Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-474314 ER - TY - THES A1 - Yang, Xiaoqiang T1 - Spatial and temporal analyses of catchment and in-stream nitrate dynamics BT - insights derived from fully distributed, process-based modeling and high-frequency monitoring BT - Untersuchungen auf der Basis von räumlich verteilter, prozessbasierter Modellierung und eines zeitlich hochaufgelösten Gewässermonitorings N2 - Water quality in river systems is of growing concern due to rising anthropogenic pressures and climate change. Mitigation efforts have been placed under the guidelines of different governance conventions during last decades (e.g., the Water Framework Directive in Europe). Despite significant improvement through relatively straightforward measures, the environmental status has likely reached a plateau. A higher spatiotemporal accuracy of catchment nitrate modeling is, therefore, needed to identify critical source areas of diffuse nutrient pollution (especially for nitrate) and to further guide implementation of spatially differentiated, cost-effective mitigation measures. On the other hand, the emerging high-frequency sensor monitoring upgrades the monitoring resolution to the time scales of biogeochemical processes and enables more flexible monitoring deployments under varying conditions. The newly available information offers new prospects in understanding nitrate spatiotemporal dynamics. Formulating such advanced process understanding into catchment models is critical for model further development and environmental status evaluation. This dissertation is targeting on a comprehensive analysis of catchment and in-stream nitrate dynamics and is aiming to derive new insights into their spatial and temporal variabilities through the new fully distributed model development and the new high-frequency data. Firstly, a new fully distributed, process-based catchment nitrate model (the mHM-Nitrate model) is developed based on the mesoscale Hydrological Model (mHM) platform. Nitrate process descriptions are adopted from the Hydrological Predictions for the Environment (HYPE), with considerable improved implementations. With the multiscale grid-based discretization, mHM-Nitrate balances the spatial representation and the modeling complexity. The model has been thoughtfully evaluated in the Selke catchment (456 km2), central Germany, which is characterized by heterogeneous physiographic conditions. Results show that the model captures well the long-term discharge and nitrate dynamics at three nested gauging stations. Using daily nitrate-N observations, the model is also validated in capturing short-term fluctuations due to changes in runoff partitioning and spatial contribution during flooding events. By comparing the model simulations with the values reported in the literature, the model is capable of providing detailed and reliable spatial information of nitrate concentrations and fluxes. Therefore, the model can be taken as a promising tool for environmental scientists in advancing environmental modeling research, as well as for stakeholders in supporting their decision-making, especially for spatially differentiated mitigation measures. Secondly, a parsimonious approach of regionalizing the in-stream autotrophic nitrate uptake is proposed using high-frequency data and further integrated into the new mHM-Nitrate model. The new regionalization approach considers the potential uptake rate (as a general parameter) and effects of above-canopy light and riparian shading (represented by global radiation and leaf area index data, respectively). Multi-parameter sensors have been continuously deployed in a forest upstream reach and an agricultural downstream reach of the Selke River. Using the continuous high-frequency data in both streams, daily autotrophic uptake rates (2011-2015) are calculated and used to validate the regionalization approach. The performance and spatial transferability of the approach is validated in terms of well-capturing the distinct seasonal patterns and value ranges in both forest and agricultural streams. Integrating the approach into the mHM-Nitrate model allows spatiotemporal variability of in-stream nitrate transport and uptake to be investigated throughout the river network. Thirdly, to further assess the spatial variability of catchment nitrate dynamics, for the first time the fully distributed parameterization is investigated through sensitivity analysis. Sensitivity results show that parameters of soil denitrification, in-stream denitrification and in-stream uptake processes are the most sensitive parameters throughout the Selke catchment, while they all show high spatial variability, where hot-spots of parameter sensitivity can be explicitly identified. The Spearman rank correlation is further analyzed between sensitivity indices and multiple catchment factors. The correlation identifies that the controlling factors vary spatially, reflecting heterogeneous catchment responses in the Selke catchment. These insights are, therefore, informative in informing future parameter regionalization schemes for catchment water quality models. In addition, the spatial distributions of parameter sensitivity are also influenced by the gauging information that is being used for sensitivity evaluation. Therefore, an appropriate monitoring scheme is highly recommended to truly reflect the catchment responses. N2 - Die Wasserqualität in Flusssystemen ist aufgrund des steigenden anthropogenen Drucks und des Klimawandels von wachsender Bedeutung. Um kritische Eintragspfade diffuser Nitratbelastungen zu identifizieren, ist eine hohe räumliche und zeitliche Auflösung der Modellierung des Einzugsgebietes erforderlich. Neue hochfrequente Sensordaten bieten neue Perspektiven für das Verständnis der Nitratdynamik in Einzugsgebieten. Die Vertiefung des Prozessverständnisses ist entscheidend für die Weiterentwicklung von Einzugsmodellen. Diese Dissertation zielt auf eine umfassende Analyse der einzugsbezogenen und gewässerinternen Nitratdynamik ab und analysiert ihre räumlichen und zeitlichen Variabilität anhand vollständig verteilter Modellierung und neuer zeitlich hochaufgelöster Sensordaten. Zunächst wurde ein neues, räumlich verteiltes hydrologisches Nitratmodell (das mHM-Nitratmodell) entwickelt, um die Nitratflüsse und -dynamiken in Einzugsgebieten abzubilden. Das Modell wurde im Selke Einzugsgebiet (456 km2) in Mitteldeutschland implementiert. Die Ergebnisse zeigen, dass das Modell sowohl die lang- als auch die kurzfristige Dynamik von Abfluss und Nitrat an drei genesteten Messstationen gut erfasst und in der Lage ist, detaillierte und zuverlässige räumliche Informationen zu liefern. Des Weiteren wurde ein vereinfachter Ansatz zur Regionalisierung der autotrophen Nitrataufnahme in Fließgewässern entwickelt und in das neue mHM-Nitratmodell integriert. Die Verfügbarkeit von Licht auf der Gewässeroberfläche wird als treibender Faktor identifiziert, welcher durch Globalstrahlung und pflanzenspezifischem Blattflächenindex quantifiziert werden kann. Die räumliche Übertragbarkeit des Ansatzes wird anhand kontinuierlicher, zeitlich hochaufgelöster Gewässermessdaten in der Selke überprüft. Hierauf aufbauend wird die vollständig verteilte Parametrisierung des Modells durch Sensitivitätsanalysen untersucht, welche die empfindlichsten Parameter und deren räumliche Variabilität identifizieren. Die Spearman-Rank-Korrelationen zeigen, dass die bestimmenden Einflussfaktoren aufgrund der heterogenen Einzugscharakteristik auch räumlich stark variieren. Das mHM-Nitratmodell kann als vielversprechendes Instrument zur Beurteilung der detaillierten räumzeitlichen Variabilität der Nitratflüsse und -dynamiken genutzt werden, was sowohl für Wissenschaftler als auch für Nutzer aus der Praxis wichtig ist. Die Integration des neuen Ansatzes zur gewässerinternen Nährstoffaufnahme in das Modell ermöglicht eine räumlich-zeitliche Untersuchung des Nitrattransports und Nährstoffentzugs in Fließgewässernetzwerken. Die Erkenntnisse aus Sensitivitäts- und Korrelationsanalysen sind bedeutsam für die Ableitung zukünftiger Parameterregionalisierungsansätze, die es erlauben, einen ausgewogenen Kompromiss zwischen der Komplexität der Modellparametrisierung und der hinreichenden Darstellung der natürlichen Heterogenität zu finden. T2 - Raumzeitliche Analyse von einzugsgebietsbezogenen und gewässerinternen Nitratdynamiken KW - Catchment and in-stream water quality KW - Spatial and temporal nitrate variability KW - Fully distributed nitrate modeling KW - High-frequency data KW - Heterogeneous catchement responses KW - Autotrophic nitrate uptake in river networks KW - Autotropher Nitrat-Aufnahme in Gewässernetzen KW - Räumlich verteilte Nitratmodellierung KW - Heterogene Einzugsgebietsreaktionen KW - Hochfrequenzdaten KW - Räumliche und zeitliche Nitratvariabilität Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-477029 ER - TY - THES A1 - Wolff, Christian Michael T1 - Identification and reduction of losses in perovskite solar cells N2 - Perovskite solar cells have become one of the most studied systems in the quest for new, cheap and efficient solar cell materials. Within a decade device efficiencies have risen to >25% in single-junction and >29% in tandem devices on top of silicon. This rapid improvement was in many ways fortunate, as e. g. the energy levels of commonly used halide perovskites are compatible with already existing materials from other photovoltaic technologies such as dye-sensitized or organic solar cells. Despite this rapid success, fundamental working principles must be understood to allow concerted further improvements. This thesis focuses on a comprehensive understanding of recombination processes in functioning devices. First the impact the energy level alignment between the perovskite and the electron transport layer based on fullerenes is investigated. This controversial topic is comprehensively addressed and recombination is mitigated through reducing the energy difference between the perovskite conduction band minimum and the LUMO of the fullerene. Additionally, an insulating blocking layer is introduced, which is even more effective in reducing this recombination, without compromising carrier collection and thus efficiency. With the rapid efficiency development (certified efficiencies have broken through the 20% ceiling) and thousands of researchers working on perovskite-based optoelectronic devices, reliable protocols on how to reach these efficiencies are lacking. Having established robust methods for >20% devices, while keeping track of possible pitfalls, a detailed description of the fabrication of perovskite solar cells at the highest efficiency level (>20%) is provided. The fabrication of low-temperature p-i-n structured devices is described, commenting on important factors such as practical experience, processing atmosphere & temperature, material purity and solution age. Analogous to reliable fabrication methods, a method to identify recombination losses is needed to further improve efficiencies. Thus, absolute photoluminescence is identified as a direct way to quantify the Quasi-Fermi level splitting of the perovskite absorber (1.21eV) and interfacial recombination losses the transport layers impose, reducing the latter to ~1.1eV. Implementing very thin interlayers at both the p- and n-interface (PFN-P2 and LiF, respectively), these losses are suppressed, enabling a VOC of up to 1.17eV. Optimizing the device dimensions and the bandgap, 20% devices with 1cm2 active area are demonstrated. Another important consideration is the solar cells’ stability if subjected to field-relevant stressors during operation. In particular these are heat, light, bias or a combination thereof. Perovskite layers – especially those incorporating organic cations – have been shown to degrade if subjected to these stressors. Keeping in mind that several interlayers have been successfully used to mitigate recombination losses, a family of perfluorinated self-assembled monolayers (X-PFCn, where X denotes I/Br and n = 7-12) are introduced as interlayers at the n-interface. Indeed, they reduce interfacial recombination losses enabling device efficiencies up to 21.3%. Even more importantly they improve the stability of the devices. The solar cells with IPFC10 are stable over 3000h stored in the ambient and withstand a harsh 250h of MPP at 85◦C without appreciable efficiency losses. To advance further and improve device efficiencies, a sound understanding of the photophysics of a device is imperative. Many experimental observations in recent years have however drawn an inconclusive picture, often suffering from technical of physical impediments, disguising e. g. capacitive discharge as recombination dynamics. To circumvent these obstacles, fully operational, highly efficient perovskites solar cells are investigated by a combination of multiple optical and optoelectronic probes, allowing to draw a conclusive picture of the recombination dynamics in operation. Supported by drift-diffusion simulations, the device recombination dynamics can be fully described by a combination of first-, second- and third-order recombination and JV curves as well as luminescence efficiencies over multiple illumination intensities are well described within the model. On this basis steady state carrier densities, effective recombination constants, densities-of-states and effective masses are calculated, putting the devices at the brink of the radiative regime. Moreover, a comprehensive review of recombination in state-of-the-art devices is given, highlighting the importance of interfaces in nonradiative recombination. Different strategies to assess these are discussed, before emphasizing successful strategies to reduce interfacial recombination and pointing towards the necessary steps to further improve device efficiency and stability. Overall, the main findings represent an advancement in understanding loss mechanisms in highly efficient solar cells. Different reliable optoelectronic techniques are used and interfacial losses are found to be of grave importance for both efficiency and stability. Addressing the interfaces, several interlayers are introduced, which mitigate recombination losses and degradation. N2 - Auf der Suche nach neuen, kostengünstigen und effizienten Systemen zur photovoltaischen Energiegewinnung, sind Perowskit Solarzellen zu einem der am meistuntersuchtesten Systeme avanciert. Innerhalb einer Dekade konnten unabhängig zertifizierte Umwandlungseffizienzen von >25% in Einzelschicht- und >29% in Mehrschichtzellen basierend auf Siliziumzellen realisiert werden. Die schnelle Entwicklung war in vielerlei Hinsicht glücklich, da beispielsweise die Energielevel typischer Perowskitschichten mit bereits existierenden Kontaktschichtsystemen anderer Photovoltaiksysteme, wie etwa Farbstoffsolarzellen oder Organische Solarzellen, kompatibel sind. Trotz dieses schnellen Erfolges, müssen zur weiteren Effizienzsteigerung grundlegende Wirkprinzipien der Solarzellen verstanden werden. Diese Arbeit beschäftigt sich mit dem umfassenden Verständnis von Rekombinationsprozessen in voll funktionstüchtigen Bauteilen. Zunächst wird der Einfluss unterschiedlicher Energielevel einer Transportschicht, basierend auf Fullerenen untersucht. Dieses kontrovers diskutierte Thema wurde umfassend untersucht und Rekombinationsverluste aufgrund ungünstiger Energielevel reduziert indem - durch die Wahl unterschiedlicher Fulleren-Derivate - der energetische Abstand zwischen Leitungsband des Perowskit und dem niedrigsten unbesetzten Zustand des Fullerenes reduziert wird. Zusätzlich wurde eine ultradünne elektrisch isolierende Zwischenschicht eingebracht, die noch effektiver Rekombinationsverluste unterdrückt, ohne die Fähigkeit zur Ladungsextraktion - und damit Effizienz einzuschränken. Das breite Interesse tausender Forschenden weltweit hat zur schnellen Entwicklung besagter hoher Effizienzen geführt, obgleich verlässliche, leicht nachzuvollziehende Herstellungsprotokolle nicht existierten. Auf Basis der hier entwickelten Protokolle, werden Methoden dargestellt, mit denen verlässlich >20% effiziente Solarzellen produziert werden können. Hierbei wird insbesondere auf sogenannte invertierte (p-i-n) Zellen eingegangen, wobei ein Fokus auf der Beschreibung essentieller Faktoren wie Atmosphärenkontrolle, Temperaturkontrolle, Materialreinheit oder praktischer Erfahrung liegt. Analog zu verlässlichen Herstellungsmethoden bedarf es robuster Techniken um Rekombinationsverluste zu identifizieren und zu lokalisieren. Zu diesem Zweck wird die Messung der absoluten Photolumineszenzeffizienz eingeführt, die erlaubt die Aufspaltung der Quasi-Fermi Level des Perowskiten zu quantifizieren (1.22eV). Ebenso ist es mit dieser Methode möglich Rekombinationsverluste an Grenzflächen zu lokalisieren, die die Leerlaufspannung auf 1.1V limitieren. Zur Vermeidung dieser Verluste werden erneut ultradünne Zwischenschichten an sowohl der p- als auch n- Grenzschicht eingebracht (PFN-P2 und LiF), die Leerlaufspannungen von bis zu 1.17V ermöglichen. Mithilfe eines optimierten Designs und einer Reduzierung der Bandlücke können Bauteile mit 20% Effizienz bei einer Größe von 1cm2 realisiert werden. Nebst hoher Effizienz ist die Stabilität der Bauteile unter einsatzrelevanten Umweltbedingungen ein wichtiger Faktor auf dem Weg zu einer Kommerzialisierung. Dies gilt insbesondere für Hitze, Beleuchtung, elektrische Ladung oder eine Kombination letzterer. Perowskitschichten -- insbesondere diejenigen, die organische Kationen beinhalten -- sind wohlbekannt dafür unter genannten Bedingungen zu degradieren. Das Konzept der ultradünnen Zwischenschichten wird daher um eine Familie fluornierter selbstorganisierender molekularer Monoschichten erweitert X-PFC_n, wobei X ein Halogen I/Br darstellt und n = 7-12 die Länge der fluorinerten Alkylkette angibt), die an der n-Grenzfläche zum Einsatz kommen. Diese Zwischenschicht reduziert Rekombinationsverluste resultierend in 21.3% effizienten Bauteilen und ermöglicht zusätzlich eine drastische erhöhte Stabilität. Bauteile mit dem Molekül IPFC10 sind über 3000h stabil unter Lagerungsbedingungen im Dunkeln und überstehen 250h unter voller Last bei 85°C ohne nennenswerte Verluste. Weitere Fortschritte in der Steigerung der Effizienz sind nur zu erwarten, wenn eine vollständige Beschreibung der Wirkprinzipien und Schwachstellen vorliegt. Eine Vielzahl experimenteller Studien haben bisher jedoch ein lückenhaftes Bild gemalt. Häufig sind physikalische Beschränkungen, etwa die hohe Kapazität aufgrund der sehr dünnen Schichten dafür verantwortlich, dass Rekombinationsdynamiken durch kapazitive Entladungsprozesse verdeckt werden. Um diese Probleme zu umgehen, werden hocheffiziente Solarzellen mit einer Kombination mehrerer optischer und optoelektronischer Messmethoden untersucht. Dies ermöglicht die Rekombinationsdynamik mit einer Superposition aus Rekombination erster, zweiter und dritter Ordnung der Ladungsträgerdichte vollumfänglich zu beschreiben. Drift-Diffusions Simulationen unterstützen die experimentellen Ergebnisse, selbst unter Einbeziehung mobiler Ionen. Weiterhin wird in einem Übersichtsartikel ein Ausblick auf den gegenwärtigen Stand des Wissens im Bezug auf Rekombinationsverluste in besagten Solarzellen gegeben. Unterschiedliche Messmethoden werden vorgestellt und erfolgreiche Methoden zur Minderung genannter Verluste diskutiert. Insgesamt stellt diese Arbeit einen Fortschritt im Verständnis und der Verminderung unterschiedlicher Verlustprozesse dar. Mithilfe unterschiedlicher verlässlicher optoelektronischer Messmethoden, wird gezeigt, dass der Ursprung von Rekombinations- und Stabilitätsverlusten häufig an den Grenzflächen liegt. Mithilfe gezielt eingesetzter ultradünner Zwischenschichten werden diese Verluste reduziert und die Stabilität erhöht. T2 - Identifizierung und Reduzierung von Verlusten in Perowskit Solarzellen KW - perovskite solar cells KW - interfacial recombination KW - nonradiative losses KW - Perowskit Solarzellen KW - Grenzflächenrekombination KW - nichtstrahlende Verluste Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-479301 ER - TY - THES A1 - Winkelbeiner, Nicola Lisa T1 - Impact of element species on DNA repair processes Y1 - 2020 ER - TY - THES A1 - Wenk, Sebastian T1 - Engineering formatotrophic growth in Escherichia coli N2 - To meet the demands of a growing world population while reducing carbon dioxide (CO2) emissions, it is necessary to capture CO2 and convert it into value-added compounds. In recent years, metabolic engineering of microbes has gained strong momentum as a strategy for the production of valuable chemicals. As common microbial feedstocks like glucose directly compete with human consumption, the one carbon (C1) compound formate was suggested as an alternative feedstock. Formate can be easily produced by various means including electrochemical reduction of CO2 and could serve as a feedstock for microbial production, hence presenting a novel entry point for CO2 to the biosphere and a storage option for excess electricity. Compared to the gaseous molecule CO2, formate is a highly soluble compound that can be easily handled and stored. It can serve as a carbon and energy source for natural formatotrophs, but these microbes are difficult to cultivate and engineer. In this work, I present the results of several projects that aim to establish efficient formatotrophic growth of E. coli – which cannot naturally grow on formate – via synthetic formate assimilation pathways. In the first study, I establish a workflow for growth-coupled metabolic engineering of E. coli. I demonstrate this approach by presenting an engineering scheme for the PFL-threonine cycle, a synthetic pathway for anaerobic formate assimilation in E. coli. The described methods are intended to create a standardized toolbox for engineers that aim to establish novel metabolic routes in E. coli and related organisms. The second chapter presents a study on the catalytic efficiency of C1-oxidizing enzymes in vivo. As formatotrophic growth requires generation of both energy and biomass from formate, the engineered E. coli strains need to be equipped with a highly efficient formate dehydrogenase, which provides reduction equivalents and ATP for formate assimilation. I engineered a strain that cannot generate reducing power and energy for cellular growth, when fed on acetate. Under this condition, the strain depends on the introduction of an enzymatic system for NADH regeneration, which could further produce ATP via oxidative phosphorylation. I show that the strain presents a valuable testing platform for C1-oxidizing enzymes by testing different NAD-dependent formate and methanol dehydrogenases in the energy auxotroph strain. Using this platform, several candidate enzymes with high in vivo activity, were identified and characterized as potential energy-generating systems for synthetic formatotrophic or methylotrophic growth in E. coli.   In the third chapter, I present the establishment of the serine threonine cycle (STC) – a synthetic formate assimilation pathway – in E. coli. In this pathway, formate is assimilated via formate tetrahydrofolate ligase (FtfL) from Methylobacterium extorquens (M. extorquens). The carbon from formate is attached to glycine to produce serine, which is converted into pyruvate entering central metabolism. Via the natural threonine synthesis and cleavage route, glycine is regenerated and acetyl-CoA is produced as the pathway product. I engineered several selection strains that depend on different STC modules for growth and determined key enzymes that enable high flux through threonine synthesis and cleavage. I could show that expression of an auxiliary formate dehydrogenase was required to achieve growth via threonine synthesis and cleavage on pyruvate. By overexpressing most of the pathway enzymes from the genome, and applying adaptive laboratory evolution, growth on glycine and formate was achieved, indicating the activity of the complete cycle. The fourth chapter shows the establishment of the reductive glycine pathway (rGP) – a short, linear formate assimilation route – in E. coli. As in the STC, formate is assimilated via M. extorquens FtfL. The C1 from formate is condensed with CO2 via the reverse reaction of the glycine cleavage system to produce glycine. Another carbon from formate is attached to glycine to form serine, which is assimilated into central metabolism via pyruvate. The engineered E. coli strain, expressing most of the pathway genes from the genome, can grow via the rGP with formate or methanol as a sole carbon and energy source. N2 - Um den steigenden Bedarf einer wachsenden Weltbevölkerung zu decken und gleichzeitig die CO2-Emissionen zu reduzieren, ist es notwendig, CO2 aufzufangen und zu recyceln. Durch gentechnische Veränderungen von Mikroorganismen ist es möglich diese zur Produktion wertvoller organischer Verbindungen zu nutzen. Da mikrobielle Kulturen primär mit Glucose gefüttert werden und somit mit menschlicher Nahrungsversorgung konkurrieren, wurde die C1-Verbindung Formiat als alternativer bakterieller Nährstoff vorgeschlagen.. Formiat kann durch unterschiedliche Verfahren hergestellt werden, unter anderem durch elektrochemische Reduktion von CO2. Dieses Verfahren ermöglicht das Recycling von CO2 und weiterhin eine Speichermöglichkeit für überschüssige Elektrizität. Formiat ist im Vergleich zum gasförmigen CO2 gut wasserlöslich, was den Transport und die Verwendung als mikrobiellen Nährstoff erleichtert. Natürlich vorkommende formatotrophe Mikroorganismen nutzen Formiat als Kohlenstoff- und Energiequelle. Diese lassen sich allerdings meist schwierig kultivieren und genetisch verändern. In dieser Arbeit stelle ich die Ergebnisse verschiedener Projekte vor, die gemeinsam darauf abzielen, effizientes formatotrophes Wachstum von E. coli – welches natürlicherweise nicht auf Formiat wachsen kann – mittels synthetischer Formiat-Assimilierungswege zu ermöglichen. In der ersten Studie stelle ich eine Strategie für wachstumsgekoppeltes Stoffwechsel-Engineering in E. coli vor. Ich erläutere diese Strategie anhand eines Beispiels, der schrittweisen Etablierung eines synthetischen Formiat- Assimilierungswegs, des PFL-Threonin-Zyklus. Die in diesem Kapitel beschriebenen Methoden sollen einen Leitfaden für Ingenieure bereitstellen, die neue Stoffwechselwege in E. coli und verwandten Organismen etablieren wollen. Im zweiten Kapitel stelle ich eine Studie über die katalytische Effizienz von C1-oxidierenden Enzymen vor. Da formatotrophes Wachstum sowohl die Erzeugung von Energie als auch von Biomasse aus Formiat erfordert, müssen synthetisch formatotrophe E. coli Stämme mit einer hocheffizienten Formiat-Dehydrogenase ausgestattet werden, welche Reduktionsäquivalente und ATP für die Assimilierung von Formiat liefert. Um die Effizienz verschiedener Enzyme testen und vergleichen zu können, entwickelte ich einen E. coli Stamm, der aus Acetat weder Reduktionsäquivalente noch Energie für das Zellwachstum erzeugen kann. Dieser „energie-auxotrophe“ Stamm benötigt eines zusätzlichen enzymatischen Systems zur NADH-Regenerierung, um auf Acetat wachsen zu können. Ich testete verschiedene NAD-abhängige Formiat- und Methanol-Dehydrogenasen in diesem Stamm und konnte zeigen, dass Wachstum auf Acetat durch Zugabe von Formiat oder Methanol ermöglicht wurde. Dies zeigt, dass der Stamm eine zuverlässige Testplattform für C1-oxidierende Enzyme darstellt. Unter Verwendung dieser Plattform wurden mehrere Kandidatenenzyme mit hoher in vivo-Aktivität identifiziert und als Kandidatenenzyme für synthetisches formatotrophes oder methylotrophes Wachstum in E. coli charakterisiert.   Im dritten Kapitel stelle ich die Etablierung des Serin-Threonin-Zyklus (STZ) – eines synthetischen Formiat-Assimilationswegs – in E. coli vor. In diesem Stoffwechselweg wird Formiat über die Formiat-Tetrahydrofolat-Ligase (FtfL) aus Methylobacterium extorquens (M. extorquens) assimiliert. Der Kohlenstoff aus Formiat wird an Glycin gebunden, um Serin zu produzieren, welches im nächsten Schritt in Pyruvat umgewandelt wird und so in den zentralen Kohlenstoffmetabolismus gelangt. Über den natürlichen Threonin-Synthese- und Spaltweg wird Glycin regeneriert und Acetyl-CoA als Produkt des Stoffwechselwegs generiert. Ich entwickelte mehrere E. coli Selektionsstämme, deren Wachstum von verschiedenen STZ-Modulen abhängt, und konnte Schlüsselenzyme bestimmen, die einen hohen Reaktionsfluss durch die Threonin-Synthese und -Spaltung ermöglichen. Ich konnte zeigen, dass die Expression einer Formiat-Dehydrogenase erforderlich ist, um Wachstum auf Pyruvat über Threonin zu erreichen. Durch Integration und Überexpression der meisten Enzyme des STZ auf Genomebene und Anwendung adaptiver Laborevolution wurde Wachstum auf Glycin und Formiat erreicht, was bedeutet, dass der gesamte Serin-Threonin-Zyklus in E. coli aktiv ist. Das vierte Kapitel zeigt die Etablierung des reduktiven Glycinwegs (rGW) – eines kurzen, linearen Formiat-Assimilierungswegs – in E. coli. Wie im STZ wird Formiat über M. extorquens FtfL assimiliert. Dabei wird das Kohlenstoffatom aus Formiat mit CO2 über die umgekehrte Reaktion des Glycin-Spaltungssystems zu Glycin kondensiert. Ein weiteres Kohlenstoffatom aus Formiat wird an Glycin gebunden, um Serin zu bilden, welches über Pyruvat in den Zentralstoffwechsel gelangt. Durch Expression der rGW Enzyme auf Genomebene und adaptive Laborevolution wurde ein E. coli Stamm erzeugt welcher über den rGW auf Formiat oder Methanol als einziger Kohlenstoff- und Energiequelle wachsen kann. KW - metabolic engineering KW - E. coli KW - formate assimilation KW - methanol assimilation KW - energy metabolism Y1 - 2020 ER - TY - THES A1 - Wen, Xi T1 - Distribution patterns and environmental drivers of methane-cycling microorganisms in natural environments and restored wetlands N2 - Methane is an important greenhouse gas contributing to global climate change. Natural environments and restored wetlands contribute a large proportion to the global methane budget. Methanogenic archaea (methanogens) and methane oxidizing bacteria (methanotrophs), the biogenic producers and consumers of methane, play key roles in the methane cycle in those environments. A large number of studies revealed the distribution, diversity and composition of these microorganisms in individual habitats. However, uncertainties exist in predicting the response and feedback of methane-cycling microorganisms to future climate changes and related environmental changes due to the limited spatial scales considered so far, and due to a poor recognition of the biogeography of these important microorganisms combining global and local scales. With the aim of improving our understanding about whether and how methane-cycling microbial communities will be affected by a series of dynamic environmental factors in response to climate change, this PhD thesis investigates the biogeographic patterns of methane-cycling communities, and the driving factors which define these patterns at different spatial scales. At the global scale, a meta-analysis was performed by implementing 94 globally distributed public datasets together with environmental data from various natural environments including soils, lake sediments, estuaries, marine sediments, hydrothermal sediments and mud volcanos. In combination with a global biogeographic map of methanogenic archaea from multiple natural environments, this thesis revealed that biogeographic patterns of methanogens exist. The terrestrial habitats showed higher alpha diversities than marine environments. Methanoculleus and Methanosaeta (Methanothrix) are the most frequently detected taxa in marine habitats, while Methanoregula prevails in terrestrial habitats. Estuary ecosystems, the transition zones between marine and terrestrial/limnic ecosystems, have the highest methanogenic richness but comparably low methane emission rates. At the local scale, this study compared two rewetted fens with known high methane emissions in northeastern Germany, a coastal brackish fen (Hütelmoor) and a freshwater riparian fen (Polder Zarnekow). Consistent with different geochemical conditions and land-use history, the two rewetted fens exhibit dissimilar methanogenic and, especially, methanotrophic community compositions. The methanotrophic community was generally under-represented among the prokaryotic communities and both fens show similarly low ratios of methanotrophic to methanogenic abundances. Since few studies have characterized methane-cycling microorganisms in rewetted fens, this study provides first evidence that the rapid and well re-established methanogenic community in combination with the low and incomplete re-establishment of the methanotrophic community after rewetting contributes to elevated sustained methane fluxes following rewetting. Finally, this thesis demonstrates that dispersal limitation only slightly regulates the biogeographic distribution patterns of methanogenic microorganisms in natural environments and restored wetlands. Instead, their existence, adaption and establishment are more associated with the selective pressures under different environmental conditions. Salinity, pH and temperature are identified as the most important factors in shaping microbial community structure at different spatial scales (global versus terrestrial environments). Predicted changes in climate, such as increasing temperature, changes in precipitation patterns and increasing frequency of flooding events, are likely to induce a series of environmental alterations, which will either directly or indirectly affect the driving environmental forces of methanogenic communities, leading to changes in their community composition and thus potentially also in methane emission patterns in the future. N2 - Methan ist ein wichtiges Treibhausgas, das zum globalen Klimawandel beiträgt. Bedeutend für das globale Methanbudget sind unter anderem natürliche und wiedervernäßte Moore. Methanogene Archaeen (Methanogene) und Methan-oxidierende Bakterien (Methanotrophe) sind die biogenen Produzenten und Konsumenten von Methan. Daher nehmen sie global, und speziell in Mooren, eine Schlüsselrolle für das Methanbudget ein. Eine Vielzahl von Studien hat die Verteilung, Vielfalt und Zusammensetzung dieser Mikroorganismen in einzelnen Lebensräumen untersucht. Es bestehen jedoch Unsicherheiten in der Vorhersage, wie sie auf den globalen Wandel und auf die damit verbundenen Umweltveränderungen reagieren werden. Diese Unsicherheiten basieren unter anderem auf bislang fehlenden biogeographischen Untersuchungen, die globale und lokale Skalen kombinieren, und auf einem unzureichenden Verständnis dazu, ob und welche Umweltfaktoren speziell methanogene Gemeinschaften beeinflussen. Zudem gibt es trotz der Bedeutung von Projekten zur Moorwiedervernässung für das regionale und globale Treibhausgasbudget nahezu keine Untersuchungen zur Zusammensetzung und Verbreitung von methanogenen und methanotrophen Gemeinschaften in degradierten wiedervernäßten, eutrophen Niedermooren. Das Ziel dieser Doktorarbeit ist es, unser Verständnis zur Reaktion der am Methanbudget beteiligten mikrobiellen Gemeinschaften auf den globalen Wandel und auf die damit einhergehenden Umweltänderungen zu verbessern. Die Arbeit untersucht daher zum einen die biogeographischen Muster methanogener Gemeinschaften und die ihnen zugrunde liegenden Umweltfaktoren auf verschiedenen räumlichen Skalen. Auf globaler Ebene wurde eine Meta-Analyse durchgeführt, die auf 94 global verteilten, öffentlichen Sequenzdatensätzen sowie den dazugehörigen Umweltdaten aus verschiedenen natürlichen Ökosystemen basiert. Hierzu gehören Böden, Seesedimente, Ästuare, marine Sedimente, hydrothermale Sedimente und Schlammvulkane. In Kombination mit einer globalen biogeographischen Karte zur Verbreitung methanogener Archaeen konnte diese Arbeit zeigen, dass biogeographische Muster von Methanogenen existieren. Terrestrische Ökosysteme zeigen zudem eine höhere Diversität als marine Ökosysteme. Ästuare, Übergangszonen zwischen marinen und terrestrischen/ limnischen Ökosystemen, weisen die größte methanogene Diversität bei jedoch vergleichsweise geringen Methanemissionen auf. Methanoculleus und Methanosaeta (Methanothrix) sind die am häufigsten nachgewiesenen Taxa in marinen Lebensräumen, während Methanoregula in terrestrischen Ökosystemen dominiert. Auf lokaler Ebene wurden in dieser Arbeit zwei wiedervernässte, eutrophe Niedermoore im Nordosten Deutschlands verglichen, das von der Ostsee beeinflusste „Hütelmoor“ und das Durchströmungsmoor „Polder Zarnekow“. Beide Moore sind durch hohe Methanemissionen infolge der Wiedervernässung charakterisiert. Einhergehend mit unterschiedlichen geochemischen Bedingungen und unterschiedlicher Nutzungshistorie weisen diese beiden wiedervernässten Standorte in ihrer Zusammensetzung unterschiedliche methanogene und methanotrophe Gemeinschaften auf lokaler Ebene auf. Zudem ist die Gruppe der Methanotrophen innerhalb der prokaryotischen Gemeinschaften jeweils unterrepräsentiert und beide Moore zeigen ein vergleichbar niedriges Verhältnis von Methanotrophen im Vergleich zu Methanogenen. Diese Arbeit liefert erste Hinweise darauf, dass die schnelle und erfolgreiche Wiederbesiedlung durch Methanogene in Kombination mit einer offenbar schlecht etablierten methanotrophen Gemeinschaft zu den erhöhten Methanflüssen in beiden Mooren nach Wiedervernässung beiträgt. Abschließend zeigt diese Arbeit, dass eine eingeschränkte Migration („dispersal limitation“) die biogeographischen Verteilungsmuster von Methanogenen in natürlichen Ökosystemen kaum beeinflusst. Stattdessen werden Vorkommen und Anpassung von methanogenen Gemeinschaften vor allem durch den selektiven Druck verschiedener Umweltbedingungen reguliert. Die Umweltparameter Salzgehalt, pH-Wert und Temperatur wurden dabei als wichtigste Faktoren identifiziert, die die Verbreitung methanogener Gemeinschaften global bzw. speziell in terrestrischen Standorten beeinflussen. Es ist daher wahrscheinlich, dass prognostizierte Klimaveränderungen wie steigende Temperatur, Änderungen der Niederschlagsmuster und zunehmende Häufigkeit von Überschwemmungsereignissen zu Änderungen in der Zusammensetzung methanogener Gemeinschaften führen, die möglicherweise auch die Methanemissionsmuster beeinflussen werden. T2 - Verteilungsmuster Methan produzierender und Methan oxidierender Mikroorganismen und deren Abhängigkeit von Umweltfaktoren in natürlichen Ökosystemen und wiedervernäßten Mooren KW - biogeography KW - Biogeographie KW - methanogens KW - methanotrophs KW - Methanogene KW - Methanotrophe KW - distribution pattern KW - Verteilungsmuster KW - methane KW - Methane Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471770 ER - TY - THES A1 - Weißhuhn, Peter T1 - Assessing biotope vulnerability to landscape changes T1 - Bewertung der Vulnerabilität von Biotopen gegenüber Landschaftsveränderungen N2 - Largescale patterns of global land use change are very frequently accompanied by natural habitat loss. To assess the consequences of habitat loss for the remaining natural and semi-natural biotopes, inclusion of cumulative effects at the landscape level is required. The interdisciplinary concept of vulnerability constitutes an appropriate assessment framework at the landscape level, though with few examples of its application for ecological assessments. A comprehensive biotope vulnerability analysis allows identification of areas most affected by landscape change and at the same time with the lowest chances of regeneration. To this end, a series of ecological indicators were reviewed and developed. They measured spatial attributes of individual biotopes as well as some ecological and conservation characteristics of the respective resident species community. The final vulnerability index combined seven largely independent indicators, which covered exposure, sensitivity and adaptive capacity of biotopes to landscape changes. Results for biotope vulnerability were provided at the regional level. This seems to be an appropriate extent with relevance for spatial planning and designing the distribution of nature reserves. Using the vulnerability scores calculated for the German federal state of Brandenburg, hot spots and clusters within and across the distinguished types of biotopes were analysed. Biotope types with high dependence on water availability, as well as biotopes of the open landscape containing woody plants (e.g., orchard meadows) are particularly vulnerable to landscape changes. In contrast, the majority of forest biotopes appear to be less vulnerable. Despite the appeal of such generalised statements for some biotope types, the distribution of values suggests that conservation measures for the majority of biotopes should be designed specifically for individual sites. Taken together, size, shape and spatial context of individual biotopes often had a dominant influence on the vulnerability score. The implementation of biotope vulnerability analysis at the regional level indicated that large biotope datasets can be evaluated with high level of detail using geoinformatics. Drawing on previous work in landscape spatial analysis, the reproducible approach relies on transparent calculations of quantitative and qualitative indicators. At the same time, it provides a synoptic overview and information on the individual biotopes. It is expected to be most useful for nature conservation in combination with an understanding of population, species, and community attributes known for specific sites. The biotope vulnerability analysis facilitates a foresighted assessment of different land uses, aiding in identifying options to slow habitat loss to sustainable levels. It can also be incorporated into planning of restoration measures, guiding efforts to remedy ecological damage. Restoration of any specific site could yield synergies with the conservation objectives of other sites, through enhancing the habitat network or buffering against future landscape change. Biotope vulnerability analysis could be developed in line with other important ecological concepts, such as resilience and adaptability, further extending the broad thematic scope of the vulnerability concept. Vulnerability can increasingly serve as a common framework for the interdisciplinary research necessary to solve major societal challenges. N2 - Weltweit wurden in den vergangenen Jahrzehnten massive Veränderungen in der Landnutzung vorgenommen. Diese gingen meistens mit dem Verlust natürlicher Habitate einher. Um die Folgen auf die verbliebenen naturnahen Biotope zu bewerten, sind Analyseinstrumente notwendig, die neben einzelnen Flächen auch kumulative Effekte auf der Landschaftsebene einbeziehen. Das interdisziplinäre Konzept der Vulnerabilität kann einem solchen Analyseinstrument den Rahmen bieten. Bisher wurde es kaum für die Bewertung ökologischer Systeme herangezogen. Dabei kann eine flächendeckende Biotop-Vulnerabilitätsanalyse jene Gebiete identifizieren, die vom Landschaftswandel am stärksten betroffen sind und die gleichzeitig die geringsten Erholungsaussichten aufweisen. Dazu wurde eine Reihe ökologischer Indikatoren gesichtet und entwickelt, um die drei Vulnerabilitätsgrößen Exposition, Sensitivität und Anpassungskapazität abzudecken. Dabei wurden die Lagebeziehungen einzelner Biotope sowie die Eigenschaften der jeweils ansässigen Artengemeinschaft ausgewertet. Der errechnete Index kombiniert sieben voneinander weitestgehend unabhängige Indikatoren und stellt eine Übersicht der Biotop-Vulnerabilität dar. Liegt eine flächendeckende Vulnerabilitätsbewertung vor, können räumliche Häufungen von hohen Werten sowie die Verteilung der besonders hohen und besonders niedrigen Werte über die Biotoptypen hinweg analysiert werden. Dies erscheint besonders sinnvoll für Flächengrößen mit Relevanz für die Raumplanung und die Verteilung der Naturschutzflächen. Es stellte sich heraus, dass in der Planungsregion Brandenburg vor allem die Biotope mit hoher Abhängigkeit von der Wasserverfügbarkeit, sowie die Gehölze enthaltenden Offenlandbiotope (z.B. Streuobstwiesen) besonders vulnerabel gegenüber Landschaftsveränderungen sind. Im Gegensatz dazu erscheint die Mehrheit der Waldbiotope weniger verwundbar zu sein. Trotz der Möglichkeit zur Ableitung solcher verallgemeinerten Aussagen für einige Biotoptypen legt die Werteverteilung nahe, Naturschutzmaßnahmen mehrheitlich spezifisch für einzelne Flächen zu entwerfen. Größe, Form und räumlicher Kontext einzelner Biotopflächen üben zusammengenommen häufig einen dominanten Einfluss auf die Vulnerabilität gegenüber Landschaftsveränderungen aus. Die Demonstration der Biotop-Vulnerabilitätsanalyse auf regionaler Ebene zeigt, dass mit Methoden der Geoinformatik auch große Biotop-Datensätze detailliert ausgewertet werden können. Die damit erzielte naturschutzfachliche Analyse basiert auf transparent berechneten qualitativen und quantitativen Indikatoren und ist damit vollständig nachvollziehbar. Sie bietet gleichzeitig einen großräumigen Überblick sowie Informationen zu den einzelnen Biotopflächen. Mit der Vulnerabilitätsanalyse von Biotopen wird die vorausschauende Abwägung zwischen verschiedenen Landnutzungen erleichtert. Dies kann dazu beitragen, dass der Habitatverlust in Zukunft auf ein nachhaltigeres Maß gebremst wird. Auch kann eine solche Biotopbewertung in die Planung von Renaturierungsmaßnahmen einfließen, um ökologische Schäden zunächst dort zu beheben, wo große Synergieeffekte im Biotopverbund und mit anderen Naturschutzzielen zu erwarten sind. Die Biotop-Vulnerabilitätsanalyse konnte im Einklang mit wichtigen ökologischen Konzepten wie Resilienz und Anpassungsfähigkeit entwickelt werden. Sie erweitert damit den ohnehin breiten thematischen Anwendungsbereich des Vulnerabilitätskonzepts. Somit kann Vulnerabilität zunehmend als Brückenkonzept dienen und der zur Lösung der großen gesellschaftlichen Herausforderungen notwendigen interdisziplinären Forschung einen gemeinsamen Rahmen geben. KW - vulnerability KW - biotope KW - habitat KW - index KW - landscape KW - spatial ecology KW - landscape ecology KW - Vulnerabilität KW - Biotop KW - Habitat KW - Index KW - Landschaft KW - raumbezogene Ökologie KW - Landschaftsökologie Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442777 ER - TY - THES A1 - Wang, Xia T1 - Reef ecosystem recovery following the Middle Permian (Capitanian) mass extinction T1 - Die Erholung des Ökosystems von Riffen nach dem mittelpermischen Massenaussterben im Capitanium BT - a multi-scale analysis from South China BT - eine skalenübergreifende Analyse aus Südchina N2 - To find out the future of nowadays reef ecosystem turnover under the environmental stresses such as global warming and ocean acidification, analogue studies from the geologic past are needed. As a critical time of reef ecosystem innovation, the Permian-Triassic transition witnessed the most severe demise of Phanerozoic reef builders, and the establishment of modern style symbiotic relationships within the reef-building organisms. Being the initial stage of this transition, the Middle Permian (Capitanian) mass extinction coursed a reef eclipse in the early Late Permian, which lead to a gap of understanding in the post-extinction Wuchiapingian reef ecosystem, shortly before the radiation of Changhsingian reefs. Here, this thesis presents detailed biostratigraphic, sedimentological, and palaeoecological studies of the Wuchiapingian reef recovery following the Middle Permian (Capitanian) mass extinction, on the only recorded Wuchiapingian reef setting, outcropping in South China at the Tieqiao section. Conodont biostratigraphic zonations were revised from the Early Permian Artinskian to the Late Permian Wuchiapingian in the Tieqiao section. Twenty main and seven subordinate conodont zones are determined at Tieqiao section including two conodont zone below and above the Tieqiao reef complex. The age of Tieqiao reef was constrained as early to middle Wuchiapingian. After constraining the reef age, detailed two-dimensional outcrop mapping combined with lithofacies study were carried out on the Wuchiapingian Tieqiao Section to investigate the reef growth pattern stratigraphically as well as the lateral changes of reef geometry on the outcrop scale. Semi-quantitative studies of the reef-building organisms were used to find out their evolution pattern within the reef recovery. Six reef growth cycles were determined within six transgressive-regressive cycles in the Tieqiao section. The reefs developed within the upper part of each regressive phase and were dominated by different biotas. The timing of initial reef recovery after the Middle Permian (Capitanian) mass extinction was updated to the Clarkina leveni conodont zone, which is earlier than previous understanding. Metazoans such as sponges were not the major components of the Wuchiapingian reefs until the 5th and 6th cycles. So, the recovery of metazoan reef ecosystem after the Middle Permian (Capitanian) mass extinction was obviously delayed. In addition, although the importance of metazoan reef builders such as sponges did increase following the recovery process, encrusting organisms such as Archaeolithoporella and Tubiphytes, combined with microbial carbonate precipitation, still played significant roles to the reef building process and reef recovery after the mass extinction. Based on the results from outcrop mapping and sedimentological studies, quantitative composition analysis of the Tieqiao reef complex were applied on selected thin sections to further investigate the functioning of reef building components and the reef evolution after the Middle Permian (Capitanian) mass extinction. Data sets of skeletal grains and whole rock components were analyzed. The results show eleven biocommunity clusters/eight rock composition clusters dominated by different skeletal grains/rock components. Sponges, Archaeolithoporella and Tubiphytes were the most ecologically important components within the Wuchiapingian Tieqiao reef, while the clotted micrites and syndepositional cements are the additional important rock components for reef cores. The sponges were important within the whole reef recovery. Tubiphytes were broadly distributed in different environments and played a key-role in the initial reef communities. Archaeolithoporella concentrated in the shallower part of reef cycles (i.e., the upper part of reef core) and was functionally significant for the enlargement of reef volume. In general, the reef recovery after the Middle Permian (Capitanian) mass extinction has some similarities with the reef recovery following the end-Permian mass extinction. It shows a delayed recovery of metazoan reefs and a stepwise recovery pattern that was controlled by both ecological and environmental factors. The importance of encrusting organisms and microbial carbonates are also similar to most of the other post-extinction reef ecosystems. These findings can be instructive to extend our understanding of the reef ecosystem evolution under environmental perturbation or stresses. N2 - Um die zukünftige Entwicklung der aktuell sehr dramatischen Änderungen des Ökosystems von Riffen vorherzusagen, welche durch Umweltbelastungen wie die globale Erwärmung und die zunehmende Versauerung der Ozeane verursacht wird, müssen analoge Beispiele aus der geologischen Vergangenheit genauer unter die Lupe genommen werden. Als eine wichtige Zeit der Neugestaltung von Riffsystemen beinhaltet der Übergang vom Perm in die Trias den wohl einschneidendsten Rückgang von phanerozoischen Riffbildnern, und die dauerhafte Festsetzung von modernen symbiotischen Wechselbeziehungen zwischen den einzelnen riffbildenden Organismen. Zu Beginn dieses Übergangs und nach dem mittelpermischen Massenaussterben im Capitanium fand eine langsame Erholung der Riffe im Wuchiapingium statt, welche sich vor der Radiation der Riffe im Changhsingium bildeten, deren Ursache aber immer noch nicht vollends verstanden wurde. In dieser Arbeit wird eine detaillierte biostratigraphische, sedimentologische und paläoökologische Untersuchung der Rifferholung im Wuchiapingium nach dem mittelpermischen Massenaussterben vorgestellt. Dies wird an den einzigen jemals in Südchina dokumentierten Riffsedimenten aus dieser Zeit im sogenannten Tieqiao-Riffkomplex durchgeführt. Biostratigraphische Einteilungen anhand von Konodonten zwischen dem frühpermischen Artinskium bis zum spätpermischen Wuchiapingium im Tieqiao-Riffkomplex wurden überarbeitet. Zwanzig Haupt- und sieben untergeordnete Konodontenzonen wurden definiert, wobei sich zwei Zonen oberhalb und unterhalb des Riffkomplexes befinden. Das Alter des Tieqiao-Riffkomplexes wurde dabei auf das frühe bis mittlere Wuchiapingium festgelegt. Nachdem das Alter des Tieqiao-Riffes bestimmt wurde, führte die zweidimensionale Kartierung des Aufschluss sowie die detaillierte Untersuchung der Lithofazies zu einem besseren Verständnis des stratigraphischen Riffwachstums und der lateralen Änderung der Riffmorphologie im Aufschlussmaßstab. Eine semiquantitative Analyse der riffbildenden Organismen wurde angewandt, um deren Entwicklungsmuster während der Erholungsphase des Riffes zu verstehen. Sechs Wachstumszyklen der Riffe innerhalb von sechs regressiven Zyklen der Tieqiao wurden dabei bestimmt. Die Riffe entwickelten sich überwiegend im oberen Teil der regressiven Phase und wurden von unterschiedlichsten Arten dominiert. Der Zeitpunkt der initialen Erholung der Riffe nach dem mittelpermischen Massenaussterben im Capitanium wurde auf die Clarkina leveni Konodontenzone aktualisiert, also älter als bisher angenommen. Metazoen wie Schwämme waren bis zum 5. und 6. Zyklus nicht die Hauptbildner des Riffes. Folglich war die Erholung des metazoischen Riff-Ökosystems nach dem mittelpermischen Massenaussterben verzögert. Auch wenn die Wichtigkeit von metazoischen Riffbildnern während des Erholungsprozesses zunahm, spielten enkrustierende Organismen wie Archaeolithoporella und Tubiphytes zusammen mit mikrobiellen Mikriten immer noch eine signifikante Rolle im Prozess der Rifferholung und des -aufbaus. Anhand der Resultate der Kartierung und der sedimentologischen Untersuchung wurden quantitative Analysen der einzelnen Bestandteile an Dünnschliffen ausgeführt. Dies ermöglichte die weiterführende Untersuchung der riffbildenden Bestandteile und die Entwicklung des Riffes nach dem mittelpermischen Massenaussterben. Dafür wurden Daten der einzelnen fossilen Bestandteile und des gesamten Gesteins analysiert. Dabei wurden elf Fossilvergesellschaftungen identifiziert, welche jede von unterschiedlichen fossilen Bestandteilen dominiert wurde. Schwämme, Archaeolithoporella und Tubiphytes waren die ökologisch wichtigsten Komponenten im Tieqiao-Riff, während mikrobielle Mikrite und syndepositionale Zemente zusätzliche Bausteine der Riffe darstellen. Schwämme waren dabei besonders wichtig für die Rifferholung. Tubiphytes war in den verschiedenen Ablagerungsräumen weit verbreitet und spielte eine Hauptrolle in den ersten Riffzyklen. Archaeolithoporella dagegen konzentrierte sich in den flacheren Bereichen des Riffzyklus (d.h. im oberen Teil des Riffes) und war maßgeblich daran beteiligt, das Riffvolumen zu erweitern. Grundsätzlich besitzt die Erholung der Riffe nach dem mittelpermischen Massenaussterben große Ähnlichkeit mit der die dem Massenaussterben an der Perm-Trias Grenze folgte. Typisch dafür ist eine verzögerte Erholung der metazoischen Riffe und ein Muster der schrittweisen Erholung, die ihrerseits durch ökologische und umweltbedingte Faktoren kontrolliert wird. Die Wichtigkeit von enkrustierenden Organismen und mikrobiellen Karbonaten sind ebenfalls vergleichbar zu den meisten anderen Riffsystemen, die sich nach einem Massenaussterben entwickelten. Diese Ergebnisse sind äußerst wichtig um unser Wissen über die Entwicklung von Riffsystemen nach Massenaussterben zu erweitern. KW - mass extinction KW - reef KW - Permian KW - Wuchiapingian KW - Archaeolithoporella KW - Massenaussterben KW - Riff KW - Perm KW - Wuchiapingium KW - Archaeolithoporella Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-487502 ER - TY - THES A1 - Wang, Weishi T1 - Influence of river reconstruction at a bank filtration site T1 - Wasserqualität und 3D-Modellierung des Grundwasserflusses und des Wärmetransports BT - water quality field investigation and 3D modelling of groundwater flow and heat transport N2 - Bank filtration is an effective water treatment technique and is widely adopted in Europe along major rivers. It is the process where surface water penetrates the riverbed, flows through the aquifer, and then is extracted by near-bank production wells. By flowing in the subsurface flow passage, the water quality can be improved by a series of beneficial processes. Long-term riverbank filtration also produces colmation layers on the riverbed. The colmation layer may act as a bioactive zone that is governed by biochemical and physical processes owing to its enrichment of microbes and organic matter. Low permeability may strongly limit the surface water infiltration and further lead to a decreasing recoverable ratio of production wells.The removal of the colmation layer is therefore a trade-off between the treatment capacity and treatment efficiency. The goal of this Ph.D. thesis is to focus on the temporal and spatial change of the water quality and quantity along the flow path of a hydrogeological heterogeneous riverbank filtration site adjacent to an artificial-reconstructed (bottom excavation and bank reconstruction) canal in Potsdam, Germany. To quantify the change of the infiltration rate, travel time distribution, and the thermal field brought by the canal reconstruction, a three-dimensional flow and heat transport model was created. This model has two scenarios, 1) ‘with’ canal reconstruction, and 2) ‘without’ canal reconstruction. Overall, the model calibration results of both water heads and temperatures matched those observed in the field study. In comparison to the model without reconstruction, the reconstruction model led to more water being infiltrated into the aquifer on that section, on average 521 m3/d, which corresponded to around 9% of the total pumping rate. Subsurface travel-time distribution substantially shifted towards shorter travel times. Flow paths with travel times <200 days increased by ~10% and those with <300 days by 15%. Furthermore, the thermal distribution in the aquifer showed that the seasonal variation in the scenario with reconstruction reaches deeper and laterally propagates further. By scatter plotting of δ18O versus δ 2H, the infiltrated river water could be differentiated from water flowing in the deep aquifer, which may contain remnant landside groundwater from further north. In contrast, the increase of river water contribution due to decolmation could be shown by piper plot. Geological heterogeneity caused a substantial spatial difference in redox zonation among different flow paths, both horizontally and vertically. Using the Wilcoxon rank test, the reconstruction changed the redox potential differently in observation wells. However, taking the small absolute concentration level, the change is also relatively minor. The treatment efficiency for both organic matter and inorganic matter is consistent after the reconstruction, except for ammonium. The inconsistent results for ammonium could be explained by changes in the Cation Exchange Capacity (CEC) in the newly paved riverbed. Because the bed is new, it was not yet capable of keeping the newly produced ammonium by sorption and further led to the breakthrough of the ammonium plume. By estimation, the peak of the ammonium plume would reach the most distant observation well before February 2024, while the peaking concentration could be further dampened by sorption and diluted by the afterward low ammonium flow. The consistent DOC and SUVA level suggests that there was no clear preference for the organic matter removal along the flow path. N2 - Die Uferfiltration, eine wirksame Wasseraufbereitungstechnik, ist an Europas großen Flüssen weit verbreitet. Es bezieht sich dabei hauptsächlich auf einen Prozess, wobei das Oberflächenwasser in das Flussbett eindringt, durch den Grundwasserleiter fließt und schließlich durch ufernahe Brunnen gewonnen wird. Beim Einströmen in den unterirdischen Aquifer verbessert sich die Wasserqualität durch eine Reihe von vorteilhaften Reaktionen, die jedoch langfristig zum Auftreten von Kolmation des Flussbetts führen. Aufgrund der Anreicherung von Mikroben und organischen Substanzen bildet sich die Kolmationsschicht einerseits als bioaktive Zone für zahlreiche biochemische Reaktionen; andererseits kann ihre geringe Permeabilität die Infiltration von Oberflächenwasser behindern, welches zur Produktivitätseinschränkung von Brunnen führt. Daher ist das Entfernen der Kolmationsschicht immer ein Kompromiss zwischen Behandlungskapazität und Effizienz. Diese Doktorarbeit zielt darauf ab, die zeitlichen und räumlichen Veränderungen der Wasserqualität und -menge entlang des Fließwegs eines hydrogeologisch heterogenen Uferfiltrat-Standorts nahe einem baulich vertieften Kanal (Ausbaggerung und Ufersanierung) in Potsdam zu untersuchen. Zur Quantifizierung der durch die Kanalvertiefung hervorgerufenen Änderung auf die Infiltrationsrate, die Laufzeitverteilung und das thermische Feld wurde ein dreidimensionales Strömungs- und Wärmetransportmodell mit zwei Modellszenarien (mit und ohne Baumaßnahmen) erstellt. Insgesamt stimmten die Kalibrierungsergebnisse der Wasserstände und der Temperaturen mit den Beobachtungen überein. Die Modellierungsergebnisse zweier Szenarien zeigten, dass durch die Vertiefung durchschnittlich 521 m3/d, was etwa 9% der Gesamtpumprate entspricht, mehr Wasser in den Grundwasserleiter geflossen ist. Die unterirdische Fliesszeit verkürzte sich. Die Anzahl der Fliesswege mit Fliesszeiten <200 Tage erhöhten sich um ca. 10% und jene mit <300 Tage um 15%. Darüber hinaus breitete sich die Wärme im Grundwasserleiter tiefer und weiter im Modell mit Baumaßnahmen aus. Mittels Streudiagrammen von d18O und d2H konnte das infiltrierte Flusswasser vom landseitigen Grundwasser unterschieden werden, während eine dekolmationsbedingte Erhöhung des Flusswasseranteils in Brunnen durch Piper-Diagramme nachgewiesen werden konnte. Die geologische Heterogenität verursachte erhebliche horizontale und vertikale Unterschiede in der Redox-Zonierung zwischen verschiedenen Strömungsbahnen. Das Redoxniveau verändert sich in verschiedenen Brunnen durch die Baumaßnahme. Die Behandlungseffizienz für organische und anorganische Stoffe blieb unabhänig von der Baumaßnahme erhalten, mit Ausnahme von Ammonium. Dies ist wohl auf die Änderung der Kationenaustauschkapazität im neu ausgebaggerten Flussbett zurückzuführen, das noch nicht in der Lage war, neu entstehendes Ammonium zu absorbieren, was zu einem Fortschreiten der Ammonium-Fahne führt. Schätzungsweise erreicht das Maximum der Ammonium-Fahne den entferntesten Brunnen vor Februar 2024, wobei sich die Konzentration durch Sorption und Vermischung mit nachströmendem Wassser verringern sollte. Das gleichbleibende DOC- und SUVA-Niveau deutete darauf hin, dass es keine Bevorzugung beim Abbau organischer Substanzen entlang des Fließwegs gab. KW - Bank filtration KW - Groundwater modelling KW - Heat transport KW - Geological heterogeneity KW - Decolmation KW - Wärmetransport KW - Uferfiltration KW - Grundwassermodellierung KW - Geologische Heterogenität KW - Dekolmation Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-490234 ER - TY - THES A1 - Wang, Jingwen T1 - Electret properties of polypropylene with surface chemical modification and crystalline reconstruction N2 - As one of the most-produced commodity polymers, polypropylene draws considerable scientific and commercial interest as an electret material. In the present thesis, the influence of the surface chemical modification and crystalline reconstruction on the electret properties of the polypropylene thin films will be discussed. The chemical treatment with orthophosphoric acid can significantly improve the surface charge stability of the polypropylene electrets by introducing phosphorus- and oxygen-containing structures onto the modified surface. The thermally stimulated discharge measurement and charge profiling by means of piezoelectrically generated pressure steps are used to investigate the electret behaviour. It is concluded that deep traps of limited number density are created during the treatment with inorganic chemicals. Hence, the improvement dramatically decreases when the surface-charge density is substantially higher than ±1.2×10^(-3) C·m^(-2). The newly formed traps also show a higher trapping energy for negative charges. The energetic distributions of the traps in the non-treated and chemically treated samples offer an insight regarding the surface and foreign-chemical dominance on the charge storage and transport in the polypropylene electrets. Additionally, different electret properties are observed on the polypropylene films with the spherulitic and transcrystalline structures. It indicates the dependence of the charge storage and transport on the crystallite and molecular orientations in the crystalline phase. In general, a more diverse crystalline growth in the spherulitic samples can result in a more complex energetic trap distribution, in comparison to that in a transcrystalline polypropylene. The double-layer transcrystalline polypropylene film with a crystalline interface in the middle can be obtained by crystallising the film in contact with rough moulding surfaces on both sides. A layer of heterocharges appears on each side of the interface in the double-layer transcrystalline polypropylene electrets after the thermal poling. However, there is no charge captured within the transcrystalline layers. The phenomenon reveals the importance of the crystalline interface in terms of creating traps with the higher activation energy in polypropylene. The present studies highlight the fact that even slight variations in the polypropylene film may lead to dramatic differences in its electret properties. N2 - Als eines der meistproduzierten Polymere stößt Polypropylen (PP) auch als Elektretmaterial auf großes wissenschaftliches und kommerzielles Interesse. In der vorliegenden Arbeit wird der Einfluss chemischer Oberflächen-Modifikationen und kristalliner Rekonstruktionen auf die Elektreteigenschaften von dünnen Polypropylen-Schichten untersucht und diskutiert. Die nasschemische Behandlung mit Orthophosphorsäure kann die Oberflächenladungsstabilität der PP-Elektrete deutlich verbessern, indem phosphor- und sauerstoffhaltige Strukturen auf der modifizierten Oberfläche erzeugt und verankert werden. Aus thermisch stimulierten Entladungsexperimenten und Ladungsmessungen mit piezoelektrisch erzeugten Druckstufen ergibt sich, dass die Oberflächenbehandlung eine begrenzte Anzahl tiefer Haftstellen vor allem für negative Ladungen erzeugt. Daher nimmt die Verbesserung drastisch ab, wenn die Oberflächenladungsdichte einen wesentlich höheren Wert als ±1.2×10-3 C·m-2 hat. Die energetischen Verteilungen der Ladungsfallen in unbehandelten und in chemisch behandelten Proben ermöglichen Rückschlüsse auf die Oberfläche und auf die wesentliche Rolle der aufgebrachten chemischen Spezies für Ladungsspeicherung und -transport in PP-Elektreten. Darüber hinaus werden an dünnen Polypropylenfolien mit entweder sphärolithischen oder transkristallinen Strukturen deutlich unterschiedliche Elektreteigenschaften beobachtet, was den starken Einfluss von Kristallstruktur und Molekülorientierung auf Ladungsspeicherung und -transport in der kristallinen Phase anzeigt. Generell führt das vielfältigere kristalline Wachstum in sphärolithischen Proben oft zu komplexeren energetischen Verteilungen der Ladungsfallen als in transkristallinen PP-Schichten. Zweischichtige transkristalline PP-Folien mit einer kristallinen Grenzfläche in der Mitte können durch beidseitige Kristallisation auf rauen Formgussoberflächen erzeugt werden. Auf jeder Seite der Grenzfläche in der Mitte der zweischichtigen transkristallinen PP-Elektrete findet sich nach thermischer Polung eine Schicht von Heteroladungen, während innerhalb der transkristallinen Schichten keine Ladungen beobachtet werden. Daraus wird die Bedeutung der kristallinen Grenzfläche für das Auftreten von Ladungsfallen mit hohen Aktivierungsenergien in Polypropylen deutlich. Die vorliegenden Studien zeigen, dass bereits geringe Variationen in der Nanostruktur der Polypropylenfolien zu dramatisch unterschiedlichen Elektreteigenschaften führen können. KW - electret KW - polypropylene KW - charge storage and transport KW - surface chemical treatment KW - transcrystalline polypropylene KW - Elektret KW - Polypropylen KW - Ladungsspeicherung und -transport KW - chemische Oberflächen-Modifikationen KW - transkristallines Polypropylen Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470271 ER - TY - THES A1 - Ventura-Bort, Carlos T1 - Temporo-spatial dynamics of the impact of emotional contexts on visual processing and memory T1 - Zeitlich-räumliche Dynamik der Auswirkungen emotionaler Kontexte auf die visuelle Verarbeitung und das Gedächtnis N2 - It has frequently been observed that single emotional events are not only more efficiently processed, but also better remembered, and form longer-lasting memory traces than neutral material. However, when emotional information is perceived as a part of a complex event, such as in the context of or in relation to other events and/or source details, the modulatory effects of emotion are less clear. The present work aims to investigate how emotional, contextual source information modulates the initial encoding and subsequent long-term retrieval of associated neutral material (item memory) and contextual source details (contextual source memory). To do so, a two-task experiment was used, consisting of an incidental encoding task in which neutral objects were displayed over different contextual background scenes which varied in emotional content (unpleasant, pleasant, and neutral), and a delayed retrieval task (1 week), in which previously-encoded objects and new ones were presented. In a series of studies, behavioral indices (Studies 2, 3, and 5), event-related potentials (ERPs; Studies 1-4), and functional magnetic resonance imaging (Study 5) were used to investigate whether emotional contexts can rapidly tune the visual processing of associated neutral information (Study 1) and modulate long-term item memory (Study 2), how different recognition memory processes (familiarity vs. recollection) contribute to these emotion effects on item and contextual source memory (Study 3), whether the emotional effects of item memory can also be observed during spontaneous retrieval (Sstudy 4), and which brain regions underpin the modulatory effects of emotional contexts on item and contextual source memory (Study 5). In Study 1, it was observed that emotional contexts by means of emotional associative learning, can rapidly alter the processing of associated neutral information. Neutral items associated with emotional contexts (i.e. emotional associates) compared to neutral ones, showed enhanced perceptual and more elaborate processing after one single pairing, as indexed by larger amplitudes in the P100 and LPP components, respectively. Study 2 showed that emotional contexts produce longer-lasting memory effects, as evidenced by better item memory performance and larger ERP Old/New differences for emotional associates. In Study 3, a mnemonic differentiation was observed between item and contextual source memory which was modulated by emotion. Item memory was driven by familiarity, independently of emotional contexts during encoding, whereas contextual source memory was driven by recollection, and better for emotional material. As in Study 2, enhancing effects of emotional contexts for item memory were observed in ERPs associated with recollection processes. Likewise, for contextual source memory, a pronounced recollection-related ERP enhancement was observed for exclusively emotional contexts. Study 4 showed that the long-term recollection enhancement of emotional contexts on item memory can be observed even when retrieval is not explicitly attempted, as measured with ERPs, suggesting that the emotion enhancing effects on memory are not related to the task embedded during recognition, but to the motivational relevance of the triggering event. In Study 5, it was observed that enhancing effects of emotional contexts on item and contextual source memory involve stronger engagement of the brain's regions which are associated with memory recollection, including areas of the medial temporal lobe, posterior parietal cortex, and prefrontal cortex. Taken together, these findings suggest that emotional contexts rapidly modulate the initial processing of associated neutral information and the subsequent, long-term item and contextual source memories. The enhanced memory effects of emotional contexts are strongly supported by recollection rather than familiarity processes, and are shown to be triggered when retrieval is both explicitly and spontaneously attempted. These results provide new insights into the modulatory role of emotional information on the visual processing and the long-term recognition memory of complex events. The present findings are integrated into the current theoretical models and future ventures are discussed. N2 - Es wurde häufig beobachtet, dass einzelne emotionale Ereignisse effizienter verarbeitet und besser erinnert werden und länger anhaltende Gedächtnisspuren bilden als neutrales Material. Wenn jedoch emotionale Informationen als Teil eines komplexen Ereignisses wahrgenommen werden, wie beispielsweise im Kontext oder in Bezug auf andere Ereignisse und/oder Quellendetails, sind die modulierenden Einflüsse von Emotionen weniger klar. Die vorliegende Arbeit zielt darauf ab zu untersuchen, wie emotionale, kontextuelle Quelleninformationen die anfängliche Kodierung und den anschließenden langfristigen Abruf von zugehörigem neutralen Material (Itemgedächtnis) und kontextuellen Quellendetails (Quellengedächtnis) modulieren. Dazu wurde ein Zwei-Aufgaben-Experiment verwendet, bestehend aus einer nicht instruierten Enkodierungsaufgabe, bei der neutrale Objekte eingebettet in verschiedene kontextuelle Hintergrundszenen dargeboten wurden, die in ihrem emotionalen Inhalt variierten (unangenehm, angenehm und neutral), und einer verzögerten Abrufaufgabe (1 Woche), bei der zuvor enkodierte und neue Objekte präsentiert wurden. In einer Reihe von Studien wurden Verhaltensindizes (Studien 2-5), ereigniskorrelierte Potenziale (EKPs; Studien 1-4) und funktionelle Magnetresonanztomographie (Studie 5) verwendet, um zu untersuchen, ob emotionale Kontexte die visuelle Verarbeitung der zugehörigen neutralen Informationen kurzfristig verändern können (Studie 1) und das Langzeitgedächtnis modulieren (Studie 2), wie verschiedene Prozesse des Wiedererkennens (Vertrautheit vs. Rekollektion) zu diesen Emotionseffekten auf das Item- und das kontextuelle Quellengedächtnis beitragen (Studie 3), ob die emotionalen Effekte auf das Itemgedächtnis auch bei der spontanen Abfrage beobachtet werden können (Studie 4) und über welche Hirnregionen die modulierenden Effekte emotionaler Kontexte auf das Item- und kontextuelle Quellengedächtnis vermittelt werden (Studie 5). In Studie 1 wurde beobachtet, dass emotionale Kontexte durch emotionales assoziatives Lernen die Verarbeitung der zugehörigen neutralen Informationen kurzfristig verändern können. Neutrale Elemente, die mit emotionalen Kontexten verbunden sind (im Folgenden „emotional Assoziierte“ genannt), zeigten nach einer einzigen Paarung im Vergleich zu neutralen Elementen eine verbesserte perzeptuelle und elaboriertere Verarbeitung, wie durch höhere Amplituden in den P100- bzw. LPP-Komponenten nachgewiesen wurde. Studie 2 zeigte, dass emotionale Kontexte länger anhaltende Gedächtniseffekte erzeugen, was sich in einer besseren Itemgedächtnisleistung und größeren EKP-alt/neu Unterschieden für emotional Assoziierte zeigte. In Studie 3 wurde eine mnemonische Differenzierung zwischen Item- und kontextuellem Quellengedächtnis beobachtet, die durch Emotionen moduliert wurde. Das Itemgedächtnis wurde durch den Prozess der Vertrautheit getrieben unabhängig von den emotionalen Kontexten während der Enkodierung. Das kontextuelle Quellengedächtnis wurde dagegen durch Rekollektion getrieben und war besser für emotionales Material. Wie in Studie 2 wurden in EKPs, die mit Rekollektionsprozessen in Verbindung stehen, verstärkende Effekte von emotionalen Kontexten für das Itemgedächtnis beobachtet. Ebenso wurde für das kontextuelle Quellengedächtnis eine ausgeprägte Rekollektionsbezogene Potenzierung der EKPs ausschließlich für emotionale Kontexte beobachtet. Studie 4 zeigte, dass die langfristige Verstärkung der Rekollektion, die emotionale Kontexten im Itemgedächtnis verursachen, auch dann beobachtet werden kann, wenn der Abruf nicht explizit instruiert wird. Dieser Befund zum spontanen Erinnern deutet darauf hin, dass die gedächtnissteigernden Effekte von Emotionen nicht mit der Aufgabe zusammenhängen, die während des Abrufs gestellt wurde, sondern mit der motivationalen Relevanz des auslösenden Ereignisses. In Studie 5 wurde beobachtet, dass an der verstärkenden Wirkung von emotionalen Kontexten auf das Item- und kontextuelle Quellengedächtnis solche Hirnregionen beteiligt sind, die mit der Rekollektionsprozessen assoziiert werden, einschließlich der Bereiche des medialen Temporallappens, des posterioren parietalen Kortex und des präfrontalen Kortex. Zusammengenommen deuten diese Ergebnisse darauf hin, dass emotionale Kontexte die anfängliche Verarbeitung der zugehörigen neutralen Informationen und der nachfolgenden, langfristigen Erinnerungen an Items und kontextuelle Quellen schnell modulieren. Die durch emotionaler Kontexte ausgelösten Gedächtniseffekte werden eher durch Rekollektions- und weniger durch Vertrautheitsprozesse vermittelt und zeigen sich sowohl bei expliziten als auch bei spontanen Abruf. Diese Ergebnisse liefern neue Erkenntnisse über die modulierende Rolle emotionaler Informationen bei der visuellen Verarbeitung und der Langzeiterinnerung an komplexe Ereignisse. Die vorliegenden Erkenntnisse werden in aktuelle theoretische Modelle integriert und zukünftige Forschungsperspektiven werden diskutiert. KW - memory KW - fMRI KW - Emotion KW - emotion KW - EEG KW - Gedächtnis KW - EEG KW - fMRT Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-550236 ER - TY - THES A1 - Tübbicke, Stefan T1 - Essays on start-up subsidies for the unemployed and methods for causal inference N2 - This thesis offers new insights on the effects of Start-Up Subsidies (SUS) for unemployed individuals as a special kind of active labor market program (ALMP) that aims to re-integrate individuals into the labor market via the route of self-employment. Moreover, this thesis contributes to the literature on methods for causal inference when the treatment variable is continuous rather than binary. For example, this is the case when individuals differ in their degree of exposure to a common treatment. The analysis of the effects of SUS focuses on the main current German program called “Gründungszuschuss” (New Start-Up Subsidy, NSUS) after its reform in 2011. Average Effects on participants' labor market outcomes - as measured by employment and earnings - as well as subjective well-being are estimated mainly based on propensity score matching (PSM) techniques. PSM aims to achieve balance in terms of observed characteristics by matching participants with at least one comparable non-participant in terms of their probability to receive the treatment. This estimation strategy is valid as long as all relevant characteristics that explain selection patterns into treatment are observed and included in the estimation of the propensity score. To make our analysis as credible as possible, we control for a large vector of characteristics as observed through the combination of rich administrative data from the Federal Employment Agency as well as through survey data. Chapters two to four of this thesis puts special emphasis on aspects regarding (the evaluation of) SUS programs that have received no or only limited attention thus far. The first aspect relates to the interplay of institutional details of the program and its effectiveness. So far, relatively little is known about the importance of SUS program features such as the duration of support. Second, there is no experimental benchmark evaluation of SUS available and thus, the reliability of non-experimental estimation techniques such as PSM is of crucial importance as estimates are biased when relevant confounders are omitted from the analysis. Third, there may be potentially detrimental effects of transitioning into (relatively risky) self-employment on subjective well-being among subsidized founders out of unemployment. These were to remain undetected if the analysis would focus exclusively on labor market outcomes of participants. The results indicate positive long-term effects of SUS participation on employment and earnings among participants. These effects are substantially larger than what estimated before the reform, indicating room for improvement in program design via changes in institutional details. Moreover, non-experimental estimates of treatment effects are remarkably robust to hidden confounding. Regarding subjective well-being, this thesis finds a positive long-run impact on job satisfaction and a detrimental effect on satisfaction with social security. The latter appears to be driven by adverse effects on social insurance contributions. In chapter five, a novel automated covariate balancing technique for the estimation of causal effects in the context of continuous treatments is derived and assessed regarding its performance compared to other (automated) balancing techniques. Although binary research designs that only differentiate between participants and non-participants of some treatment remain the most-common case in empirical practice, many applications can be adapted to include continuous treatments as well. Often, this will allow for more meaningful estimates of causal effects in order to further improve the design of programs. In the context of SUS, one may further investigate the effects of the size of monetary support or its duration on participants' labor market outcomes. Both Monte-Carlo investigations and analysis of two well-known datasets suggests superior performance of the proposed Entropy Balancing for continuous treatments (EBCT) compared to other existing estimation strategies. N2 - Diese Dissertation bietet neue Erkenntnisse über die Auswirkungen von Gründungsförderung (GF) für Arbeitslose. Diese Art der Förderung stellt einen besonderen Ansatz zur Reintegration von Arbeitslosen in den Arbeitsmarkt über den Weg in die Selbstständigkeit dar. Darüber hinaus leistet diese Arbeit einen Beitrag zur Literatur über Methoden der kausalen Inferenz und entwickelt einen neuen Schätzer. Dieser kann angewendet werden, wenn Maßnahmen mit Hilfe einer kontinuierlich verteilten statt einer binären Variable abgebildet werden. Dies ist zum Beispiel der Fall, wenn sich Individuen im Grad ihrer Betroffenheit von einer Maßnahme unterscheiden. Die Analyse von Effekten der GF konzentriert sich auf das aktuell größte deutsche Gründungsförderungsprogramm für Arbeitslose namens "Gründungszuschuss" nach dessen Reform im Jahr 2011. Dabei werden die Auswirkungen der GF auf die Arbeitsmarktergebnisse bezüglich Beschäftigung und Einkommen sowie das subjektive Wohlbefinden der Teilnehmer analysiert. Zur Schätzung dieser Effekte werden hauptsächlich Propensity Score Matching (PSM) Techniken verwendet, die es zum Ziel haben die Verteilung von beobachteten Charakteristika zwischen Teilnehmern und Nicht-Teilnehmer möglichst perfekt anzugleichen. Dies wird erreicht, indem jedem Teilnehmer mindestens ein Nicht-Teilnehmer mit möglichst ähnlicher Teilnahmewahrscheinlichkeit zugewiesen wird. Dieser Schätzansatz ist valide unter der Annahme, dass alle relevanten Charakteristika, die die Selektion in die Maßnahme erklären, auch tatsächlich beobachtet und in der Schätzung der Teilnahmewahrscheinlichkeit berücksichtigt werden. Um unsere Analyse möglichst plausibel zugestalten, kontrollieren wir daher für eine große Anzahl an Charakteristika. Diese beobachten wir durch die Kombination aus den sehr informativen Prozessdaten der Bundesagentur für Arbeit sowie durch zusätzliche Befragungsdaten, die durch computergestützte Telefoninterviews erhoben wurden. Kapitel zwei bis vier der vorliegende Arbeit legen bei der Analyse einen besonderen Schwerpunkt auf Aspekte von Gründungsförderungsprogrammen, die bisher keine oder nur begrenzte Aufmerksamkeit erhalten haben. Zu diesen Fragen gehören zum einen das Zusammenspiel der institutionellen Ausgestaltung des Programms wie die Länge der Förderung und seiner Wirksamkeit. Zum anderen betrifft dies die Validität der Schätzergebnisse, da bisher keine experimentelle Evidenz zu den Effekten der GF verfügbar ist. Nicht-experimentelle Verfahren wie PSM liefern verzerrte Schätzungen kausaler Effekte, wenn relevante Charakteristika in der Analyse nicht berücksichtigt werden. Daher gilt es das Risiko einer Verzerrung eingehend zu untersuchen. Darüber hinaus könnte es durch die relativ risikohafte Natur der Selbständigkeit zu negativen Effekten auf das subjektive Wohlbefinden der subventionierten Gründer aus Arbeitslosigkeit kommen. Diese blieben unentdeckt, wenn sich die Analyse nur auf die Arbeitsmarktergebnisse der Teilnehmer beschränkt. In Kapitel fünf wird ein neuartiges automatisiertes Verfahren zur Angleichung von beobachteten Charakteristika für die Schätzung kausaler Effekte im Kontext kontinuierlicher Maßnahmenveriablen entwickelt und hinsichtlich seiner Leistung im Vergleich zu anderen gängigen Verfahren bewertet. Obwohl binäre Forschungsdesigns, die nur zwischen Teilnehmern und Nicht-Teilnehmern unterschieden, in der empirischen Praxis nach wie vor am häufigsten zu beobachten sind, könnten viele Interventionen ebenfalls aus dem Blickwinkel einer kontinuierliche Maßnahme analysiert werden. Im Kontext der GF könnten zum Beispiel Programmteilnehmer mit unterschiedlicher Höhe oder Dauer der Förderung miteinander verglichen werden. Die Analyse dieser Aspekte bietet die Möglichkeit, noch politikrelevantere Schätzungen kausaler Effekte zu erlangen. Kapitel zwei legt einen Fokus auf die Reform des Gründungszuschusses und zielt darauf ab, unser Verständnis darüber zu verbessern, wie sich Veränderungen der institutionellen Faktoren auf die Effektivität des Programms auswirken können. Durch die Reform wurden die Zugangskriterien verschärft, die Finanzielle Unterstützung reduziert und der Ermessensspielraum der Arbeitsvermittler der Agenturen für Arbeit hinsichtlich der Ablehnung von Bewerbern erweitert. Aus theoretischer Sicht ist es unklar, wie sich diese Änderungen auf das Programm insgesamt auswirken werden, da möglicherweise gegenläufige Kräfte im Spiel sind. Beispielsweise könnte die Reduzierung der Finanziellen Unterstützung zu einer Verringerung von Fehlanreizen ("moral hazard") unter den Teilnehmern führen und dadurch die Wirksamkeit des Programms erhöhen. Gleichzeitig könnte ein niedrigeres Niveau der monetären Transfers nicht ausreichend sein, um potenzielle Kapitalbeschränkungen der Gründungen abzumildern, wodurch die Wirksamkeit des Programms verringert würde. Die Ergebnisse dieses Kapitels zeigen, dass die institutionellen Veränderungen des Programms mit bemerkenswerten Unterschieden in der Komposition der Teilnehmergruppe vor bzw. nach der Reform verbunden sind. Außerdem weisen Teilnehmergruppen signifikante Unterschiede bezüglich ihrer Beschäftigung sowie ihrer Arbeitsverdienste auf. Darüber hinaus zeigen die Ergebnisse große positive Effekte des Programms auf die kurzfristigen Arbeitsmarktresultate der Teilnehmer. Diese Effekte sind tatsächlich wesentlich größer als die für das Programm vor der Reform geschätzten Effekte, obwohl die Reform die Finanzielle Unterstützung der Teilnehmer reduziert hat. Diese Ergebnisse stehen unter dem Vorbehalt, dass Verzerrungen aufgrund unterschiedlicher makroökonomischen Rahmenbedingungen über die Zeit möglich sind. Allerdings scheinen die Ergebnisse darauf hinzudeuten, dass die Reform das Programm für die Teilnehmer tatsächlich insgesamt effektiver gemacht hat. Somit liefern wir wichtige erste Anhaltspunkte dafür, dass die politischen Entscheidungsträger durch eine Änderung des institutionellen Designs die Wirksamkeit von Gründungsförderungsprogrammen weiter verbessern können. Kapitel drei schätzt die langfristigen Auswirkungen des Gründungszuschusses nach dessen Reform und konzentriert sich dabei auf Fragen der Validität der nichtexperimentellen Schätzungen. Während Belege für das Programm vor der Reform darauf hindeuten, dass die Schätzungen robust gegenüber der Auslassung normalerweise nicht beobachteter Persönlichkeitsmerkmale sind (Caliendo et al., 2016), ist unklar, ob diese Befunde auch nach der Reform noch zutreffen. Dies liegt daran, dass die Reform eine weitere Ebene der Selektion durch die Arbeitsvermittler einführte, indem das Programm von einer Pflicht- zur Ermessensleistung umgewandelt wurde. Daher untersucht dieses Kapitel mit großer Sorgfalt die Robustheit der Schätzungen für das Programm nach der Reform im Hinblick auf die Art und Weise, wie Matching Schätzer implementiert werden, sowie im Hinblick auf die Sensitivität bezüglich ausgelassener unbeobachteter Charakteristika. Des Weiteren geht dieses Kapitel über den Standardansatz des Propensity Score Matchings hinaus und liefert erste Schätzungen von Effekten auf Basis einer Instrumentalvariablen (IV), indem die durch die Reform induzierten regionalen Unterschiede in der Bewilligungsrate von Bewerbungen für die Gründungsförderung ausgenutzt werden. Die Ergebnisse dieses Kapitels liefern weitere Evidenz für die günstigen Effekte der GF auf die Arbeitsmarktergebnisse der Teilnehmer. Selbst auf lange Sicht sind die geschätzten Effekte für das Programm nach der Reform bezüglich Beschäftigung und Einkommen wesentlich größer als die des Programms vor der Reform (siehe Caliendo et al., 2016). Unsere Sensitivitätsanalysen der Matching-Schätzwerte zeigen, dass diese sehr robust gegenüber alternativen Methoden zur Implementierung des Matchings sowie der Auslassung relevanter Charakteristika sind. Interessanterweise zeigen die Ergebnisse auch, dass Persönlichkeitsmerkmale, welche in vielen Anwendungen nicht zu beobachten sind, eine relativ große - und im Vergleich zum unreformierten Programm eine weitaus größere - Rolle für die Selektion in das Programm spielen. Allerdings liefern Schätzungen auf Basis einer erweiterten Spezifikation, die diese Variablen enthält, fast identische Ergebnisse im Vergleich zu unserer Basisspezifikation. In ähnlicher Weise untermauern die IV-Schätzungen unsere wichtigsten Schlussfolgerungen, indem sie große und anhaltende Auswirkungen auf Beschäftigung und Einkommen aufzeigen. Unsere Ergebnisse zeigen daher, dass nicht-experimentelle Schätzstrategien robuste Evidenz bezüglich der Effekte des Gründingszuschusses liefern. Kapitel vier nutzt zusätzlich Messungen des subjektivenWohlbefindens als Ergebnisvariablen für die Evaluation des Gründungszuschusses statt rein objektiver Variablen wie Beschäftigung oder Einkommen. Die Hauptmotivation dafür ist, dass die Subventionierung des Übergangs in die Selbständigkeit aufgrund ihres risikoreichen Charakters unbeabsichtigte negative Auswirkungen auf das subjektiveWohlbefinden der Teilnehmer haben könnte, selbst wenn sie die Arbeitsmarktergebnisse der Teilnehmer positiv beeinflusst. Zur Messung des subjektiven Wohlbefindens werden Informationen über die Lebenszufriedenheit sowie über die Zufriedenheit mit der Gesundheit, dem Einkommen, der Arbeit und der sozialen Sicherheit des Einzelnen verwendet. Um die Effekte zu schätzen werden wiederum Propensity-Score-Matching Techniken eingesetzt. Unsere Hauptergebnisse zeigen, dass GF kurzfristig einen positiven Einfluss auf die Lebenszufriedenheit der Teilnehmer hat. Dieser Effekt ist jedoch langfristig nicht mehr statistisch signifikant. Darüber hinaus finden wir zwar langfristig positive Auswirkungen der GF auf die Jobzufriedenheit, aber auch große negative Effekte auf die Zufriedenheit mit der sozialen Sicherheit. Ergänzende Ergebnisse deuten darauf hin, dass letztere durch eine signifikant verringerte Teilnahme an der gesetzlichen Arbeitslosen- bzw. einer Rentenversicherung bedingt sein könnten. Dadurch sind Maßnahmenteilnehmer einer erhöhten Gefahr durch eine zukünftige Rezession bzw. Altersarmut ausgesetzt. Darüber hinaus finden wir eine starke Heterogenität in den Effekten auf Subgruppen definiert durch Geschlecht, Alter und Ausbildung. Im Vergleich zu den vorherigen Kapiteln liefern diese Ergebnisse eine etwas weniger optimistische Einschätzung der Auswirkungen der GF auf die Teilnehmer. In Anlehnung an die PSM Techniken wird in Kapitel fünf ein neuartiges automatisiertes Gewichtungsverfahren entwickelt, das die Schätzung kausaler Effekte mittels semi- oder nichtparametrischer Methoden erleichtert, wenn die Maßnahmenvariable kontinuierlich verteilt ist. Mögliche Beispiele hierfür sind die Dauer von Trainingmaßnahmen oder wie Höhe von Subventionen für Firmen. Das entwickelte Verfahren namens Entropy Balancing für kontinuierliche Treatments (EBCT) beseitigt die Pearson-Korrelation zwischen den Charakteristika der Teilnehmer und der Maßnahmenvariablen. Durch die Einbeziehung von Polynomen kontinuierlicher Variablen sowie von Interaktionstermen kann eine Angleichung der Charakteristika nicht nur in Bezug auf die Mittelwerte, sondern auch in Bezug auf höhere Momente sowie Kreuzmomente erreicht werden. Die Lösung eines global konvexen Optimierungsproblems garantiert, dass die Charakteristika in der resultierenden synthetischen Stichprobe perfekt angeglichen wurden. Dieses Ergebnis gilt auch dann noch, wenn die Charakteristika eine hohe Vorhersagekraft für den Grad der Exposition haben und andere Methoden keine akzeptable Anpassung liefern. Darüber hinaus ermöglicht die Art des Optimierungsproblems eine effiziente Software-Implementierung und ist daher rechnerisch weniger aufwendig als andere Schätzer. Simulationsevidenz zeigt günstige Eigenschaften von Schätzungen auf der Grundlage der EBCT Gewichte bezüglich Verzerrung und Varianz auf. Insgesamt zeigen unsere Analysen relativ große positive Effekte des Gründungszuschusses auf den Arbeitsmarkterfolg der Teilnehmer, sowohl im Vergleich mit anderen Arbeitsmarktprogrammen als auch mit dem Programm vor dessen Reform. Sogar in der langen Frist sind die Effekte deutlich größer als die Schätzungen der Effekte vor der Reform, obwohl die Finanzielle Unterstützung der Teilnehmer reduziert wurde. Dies impliziert eine positive Wirkung der Reform: Die Effekte sind gestiegen und die Kosten pro Teilnehmer sind gesunken. Allerdings erlaubt der mikroökonometrische Ansatz dieser Dissertation keine Analyse der Effekte auf die Gesamtwohlfahrt. So ist durchaus möglich, dass der Netto-Effekt der Reform negativ ist, da durch die verringerten Teilnehmerzahlen potentiell profitable Gründungen vielleicht nie realisiert wurden. Dies bedarf weiterer Untersuchungen. Auf methodischer Ebene zeigen unsere umfangreichen Sensitivitätsanalysen, dass die nichtexperimentelle Schätzung der Effekte höchst robuste Ergebnisse liefert, obwohl die Reform eine zusätzliche Ebene der Selektion durch die Arbeitsvermittler eingeführt hat. Da viele Programme eine relativ ähnliche Struktur wie der Gründungszuschuss aufweisen, können unsere Ergebnisse anderen Studien womöglich zusätzliche Glaubwürdigkeit verleihen. Darüber hinaus deuten die Ergebnisse auf einen potentiell nicht unerheblichen Spielraum zur Verbesserung der Effektivität der Programme durch Veränderungen der institutionellen Details hin. Für konkrete Handlungsempfehlungen bedarf es allerdings weiterer Untersuchungen. Unsere Analyse der Effekte auf das subjektive Wohlbefinden der Teilnehmer zeigt den zusätzlichen Nutzen solcher Ergebnisvariablen, um unbeabsichtigte negative Effekte der Programme aufzudecken. Um die nachteiligen Effekte auf die Zufriedenheit mit der sozialen Absicherung abzumildern, würde es sich anbieten die Teilnehmer stärker in das soziale Sicherungsnetz einzubinden. Das vorgestellte EBCT Verfahren erlaubt die weitergehende Untersuchung der Auswirkungen der GF sowie weiterer kontinuierlicher Maßnahmen. Durch seine guten Eigenschaften erlaubt das EBCT die Nutzung von semi- oder nicht-parametrischen Methoden zur Schätzung kausaler Effekte, wo bisher nur - vielleicht zu restriktive - parametrische Methoden zur Verfügung standen. KW - Active Labor Market Programs KW - Start-Up Subsidies KW - Causal Inference Y1 - 2020 U6 - https://doi.org/10.25932/publishup-47793 ER - TY - THES A1 - Tunn, Isabell T1 - From single molecules to bulk materials: tuning the viscoelastic properties of coiled coil cross-linked hydrogels N2 - The development of bioinspired self-assembling materials, such as hydrogels, with promising applications in cell culture, tissue engineering and drug delivery is a current focus in material science. Biogenic or bioinspired proteins and peptides are frequently used as versatile building blocks for extracellular matrix (ECM) mimicking hydrogels. However, precisely controlling and reversibly tuning the properties of these building blocks and the resulting hydrogels remains challenging. Precise control over the viscoelastic properties and self-healing abilities of hydrogels are key factors for developing intelligent materials to investigate cell matrix interactions. Thus, there is a need to develop building blocks that are self-healing, tunable and self-reporting. This thesis aims at the development of α-helical peptide building blocks, called coiled coils (CCs), which integrate these desired properties. Self-healing is a direct result of the fast self-assembly of these building blocks when used as material cross-links. Tunability is realized by means of reversible histidine (His)-metal coordination bonds. Lastly, implementing a fluorescent readout, which indicates the CC assembly state, self-reporting hydrogels are obtained. Coiled coils are abundant protein folding motifs in Nature, which often have mechanical function, such as in myosin or fibrin. Coiled coils are superhelices made up of two or more α-helices wound around each other. The assembly of CCs is based on their repetitive sequence of seven amino acids, so-called heptads (abcdefg). Hydrophobic amino acids in the a and d position of each heptad form the core of the CC, while charged amino acids in the e and g position form ionic interactions. The solvent-exposed positions b, c and f are excellent targets for modifications since they are more variable. His-metal coordination bonds are strong, yet reversible interactions formed between the amino acid histidine and transition metal ions (e.g. Ni2+, Cu2+ or Zn2+). His-metal coordination bonds essentially contribute to the mechanical stability of various high-performance proteinaceous materials, such as spider fangs, Nereis worm jaws and mussel byssal threads. Therefore, I bioengineered reversible His-metal coordination sites into a well-characterized heterodimeric CC that served as tunable material cross-link. Specifically, I took two distinct approaches facilitating either intramolecular (Chapter 4.2) and/or intermolecular (Chapter 4.3) His-metal coordination. Previous research suggested that force-induced CC unfolding in shear geometry starts from the points of force application. In order to tune the stability of a heterodimeric CC in shear geometry, I inserted His in the b and f position at the termini of force application (Chapter 4.2). The spacing of His is such that intra-CC His-metal coordination bonds can form to bridge one helical turn within the same helix, but also inter-CC coordination bonds are not generally excluded. Starting with Ni2+ ions, Raman spectroscopy showed that the CC maintained its helical structure and the His residues were able to coordinate Ni2+. Circular dichroism (CD) spectroscopy revealed that the melting temperature of the CC increased by 4 °C in the presence of Ni2+. Using atomic force microscope (AFM)-based single molecule force spectroscopy, the energy landscape parameters of the CC were characterized in the absence and the presence of Ni2+. His-Ni2+ coordination increased the rupture force by ~10 pN, accompanied by a decrease of the dissociation rate constant. To test if this stabilizing effect can be transferred from the single molecule level to the bulk viscoelastic material properties, the CC building block was used as a non-covalent cross-link for star-shaped poly(ethylene glycol) (star-PEG) hydrogels. Shear rheology revealed a 3-fold higher relaxation time in His-Ni2+ coordinating hydrogels compared to the hydrogel without metal ions. This stabilizing effect was fully reversible when using an excess of the metal chelator ethylenediaminetetraacetate (EDTA). The hydrogel properties were further investigated using different metal ions, i.e. Cu2+, Co2+ and Zn2+. Overall, these results suggest that Ni2+, Cu2+ and Co2+ primarily form intra-CC coordination bonds while Zn2+ also participates in inter-CC coordination bonds. This may be a direct result of its different coordination geometry. Intermolecular His-metal coordination bonds in the terminal regions of the protein building blocks of mussel byssal threads are primarily formed by Zn2+ and were found to be intimately linked to higher-order assembly and self-healing of the thread. In the above example, the contribution of intra-CC and inter-CC His-Zn2+ cannot be disentangled. In Chapter 4.3, I redesigned the CC to prohibit the formation of intra-CC His-Zn2+ coordination bonds, focusing only on inter-CC interactions. Specifically, I inserted His in the solvent-exposed f positions of the CC to focus on the effect of metal-induced higher-order assembly of CC cross-links. Raman and CD spectroscopy revealed that this CC building block forms α-helical Zn2+ cross-linked aggregates. Using this CC as a cross-link for star-PEG hydrogels, I showed that the material properties can be switched from viscoelastic in the absence of Zn2+ to elastic-like in the presence of Zn2+. Moreover, the relaxation time of the hydrogel was tunable over three orders of magnitude when using different Zn2+:His ratios. This tunability is attributed to a progressive transformation of single CC cross-links into His-Zn2+ cross-linked aggregates, with inter-CC His-Zn2+ coordination bonds serving as an additional, cross-linking mode. Rheological characterization of the hydrogels with inter-CC His-Zn2+ coordination raised the question whether the His-Zn2+ coordination bonds between CCs or also the CCs themselves rupture when shear strain is applied. In general, the amount of CC cross-links initially formed in the hydrogel as well as the amount of CC cross-links breaking under force remains to be elucidated. In order to more deeply probe these questions and monitor the state of the CC cross-links when force is applied, a fluorescent reporter system based on Förster resonance energy transfer (FRET) was introduced into the CC (Chapter 4.4). For this purpose, the donor-acceptor pair carboxyfluorescein and tetramethylrhodamine was used. The resulting self-reporting CC showed a FRET efficiency of 77 % in solution. Using this fluorescently labeled CC as a self-reporting, reversible cross-link in an otherwise covalently cross-linked star-PEG hydrogel enabled the detection of the FRET efficiency change under compression force. This proof-of-principle result sets the stage for implementing the fluorescently labeled CCs as molecular force sensors in non-covalently cross-linked hydrogels. In summary, this thesis highlights that rationally designed CCs are excellent reversibly tunable, self-healing and self-reporting hydrogel cross-links with high application potential in bioengineering and biomedicine. For the first time, I demonstrated that His-metal coordination-based stabilization can be transferred from the single CC level to the bulk material with clear viscoelastic consequences. Insertion of His in specific sequence positions was used to implement a second non-covalent cross-linking mode via intermolecular His-metal coordination. This His-metal binding induced aggregation of the CCs enabled for reversibly tuning the hydrogel properties from viscoelastic to elastic-like. As a proof-of-principle to establish self-reporting CCs as material cross-links, I labeled a CC with a FRET pair. The fluorescently labelled CC acts as a molecular force sensor and first preliminary results suggest that the CC enables the detection of hydrogel cross-link failure under compression force. In the future, fluorescently labeled CC force sensors will likely not only be used as intelligent cross-links to study the failure of hydrogels but also to investigate cell-matrix interactions in 3D down to the single molecule level. N2 - Die Entwicklung von biomimetischen Materialien, wie Hydrogelen, zur Anwendung in der Zellkultur und der regenerativen Medizin bildet einen aktuellen Schwerpunkt der Materialwissenschaften. Häufig werden natürlich vorkommende oder neu entwickelte Proteine als biomimetische Bausteine für Hydrogele genutzt, welche die extrazelluläre Umgebung von Zellen nachahmen. Gegenwärtig bleibt es jedoch eine Herausforderung, die Eigenschaften dieser Bausteine und der daraus entwickelten Materialien genau zu kontrollieren und gezielt maßzuschneidern. Jedoch stellen präzise kontrollierbare Materialeigenschaften einen Schlüsselfaktor für die Herstellung von intelligenten Materialen für die Zellkultur dar. Das Ziel dieser Arbeit ist die Entwicklung von α-helikalen Protein-Bausteinen, so genannter Coiled Coils (CCs), mit maßgeschneiderten, reversibel veränderbaren Eigenschaften. Dazu wurden reversible Histidin (His)-Metall-Koordinationsbindungen in ein CC Heterodimer eingefügt. Des Weiteren wurden Fluoreszenz-markierte CCs entwickelt, um das Verhalten der CC-Bausteine in Hydrogelen unter Krafteinwirkung zu untersuchen. In der Natur kommen CCs oft als Faltungsmotive in Proteinen vor, die eine mechanische Funktion haben, z.B. Myosin oder Fibrin. CCs bestehen aus zwei bis sieben α-Helices, die eine Superhelix bilden. Die Aminosäuresequenz von CCs ist hoch repetitiv und besteht aus sieben sich wiederholenden Aminosäurepositionen (abcdefg). In den Positionen a und d befinden sich aliphatische Aminosäuren, die den hydrophoben Kern des CCs bilden. Die Positionen e und g werden durch geladene Aminosäuren besetzt, die ionische Bindungen eingehen. In den Lösungsmittel-exponierten Positionen, können diverse Aminosäure platziert werden. Daher sind diese Positionen für Modifikationen gut geeignet. His-Metall-Koordinationsbindungen sind stabile Bindungen der Aminosäure His mit Übergangsmetallionen, wie Ni2+, Cu2+ oder Zn2+. His-Metall-Koordinationsbindungen tragen entscheidend zur mechanischen Stabilität von verschiedenen Protein-basierten Biomaterialien bei, z.B. in den Fangzähnen von Spinnen oder in Byssusfäden von Miesmuscheln. Daher wurden His-Metall-Koordinationsstellen in dieser Arbeit verwendet, um ein gut charakterisiertes CC Heterodimer zu stabilisieren. Zwei verschiedene Ansätze wurden zur Stabilisierung des CCs, und den daraus synthetisierten Materialien, genutzt. Zum einen wurden die His-Metall-Koordinationsbindungen so im CC platziert, dass primär Koordination innerhalb einer Helix stattfindet (intra-CC) (Kapitel 4.2). Zum anderen wurde His in Positionen eingefügt, die nur Metall-Koordinationsbindungen zwischen den CCs erlauben (inter-CC) (Kapitel 4.3). Bisherige Forschungsergebnisse zur mechanischen Entfaltung von CCs in der Schergeometrie lassen vermuten, dass die Entfaltung am Angriffspunkt der Kraft beginnt. Um die Stabilität einzelner CC Heterodimere in der Schergeometrie zu erhöhen, habe ich His-Metall Koordinationsbindungen in den Positionen b und f an den Enden der CC-Peptide einfügt (intra-CC), an denen die Scherkraft angreift (Kapitel 4.2). Mittels Raman Spektroskopie konnte ich zeigen, dass das His-modifizierte CC α-helikal bleibt und Ni2+ koordiniert. Zirkulardichroismus Spektroskopie wurde genutzt, um die thermodynamische Stabilität mit und ohne Ni2+ zu ermitteln. Unter Zugabe von Ni2+ erhöhte sich die Schmelztemperatur des CCs um 4 °C. Um die Energielandschaft der Entfaltung zu untersuchen, wurde Einzelmolekülkraftspektroskopie mit dem Rasterkraftmikroskop durchgeführt. His-Ni2+-Koordination führte zu einer Erhöhung der Abrisskraft um 10 pN und einer 10-fach verringerten Dissoziationskonstante. Die Koordination von Ni2+ führt demnach zu einer Stabilisierung des CCs. Um zu testen, ob der stabilisierende Effekt vom Einzelmolekül auf die viskoelastischen Eigenschaften von Hydrogelen übertragbar ist, wurde das CC als Vernetzungs-Baustein für sternförmiges Polyethylenglykol genutzt. Scherrheologie zeigte, dass die Relaxationszeit der CC-Hydrogele bei Zugabe von Ni2+ um das 3-fache erhöht ist. Dieser stabilisierende Effekt war vollkommen reversibel, wenn Metallchelatoren, wie Ethylendiamintetraessigsäure (EDTA) zugegeben wurden. Des Weiteren konnte ich zeigen, dass Cu2+ und Co2+ intra-CC Koordinationsbindungen eingehen und einen ähnlichen Effekt auf die Relaxationszeit haben wie Ni2+, wohingegen Zn2+ auch zwischen verschiedenen CCs (inter-CC) koordiniert wurde. Intermolekulare His-Zn2+-Koordination an den Enden der Protein-Bausteine von Byssusfäden ist essentiell für deren hierarchische Struktur und Selbstheilung nach mechanischer Belastung. Im oben beschriebenen CC kann der Effekt der intra- und inter-CC His-Zn2+-Koordination nicht klar voneinander getrennt werden. In Kapitel 4.3 wurden die His daher mit größerem Abstand in das CC eingefügt, so dass nur inter-CC Zn2+-Koordination möglich war. Raman und Zirkulardichroismus Spektroskopie zeigten, dass dieses CC unter Zugabe von Zn2+ aggregiert. Während sich die CC-Hydrogele ohne Zn2+ viskoelastisch verhielten, führte die Zugabe von Zn2+ zu annähernd elastischem Verhalten. Unter Verwendung von verschiedenen His:Zn2+ Verhältnissen, konnte die Relaxationszeit in einem großen Bereich gezielt verändert werden. Diese maßgeschneiderten Materialeigenschaften sind auf die schrittweise Umwandlung von einzelnen CC-Vernetzungen zu CC-Aggregaten mit inter-CC His-Zn2+-Koordination zurückzuführen. Die Rheologiemessungen mit den His-Zn2+-vernetzten CC-Aggregaten werfen die Frage auf, ob die inter-CC His-Zn2+-Koordinationsbindungen oder die CCs selbst brechen, wenn eine Kraft wirkt. Im Allgemeinen sind die Mechanismen der Dissoziation von Vernetzern im Hydrogel unter Krafteinwirkung größtenteils unerforscht. Um diese zu beleuchten, wurde das CC mit einem Fluoreszenz-Reportersystem ausgestattet (Kapitel 4.4). Genauer gesagt, wurde ein Förster Resonanzenergietransfer (FRET) Paar (Carboxyfluorescein-Tetramethylrhodamin) an das CC gekoppelt. Die Effizienz des Energietransfers gibt in diesem System Aufschluss darüber, ob das CC assoziiert oder dissoziiert ist. Das FRET-markierte CC wurde als nicht-kovalenter, reversibler molekularer Kraftsensor in einem ansonsten kovalent vernetzten Hydrogel eingesetzt. Unter Kompression verringerte sich die FRET-Effizienz, was einen ersten Hinweise auf die Dissoziation des CCs darstellt. Dieses Ergebnis verdeutlicht, dass CCs hervorragende molekulare Kraftsensoren für biomimetische Materialien darstellen. Diese Arbeit demonstriert, dass CCs mit maßgeschneiderten, reversibel manipulierbaren Eigenschaften exzellente Bausteine für Hydrogele sind, die in der Zellkultur und der regenerativen Medizin Verwendung finden können. Es konnte zum ersten Mal gezeigt werden, dass einzelne CCs durch His-Metall-Koordinationsbindungen reversibel stabilisiert werden können und dass diese molekulare Stabilisierung direkt auf die viskoelastischen Materialeigenschaften von Hydrogelen übertragbar ist. Durch gezieltes Einfügen von intermolekularen His-Metall-Koordinationsbindungen gelang es, CC-Hydrogele mit einem zweiten übergeordneten His-Zn2+ basierten Vernetzungsmodus herzustellen. So konnte die Relaxationszeit der Hydrogele über einen weiten Bereich maßgeschneidert kontrolliert werden. Um CCs als molekulare Kraftsensoren in Materialien zu etablieren, wurde das CC Heterodimer mit einem FRET-Reportersystem ausgestattet. Erste Experimente deuten darauf hin, dass die Dissoziation des CCs im Hydrogel unter Krafteinwirkung optisch verfolgt werden kann. Zukünftig können CCs mit maßgeschneiderter Stabilität nicht nur als molekulare Kraftsensoren für Materialien, sondern auch zur Erforschung von Zell-Matrix Wechselwirkungen eingesetzt werden. T2 - Von Molekülen zu Materialien: Coiled Coil-vernetzte Hydrogele mit maßgeschneiderten viskoelastischen Eigenschaften KW - biochemistry KW - coiled coil KW - histidine-metal coordination KW - Förster resonance energy transfer (FRET) KW - rheology KW - single-molecule force spectroscopy KW - Biochemie KW - Coiled Coil KW - Hydrogel KW - Histidin-Metall Koordination KW - Förster Resonanz Energie Transfer (FRET) KW - Rheologie KW - Einzelmolekülkraftspektroskopie Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-475955 ER - TY - THES A1 - Thapa, Samudrajit T1 - Deciphering anomalous diffusion in complex systems using Bayesian inference and large deviation theory N2 - The development of methods such as super-resolution microscopy (Nobel prize in Chemistry, 2014) and multi-scale computer modelling (Nobel prize in Chemistry, 2013) have provided scientists with powerful tools to study microscopic systems. Sub-micron particles or even fluorescently labelled single molecules can now be tracked for long times in a variety of systems such as living cells, biological membranes, colloidal solutions etc. at spatial and temporal resolutions previously inaccessible. Parallel to such single-particle tracking experiments, super-computing techniques enable simulations of large atomistic or coarse-grained systems such as biologically relevant membranes or proteins from picoseconds to seconds, generating large volume of data. These have led to an unprecedented rise in the number of reported cases of anomalous diffusion wherein the characteristic features of Brownian motion—namely linear growth of the mean squared displacement with time and the Gaussian form of the probability density function (PDF) to find a particle at a given position at some fixed time—are routinely violated. This presents a big challenge in identifying the underlying stochastic process and also estimating the corresponding parameters of the process to completely describe the observed behaviour. Finding the correct physical mechanism which leads to the observed dynamics is of paramount importance, for example, to understand the first-arrival time of transcription factors which govern gene regulation, or the survival probability of a pathogen in a biological cell post drug administration. Statistical Physics provides useful methods that can be applied to extract such vital information. This cumulative dissertation, based on five publications, focuses on the development, implementation and application of such tools with special emphasis on Bayesian inference and large deviation theory. Together with the implementation of Bayesian model comparison and parameter estimation methods for models of diffusion, complementary tools are developed based on different observables and large deviation theory to classify stochastic processes and gather pivotal information. Bayesian analysis of the data of micron-sized particles traced in mucin hydrogels at different pH conditions unveiled several interesting features and we gained insights into, for example, how in going from basic to acidic pH, the hydrogel becomes more heterogeneous and phase separation can set in, leading to observed non-ergodicity (non-equivalence of time and ensemble averages) and non-Gaussian PDF. With large deviation theory based analysis we could detect, for instance, non-Gaussianity in seeming Brownian diffusion of beads in aqueous solution, anisotropic motion of the beads in mucin at neutral pH conditions, and short-time correlations in climate data. Thus through the application of the developed methods to biological and meteorological datasets crucial information is garnered about the underlying stochastic processes and significant insights are obtained in understanding the physical nature of these systems. N2 - Die Entwicklung von Methoden wie der superauflösenden Mikroskopie (Nobelpreis für Chemie, 2014) und der Multiskalen-Computermodellierung (Nobelpreis für Chemie, 2013) hat Wis- senschaftlern mächtige Werkzeuge zur Untersuchung mikroskopischer Systeme zur Verfügung gestellt. Submikrometer Partikel und sogar einzelne fluoreszent markierte Moleküle können heute über lange Beobachtungszeiten in einer Vielzahl von Systemen, wie z.B. lebenden Zellen, biologischen Membranen und kolloidalen Suspensionen, mit bisher unerreichter räumlicher und zeitlicher Auflösung verfolgt werden. Neben solchen Einzelpartikelverfolgungsexperi- menten ermöglichen Supercomputer die Simulation großer atomistischer oder coarse-grained Systeme, wie z..B. biologisch relevante Membranen oder Proteine, über wenige Picosekunden bis hin zu einigen Sekunden, wobei große Datenmengen produziert werden. Diese haben zu einem beispiellosen Anstieg in der Zahl berichteter Fälle von anomaler Diffusion geführt, bei welcher die charakteristischen Eigenschaften der Brownschen Diffusion—nämlich das lineare Wachstum der mittleren quadratischen Verschiebung mit der Zeit und die Gaußsche Form der Wahrscheinlichkeitsdichtefunktion ein Partikel an einem gegebenen Ort und zu gegebener Zeit zu finden—verletzt sind. Dies stellt eine große Herausforderung bei der Identifizierung des zugrundeliegenden stochastischen Prozesses und der Schätzung der zugehörigen Prozess- parameter dar, was zur vollständigen Beschreibung des beobachteten Verhaltens nötig ist. Das Auffinden des korrekten physikalischen Mechanismus, welcher zum beobachteten Verhal- ten führt, ist von überragender Bedeutung, z.B. beim Verständnis der, die Genregulation steuernden, first-arrival time von Transkriptionsfaktoren oder der Überlebensfunktion eines Pathogens in einer biologischen Zelle nach Medikamentengabe. Die statistische Physik stellt nützliche Methoden bereit, die angewendet werden können, um solch wichtige Informationen zu erhalten. Der Schwerpunkt der vorliegenden, auf fünf Publikationen basierenden, kumulativen Dissertation liegt auf der Entwicklung, Implementierung und Anwendung solcher Methoden, mit einem besonderen Schwerpunkt auf der Bayesschen Inferenz und der Theorie der großen Abweichungen. Zusammen mit der Implementierung eines Bayesschen Modellvergleichs und Methoden zur Parameterschätzung für Diffusionsmodelle werden ergänzende Methoden en- twickelt, welche auf unterschiedliche Observablen und der Theorie der großen Abweichungen basieren, um stochastische Prozesse zu klassifizieren und wichtige Informationen zu erhalten. Die Bayessche Analyse der Bewegungsdaten von Mikrometerpartikeln, welche in Mucin- hydrogelen mit verschiedenen pH-Werten verfolgt wurden, enthüllte mehrere interessante Eigenschaften und wir haben z.B. Einsichten darüber gewonnen, wie der Übergang von basischen zu sauren pH-Werten die Heterogenität des Hydrogels erhöht und Phasentrennung einsetzen kann, was zur beobachteten Nicht-Ergodizität (Inäquivalenz von Zeit- und En- semblemittelwert) und nicht-Gaußscher Wahrscheinlichkeitsdichte führt. Mit einer auf der Theorie der großen Abweichungen basierenden Analyse konnten wir, z.B., nicht-Gaußsches Verhalten bei der scheinbaren Brownschen Diffusion von Partikeln in wässriger Lösung, anisotrope Bewegung von Partikeln in Mucin bei neutralem pH-Wert und Kurzzeitkorrela- tionen in Klimadaten detektieren. Folglich werden durch die Anwendung der entwickelten Methoden auf biologische und meteorologische Daten entscheidende Informationen über die zugrundeliegenden stochastischen Prozesse gesammelt und bedeutende Erkenntnisse für das Verständnis der Eigenschaften dieser Systeme erhalten. KW - anomalous diffusion KW - Bayesian inference KW - large deviation theory KW - statistical physics Y1 - 2020 ER - TY - THES A1 - Temmen, Jens T1 - The Territorialities of U.S. Imperialism(s) BT - Conflicting Discourses of Sovereignty, Jurisdiction and Territory in Nineteenth-Century U.S. Legal Texts and Indigenous Life Writing T2 - American Studies ; 308 N2 - ‘The Territorialities of U.S. Imperialisms’ sets into relation U.S. imperial and Indigenous conceptions of territoriality as articulated in U.S. legal texts and Indigenous life writing in the 19th century. It analyzes the ways in which U.S. legal texts as “legal fictions” narratively press to affirm the United States’ territorial sovereignty and coherence in spite of its reliance on a variety of imperial practices that flexibly disconnect and (re)connect U.S. sovereignty, jurisdiction and territory. At the same time, the book acknowledges Indigenous life writing as legal texts in their own right and with full juridical force, which aim to highlight the heterogeneity of U.S. national territory both from their individual perspectives and in conversation with these legal fictions. Through this, the book’s analysis contributes to a more nuanced understanding of the coloniality of U.S. legal fictions, while highlighting territoriality as a key concept in the fashioning of the narrative of U.S. imperialism. Y1 - 2020 SN - 978-3-8253-4713-0 PB - Winter CY - Heidelberg ER - TY - THES A1 - Taeumel, Marcel T1 - Data-driven tool construction in exploratory programming environments T1 - Datengetriebener Werkzeugbau in explorativen Programmierumgebungen N2 - This work presents a new design for programming environments that promote the exploration of domain-specific software artifacts and the construction of graphical tools for such program comprehension tasks. In complex software projects, tool building is essential because domain- or task-specific tools can support decision making by representing concerns concisely with low cognitive effort. In contrast, generic tools can only support anticipated scenarios, which usually align with programming language concepts or well-known project domains. However, the creation and modification of interactive tools is expensive because the glue that connects data to graphics is hard to find, change, and test. Even if valuable data is available in a common format and even if promising visualizations could be populated, programmers have to invest many resources to make changes in the programming environment. Consequently, only ideas of predictably high value will be implemented. In the non-graphical, command-line world, the situation looks different and inspiring: programmers can easily build their own tools as shell scripts by configuring and combining filter programs to process data. We propose a new perspective on graphical tools and provide a concept to build and modify such tools with a focus on high quality, low effort, and continuous adaptability. That is, (1) we propose an object-oriented, data-driven, declarative scripting language that reduces the amount of and governs the effects of glue code for view-model specifications, and (2) we propose a scalable UI-design language that promotes short feedback loops in an interactive, graphical environment such as Morphic known from Self or Squeak/Smalltalk systems. We implemented our concept as a tool building environment, which we call VIVIDE, on top of Squeak/Smalltalk and Morphic. We replaced existing code browsing and debugging tools to iterate within our solution more quickly. In several case studies with undergraduate and graduate students, we observed that VIVIDE can be applied to many domains such as live language development, source-code versioning, modular code browsing, and multi-language debugging. Then, we designed a controlled experiment to measure the effect on the time to build tools. Several pilot runs showed that training is crucial and, presumably, takes days or weeks, which implies a need for further research. As a result, programmers as users can directly work with tangible representations of their software artifacts in the VIVIDE environment. Tool builders can write domain-specific scripts to populate views to approach comprehension tasks from different angles. Our novel perspective on graphical tools can inspire the creation of new trade-offs in modularity for both data providers and view designers. N2 - Diese Arbeit schlägt einen neuartigen Entwurf für Programmierumgebungen vor, welche den Umgang mit domänenspezifischen Software-Artefakten erleichtern und die Konstruktion von unterstützenden, grafischen Werkzeugen fördern. Werkzeugbau ist in komplexen Software-Projekten ein essentieller Bestandteil, weil spezifische, auf Domäne und Aufgabe angepasste, Werkzeuge relevante Themen und Konzepte klar darstellen und somit effizient zur Entscheidungsfindung beitragen können. Im Gegensatz dazu sind vorhandene, traditionelle Werkzeuge nur an allgemeinen, wiederkehrenden Anforderungen ausgerichtet, welche im Spezialfall Gedankengänge nur unzureichend abbilden können. Leider sind das Erstellen und Anpassen von interaktiven Werkzeugen teuer, weil die Beschreibungen zwischen Information und Repräsentation nur schwer auffindbar, änderbar und prüfbar sind. Selbst wenn relevante Daten verfügbar und vielversprechende Visualisierungen konfigurierbar sind, müssten Programmierer viele Ressourcen für das Verändern ihrer Programmierumgeben investieren. Folglich können nur Ideen von hohem Wert umgesetzt werden, um diese Kosten zu rechtfertigen. Dabei sieht die Situation in der textuellen Welt der Kommandozeile sehr vielversprechend aus. Dort können Programmierer einfach ihre Werkzeuge in Form von Skripten anpassen und kleine Filterprogramme kombinieren, um Daten zu verarbeiten. Wir stellen eine neuartige Perspektive auf grafische Werkzeuge vor und vermitteln dafür ein Konzept, um diese Werkzeuge mit geringem Aufwand und in hoher Qualität zu konstruieren. Im Detail beinhaltet das, erstens, eine objekt-orientierte, daten-getriebene, deklarative Skriptsprache, um die Programmierschnittstelle zwischen Information und Repräsentation zu vereinfachen. Zweitens ist dies eine skalierbare Entwurfssprache für Nutzerschnitt-stellen, welche kurze Feedback-Schleifen und Interaktivität kombiniert, wie es in den Umgebungen Self oder Squeak/Smalltalk typisch ist. Wir haben unser Konzept in Form einer neuartigen Umgebung für Werkzeugbau mit Hilfe von Squeak/Smalltalk und Morphic umgesetzt. Die Umgebung trägt den Namen VIVIDE. Damit konnten wir die bestehenden Werkzeuge von Squeak für Quelltextexploration und ausführung ersetzen, um unsere Lösung kontinuierlich zu verbessern. In mehreren Fallstudien mit Studenten konnten wir beobachten, dass sich VIVIDE in vielen Domänen anwenden lässt: interaktive Entwicklung von Programmiersprachen, modulare Versionierung und Exploration von Quelltext und Fehleranalyse von mehrsprachigen Systemen. Mit Blick auf zukünftige Forschung haben wir ebenfalls ein kontrolliertes Experiment entworfen. Nach einigen Testläufen stellte sich die Trainingsphase von VIVIDE als größte, und somit offene, Herausforderung heraus. Im Ergebnis sind wir davon überzeugt, dass Programmierer in VIVIDE direkt mit greifbaren, interaktiven Darstellungen relevanter Software-Artefakte arbeiten können. Im Rahmen des Werkzeugbaus können Programmierer kompakte, angepasste Skripte schreiben, die Visualisierungen konfigurieren, um Programmieraufgaben spezifisch aus mehreren Blickwinkeln zu betrachten. Unsere neuartige Perspektive auf grafische Werkzeuge kann damit sowohl das Bereitstellen von Informationen, als auch den Entwurf interaktiver Grafik positiv beeinflussen. KW - programming KW - tool building KW - user interaction KW - exploration KW - liveness KW - immediacy KW - direct manipulation KW - scripting languages KW - Squeak/Smalltalk KW - Programmieren KW - Werkzeugbau KW - Nutzerinteraktion KW - Exploration KW - Lebendigkeit KW - Direkte Manipulation KW - Skriptsprachen KW - Squeak/Smalltalk Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-444289 ER - TY - THES A1 - Stone, Kate T1 - Predicting long-distance lexical content in German verb-particle constructions N2 - A large body of research now supports the presence of both syntactic and lexical predictions in sentence processing. Lexical predictions, in particular, are considered to indicate a deep level of predictive processing that extends past the structural features of a necessary word (e.g. noun), right down to the phonological features of the lexical identity of a specific word (e.g. /kite/; DeLong et al., 2005). However, evidence for lexical predictions typically focuses on predictions in very local environments, such as the adjacent word or words (DeLong et al., 2005; Van Berkum et al., 2005; Wicha et al., 2004). Predictions in such local environments may be indistinguishable from lexical priming, which is transient and uncontrolled, and as such may prime lexical items that are not compatible with the context (e.g. Kukona et al., 2014). Predictive processing has been argued to be a controlled process, with top-down information guiding preactivation of plausible upcoming lexical items (Kuperberg & Jaeger, 2016). One way to distinguish lexical priming from prediction is to demonstrate that preactivated lexical content can be maintained over longer distances. In this dissertation, separable German particle verbs are used to demonstrate that preactivation of lexical items can be maintained over multi-word distances. A self-paced reading time and an eye tracking experiment provide some support for the idea that particle preactivation triggered by a verb and its context can be observed by holding the sentence context constant and manipulating the predictabilty of the particle. Although evidence of an effect of particle predictability was only seen in eye tracking, this is consistent with previous evidence suggesting that predictive processing facilitates only some eye tracking measures to which the self-paced reading modality may not be sensitive (Staub, 2015; Rayner1998). Interestingly, manipulating the distance between the verb and the particle did not affect reading times, suggesting that the surprisal-predicted faster reading times at long distance may only occur when the additional distance is created by information that adds information about the lexical identity of a distant element (Levy, 2008; Grodner & Gibson, 2005). Furthermore, the results provide support for models proposing that temporal decay is not major influence on word processing (Lewandowsky et al., 2009; Vasishth et al., 2019). In the third and fourth experiments, event-related potentials were used as a method for detecting specific lexical predictions. In the initial ERP experiment, we found some support for the presence of lexical predictions when the sentence context constrained the number of plausible particles to a single particle. This was suggested by a frontal post-N400 positivity (PNP) that was elicited when a lexical prediction had been violated, but not to violations when more than one particle had been plausible. The results of this study were highly consistent with previous research suggesting that the PNP might be a much sought-after ERP marker of prediction failure (DeLong et al., 2011; DeLong et al., 2014; Van Petten & Luka, 2012; Thornhill & Van Petten, 2012; Kuperberg et al., 2019). However, a second experiment in a larger sample experiment failed to replicate the effect, but did suggest the relationship of the PNP to predictive processing may not yet be fully understood. Evidence for long-distance lexical predictions was inconclusive. The conclusion drawn from the four experiments is that preactivation of the lexical entries of plausible upcoming particles did occur and was maintained over long distances. The facilitatory effect of this preactivation at the particle site therefore did not appear to be the result of transient lexical priming. However, the question of whether this preactivation can also lead to lexical predictions of a specific particle remains unanswered. Of particular interest to future research on predictive processing is further characterisation of the PNP. Implications for models of sentence processing may be the inclusion of long-distance lexical predictions, or the possibility that preactivation of lexical material can facilitate reading times and ERP amplitude without commitment to a specific lexical item. N2 - Eine große Anzahl an Forschungen unterstützt nun sowohl das Vorkommen syntaktischer als auch lexikalischer Vorhersagen bei der Satzverarbeitung. Insbesondere lexikalische Vorhersagen gelten als Indikator für eine tiefe Ebene bei der prädiktiven Satzverarbeitung, die sich über die strukturellen Merkmale eines notwendigen Wortes (z.B. Substantiv) bis hin zu den phonologischen Merkmalen der lexikalischen Identität eines bestimmten Wortes erstreckt (z.B. /kite/; DeLong et al., 2005). Die Evidenz für lexikalische Vorhersagen konzentriert sich jedoch in der Regel auf Vorhersagen in sehr lokalen Umgebungen wie zum Beispiel das angrenzende Wort oder die angrenzenden Wörter (DeLong et al., 2005; Van Berkum et al., 2005; Wicha et al., 2004). Vorhersagen in solchen lokalen Umgebungen sind womöglich nicht unterscheidbar von lexikalischem Priming, das vorübergehend und unkontrolliert ist und könnten als solches lexikalische Elemente primen, die mit dem Kontext nicht kompatibel sind (z.B. Kukona et al., 2014). Die prädiktive Verarbeitung wurde als ein kontrollierter Prozess verstanden, bei dem top-down verarbeitete Informationen die Präaktivierung plausibler bevorstehender lexikalischer Elemente steuern (Kuperberg & Jaeger, 2016). Eine Möglichkeit, lexikalisches Priming von Vorhersagen zu unterscheiden, besteht darin, zu zeigen, dass präaktivierte lexikalische Inhalte über größere Entfernungen beibehalten werden können. In dieser Dissertation werden trennbare deutsche Partikelverben verwendet, um zu zeigen, dass die Präaktivierung lexikalischer Elemente über Mehrwortdistanzen aufrechterhalten werden kann. Ein selbstbestimmtes Leseexperiment und ein Eyetracking-Experiment liefern eine gewisse Bestätigung für die Idee, dass die Präaktivierung von Partikeln, ausgelöst von einem Verb und dessen Kontext, beobachtet werden kann, indem der Satzkontext konstant gehalten und die Vorhersagbarkeit des Partikels manipuliert wird. Obwohl der Nachweis eines Effekts der Partikelvorhersagbarkeit nur im Eyetracking zu sehen war, stimmt dies mit früheren Erkenntnissen überein, die darauf hindeuten, dass die prädiktive Verarbeitung nur einige Eyetracking-Messungen erleichtert, für die die selbstbestimmte Lesemodalität möglicherweise nicht sensitiv genug ist (Staub, 2015; Rayner, 1998). Interessanterweise hatte die Manipulation des Abstands zwischen dem Verb und dem Partikel keinen Einfluss auf die Lesezeiten, was darauf hindeutet, dass die durch die Surprisal-Theorie vorhergesagten schnelleren Lesezeiten bei großem Abstand nur dann auftreten können, wenn der zusätzliche Abstand durch Informationen erzeugt wird, die Informationen über die lexikalische Identität eines entfernten Elements hinzufügen (Levy, 2008; Grodner & Gibson, 2005). Darüber hinaus liefern die Ergebnisse Unterstützung für Modelle, die vorschlagen, dass der zeitliche Aktivierungsverfall keinen großen Einfluss auf die Wortverarbeitung hat (Lewandowsky et al., 2009; Vasishth et al., 2019). Im dritten und vierten Experiment wurden ereigniskorrelierte Potentiale (EKP) als Methode zum Nachweis spezifischer lexikalischer Vorhersagen verwendet. Im ersten EKP-Experiment fanden wir eine gewisse Bestätigung für das Vorhandensein lexikalischer Vorhersagen, wenn der Satzkontext die Anzahl der plausiblen Partikel auf ein einziges Partikel beschränkte. Dies wurde durch eine frontale Post-N400-Positivität (PNP) angedeutet, die hervorgerufen wurde, wenn eine lexikalische Vorhersage verletzt worden war, aber nicht bei Verletzungen, wenn mehr als ein Partikel plausibel gewesen war. Die Ergebnisse dieser Studie stimmen in hohem Maße mit früheren Untersuchungen überein, die darauf hindeuten, dass die PNP ein sehr gesuchter EKP-Marker für das Scheitern von Vorhersagen sein könnte (DeLong et al., 2011; DeLong et al., 2014; Van Petten & Luka, 2012; Thornhill & Van Petten, 2012; Kuperberg et al., 2020). Ein zweites Experiment mit einer größeren Stichprobe konnte den Effekt jedoch nicht replizieren, deutete aber darauf hin, dass die Beziehung der PNP zur prädiktiven Verarbeitung möglicherweise noch nicht vollständig verstanden ist. Die Evidenz für lexikalische Fernvorhersagen war nicht schlüssig. Die Schlussfolgerung, die aus den vier Experimenten gezogen wurde, ist, dass eine Präaktivierung der lexikalischen Einträge von plausiblen, bevorstehenden Partikeln stattgefunden hat und über weite Strecken aufrechterhalten wurde. Die erleichternde Wirkung dieser Präaktivierung am Partikel scheint daher nicht das Ergebnis eines vorübergehenden lexikalischen Primings zu sein. Die Frage, ob diese Präaktivierung auch zu lexikalischen Vorhersagen eines bestimmten Partikels führen kann, bleibt jedoch unbeantwortet. Von besonderem Interesse für zukünftige Forschung zur prädiktiven Verarbeitung ist die weitere Charakterisierung der PNP. Implikationen für Satzverarbeitungsmodelle sind beispielsweise die Einbeziehung von lexikalischen Fernvorhersagen oder die Möglichkeit, dass die Präaktivierung von lexikalischem Material die Lesezeiten und die EKP-Amplitude ohne Bindung an ein bestimmtes lexikalisches Element erleichtern kann. T2 - Lexikalische Vorhersagen in Partikelverb-Konstruktionen des Deutschen KW - sentence processing KW - prediction KW - particle verbs KW - preactivation KW - ERP KW - eye tracking KW - self-paced reading KW - EKP KW - Partikelverben KW - Preaktivierung KW - Vorhersagen KW - selbstbestimmtes Lesen KW - Satzverarbeitung KW - Eyetracking Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-476798 ER - TY - THES A1 - Stete, Felix T1 - Gold at the nanoscale BT - plasmon-exciton coupling and optical heating N2 - In this cumulative dissertation, I want to present my contributions to the field of plasmonic nanoparticle science. Plasmonic nanoparticles are characterised by resonances of the free electron gas around the spectral range of visible light. In recent years, they have evolved as promising components for light based nanocircuits, light harvesting, nanosensors, cancer therapies, and many more. This work exhibits the articles I authored or co-authored in my time as PhD student at the University of Potsdam. The main focus lies on the coupling between localised plasmons and excitons in organic dyes. Plasmon–exciton coupling brings light–matter coupling to the nanoscale. This size reduction is accompanied by strong enhancements of the light field which can, among others, be utilised to enhance the spectroscopic footprint of molecules down to single molecule detection, improve the efficiency of solar cells, or establish lasing on the nanoscale. When the coupling exceeds all decay channels, the system enters the strong coupling regime. In this case, hybrid light–matter modes emerge utilisable as optical switches, in quantum networks, or as thresholdless lasers. The present work investigates plasmon–exciton coupling in gold–dye core–shell geometries and contains both fundamental insights and technical novelties. It presents a technique which reveals the anticrossing in coupled systems without manipulating the particles themselves. The method is used to investigate the relation between coupling strength and particle size. Additionally, the work demonstrates that pure extinction measurements can be insufficient when trying to assess the coupling regime. Moreover, the fundamental quantum electrodynamic effect of vacuum induced saturation is introduced. This effect causes the vacuum fluctuations to diminish the polarisability of molecules and has not yet been considered in the plasmonic context. The work additionally discusses the reaction of gold nanoparticles to optical heating. Such knowledge is of great importance for all potential optical applications utilising plasmonic nanoparticles since optical excitation always generates heat. This heat can induce a change in the optical properties, but also mechanical changes up to melting can occur. Here, the change of spectra in coupled plasmon–exciton particles is discussed and explained with a precise model. Moreover, the work discusses the behaviour of gold nanotriangles exposed to optical heating. In a pump–probe measurement, X-ray probe pulses directly monitored the particles’ breathing modes. In another experiment, the triangles were exposed to cw laser radiation with varying intensities and illumination areas. X-ray diffraction directly measured the particles’ temperature. Particle melting was investigated with surface enhanced Raman spectroscopy and SEM imaging demonstrating that larger illumination areas can cause melting at lower intensities. An elaborate methodological and theoretical introduction precedes the articles. This way, also readers without specialist’s knowledge get a concise and detailed overview of the theory and methods used in the articles. I introduce localised plasmons in metal nanoparticles of different shapes. For this work, the plasmons were mostly coupled to excitons in J-aggregates. Therefore, I discuss these aggregates of organic dyes with sharp and intense resonances and establish an understanding of the coupling between the two systems. For ab initio simulations of the coupled systems, models for the systems’ permittivites are presented, too. Moreover, the route to the sample fabrication – the dye coating of gold nanoparticles, their subsequent deposition on substrates, and the covering with polyelectrolytes – is presented together with the measurement methods that were used for the articles. N2 - In der vorliegenden publikationsbasierten Dissertation möchte ich meinen Beitrag aus meiner Zeit als Doktorand an der Universität Potsdam zum Forschungsgebiet plasmonischer Nanopartikel vorstellen. Letztere zeichnen sich durch Resonanzen des freien Elektronengases im Spektralbereich sichtbaren Lichts aus mit vielversprechenden Anwenungsgebieten, unter anderem in Bereichen der Nanosensorik, lichtbasierter Nanoschaltkreise oder auch der Krebstherapie. Die Arbeit beinhaltet die von mir mitverfassten wissenschaftlichen Artikel, mit dem Hauptaugenmerk auf der Kopplung zwischen lokalisierten Plasmonen in Gold-Nanopartikeln und Exzitonen in organischen Farbstoffen. Plasmonen konzentrieren Lichtfelder auf kleinstem Raum. Dadurch verstärkt sich die Licht–Materie-Wechselwirkung, welche es etwa ermöglicht, die Effizienz von Solarzellen zu erhöhen, die Spektren weniger bis einzelner Moleküle aufzunehmen oder auch Laser auf der Nanoskala zu entwickeln. Überschreitet die Wechselwirkung zwischen Plasmonen und Exzitonen alle anderen Dissipationskanäle, spricht man vom Regime der starken Kopplung. In diesem Regime entstehen neue untrennbare Licht–Materie-Hybridzustände aus denen ultraschnelle optische Schalter, Quantennetzwerke oder pumpschwellenfreie Laser konstruiert werden können. Die Artikel bieten dabei sowohl Erkenntnisse der Grundlageforschung als auch neue technische Verfahren. So wird unter anderem eine Methode zur Sichtbarmachung der vermiedenen Kreuzung gekoppelter Resonanzen vorgestellt, in der die Partikel selber nicht verändert werden. Die Technik wird hier beispielsweise verwendet, um den Zusammenhang zwischen Kopplungsstärke und Partikelgröße zu untersuchen. Zusätzlich zeigt die Arbeit, dass das alleinige Betrachten von Extinktionsspektren unzureichend für die Beurteilung des Kopplungsregimes sein kann. Desweiteren wird die Sättigung durch Vakuumfelder vorgestellt, ein Effekt der Quantenelektrodynamik, der im Zusammenhang mit Plasmonen bisher unbekannt war. Die Reaktion von Gold-Nanopartikeln auf optische Erwärmung stellt den zweiten Themenbereich der Arbeit dar. Da durch optische Anregung grundsätzlich auch Wärme entsteht, ist die Kenntnis über diese Reaktion für alle Anwendungen plasmonischer Nanopartikel von Bedeutung. Zum einen wird hier die spektrale Änderung nach der Anregung gekoppelter Gold–Farbstoff-Partikel untersucht und quantitativ modelliert, zum anderen betrachtet die Arbeit Gold-Nanodreiecke bei optischer Anregung. In zeitaufgelösten Messungen wurde die Ausdehnung des Kristallgitters direkt mit Röntgen-Pulsen aufgenommen. Mit Hilfe von kontinuierlicher Röntgenstrahlung wurde außerdem die Temperatur der Teilchen bei konstanter Beleuchtung von Laserlicht gemessen, wobei die Größe der beleuchteten Fläche und die Lichtintensität variierten. Durch oberflächenverstärkte Raman-Spektren und REM-Bilder ließ sich indes das Schmelzen der Teilchen beobachten. Den Artikeln steht eine ausführliche Einleitung voran, die eine detaillierte Übersicht sowohl über die theoretischen Grundlagen als auch über die experimentelle Methodik bietet. Sie führt lokalisierte Plasmonen auf unterschiedlich geformten Teilchen ein. Für diese Arbeit wurden die Teilchen mit J-Aggregaten ummantelt. Folglich werden diese speziellen Aggregate organischer Farbstoffe mit ihren intensiven und scharfen Resonanzen vorgestellt und die Kopplung ihrer Anregungen mit Plasmonen diskutiert. Für Ab-initio-Simulationen der gekoppelten Spektren werden Modelle für Permittivität der beiden Komponenten besprochen. Abschließend werden die Herstellung der Proben sowie alle in den Artikeln verwendeten Messmethoden eingeführt. KW - Nanoparticles KW - Plasmons KW - Light-Matter Coupling KW - Licht-Materie-Wechselwirkung KW - Nanopartikel KW - Plasmonen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-496055 ER - TY - THES A1 - Staubitz, Thomas T1 - Gradable team assignments in large scale learning environments BT - collaborative learning, teamwork, and peer assessment in MOOCs BT - Kollaboratives Lernen, Teamarbeit und Peer Assessment in MOOCs N2 - Lifelong learning plays an increasingly important role in many societies. Technology is changing faster than ever and what has been important to learn today, may be obsolete tomorrow. The role of informal programs is becoming increasingly important. Particularly, Massive Open Online Courses have become popular among learners and instructors. In 2008, a group of Canadian education enthusiasts started the first Massive Open Online Courses or MOOCs to prove their cognitive theory of Connectivism. Around 2012, a variety of American start-ups redefined the concept of MOOCs. Instead of following the connectivist doctrine they returned to a more traditional approach. They focussed on video lecturing and combined this with a course forum that allowed the participants to discuss with each other and the teaching team. While this new version of the concept was enormously successful in terms of massiveness—hundreds of thousands of participants from all over the world joined the first of these courses—many educators criticized the re-lapse to the cognitivist model. In the early days, the evolving platforms often did not have more features than a video player, simple multiple-choice quizzes, and the course forum. It soon became a major interest of research to allow the scaling of more modern approaches of learning and teaching for the massiveness of these courses. Hands-on exercises, alternative forms of assessment, collaboration, and teamwork are some of the topics on the agenda. The insights provided by cognitive and pedagogical theories, however, do not necessarily always run in sync with the needs and the preferences of the majority of participants. While the former promote action-learning, hands-on-learning, competence-based-learning, project-based-learning, team-based-learning as the holy grail, many of the latter often rather prefer a more laid-back style of learning, sometimes referred to as edutainment. Obviously, given the large numbers of participants in these courses, there is not just one type of learners. Participants are not a homogeneous mass but a potpourri of individuals with a wildly heterogeneous mix of backgrounds, previous knowledge, familial and professional circumstances, countries of origin, gender, age, and so on. For the majority of participants, a full-time job and/or a family often just does not leave enough room for more time intensive tasks, such as practical exercises or teamwork. Others, however, particularly enjoy these hands-on or collaborative aspects of MOOCs. Furthermore, many subjects particularly require these possibilities and simply cannot be taught or learned in courses that lack collaborative or hands-on features. In this context, the thesis discusses how team assignments have been implemented on the HPI MOOC platform. During the recent years, several experiments have been conducted and a great amount of experience has been gained by employing team assignments in courses in areas, such as Object-Oriented Programming, Design Thinking, and Business Innovation on various instances of this platform: openHPI, openSAP, and mooc.house N2 - In einer Zeit stetigen Wandels und immer schneller wechselnder Technologien nimmt das lebenslange Lernen einen immer höheren Stellenwert ein. Massive Open Online Courses (MOOCs) sind ein hervorragendes Werkzeug, um in kurzer Zeit und mit vergleichsweise wenig Aufwand breite Teile der Bevölkerung zu erreichen. Das HPI leistet mit der eigenen Plattform openHPI und den für diverse Partner betriebenen Plattformen openSAP, OpenWHO und mooc.house sowohl im deutschsprachigen Raum als auch international einen wichtigen Beitrag zu digitalen Aufklärung. In vielen Bereichen ist die Plattform State of the Art und ist den international bekannteren Plattformen zumindest ebenbürtig. Gerade bei der Entwicklung und Anwendung von neuen Lehr- und Lernmethoden und deren technischer Unterstützung ist openHPI auch international richtungsweisend. Die vorliegende Dissertation befasst sich mit den Möglichkeiten der technischen und didaktischen Unterstützung von bewertbaren Aufgabenstellungen in MOOCs, die im Team zu bearbeiten sind. Durch die Größe der Kurse—in der Regel steht hier ein kleines Teaching Team mehreren tausend Teilnehmern gegenüber—ist eine manuelle Bewertung der Teilnehmenden durch die Lehrenden nicht möglich. Hier wird eine der alternativen Möglichkeiten zur Bewertung von Aufgaben, das sogenannte Peer Assessment, eingesetzt und für die speziellen Gegebenheiten der Bearbeitung von Aufgaben im Team angepasst. In den vergangenen fünf Jahren wurde eine iterative Langzeitstudie durchgeführt, bei der verschiedene qualitative und quantitative Methoden der Auswertung eingesetzt wurden. Das Ergebnis dieser Forschungsarbeit ist eine tiefgehende Einsicht in die Mechanismen der Teamarbeit in skalierenden digitalen Lernplattformen sowie eine Reihe von Empfehlungen zur weiteren Verbesserung der kollaborativen Eigenschaften der HPI-Plattformen, die zum Teil bereits umgesetzt wurden bzw. gerade umgesetzt werden. T2 - Benotete Teamaufgaben in skalierenden E-Learning-Systemen KW - massive open online courses KW - MOOC KW - collaborative learning KW - online learning KW - teamwork KW - peer assessment KW - digital learning KW - eLearning KW - collaborative work KW - kollaboratives Lernen KW - kollaboratives Arbeiten KW - digitales Lernen KW - MOOC KW - Massive Open Online Courses KW - Online-Lernen KW - Peer Assessment KW - Teamarbeit KW - eLearning Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471830 ER - TY - THES A1 - Sposini, Vittoria T1 - The random diffusivity approach for diffusion in heterogeneous systems N2 - The two hallmark features of Brownian motion are the linear growth < x2(t)> = 2Ddt of the mean squared displacement (MSD) with diffusion coefficient D in d spatial dimensions, and the Gaussian distribution of displacements. With the increasing complexity of the studied systems deviations from these two central properties have been unveiled over the years. Recently, a large variety of systems have been reported in which the MSD exhibits the linear growth in time of Brownian (Fickian) transport, however, the distribution of displacements is pronouncedly non-Gaussian (Brownian yet non-Gaussian, BNG). A similar behaviour is also observed for viscoelastic-type motion where an anomalous trend of the MSD, i.e., ~ ta, is combined with a priori unexpected non-Gaussian distributions (anomalous yet non-Gaussian, ANG). This kind of behaviour observed in BNG and ANG diffusions has been related to the presence of heterogeneities in the systems and a common approach has been established to address it, that is, the random diffusivity approach. This dissertation explores extensively the field of random diffusivity models. Starting from a chronological description of all the main approaches used as an attempt of describing BNG and ANG diffusion, different mathematical methodologies are defined for the resolution and study of these models. The processes that are reported in this work can be classified in three subcategories, i) randomly-scaled Gaussian processes, ii) superstatistical models and iii) diffusing diffusivity models, all belonging to the more general class of random diffusivity models. Eventually, the study focuses more on BNG diffusion, which is by now well-established and relatively well-understood. Nevertheless, many examples are discussed for the description of ANG diffusion, in order to highlight the possible scenarios which are known so far for the study of this class of processes. The second part of the dissertation deals with the statistical analysis of random diffusivity processes. A general description based on the concept of moment-generating function is initially provided to obtain standard statistical properties of the models. Then, the discussion moves to the study of the power spectral analysis and the first passage statistics for some particular random diffusivity models. A comparison between the results coming from the random diffusivity approach and the ones for standard Brownian motion is discussed. In this way, a deeper physical understanding of the systems described by random diffusivity models is also outlined. To conclude, a discussion based on the possible origins of the heterogeneity is sketched, with the main goal of inferring which kind of systems can actually be described by the random diffusivity approach. N2 - Die zwei grundlegenden Eigenschaften der Brownschen Molekularbewegung sind das lineare Wachstum < x2(t)> = 2Ddt der mittleren quadratischen Verschiebung (mean squared displacement, MSD) mit dem Diffusionskoeffizienten D in Dimension d und die Gauß Verteilung der räumlichen Verschiebung. Durch die zunehmende Komplexität der untersuchten Systeme wurden in den letzten Jahren Abweichungen von diesen zwei grundlegenden Eigenschaften gefunden. Hierbei, wurde über eine große Anzahl von Systemen berichtet, in welchen die MSD das lineare Wachstum der Brownschen Bewegung (Ficksches Gesetzt) zeigt, jedoch die Verteilung der Verschiebung nicht einer Gaußverteilung folgt (Brownian yet non-Gaussian, BNG). Auch in viskoelastischen Systemen Bewegung wurde ein analoges Verhalten beobachtet. Hier ist ein anomales Verhalten des MSD, ~ ta, in Verbindung mit einer a priori unerwarteten nicht gaußchen Verteilung (anomalous yet non-Gaussian, ANG). Dieses Verhalten, welches sowohl in BNG- als auch in ANG-Diffusion beobachtet wird, ist auf eine Heterogenität in den Systemen zurückzuführen. Um diese Systeme zu beschreiben, wurde ein einheitlicher Ansatz, basierend auf den Konzept der zufälligen Diffusivität, entwickelt. Die vorliegende Dissertation widmet sich ausführlich Modellen mit zufälligen Diffusivität. Ausgehend von einem chronologischen Überblick der grundlegenden Ansätze der Beschreibung der BNG- und ANG-Diffusion werden mathematische Methoden entwickelt, um die verschiedenen Modelle zu untersuchen. Die in dieser Arbeit diskutierten Prozesse können in drei Kategorien unterteil werden: i) randomly-scaled Gaussian processes, ii) superstatistical models und iii) diffusing diffusivity models, welche alle zu den allgemeinen Modellen mit zufälligen Diffusivität gehören. Der Hauptteil dieser Arbeit ist die Untersuchung auf die BNG Diffusion, welche inzwischen relativ gut verstanden ist. Dennoch werden auch viele Beispiele für die Beschreibung von ANG-Diffusion diskutiert, um die Möglichkeiten der Analyse solcher Prozesse aufzuzeigen. Der zweite Teil der Dissertation widmet sich der statistischen Analyse von Modellen mit zufälligen Diffusivität. Eine allgemeine Beschreibung basierend auf dem Konzept der momenterzeugenden Funktion wurde zuerst herangezogen, um grundsätzliche statistische Eigenschaften der Modelle zu erhalten. Anschließend konzentriert sich die Diskussion auf die Analyse der spektralen Leistungsdichte und der first passage Statistik für einige spezielle Modelle mit zufälligen Diffusivität. Diese Ergebnisse werden mit jenen der normalen Brownschen Molekularbewegung verglichen. Dadurch wird ein tiefergehendes physikalisches Verständnis über die Systeme erlangt, welche durch ein Modell mit zufälligen Diffusivität beschrieben werden. Abschließend, zeigt eine Diskussion mögliche Ursachen für die Heterogenität auf, mit dem Ziel darzustellen, welche Arten von Systemen durch den Zufalls-Diffusivitäts-Ansatz beschrieben werden können. N2 - Las dos características distintivas del movimiento Browniano son el crecimiento lineal < x2(t)> = 2Ddt del desplazamiento cuadrático medio (mean squared displacement}, MSD) con el coeficiente de difusión D en dimensiones espaciales d, y la distribución Gaussiana de los desplazamientos. Con los continuos avances en tecnologías experimentales y potencia de cálculo, se logra estudiar con mayor detalle sistemas cada vez más complejos y algunos sistemas revelan desviaciones de estas dos propiedades centrales. En los últimos años se ha observado una gran variedad de sistemas en los que el MSD presenta un crecimiento lineal en el tiempo (típico del transporte Browniano), no obstante, la distribución de los desplazamientos es pronunciadamente no Gaussiana (Brownian yet non-Gaussian diffusion}, BNG). Un comportamiento similar se observa asimismo en el caso del movimiento de tipo viscoelástico, en el que se combina una tendencia anómala del MSD, es decir, ~ ta, con a, con distribuciones inesperadamente no Gaussianas (Anomalous yet non-Gaussian diffusion, ANG). Este tipo de comportamiento observado en las difusiones BNG y ANG se ha relacionado con la presencia de heterogeneidades en los sistemas y se ha establecido un enfoque común para abordarlo: el enfoque de difusividad aleatoria. En la primera parte de esta disertación se explora extensamente el área de los modelos de difusividad aleatoria. A través de una descripción cronológica de los principales enfoques utilizados para caracterizar las difusiones BNG y ANG, se definen diferentes metodologías matemáticas para la resolución y el estudio de estos modelos. Los procesos expuestos en este trabajo, pertenecientes a la clase más general de modelos de difusividad aleatoria, pueden clasificarse en tres subcategorías: i) randomly-scaled Gaussian processes, ii) superstatistical models y iii) diffusing diffusivity models. Fundamentalmente el enfoque de este trabajo se centra en la difusión BNG, bien establecida y ampliamente estudiada en los últimos años. No obstante, múltiples ejemplos son examinados para la descripción de la difusión ANG, a fin de remarcar los diferentes modelos de estudio disponibles hasta el momento. En la segunda parte de la disertación se desarolla el análisis estadístico de los procesos de difusividad aleatoria. Inicialmente se expone una descripción general basada en el concepto de la función generadora de momentos para obtener las propiedades estadísticas estándar de los modelos. A continuación, la discusión aborda el estudio de la densidad espectral de potencia y la estadística del tiempo de primer paso para algunos modelos de difusividad aleatoria. Adicionalmente, los resultados del método de difusividad aleatoria se comparan junto a los de movimiento browniano estándar. Como resultado, se obtiene una mayor comprensión física de los sistemas descritos por los modelos de difusividad aleatoria. Para concluir, se presenta una discusión acerca de los posibles orígenes de la heterogeneidad, con el objetivo principal de inferir qué tipo de sistemas pueden describirse apropiadamente según el enfoque de la difusividad aleatoria. KW - diffusion KW - non-gaussianity KW - random diffusivity KW - power spectral analysis KW - first passage KW - Diffusion KW - zufälligen Diffusivität KW - spektrale Leistungsdichte KW - first passage KW - Heterogenität Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-487808 ER - TY - THES A1 - Siemiatkowska, Beata T1 - Redox signalling in plants N2 - Once proteins are synthesized, they can additionally be modified by post-translational modifications (PTMs). Proteins containing reactive cysteine thiols, stabilized in their deprotonated form due to their local environment as thiolates (RS-), serve as redox sensors by undergoing a multitude of oxidative PTMs (Ox-PTMs). Ox-PTMs such as S-nitrosylation or formation of inter- or intra-disulfide bridges induce functional changes in these proteins. Proteins containing cysteines, whose thiol oxidation state regulates their functions, belong to the so-called redoxome. Such Ox-PTMs are controlled by site-specific cellular events that play a crucial role in protein regulation, affecting enzyme catalytic sites, ligand binding affinity, protein-protein interactions or protein stability. Reversible protein thiol oxidation is an essential regulatory mechanism of photosynthesis, metabolism, and gene expression in all photosynthetic organisms. Therefore, studying PTMs will remain crucial for understanding plant adaptation to external stimuli like fluctuating light conditions. Optimizing methods suitable for studying plants Ox-PTMs is of high importance for elucidation of the redoxome in plants. This study focusses on thiol modifications occurring in plant and provides novel insight into in vivo redoxome of Arabidopsis thaliana in response to light vs. dark. This was achieved by utilizing a resin-assisted thiol enrichment approach. Furthermore, confirmation of candidates on the single protein level was carried out by a differential labelling approach. The thiols and disulfides were differentially labelled, and the protein levels were detected using immunoblot analysis. Further analysis was focused on light-reduced proteins. By the enrichment approach many well studied redox-regulated proteins were identified. Amongst those were fructose 1,6-bisphosphatase (FBPase) and sedoheptulose-1,7-bisphosphatase (SBPase) which have previously been described as thioredoxin system targeted enzymes. The redox regulated proteins identified in the current study were compared to several published, independent results showing redox regulated proteins in Arabidopsis leaves, root, mitochondria and specifically S-nitrosylated proteins. These proteins were excluded as potential new candidates but remain as a proof-of-concept to the enrichment experiments to be effective. Additionally, CSP41A and CSP41B proteins, which emerged from this study as potential targets of redox-regulation, were analyzed by Ribo-Seq. The active translatome study of csp41a mutant vs. wild-type showed most of the significant changes at end of the night, similarly as csp41b. Yet, in both mutants only several chloroplast-encoded genes were altered. Further studies of CSP41A and CSP41B proteins are needed to reveal their functions and elucidate the role of redox regulation of these proteins. N2 - Wenn Proteine synthetisiert sind, können sie zusätzlich noch post-translationelle Modifikationen (PTM) aufweisen. Proteine, die wegen ihres lokalen Umfeldes reaktive Cysteinthiole in ihrer stabilen deprotonierten Thiolat-Form aufweisen, dienen als Redoxsensoren indem sie eine Vielzahl von oxidativen PTMs (Ox-PTMs) enthalten können. Ox-PTMs wie die S-Nitrosylierung oder die Bildung von Inter- oder Intradisulfidbrücken induzieren funktionelle Veränderungen in diesen Proteinen. Cystein-haltige Proteine, deren Funktion durch diese Thioloxidierung gesteuert werden, gehören zu dem so genannten Redoxom. Die Ox-PTMs werden durch ortsspezifische zelluläre Prozesse gesteuert, die eine essentielle Rolle bei der Proteinregulation spielen und welche das katalytische Zentrum, die Ligandenbindungsaffinität, Protein-Protein-Interaktionen oder die Proteinstabilität beeinflussen können. Die umkehrbare Proteinthioloxidierung ist ein essentieller regulatorischer Mechanismus in der Photosynthese, dem Metabolismus und der Genexpression photosynthetischer Organismen. Es ist demnach wichtig PTMs zu untersuchen, um zu verstehen wie sich Pflanzen an externe Stimuli wie das Licht anpassen können. Es ist von großer Bedeutung für das Redoxom-Forschungsgebiet Methoden zur Untersuchung von pflanzlichen Ox-PTMs zu verbessern. Die vorliegende Arbeit konzentriert sich auf Thiolveränderungen, die in Pflanzen auftreten, und gibt einen Einblick in das in vivo Redoxom von Arabidopsis thaliana als Reaktion auf Licht oder Dunkelheit. Dieses wurde ermöglicht durch eine auf Harz-basierende Thiol-Anreicherung. Darüber hinaus konnten Kandidaten auf dem Einzelproteinlevel durch eine Differentialmarkierungsmethode bestätigt werden. Thiole und Disulfide wurden unterschiedlich markiert und die Proteine durch spezifische Antikörper mittels Proteinblotanalyse erkannt. Weitere Analysen fokussierten sich auf im Licht reduzierte Proteine. Durch die Anreicherungsmethode konnten viele bereits untersuchte redox-regulierte Proteine identifiziert werden. Unter diesen waren unter anderem die Fruktose-1,6-Bisphosphatase (FBPase) sowie die Seduheptulose-1,7-Bisphosphatase (SBPase), welche als Thioredoxin-gesteuerte Enzyme beschrieben sind. Die redox-regulierten Proteine, die in dieser Studie identifiziert werden konnten, wurden mit veröffentlichten unabhängigen Ergebnissen verglichen und dieses führte zu einer Vielzahl an redox-regulierten Proteinen in Arabidopsisblättern, -Wurzeln und -Mitochondrien sowie S-nitrosylierten Proteinen. Diese Proteine wurden zwar als neue potentielle Kandidaten ausgeschlossen, zeigten allerdings die Effektivität der Anreicherungsmethode. Darüber hinaus wurden die Proteine CSP41 A and CSP41 B, welche in dieser Studie als potentielle Ziele der Redox-Regulation identifiziert wurden, durch Ribo-seq analysiert. T2 - Redoxsignalisierung in Pflanzen KW - redox KW - signalling KW - plants KW - enrichments methods KW - post-translational modifications KW - oxidative protein modifications KW - Redox KW - Signalübertragung KW - Pflanzen KW - Anreicherungsmethoden KW - posttranslationale Modifikationen KW - oxidative Proteinmodifikationen Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-489119 ER - TY - THES A1 - Sianipar, Johannes Harungguan T1 - Towards scalable and secure virtual laboratory for cybersecurity e-learning N2 - Distance Education or e-Learning platform should be able to provide a virtual laboratory to let the participants have hands-on exercise experiences in practicing their skill remotely. Especially in Cybersecurity e-Learning where the participants need to be able to attack or defend the IT System. To have a hands-on exercise, the virtual laboratory environment must be similar to the real operational environment, where an attack or a victim is represented by a node in a virtual laboratory environment. A node is usually represented by a Virtual Machine (VM). Scalability has become a primary issue in the virtual laboratory for cybersecurity e-Learning because a VM needs a significant and fix allocation of resources. Available resources limit the number of simultaneous users. Scalability can be increased by increasing the efficiency of using available resources and by providing more resources. Increasing scalability means increasing the number of simultaneous users. In this thesis, we propose two approaches to increase the efficiency of using the available resources. The first approach in increasing efficiency is by replacing virtual machines (VMs) with containers whenever it is possible. The second approach is sharing the load with the user-on-premise machine, where the user-on-premise machine represents one of the nodes in a virtual laboratory scenario. We also propose two approaches in providing more resources. One way to provide more resources is by using public cloud services. Another way to provide more resources is by gathering resources from the crowd, which is referred to as Crowdresourcing Virtual Laboratory (CRVL). In CRVL, the crowd can contribute their unused resources in the form of a VM, a bare metal system, an account in a public cloud, a private cloud and an isolated group of VMs, but in this thesis, we focus on a VM. The contributor must give the credential of the VM admin or root user to the CRVL system. We propose an architecture and methods to integrate or dis-integrate VMs from the CRVL system automatically. A Team placement algorithm must also be investigated to optimize the usage of resources and at the same time giving the best service to the user. Because the CRVL system does not manage the contributor host machine, the CRVL system must be able to make sure that the VM integration will not harm their system and that the training material will be stored securely in the contributor sides, so that no one is able to take the training material away without permission. We are investigating ways to handle this kind of threats. We propose three approaches to strengthen the VM from a malicious host admin. To verify the integrity of a VM before integration to the CRVL system, we propose a remote verification method without using any additional hardware such as the Trusted Platform Module chip. As the owner of the host machine, the host admins could have access to the VM's data via Random Access Memory (RAM) by doing live memory dumping, Spectre and Meltdown attacks. To make it harder for the malicious host admin in getting the sensitive data from RAM, we propose a method that continually moves sensitive data in RAM. We also propose a method to monitor the host machine by installing an agent on it. The agent monitors the hypervisor configurations and the host admin activities. To evaluate our approaches, we conduct extensive experiments with different settings. The use case in our approach is Tele-Lab, a Virtual Laboratory platform for Cyber Security e-Learning. We use this platform as a basis for designing and developing our approaches. The results show that our approaches are practical and provides enhanced security. N2 - Die Fernunterrichts- oder E-Learning-Plattform sollte ein virtuelles Labor bieten, in dem die Teilnehmer praktische Übungserfahrungen sammeln können, um ihre Fähigkeiten aus der Ferne zu üben. Insbesondere im Bereich Cybersicherheit E-Learning, wo die Teilnehmer in der Lage sein müssen, das IT-System anzugreifen oder zu verteidigen. Um eine praktische Übung durchzuführen, muss die virtuelle Laborumgebung der realen Betriebsumgebung ähnlich sein, in der ein Angriff oder ein Opfer durch einen Knoten in einer virtuellen Laborumgebung repräsentiert wird. Ein Knoten wird normalerweise durch eine virtuelle Maschine (VM) repräsentiert. Die Skalierbarkeit ist zu einem Hauptproblem des virtuellen Labors für E-Learning im Bereich Cybersicherheit geworden, da für eine VM eine erhebliche und feste Zuweisung von Ressourcen erforderlich ist. Die Verfügbare Ressourcen begrenzen die Anzahl der gleichzeitigen Benutzer. Die Skalierbarkeit kann erhöht werden, indem die verfügbaren Ressourcen effzienter genutzt und mehr Ressourcen bereitgestellt werden. Die Erhöhung der Skalierbarkeit bedeutet die Erhöhung der Anzahl gleichzeitiger Benutzer. In dieser Arbeit schlagen wir zwei Ansätze vor, um die Effzienz der Nutzung der verfügbaren Ressourcen zu erhöhen. Der erste Ansatz zur Erhöhung der Effzienz besteht darin, virtuelle Maschinen (VMs) durch Container zu ersetzen, wann immer dies möglich ist. Der zweite Ansatz besteht darin, die Last auf den Benutzer vor-ort-maschine zu verteilen, wobei der Benutzer vor-ort-maschine einen der Knoten in einem virtuellen Laborszenario repräsentiert. Wir schlagen auch zwei Ansätze vor, um mehr Ressourcen bereitzustellen. Eine Möglichkeit, mehr Ressourcen bereitzustellen, ist die Nutzung von Public Cloud Services. Eine andere Möglichkeit, mehr Ressourcen bereitzustellen, besteht darin, Ressourcen aus der Menge zu sammeln, die als Crowd-Resourcing Virtual Laboratory (CRVL) bezeichnet wird. In CRVL, kann die Menge ihre ungenutzten Ressourcen in Form einer VM, eines Bare-Metal-Systems, eines Accounts in einer Public Cloud, einer Private Cloud und einer isolierten Gruppe von VMs einbringen, aber in dieser Arbeit konzentrieren wir uns auf eine VM. Der Mitwirkende muss dem CRVL-System den Berechtigungsnachweis des VM-Administrators oder des Root-Benutzers geben. Wir schlagen eine Architektur und Methoden vor, um VMs automatisch in das CRVL-System zu integrieren oder daraus zu entfernen. Ein Team-Placement-Algorithmus muss ebenfalls untersucht werden, um die Ressourcennutzung zu optimieren und gleichzeitig den besten Service für den Benutzer zu bieten. Da das CRVL-System den Beitragsgeber-Hostcomputer nicht verwaltet, muss das CRVL-System in der Lage sein, sicherzustellen, dass die VM-Integration ihr System nicht beeinträchtigt und das Schulungsmaterial sicher auf den Beitragsgeberseiten aufbewahrt wird, damit niemand das Trainingsmaterial ohne Erlaubnis wegnehmen kann. Wir untersuchen Möglichkeiten, um mit dieser Art von Bedrohungen umzugehen. Wir schlagen drei Ansätze vor, um die VM von einem bösartigen Host Administrator zu stärken. Um die Integrität einer VM vor der Integration in das CRVL-System zu überprüfen, schlagen wir eine Remote-Veriffkationsmethode ohne zusätzliche Hardware wie den Trusted Platform Module-Chip vor. Als Besitzer des Host-Rechners können die Host-Administratoren über Random Access Memory (RAM) auf die Daten der VM zugreifen, indem sie Live Memory Dumping, Spectre- und Meltdown-Angriffe durchführen. Um es dem bösartigen Host- Administrator zu erschweren, die sensiblen Daten aus dem RAM zu erhalten, schlagen wir eine Methode vor, die kontinuierlich sensible Daten im RAM bewegt. Wir schlagen auch eine Methode zur Überwachung des Host-Rechners vor, indem ein Agent darauf installiert wird. Der Agent überwacht die Hypervisor-Konfigurationen und die Aktivitäten des Hostadministrators. Um unsere Ansätze zu bewerten, führen wir umfangreiche Experimente mit unterschiedlichen Einstellungen durch. Der Anwendungsfall in unserem Ansatz ist Tele-Lab, eine virtuelle Laborplattform für Cybersicherheit E-Learning. Wir nutzen diese Plattform als Grundlage für die Gestaltung und Entwicklung unserer Ansätze. Die Ergebnisse zeigen, dass unsere Ansätze praktisch sind und mehr Sicherheit bieten. KW - Virtual Laboratory KW - Cybersecurity e-Learning KW - Scalability KW - Crowd Resourcing KW - Crowd Resourcing KW - Cybersicherheit E-Learning KW - Skalierbarkeit KW - Virtuelles Labor Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-502793 ER - TY - THES A1 - Shaabani, Nuhad T1 - On discovering and incrementally updating inclusion dependencies N2 - In today's world, many applications produce large amounts of data at an enormous rate. Analyzing such datasets for metadata is indispensable for effectively understanding, storing, querying, manipulating, and mining them. Metadata summarizes technical properties of a dataset which rang from basic statistics to complex structures describing data dependencies. One type of dependencies is inclusion dependency (IND), which expresses subset-relationships between attributes of datasets. Therefore, inclusion dependencies are important for many data management applications in terms of data integration, query optimization, schema redesign, or integrity checking. So, the discovery of inclusion dependencies in unknown or legacy datasets is at the core of any data profiling effort. For exhaustively detecting all INDs in large datasets, we developed S-indd++, a new algorithm that eliminates the shortcomings of existing IND-detection algorithms and significantly outperforms them. S-indd++ is based on a novel concept for the attribute clustering for efficiently deriving INDs. Inferring INDs from our attribute clustering eliminates all redundant operations caused by other algorithms. S-indd++ is also based on a novel partitioning strategy that enables discording a large number of candidates in early phases of the discovering process. Moreover, S-indd++ does not require to fit a partition into the main memory--this is a highly appreciable property in the face of ever-growing datasets. S-indd++ reduces up to 50% of the runtime of the state-of-the-art approach. None of the approach for discovering INDs is appropriate for the application on dynamic datasets; they can not update the INDs after an update of the dataset without reprocessing it entirely. To this end, we developed the first approach for incrementally updating INDs in frequently changing datasets. We achieved that by reducing the problem of incrementally updating INDs to the incrementally updating the attribute clustering from which all INDs are efficiently derivable. We realized the update of the clusters by designing new operations to be applied to the clusters after every data update. The incremental update of INDs reduces the time of the complete rediscovery by up to 99.999%. All existing algorithms for discovering n-ary INDs are based on the principle of candidate generation--they generate candidates and test their validity in the given data instance. The major disadvantage of this technique is the exponentially growing number of database accesses in terms of SQL queries required for validation. We devised Mind2, the first approach for discovering n-ary INDs without candidate generation. Mind2 is based on a new mathematical framework developed in this thesis for computing the maximum INDs from which all other n-ary INDs are derivable. The experiments showed that Mind2 is significantly more scalable and effective than hypergraph-based algorithms. N2 - Viele Anwendungen produzieren mit schnellem Tempo große Datenmengen. Die Profilierung solcher Datenmengen nach ihren Metadaten ist unabdingbar für ihre effektive Verwaltung und ihre Analyse. Metadaten fassen technische Eigenschaften einer Datenmenge zusammen, welche von einfachen Statistiken bis komplexe und Datenabhängigkeiten beschreibende Strukturen umfassen. Eine Form solcher Abhängigkeiten sind Inklusionsabhängigkeiten (INDs), die Teilmengenbeziehungen zwischen Attributen der Datenmengen ausdrücken. Dies macht INDs wichtig für viele Anwendungen wie Datenintegration, Anfragenoptimierung, Schemaentwurf und Integritätsprüfung. Somit ist die Entdeckung von INDs in unbekannten Datenmengen eine zentrale Aufgabe der Datenprofilierung. Ich entwickelte einen neuen Algorithmus namens S-indd++ für die IND-Entdeckung in großen Datenmengen. S-indd++ beseitigt die Defizite existierender Algorithmen für die IND-Entdeckung und somit ist er performanter. S-indd++ berechnet INDs sehr effizient basierend auf einem neuen Clustering der Attribute. S-indd++ wendet auch eine neue Partitionierungsmethode an, die das Verwerfen einer großen Anzahl von Kandidaten in früheren Phasen des Entdeckungsprozesses ermöglicht. Außerdem setzt S-indd++ nicht voraus, dass eine Datenpartition komplett in den Hauptspeicher passen muss. S-indd++ reduziert die Laufzeit der IND-Entdeckung um bis 50 %. Keiner der IND-Entdeckungsalgorithmen ist geeignet für die Anwendung auf dynamischen Daten. Zu diesem Zweck entwickelte ich das erste Verfahren für das inkrementelle Update von INDs in häufig geänderten Daten. Ich erreichte dies bei der Reduzierung des Problems des inkrementellen Updates von INDs auf dem inkrementellen Update des Attribute-Clustering, von dem INDs effizient ableitbar sind. Ich realisierte das Update der Cluster beim Entwurf von neuen Operationen, die auf den Clustern nach jedem Update der Daten angewendet werden. Das inkrementelle Update von INDs reduziert die Zeit der statischen IND-Entdeckung um bis 99,999 %. Alle vorhandenen Algorithmen für die n-ary-IND-Entdeckung basieren auf dem Prinzip der Kandidatengenerierung. Der Hauptnachteil dieser Methode ist die exponentiell wachsende Anzahl der SQL-Anfragen, die für die Validierung der Kandidaten nötig sind. Zu diesem Zweck entwickelte ich Mind2, den ersten Algorithmus für n-ary-IND-Entdeckung ohne Kandidatengenerierung. Mind2 basiert auf einem neuen mathematischen Framework für die Berechnung der maximalen INDs, von denen alle anderen n-ary-INDs ableitbar sind. Die Experimente zeigten, dass Mind2 wesentlich skalierbarer und leistungsfähiger ist als die auf Hypergraphen basierenden Algorithmen. T2 - Beitrag zur Entdeckung und inkrementellen Aktualisierung von Inklusionsabhängigkeiten KW - Inclusion Dependency KW - Data Profiling KW - Data Mining KW - Algorithms KW - Inclusion Dependency Discovery KW - Incrementally Inclusion Dependencies Discovery KW - Metadata Discovery KW - S-indd++ KW - Mind2 KW - Change Data Capture KW - Incremental Discovery KW - Big Data KW - Data Integration KW - Foreign Keys KW - Dynamic Data KW - Foreign Keys Discovery KW - Data Profiling KW - Data Mining KW - Algorithmen KW - Inklusionsabhängigkeiten KW - Inklusionsabhängigkeiten Entdeckung KW - Datenintegration KW - Metadaten Entdeckung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471862 ER - TY - THES A1 - Senftleben, Robin T1 - Earth's magnetic field over the last 1000 years N2 - To investigate the reliability and stability of spherical harmonic models based on archeo/-paleomagnetic data, 2000 Geomagnetic models were calculated. All models are based on the same data set but with randomized uncertainties. Comparison of these models to the geomagnetic field model gufm1 showed that large scale magnetic field structures up to spherical harmonic degree 4 are stable throughout all models. Through a ranking of all models by comparing the dipole coefficients to gufm1 more realistic uncertainty estimates were derived than the authors of the data provide. The derived uncertainty estimates were used in further modelling, which combines archeo/-paleomagnetic and historical data. The huge difference in data count, accuracy and coverage of these two very different data sources made it necessary to introduce a time dependent spatial damping, which was constructed to constrain the spatial complexity of the model. Finally 501 models were calculated by considering that each data point is a Gaussian random variable, whose mean is the original value and whose standard deviation is its uncertainty. The final model arhimag1k is calculated by taking the mean of the 501 sets of Gauss coefficients. arhimag1k fits different dependent and independent data sets well. It shows an early reverse flux patch at the core-mantle boundary between 1000 AD and 1200 AD at the location of the South Atlantic Anomaly today. Another interesting feature is a high latitude flux patch over Greenland between 1200 and 1400 AD. The dipole moment shows a constant behaviour between 1600 and 1840 AD. In the second part of the thesis 4 new paleointensities from 4 different flows of the island Fogo, which is part of Cape Verde, are presented. The data is fitted well by arhimag1k with the exception of the value at 1663 of 28.3 microtesla, which is approximately 10 microtesla lower than the model suggest. N2 - Um die Stabilität und Zuverlässigkeit von sphärisch harmonischen Erdmagnetfeldmodellen, die auf paleomagnetischen und archeomagnetischen Daten basieren zu untersuchen wurden 2000 Erdmagnetfeldmodelle berechnet. Jedes dieser Modelle berechnet sich aus Daten, die mit zufälligen Unsicherheiten in die Inversion eingehen. Ein Vergleich dieser Modelle zum historischen Erdmagnetfeldmodell gufm1 zeigt, dass großflächige magnetische Strukturen bis zum sphärischen harmonischen Grad 4 stabil in allen Modellen sind. Ein Ranking der 2000 Modelle wurde verwendet, um realistischere Fehlerabschätzungen der Daten zu bekommen, als die, die von den Autoren angebeben werden. Diese Fehlerabschätzungen werden für die weitere Modellierung benutzt, welche historische und paleo-/archeomagnetiche Daten kombiniert. Der große Unterschied in der Anzahl der Daten und der räumlichen Verteilung dieser sehr verschiedenen Datenquellen machte es notwendig, eine zeitabhängige räumliche Dämpfung einzuführen. Diese ist so konstruiert, dass die räumlich Komplexität des Modelles in einem bestimmten Zeitintervall festgelegt wird. 501 Modelle wurde berechnet, indem jeder Datenpunkt als gaußsche Zufallsvariable gesehen wird mit dem Originalwert als Mittelwert und die Fehlerabschätzung als Standardabweichung. Das finale Modell arhimag1k berechnet sich aus dem Mittelwert der Gaußkoeffizienten aller 501 Modelle. arhimag1k fittet verschiedene abhängige und unabhängige Datensätze gut. Es zeigt eine frühe Anomaly an der Kern-Mantel Grenze zwischen 1000 und 1200 AD an der Lokation, wo auch die heutige Südatlantische Anomaly liegt. Eine andere interessante Auffälligkeit ist eine starke radiale Magnetfeldkomponente an der Kern-Mantel Grenze zwischen 1200 und 1400 AD über Grönland. Das Dipolmoment zeigt ein konstantes Verhalten von 1600 bis 1840 AD. Im zweiten Teil der Arbeit werden 4 neue Paleointensitäten der Insel Fogo, welches Teil von Kap Verde ist, presentiert. Diese neuen Daten werden gut von dem Modell arhimag1k gefittet, außer der Wert von 1663 AD mit 28.3 mikrotesla , welcher etwa 10 mikrotesla niedriger ist, als das Modell zeigt. T2 - Erdmagnetfeld der letzten 1000 Jahre KW - Earth's magnetic field KW - archeomagnetism KW - paleomagnetism KW - modelling KW - spherical harmonics KW - Erdmagnetfeld KW - Archäomagnetismus KW - Paläomagnetismus KW - Modellierung KW - Kugelflächenfunktionen Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-473150 ER - TY - THES A1 - Seiler, Michael T1 - The Non-Keplerian Motion of Propeller Moons in the Saturnian Ring System N2 - One of the tremendous discoveries by the Cassini spacecraft has been the detection of propeller structures in Saturn's A ring. Although the generating moonlet is too small to be resolved by the cameras aboard Cassini, its produced density structure within the rings, caused by its gravity can be well observed. The largest observed propeller is called Blériot and has an azimuthal extent over several thousand kilometers. Thanks to its large size, Blériot could be identified in different images over a time span of over 10 years, allowing the reconstruction of its orbital evolution. It turns out that Blériot deviates considerably from its expected Keplerian orbit in azimuthal direction by several thousand kilometers. This excess motion can be well reconstructed by a superposition of three harmonics, and therefore resembles the typical fingerprint of a resonantly perturbed body. This PhD thesis is directed to the excess motion of Blériot. Resonant perturbations are a known for some of the outer satellites of Saturn. Thus, in the first part of this thesis, we seek for suiting resonance candidates nearby the propeller, which might explain the observed periods and amplitudes. In numeric simulations, we show that indeed resonances by Prometheus, Pandora and Mimas can explain the libration periods in good agreement, but not the amplitudes. The amplitude problem is solved by the introduction of a propeller-moonlet interaction model, where we assume a broken symmetry of the propeller by a small displacement of the moonlet. This results in a librating motion the moonlet around the propeller's symmetry center due to the non-vanishing accelerations. The retardation of the reaction of the propeller structure to the motion of the moonlet causes the propeller to become asymmetric. Hydrodynamic simulations to test our analytical model confirm our predictions. In the second part of this thesis, we consider a stochastic migration of the moonlet, which is an alternative hypothesis to explain the observed excess motion of Blériot. The mean-longitude is a time-integrated quantity and thus introduces a correlation between the independent kicks of a random walk, smoothing the noise and thus makes the residual look similar to the observed one for Blériot. We apply a diagonalization test to decorrelated the observed residuals for the propellers Blériot and Earhart and the ring-moon Daphnis. It turns out that the decorrelated distributions do not strictly follow the expected Gaussian distribution. The decorrelation method fails to distinguish a correlated random walk from a noisy libration and thus we provide an alternative study. Assuming the three-harmonic fit to be a valid representation of the excess motion for Blériot, independently from its origin, we test the likelihood that this excess motion can be created by a random walk. It turns out that a non-correlated and correlated random walk is unlikely to explain the observed excess motion. KW - Saturn KW - Rings KW - Resonances KW - Moonlets KW - Propellers KW - Migration Y1 - 2020 ER - TY - THES A1 - Seebeck, Nicole T1 - Regulation of the organokines FGF21 and chemerin by diet BT - metabolic and molecular effects in liver and adipose tissue of obese human subjects BT - metabolische und molekulare Effekte in Leber und Fettgewebe adipöser humaner Probanden N2 - The hepatokine FGF21 and the adipokine chemerin have been implicated as metabolic regulators and mediators of inter-tissue crosstalk. While FGF21 is associated with beneficial metabolic effects and is currently being tested as an emerging therapeutic for obesity and diabetes, chemerin is linked to inflammation-mediated insulin resistance. However, dietary regulation of both organokines and their role in tissue interaction needs further investigation. The LEMBAS nutritional intervention study investigated the effects of two diets differing in their protein content in obese human subjects with non-alcoholic fatty liver disease (NAFLD). The study participants consumed hypocaloric diets containing either low (LP: 10 EN%, n = 10) or high (HP: 30 EN%, n = 9) dietary protein 3 weeks prior to bariatric surgery. Before and after the intervention the participants were anthropometrically assessed, blood samples were drawn, and hepatic fat content was determined by MRS. During bariatric surgery, paired subcutaneous and visceral adipose tissue biopsies as well as liver biopsies were collected. The aim of this thesis was to investigate circulating levels and tissue-specific regulation of (1) FGF21 and (2) chemerin in the LEMBAS cohort. The results were compared to data obtained in 92 metabolically healthy subjects with normal glucose tolerance and normal liver fat content. (1) Serum FGF21 concentrations were elevated in the obese subjects, and strongly associated with intrahepatic lipids (IHL). In accordance, FGF21 serum concentrations increased with severity of NAFLD as determined histologically in the liver biopsies. Though both diets were successful in reducing IHL, the effect was more pronounced in the HP group. FGF21 serum concentrations and mRNA expression were bi-directionally regulated by dietary protein, independent from metabolic improvements. In accordance, in the healthy study subjects, serum FGF21 concentrations dropped by more than 60% in response to the HP diet. A short-term HP intervention confirmed the acute downregulation of FGF21 within 24 hours. Lastly, experiments in HepG2 cell cultures and primary murine hepatocytes identified nitrogen metabolites (NH4Cl and glutamine) to dose-dependently suppress FGF21 expression. (2) Circulating chemerin concentrations were considerably elevated in the obese versus lean study participants and differently associated with markers of obesity and NAFLD in the two cohorts. The adipokine decreased in response to the hypocaloric interventions while an unhealthy high-fat diet induced a rise in chemerin serum levels. In the lean subjects, mRNA expression of RARRES2, encoding chemerin, was strongly and positively correlated with expression of several cytokines, including MCP1, TNFα, and IL6, as well as markers of macrophage infiltration in the subcutaneous fat depot. However, RARRES2 was not associated with any cytokine assessed in the obese subjects and the data indicated an involvement of chemerin not only in the onset but also resolution of inflammation. Analyses of the tissue biopsies and experiments in human primary adipocytes point towards a role of chemerin in adipogenesis while discrepancies between the in vivo and in vitro data were detected. Taken together, the results of this thesis demonstrate that circulating FGF21 and chemerin levels are considerably elevated in obesity and responsive to dietary interventions. FGF21 was acutely and bi-directionally regulated by dietary protein in a hepatocyte-autonomous manner. Given that both, a lack in essential amino acids and excessive nitrogen intake, exert metabolic stress, FGF21 may serve as an endocrine signal for dietary protein balance. Lastly, the data revealed that chemerin is derailed in obesity and associated with obesity-related inflammation. However, future studies on chemerin should consider functional and regulatory differences between secreted and tissue-specific isoforms. N2 - Extremes Übergewicht einhergehend mit einer starken Vermehrung des Körperfetts (Adipositas) stellt ein weltweites Gesundheitsproblem dar und geht oft mit assoziierten Erkrankungen, wie Diabetes, einer Fettleber und Herz-Kreislauf-Erkrankungen einher. Die Ernährung spielt in der Entstehung und Therapie der Adipositas eine zentrale Rolle. Gerät der Stoffwechsel aufgrund anhaltender Energieüberschüsse aus dem Gleichgewicht, werden von Leber und Fettgewebe Entzündungsmarker sowie Signalmoleküle, darunter Chemerin und FGF21, ausgesendet. Während vorhergehende Studien für FGF21 vorteilhafte Effekte auf den Zucker- und Energiestoffwechsel demonstriert haben, steht Chemerin im Zusammenhang mit der Entwicklung chronisch-entzündlicher Erkrankungen. Die vorliegende Arbeit untersucht die nahrungsabhängige Regulation von FGF21 und Chemerin in humanen Blut-, Leber- und Fettgewebsproben aus stark übergewichtigen Probanden, um ein besseres Verständnis für die Physiologie der beiden Moleküle zu gewinnen. Die Studienteilnehmer konsumierten drei Wochen vor bariatrischer Operation zwei kalorienreduzierte Diäten, die sich in ihrem Proteinanteil (10% versus 30% der Gesamtenergie) unterschieden. Vor und nach der Diätintervention wurde die körperliche Konstitution und der Leberfettanteil der Probanden bestimmt sowie klinische Marker im Blut ermittelt. Während der bariatrischen Operation wurden zudem Leber- und Fettgewebsbiopsien entnommen. Die Ergebnisse wurden bezüglich der Regulation von FGF21 und Chemerin ausgewertet und anschließend mit Daten von gesunden, schlanken Probanden verglichen. FGF21 war in den adipösen Probanden deutlich erhöht und wies eine starke Assoziation mit dem Leberfettgehalt auf. Beide Diäten konnten das Leberfett deutlich senken, wobei die Hochproteindiät effektiver war. Die FGF21 Blutspiegel sanken mit steigender Proteinaufnahme, was sich auch in der hepatischen Genexpression widerspiegelte. Zellkulturversuche bestätigten eine negative Regulation von FGF21 durch Zwischenprodukte des Proteinstoffwechsels. Zusammenfassend zeigen die Ergebnisse, dass eine Hochproteindiät FGF21 kurzfristig und dosisabhängig supprimiert bei gleichzeitiger Verbesserung der Stoffwechsellage. Chemerin war in den übergewichtigen und gesunden Probanden unterschiedlich mit Markern der Adipositas und der Fettlebererkrankung assoziiert. Zudem konnte eine ernährungsabhängige Regulation von Chemerin aufgezeigt werden, wobei der Proteingehalt der Diät unerheblich war. Interessanterweise deuten die Daten aus den Fettgewebsbiopsien auf eine Rolle von Chemerin sowohl in der Entstehung als auch in der Auflösung entzündlicher Vorgänge hin. Die Ergebnisse dieser Arbeit zeigen, dass Chemerin im Zusammenhang mit der Entwicklung der Adipositas steht aber auch günstige Effekte auf dessen Verlauf haben könnte. T2 - Regulation der Organokine FGF21 und Chemerin durch Ernährung KW - Obesity KW - FGF21 KW - Chemerin KW - Adipositas Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471140 ER - TY - THES A1 - Schütze, Franziska T1 - Finance for a sustainable economy BT - implications for policy and practice BT - Implikationen für Politik und Praxis N2 - With his September 2015 speech “Breaking the tragedy of the horizon”, the President of the Central Bank of England, Mark Carney, put climate change on the agenda of financial market regulators. Until then, climate change had been framed mainly as a problem of negative externalities leading to long-term economic costs, which resulted in countries trying to keep the short-term costs of climate action to a minimum. Carney argued that climate change, as well as climate policy, can also lead to short-term financial risks, potentially causing strong adjustments in asset prices. Analysing the effect of a sustainability transition on the financial sector challenges traditional economic and financial analysis and requires a much deeper understanding of the interrelations between climate policy and financial markets. This dissertation thus investigates the implications of climate policy for financial markets as well as the role of financial markets in a transition to a sustainable economy. The approach combines insights from macroeconomic and financial risk analysis. Following an introduction and classification in Chapter 1, Chapter 2 shows a macroeconomic analysis that combines ambitious climate targets (negative externality) with technological innovation (positive externality), adaptive expectations and an investment program, resulting in overall positive macroeconomic outcomes. The analysis also reveals the limitations of climate economic models in their representation of financial markets. Therefore, the subsequent part of this dissertation is concerned with the link between climate policies and financial markets. In Chapter 3, an empirical analysis of stock-market responses to the announcement of climate policy targets is performed to investigate impacts of climate policy on financial markets. Results show that 1) international climate negotiations have an effect on asset prices and 2) investors increasingly recognize transition risks in carbon-intensive investments. In Chapter 4, an analysis of equity markets and the interbank market shows that transition risks can potentially affect a large part of the equity market and that financial interconnections can amplify negative shocks. In Chapter 5, an analysis of mortgage loans shows how information on climate policy and the energy performance of buildings can be integrated into risk management and reflected in interest rates. While costs of climate action have been explored at great depth, this dissertation offers two main contributions. First, it highlights the importance of a green investment program to strengthen the macroeconomic benefits of climate action. Second, it shows different approaches on how to integrate transition risks and opportunities into financial market analysis. Anticipating potential losses and gains in the value of financial assets as early as possible can make the financial system more resilient to transition risks and can stimulate investments into the decarbonization of the economy. N2 - Mit der Rede "Die Tragödie des Horizonts durchbrechen" im September 2015 hat der Präsident der englischen Zentralbank, Mark Carney, den Klimawandel auf die Agenda der Finanzmarktregulierer gebracht. Bis dahin wurde der Klimawandel vor allem als Problem einer negativen Externalität verstanden, welche langfristige Kosten verursacht. Dies führte dazu, dass sich die meisten Länder darauf konzentrieren, die kurzfristigen Kosten für Klimaschutzmaßnahmen auf ein Minimum zu reduzieren. Carney argumentierte, dass der Klimawandel, sowie Klimapolitik, auch zu kurzfristigen finanziellen Risiken führen kann, welche zu starken Anpassungen der Vermögenspreise führen können. Solche Auswirkungen zu untersuchen, stellt die traditionellen Wirtschafts- und Finanzmodelle jedoch vor Herausforderungen und erfordert ein tiefgreifenderes Verständnis der Zusammenhänge zwischen Klimapolitik und Finanzmärkten. Die vorliegende Arbeit untersucht daher die Auswirkungen der Klimapolitik auf die Finanzmärkte sowie die Rolle der Finanzmärkte in der Transformation zu einer nachhaltigeren Wirtschaft. Der Ansatz kombiniert Erkenntnisse aus der makroökonomischen Modellierung und der finanziellen Risikoanalyse. Nach einer Einführung und Einordnung in Kapitel 1, zeigt Kapitel 2 eine makroökonomische Analyse, welche ehrgeizige Klimaziele (negative Externalität) mit technologischer Innovationen (positive Externalität), adaptiven Erwartungen, sowie einem Investitionsprogramm kombiniert und damit zu positiven makroökonomischen Ergebnissen führt. Die Analyse zeigt auch die Grenzen klimaökonomischer Modelle in ihrer Darstellung der Finanzmärkte auf. Aus diesem Grund beschäftigt sich der nachfolgende Teil dieser Dissertation mit dem Zusammenhang zwischen Klimapolitik und Finanzmärkten. In Kapitel 3 wird eine empirische Analyse der Reaktionen von Aktienmärkten auf die Ankündigung klimapolitischer Ziele durchgeführt. Die Ergebnisse zeigen, dass sich internationale Klimaverhandlungen auf die Vermögenspreise auswirken und dass Investoren zunehmend Transformationsrisiken bei CO2-intensiven Firmen erkennen. Kapitel 4 zeigt, durch eine Analyse der Aktienmärkte und des Interbankenmarktes, dass Transformationsrisiken einen großen Teil des Aktienmarktes beeinflussen können und dass finanzielle Verflechtungen negative Schocks verstärken können. Kapitel 5 zeigt, durch eine Analyse von Hypothekenkrediten, wie Informationen über Klimapolitik und die Energieeffizienz von Gebäuden in das Risikomanagement integriert und sich damit im Zinssatz widerspiegeln können. Während die Kosten von Klimaschutzmaßnahmen in großem Umfang untersucht wurden, leistet diese Arbeit zwei wesentliche Beiträge. Erstens wird die Bedeutung eines grünen Investitionsprogramms zur Stärkung des makroökonomischen Nutzens von Klimaschutzmaßnahmen hervorgehoben. Zweitens zeigt diese Arbeit unterschiedliche Ansätze, wie Transformationsrisiken und -chancen in die Finanzmarktanalyse integriert werden können. Eine frühzeitige Erkennung und Einpreisung potenzieller Risiken und Chancen kann das Finanzsystem widerstandsfähiger machen und Investitionen in die Dekarbonisierung der Wirtschaft stimulieren. T2 - Die Finanzierung einer nachhaltigen Wirtschaft KW - Klimapolitik KW - climate policy KW - grüne Investitionen KW - green investments KW - sustainable finance KW - Nachhaltiges Finanzwesen Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-484415 ER - TY - THES A1 - Schälicke, Svenja T1 - Consumer traits and trait variation under the influence of biochemical food quality T1 - Merkmale und Merkmalsvariationen von Konsumenten unter dem Einfluss biochemischer Nahrungsqualität N2 - The earth’s ecosystems undergo considerable changes characterized by human-induced alterations of environmental factors. In order to develop conservation goals for vulnerable ecosystems, research on ecosystem functioning is required.. Therefore, it is crucial to explore organismal interactions, such as trophic interaction or competition, which are decisive for key processes in ecosystems. These interactions are determined by the performance responses of organisms to environmental changes, which in turn, are shaped by the organism’s functional traits. Exploring traits, their variation, and the environmental factors that act on them may provide insights on how ecological interactions affect populations, community structures and dynamics, and thus ecosystem functioning. In aquatic ecosystems, global warming intensifies phytoplankton blooms, which are more frequently dominated by cyanobacteria. As cyanobacteria are poor in polyunsaturated fatty acids (PUFA) and sterols, this compositional change alters the biochemical food quality of phytoplankton for consumer species with potential effects on ecological interactions. Within this thesis, I studied the effects of biochemical food quality on consumer traits and performance responses at the phytoplankton-zooplankton interface using different strains of two closely related generalist rotifer species Brachionus calyciflorus and Brachionus fernandoi and three phytoplankton species that differ in their biochemical food quality, i.e. in their content and composition of PUFA and sterols. In a series of laboratory feeding experiments I found that biochemical food quality affected rotifer’s performance, i.e. fecundity, survival, and population growth, across a broad range of food quantities. Biochemical food quality constraints, which are often underestimated as influencing environmental factors, had strong impacts on performance responses. I further explored the potential of biochemical food quality in mediating consumer response variation between species and among strains of one species. Co-limitation by food quantity and biochemical food quality resulted in differences in performance responses, which were more pronounced within than between rotifer species. Furthermore, I demonstrated that the body PUFA compositions of rotifer species and strains were differently affected by the dietary PUFA supply, which indicates inter- and intraspecific differences in physiological traits, such as PUFA retention, allocation, and/or bioconversion capacity, within the genus Brachionus. This indicates that dietary PUFA are involved in shaping traits and performance responses of rotifers. This thesis reveals that biochemical food quality is an environmental factor with strong effects on individual traits and performance responses of consumers. Biochemical food quality constraints can further mediate trait and response variation among species or strains. Consequently, they carry the potential to shape ecological interactions and evolutionary processes with effects on community structures and dynamics. Trait-based approaches, which include food quality research, thus may provide further insights into the linkage between functional diversity and the maintenance of crucial ecosystem functions. N2 - Die Ökosysteme der Erde sind einem ständigen Wandel unterworfen, der immer stärker durch anthropogen veränderte Umweltfaktoren geprägt ist. Um Schutzziele für gefährdete Ökosysteme verfolgen zu können, ist es erforderlich Ökosystemfunktionen zu verstehen. Daher ist es von entscheidender Bedeutung, die Interaktionen zwischen Organismen zu erforschen, wie z.B. trophische Interaktionen, die für Schlüsselprozesse in Ökosystemen entscheidend sind. Diese Interaktionen werden durch die Fitnessreaktionen der Organismen auf Umweltveränderungen bestimmt, die wiederum durch die funktionellen Merkmale des Organismus, den sogenannten Traits, geprägt werden. Das Erforschen von Traits, ihrer Variation und der auf sie einwirkenden Umweltfaktoren kann Erkenntnisse darüber liefern, wie sich ökologische Interaktionen auf Populationen, Gemeinschaftsstrukturen und -dynamiken und damit auf Ökosystemfunktionen auswirken können. In aquatischen Ökosystemen fördert der Klimawandel die Bildung von Phytoplanktonblüten, welche immer häufiger von Cyanobakterien dominiert werden. Da Cyanobakterien arm an mehrfach ungesättigten Fettsäuren (PUFA) und Sterolen sind, beeinflusst diese veränderte Zusammensetzung des Phytoplanktons die biochemische Nahrungsqualität für die Konsumenten mit potentiellen Auswirkungen auf ökologische Interaktionen. Im Rahmen meiner Doktorarbeit untersuchte ich Effekte der biochemischen Nahrungsqualität von Phytoplankton auf die Traits und Fitnessreaktionen von Zooplankton.. Als Modellorganismen dienten verschiedene Stämme von den zwei verwandten Rotatorienarten Brachionus calyciflorus und Brachionus fernandoi und drei Phytoplanktonarten, die sich in ihrer biochemischen Nahrungsqualität, d.h. in ihrer PUFA- und Sterolzusammensetzung, unterscheiden. In einer Reihe von Laborexperimenten konnte ich herausstellen, dass die biochemische Nahrungsqualität die Fitness der Rotatorien, d.h. ihre Fekundität, Überlebensraten und Populationswachstumsraten, über ein breites Spektrum von Nahrungsquantitäten hinweg beeinflusst. Die Limitierung durch biochemische Nahrungsqualität, die als Einflussfaktor oft unterschätzt wird, zeigte starke Effekte auf die Fitnessreaktionen. Darüber hinaus konnte ich zeigen, dass die Verfügbarkeit biochemischer Nährstoffe Fitnessvariationen zwischen Arten und zwischen Stämmen einer Art beeinflussen kann. Eine Co-Limitierung durch die Nahrungsquantität und die biochemische Nahrungsqualität führte zu Variationen in Fitnessreaktionen der Rotatorien, die innerhalb einer Art größer waren als zwischen den Arten. Ich konnte außerdem nachweisen, dass sich in Abhängigkeit von der Verfügbarkeit der PUFA in der Nahrung auch die PUFA-Zusammensetzung in den Rotatorien zwischen Arten und Stämmen unterscheiden. Dies weist auf inter- und intraspezifische Unterschiede in physiologischen Traits, wie z.B. der Retentions-, Allokations- oder Biokonversionskapazität von PUFA, innerhalb der Gattung Brachionus hin. In der Nahrung verfügbare PUFA stellen demnach wichtige Einflussfaktoren für Fitnessreaktionen von Rotatorien dar. Diese Doktorarbeit belegt, dass die biochemische Nahrungsqualität ein Umweltfaktor ist, der starke Auswirkungen auf Traits und Fitnessreaktionen von Konsumenten haben kann. Darüber hinaus kann die Verfügbarkeit von biochemischen Nährstoffen die Variation von Traits und Fitnessreaktionen zwischen Arten oder Stämmen vermitteln. Folglich hat die biochemische Nahrungsqualität das Potenzial, sowohl ökologische Interaktionen als auch evolutionäre Prozesse zu beeinflussen. Dies hat Auswirkungen auf Gemeinschaftsstrukturen und -dynamiken. Trait-basierte Forschungsansätze, die Nahrungsqualitätskomponenten berücksichtigen, können daher erweiterte Einblicke in den Zusammenhang zwischen funktioneller Diversität und der Aufrechterhaltung wichtiger Ökosystemfunktionen liefern. Y1 - 2020 ER - TY - THES A1 - Schwarz, Michael T1 - Nodal domains and boundary representation for Dirichlet forms Y1 - 2020 ER - TY - THES A1 - Schuster, Maja T1 - High resolution decoding of the tobacco chloroplast translatome and its dynamics during light-intensity acclimation N2 - Chloroplasts are the photosynthetic organelles in plant and algae cells that enable photoautotrophic growth. Due to their prokaryotic origin, modern-day chloroplast genomes harbor 100 to 200 genes. These genes encode for core components of the photosynthetic complexes and the chloroplast gene expression machinery, making most of them essential for the viability of the organism. The regulation of those genes is predominated by translational adjustments. The powerful technique of ribosome profiling was successfully used to generate highly resolved pictures of the translational landscape of Arabidopsis thaliana cytosol, identifying translation of upstream open reading frames and long non-coding transcripts. In addition, differences in plastidial translation and ribosomal pausing sites were addressed with this method. However, a highly resolved picture of the chloroplast translatome is missing. Here, with the use of chloroplast isolation and targeted ribosome affinity purification, I generated highly enriched ribosome profiling datasets of the chloroplasts translatome for Nicotiana tabacum in the dark and light. Chloroplast isolation was found unsuitable for the unbiased analysis of translation in the chloroplast but adequate to identify potential co-translational import. Affinity purification was performed for the small and large ribosomal subunit independently. The enriched datasets mirrored the results obtained from whole-cell ribosome profiling. Enhanced translational activity was detected for psbA in the light. An alternative translation initiation mechanism was not identified by selective enrichment of small ribosomal subunit footprints. In sum, this is the first study that used enrichment strategies to obtain high-depth ribosome profiling datasets of chloroplasts to study ribosome subunit distribution and chloroplast associated translation. Ever-changing light intensities are challenging the photosynthetic capacity of photosynthetic organism. Increased light intensities may lead to over-excitation of photosynthetic reaction centers resulting in damage of the photosystem core subunits. Additional to an expensive repair mechanism for the photosystem II core protein D1, photosynthetic organisms developed various features to reduce or prevent photodamage. In the long-term, photosynthetic complex contents are adjusted for the efficient use of experienced irradiation. However, the contribution of chloroplastic gene expression in the acclimation process remained largely unknown. Here, comparative transcriptome and ribosome profiling was performed for the early time points of high-light acclimation in Nicotiana tabacum chloroplasts in a genome-wide scale. The time- course data revealed stable transcript level and only minor changes in translational activity of specific chloroplast genes during high-light acclimation. Yet, psbA translation was increased by two-fold in the high light from shortly after the shift until the end of the experiment. A stress-inducing shift from low- to high light exhibited increased translation only of psbA. This study indicate that acclimation fails to start in the observed time frame and only short-term responses to reduce photoinhibition were observed. N2 - Chloroplasten sind die photosynthetischen Organellen in Pflanzen- und Algenzellen, die photoautotrophes Wachstum ermöglichen. Aufgrund ihrer prokaryotischen Herkunft besitzen moderne Chloroplasten ein Genom mit 100 bis 200 Gene. Diese kodieren für zentrale Komponenten der Photosynthesekomplexe und des Genexpressionsapparates, was sie für die Lebensfähigkeit des gesamten Organismus essenziell macht. Die leistungsstarke Methode Ribosome Profiling wurde bereits erfolgreich eingesetzt, um hochaufgelöste Bilder der zytosolischen Translationslandschaft von Arabidopsis thaliana zu erstellen, wobei Translation von der Hauptsequenz vorgelagerten, kodierenden Sequenzen und langen, nicht-kodierenden Transkripten identifiziert wurde. Ferner wurden mit dieser Technik Regulationen der Plastidentranslation und spezifische Regionen mit unterschiedlicher Elongationsgeschwindigkeit aufgedeckt. Es fehlen jedoch hochaufgelöste Datensätze des Chloroplasten-Translatoms. Chloroplastenisolation und Affinitätsaufreinigung chloroplastidiärer Ribosomen wurde verwendet, um hochangereicherte Ribosome Profiling-Datensätze des Chloroplastentranslatoms für Nicotiana tabacum im Dunkeln und unter Licht zu erzeugen. Wenngleich sich die Chloroplastenisolation als ungeeignet für eine unverfälschte Analyse der Translation im Chloroplast erwies, ermöglichte sie die Identifizierung von potentiellem co-translationalen Proteinimport. Die entsprechenden Datensätze spiegelten die Ergebnisse des zellulären Ribosome Profilings wider. Für psbA wurde im Licht erhöhte Translationsaktivität festgestellt. Alternative Initiationsmechanismen konnten durch spezifische Anreicherung der kleinen ribosomalen Untereinheit nicht verifiziert werden. Zusammenfassend, dies ist die erste Studie, die mittels Anreicherungsstrategien hochaufgelöste Ribosome Profiling-Datensätze zur Analyse von Ribosomuntereinheitsverteilungen und Chloroplast-assoziierter Translation nutzte. Ständig wechselnde Lichtintensitäten stellen die Photosynthesekapazität von photosynthetischen Organismen auf die Probe. Erhöhte Lichtintensitäten können zu einer Überreizung der photosynthetischen Reaktionszentren führen, was Beschädigungen von zentralen Komplexeinheiten der Photosysteme verursacht. Neben einem aufwändigen Reparaturmechanismus für das Photosystem II-Protein D1 entwickelte der photosynthetische Organismus verschiedene Mechanismen um lichtinduzierte Schäden zu reduzieren oder zu verhindern. Langfristig kommt es zu einer Anreicherung spezifischer Photosynthesekomplexen um eine effiziente Ausnutzung der erhöhten Strahlung zu gewährleisten. Der Beitrag der chloroplastidiäeren Genexpressionsregulation zum Akklimatisierungsprozess ist jedoch weitgehend unbekannt. Hier wurde ein vergleichendes Transkript- und Ribosomen Profiling für die frühen Zeitpunkte der Akklimatisierung unter Starklicht in Tabakchloroplasten in einem genomweiten Maßstab durchgeführt. Die Zeitverlaufsdaten zeigten ein unverändertes Transkriptniveau und nur geringe Änderungen der translationalen Aktivität von chloroplastidiären Genen im Hochlicht im Vergleich zu Kontrollproben. Die psbA-Translation war jedoch unter Hochlicht schon kurz nach Beginn bis zum Ende des Experiments um etwa das Zweifache erhöht. Der stressinduzierende Wechsel von Schwach- zu Hochlicht bewirkte ebenfalls eine auf psbA-beschränkt, erhöhte Translation. Die Ergebnisse zeigen, dass die Akklimatisierung im beobachteten Zeitrahmen nicht begonnen hatte und nur kurzfristige Reaktionen zur Verringerung der Photoinhibition wirksam gewesen sein konnten. KW - translation KW - chloroplast KW - high light KW - ribosome profiling Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512680 ER - TY - THES A1 - Schuck, Bernhard T1 - Geomechanical and petrological characterisation of exposed slip zones, Alpine Fault, New Zealand T1 - Geomechanische und petrologische Charakterisierung aufgeschlossener Gleithorizonte, Alpine Fault, Neuseeland N2 - The Alpine Fault is a large, plate-bounding, strike-slip fault extending along the north-western edge of the Southern Alps, South Island, New Zealand. It regularly accommodates large (MW > 8) earthquakes and has a high statistical probability of failure in the near future, i.e., is late in its seismic cycle. This pending earthquake and associated co-seismic landslides are expected to cause severe infrastructural damage that would affect thousands of people, so it presents a substantial geohazard. The interdisciplinary study presented here aims to characterise the fault zone’s 4D (space and time) architecture, because this provides information about its rheological properties that will enable better assessment of the hazard the fault poses. The studies undertaken include field investigations of principal slip zone fault gouges exposed along strike of the fault, and subsequent laboratory analyses of these outcrop and additional borehole samples. These observations have provided new information on (I) characteristic microstructures down to the nanoscale that indicate which deformation mechanisms operated within the rocks, (II) mineralogical information that constrains the fault’s geomechanical behaviour and (III) geochemical compositional information that allows the influence of fluid- related alteration processes on material properties to be unraveled. Results show that along-strike variations of fault rock properties such as microstructures and mineralogical composition are minor and / or do not substantially influence fault zone architecture. They furthermore provide evidence that the architecture of the fault zone, particularly its fault core, is more complex than previously considered, and also more complex than expected for this sort of mature fault cutting quartzofeldspathic rocks. In particular our results strongly suggest that the fault has more than one principal slip zone, and that these form an anastomosing network extending into the basement below the cover of Quaternary sediments. The observations detailed in this thesis highlight that two major processes, (I) cataclasis and (II) authigenic mineral formation, are the major controls on the rheology of the Alpine Fault. The velocity-weakening behaviour of its fault gouge is favoured by abundant nanoparticles promoting powder lubrication and grain rolling rather than frictional sliding. Wall-rock fragmentation is accompanied by co-seismic, fluid-assisted dilatancy that is recorded by calcite cementation. This mineralisation, along with authigenic formation of phyllosilicates, quickly alters the petrophysical fault zone properties after each rupture, restoring fault competency. Dense networks of anastomosing and mutually cross-cutting calcite veins and intensively reworked gouge matrix demonstrate that strain repeatedly localised within the narrow fault gouge. Abundantly undeformed euhedral chlorite crystallites and calcite veins cross-cutting both fault gouge and gravels that overlie basement on the fault’s footwall provide evidence that the processes of authigenic phyllosilicate growth, fluid-assisted dilatancy and associated fault healing are processes active particularly close to the Earth’s surface in this fault zone. Exposed Alpine Fault rocks are subject to intense weathering as direct consequence of abundant orogenic rainfall associated with the fault’s location at the base of the Southern Alps. Furthermore, fault rock rheology is substantially affected by shallow-depth conditions such as the juxtaposition of competent hanging wall fault rocks on poorly consolidated footwall sediments. This means microstructural, mineralogical and geochemical properties of the exposed fault rocks may differ substantially from those at deeper levels, and thus are not characteristic of the majority of the fault rocks’ history. Examples are (I) frictionally weak smectites found within the fault gouges being artefacts formed at temperature conditions, and imparting petrophysical properties that are not typical for most of fault rocks of the Alpine Fault, (II) grain-scale dissolution resulting from subaerial weathering rather than deformation by pressure-solution processes and (III) fault gouge geometries being more complex than expected for deeper counterparts. The methodological approaches deployed in analyses of this, and other fault zones, and the major results of this study are finally discussed in order to contextualize slip zone investigations of fault zones and landslides. Like faults, landslides are major geohazards, which highlights the importance of characterising their geomechanical properties. Similarities between faults, especially those exposed to subaerial processes, and landslides, include mineralogical composition and geomechanical behaviour. Together, this ensures failure occurs predominantly by cataclastic processes, although aseismic creep promoted by weak phyllosilicates is not uncommon. Consequently, the multidisciplinary approach commonly used to investigate fault zones may contribute to increase the understanding of landslide faulting processes and the assessment of their hazard potential. N2 - Die Alpine Fault ist eine große Plattengrenze mit lateralem Versatz, die sich entlang des nordwestlichen Fußes der Südalpen, Südinsel Neuseeland, erstreckt. Regelmäßig ereignen sich große (MW > 8) Erdbeben und gegenwärtig befindet sich die Störung am Ende ihres Erdbebenzyklus, so dass ein baldiges Beben sehr wahrscheinlich ist. Die Alpine Fault stellt eine bedeutende Naturgefahr dar und so wird davon ausgegangen, dass tausende Menschen von dem anstehenden Erdbeben, ko-seismischen Hangrutschungen und den damit einhergehenden großen Schäden an der Infrastruktur betroffen sein werden. Daher zielt die hier vorgestellte interdisziplinäre Studie darauf ab, den Aufbau der Störungszone in 4D (räumlich und zeitlich) zu charakterisieren, weil dies Aufschluss über ihre rheologischen Eigenschaften liefert und damit einen Beitrag zur Einschätzung der von der Störung ausgehenden Gefahr leisten wird. Die durchgeführten Arbeiten umfassen Felduntersuchungen der entlang der Störung aufge- schlossenen Hauptscherzone und sich daran anschließende Laboruntersuchungen dieser Auf- schluss- und zusätzlicher Bohrlochproben. Diese geben Aufschluss über (I) charakteristis- che Mikrostrukturen bis in den Nanometerbereich, was erlaubt Deformationsmechanismen abzuleiten, (II) die Mineralogie und ihren Einfluss auf das geomechanische Verhalten und (III) die geochemische Zusammensetzung, die es ermöglicht, den Einfluss fluid-bezogener Alterationsprozesse auf Materialeigenschaften besser zu verstehen. Die Ergebnisse zeigen, dass Variationen der Eigenschaften der Störungsgesteine, wie Mikrostrukturen und mineralogische Zusammensetzung, entlang der Störung nur untergeord- net auftreten und den Aufbau der Störungszone nicht oder nur unwesentlich beeinflussen. Darüber hinaus zeigen sie, dass der Aufbau der Störungszone, vor allem ihres Kerns, komplexer ist als bisher angenommen. Dies ist unerwartet für eine Störung in quartz- und feldspatreichem Gestein dieses Alters. Diese Sicht wird von Ergebnissen gestützt, die nahelegen, dass die Störung mehr als eine Hauptscherzone hat und dass diese ein anastomisierendes Netzwerk bilden, das sich bis in das Festgestein unterhalb der Deckschicht aus quartären Sedimenten erstreckt. Die Beobachtungen dieser Arbeit zeigen, dass zwei Prozesse, (I) Kataklase und (II) au- thigenes Mineralwachstum, den größten Einfluss auf die Rheologie der Alpine Fault haben. Das “velocity-weakening”-Verhalten der Hauptscherzonen und ihres Gesteinsmehls wird durch die große Anzahl von Nanopartikeln begünstigt, die das Rollen der Partikel zu Ungunsten von Gleitreibungsrutschen fördern. Die Zerstückelung des Umgebungsgesteins geht mit ko- seismischer, fluid-unterstützter Dilatanz einher, die die anschließende Zementierung durch Kalzit begünstigt. Diese, in Kombination mit authigenen Schichtsilikaten, stellt die petro- physikalischen Eigenschaften der Störungszone nach jedem Erdbeben schnell wieder her. Dichte Netzwerke anastomisierender und sich gegenseitig durchschlagender Kalzitadern und umfassend aufgearbeitetes Gesteinsmehl belegen, dass Verformung wiederholt in den dünnen Hauptscherbahnen lokalisiert wurde. Kalzitadern durschlagen sowohl das Gesteinsmehl der Hauptscherbahnen als auch das Geröll, das die oberflächennahe Sedimentabdeckung des Festgesteins im Liegenden darstellt. Dies und allgegenwärtige, undeformierte, euhedrale Chlorit-Kristalle belegen, dass authigenes Schichtsilikatwachstum, fluid-unterstütze Dilatanz und das damit einhergehende Heilen der Störung Prozesse sind, die auch nahe der Erdoberfläche wirken. Freigelegte Gesteine der Alpine Fault sind intensiver Verwitterung als direkter Folge des reichlich vorhandenen Steigungsregens, der sich aus der Lage der Störung am Fuß der Südalpen ergibt, ausgesetzt. Darüber hinaus wird die Rheologie der Störungsgesteine erheblich durch oberflächennahen Randbedingungen wie die Gegenüberstellung kompetenter Störungsgesteine des Hangenden mit wenig-konsolidierten Sedimenten des Liegenden beeinflusst. Dies hat zur Folge, dass sich mikrostrukturelle, mineralogische und geochemische Eigenschaften der freigelegten Störungsgesteine erheblich von denen in größeren Tiefen unterscheiden können und folglich nicht charakteristisch für den Großteil der Deformationsgeschichte sind. Beispiele hierfür sind (I) Smektitphasen in den Hauptscherzonen, die einen niedrigen Reibungskoeffizien- ten aufweisen, allerdings Artefakte von für die Mehrheit der Gesteine dieser Störung atypischer Temperaturen und petrophysikalischer Eigenschaften sind, (II) angelöste Minerale als Ergebnis oberflächennaher Verwitterung und nicht von Drucklösung und (III) ein interner Aufbau des Gesteinsmehls der Hauptscherbahnen, der komplexerer ist, als dies für das Äquivalent in größerer Tiefe zu erwarten wäre. Schließlich werden die Ergebnisse dieser Arbeit gemeinsam mit den Hauptbefunden und methodischen Ansätzen anderer Studien zu Störungszonen diskutiert und in Kontext zu Analysen von Scherzonen in Störungen und Hangrutschungen gestellt. Hangrutschungen sind, wie Störungen, bedeutende Naturgefahren, was die Notwendigkeit, ihre geomechanischen Eigenschaften zu charakterisieren, herausstreicht. Störungen, vor allem jene, die Ober- flächenprozessen ausgesetzt sind, und Hangrutschungen teilen viele Gemeinsamkeiten wie mineralogische Zusammensetzung und geomechanisches Verhalten, was vor allem zu Versagen mittels kataklastischer Mechanismen führt; allerdings ist aseismisches Kriechen, befördert durch Schichtsilikate mit niedrigem Reibungskoeffizienten, nicht ungewöhnlich. Folglich könnte der multidisziplinäre Ansatz, der in der Regel zur Untersuchung von Störungszonen herangezogen wird, dazu beitragen das Verständnis von Hangrutschungen zu verbessern und ihr Gefährdungspotential abzuschätzen. KW - Alpine Fault KW - fluid rock interaction KW - microstructures KW - fault healing KW - authigenic mineral formation KW - brittle deformation KW - fault zone architecture KW - strain localization KW - landslides KW - faults KW - mineral composition KW - deformation mechanisms KW - Alpine Fault KW - Fluid-Gesteins-Wechselwirkung KW - Mikrostrukturen KW - Fault Healing KW - authigene Mineralbildung KW - spröde Deformation KW - Störungszonenarchitektur KW - Lokalisierung von Verformung KW - Erdrutsche KW - Verwerfungen KW - Mineralzusammensetzung KW - Deformationsmechanismen Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-446129 ER - TY - THES A1 - Schinköth, Michaela T1 - Automatic affective reactions to exercise-related stimuli BT - towards a better understanding of exercise motivation BT - für ein besseres Verständnis der Sportmotivation N2 - Even though the majority of individuals know that exercising is healthy, a high percentage struggle to achieve the recommended amount of exercise. The (social-cognitive) theories that are commonly applied to explain exercise motivation refer to the assumption that people base their decisions mainly on rational reasoning. However, behavior is not only bound to reflection. In recent years, the role of automaticity and affect for exercise motivation has been increasingly discussed. In this dissertation, central assumptions of the affective–reflective theory of physical inactivity and exercise (ART; Brand & Ekkekakis, 2018), an exercise-specific dual-process theory that emphasizes the role of a momentary automatic affective reaction for exercise-decisions, were examined. The central aim of this dissertation was to investigate exercisers and non-exercisers automatic affective reactions to exercise-related stimuli (i.e., type-1 process). In particular, the two components of the ART’s type-1 process, that are, automatic associations with exercise and the automatic affective valuation to exercise, were under study. In the first publication (Schinkoeth & Antoniewicz, 2017), research on automatic (evaluative) associations with exercise was summarized and evaluated in a systematic review. The results indicated that automatic associations with exercise appeared to be relevant predictors for exercise behavior and other exercise-related variables, providing evidence for a central assumption of the ART’s type-1 process. Furthermore, indirect methods seem to be suitable to assess automatic associations. The aim of the second publication (Schinkoeth, Weymar, & Brand, 2019) was to approach the somato-affective core of the automatic valuation of exercise using analysis of reactivity in vagal HRV while viewing exercise-related pictures. Results revealed that differences in exercise volume could be regressed on HRV reactivity. In light of the ART, these findings were interpreted as evidence of an inter-individual affective reaction elicited at the thought of exercise and triggered by exercise-stimuli. In the third publication (Schinkoeth & Brand, 2019, subm.), it was sought to disentangle and relate to each other the ART’s type-1 process components—automatic associations and the affective valuation of exercise. Automatic associations to exercise were assessed with a recoding-free variant of an implicit association test (IAT). Analysis of HRV reactivity was applied to approach a somatic component of the affective valuation, and facial reactions in a facial expression (FE) task served as indicators of the automatic affective reaction’s valence. Exercise behavior was assessed via self-report. The measurement of the affective valuation’s valence with the FE task did not work well in this study. HRV reactivity was predicted by the IAT score and did also statistically predict exercise behavior. These results thus confirm and expand upon the results of publication two and provide empirical evidence for the type-1 process, as defined in the ART. This dissertation advances the field of exercise psychology concerning the influence of automaticity and affect on exercise motivation. Moreover, both methodical implications and theoretical extensions for the ART can be derived from the results. N2 - Obwohl die meisten Menschen wissen, dass Sport gesund ist, hat ein hoher Prozentsatz Mühe, die empfohlenen Bewegungsumfänge zu erreichen. Sozial-kognitive Theorien, die üblicherweise zur Erklärung von Sportmotivation angewendet werden, stützen sich auf die Annahme, dass Menschen ihre Entscheidungen hauptsächlich auf Grund rationaler Überlegungen treffen. Unser Verhalten ist jedoch nicht immer rational. In den letzten Jahren ist die Rolle von Automatizität und Affekt für die Sportmotivation daher zunehmend diskutiert worden. In dieser Dissertation wurden zentrale Annahmen der affective–reflective theory zur Erklärung von körperlicher Inaktivität und Sporttreiben (ART; Brand & Ekkekakis, 2018), einer sportspezifischen Zwei-Prozesstheorie, die die Rolle einer momentanen automatischen affektiven Reaktion für Sportentscheidungen betont, überprüft. Das zentrale Ziel dieser Dissertation war die Untersuchung automatisch affektiver Reaktionen von Sportlern und Nicht-Sportlern auf sportbezogene Stimuli (i.e., Typ-1-Prozess). Insbesondere wurden die beiden in der ART beschrieben Komponenten dieser automatisch affektiven Reaktion, d.h. die automatischen Assoziationen zu Sport und die automatische affektive Valuation von Sport, untersucht. In der ersten Publikation (Schinkoeth & Antoniewicz, 2017) wurde die Forschung zu automatischen Assoziationen zu Sport in einem systematischen Review zusammengefasst und evaluiert. Die Ergebnisse deuteten darauf hin, dass automatische Assoziationen relevante Prädiktoren für das Sportverhalten und andere sportbezogene Variablen zu sein scheinen, was den Beweis für eine zentrale Annahme des Typ-1-Prozesses der ART lieferte. Darüber hinaus scheinen indirekte Methoden geeignet zu sein um automatische Assoziationen zu messen. Das Ziel der zweiten Publikation (Schinkoeth, Weymar, & Brand, 2019) war es, sich dem somato-affektiven Kern der automatischen Valuation von Sport mittels Analyse der Reaktivität der vagalen HRV bei Betrachtung von Sportbildern zu nähern. Die Ergebnisse zeigten, dass die HRV-Reaktivität Unterschiede im Sportumfang hervorsagen konnte. Im Licht der ART wurden diese Befunde als Hinweis auf eine interindividuelle affektive Reaktion interpretiert, die beim bloßen Gedanken an Sport hervorgerufen und durch die Sportbilder ausgelöst wurde. In der dritten Publikation (Schinkoeth & Brand, 2019, subm.) wurde versucht, die Typ-1-Prozesskomponenten der ART - automatische Assoziationen und die affektive Valuation von Sport - zu trennen und in Beziehung zueinander zu setzen. Automatische Assoziationen zu Sport wurden mit einer rekodierungsfreien Variante eines impliziten Assoziationstests (IAT) gemessen. Die Analyse der HRV-Reaktivität wurde genutzt, um sich einer somatischen Komponente der affektiven Valuation zu nähern, und Gesichtsreaktionen in einer Mimikaufgabe (GR) dienten als Indikatoren für die Valenz der automatischen affektiven Reaktion. Das Bewegungsverhalten wurde mittels Selbstbericht bewertet. Die Messung der Valenz der affektiven Valuation mit der GR-Aufgabe funktionierte in dieser Studie nicht. Es konnte aber gezeigt werden, dass die HRV-Reaktivität durch den IAT-Score hervorgesagt werden konnte und wiederum das selbstberichtete Sportverhalten statistisch vorhersagen konnte. Diese Ergebnisse bestätigen und erweitern somit die Ergebnisse der Publikation zwei und liefern empirische Evidenz für den Typ-1-Prozess, wie er in der ART definiert ist. Die Ergbenisse dieser Dissertation tragen dazu bei die Forschung Rund um den Einfluss von Automatizität und Affekt auf die Sportmotivation entscheidend voran zu treiben. Darüber hinaus lassen sich aus den Ergebnissen sowohl methodische Implikationen als auch theoretische Erweiterungen für die ART ableiten. T2 - Automatisch affektive Reaktionen auf Sportstimuli KW - exercise KW - motivation KW - affect KW - automatic KW - dual-process KW - Sport KW - Motivation KW - Affekt KW - Automatizität KW - Zwei-Prozess Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471115 ER - TY - THES A1 - Schiborn, Catarina T1 - Extension of the German Diabetes Risk Score with regard to risk communication and cardiovascular outcomes Y1 - 2020 ER - TY - THES A1 - Schettler, Leon Valentin T1 - Socializing Development BT - Transnational Social Movement Advocacy and the Human Rights Accountability of Multilateral Development Banks T2 - Social movement and protest Y1 - 2020 UR - https://nbn-resolving.org/urn:nbn:de:101:1-2020042812162317931244 SN - 978-3-8376-5183-6 SN - 978-3-8394-5183-0 PB - transcript CY - Bielefeld ER - TY - THES A1 - Saplaoura, Eleftheria T1 - Escaping the plant cell BT - a study on m5C RNA methylation and tRNA-like structures as mRNA mobility signals Y1 - 2020 ER - TY - THES A1 - Santos Bruss, Sara Morais dos T1 - Feminist solidarities after modulation N2 - Feminist Solidarities after Modulation produces an intersectional analysis of transnational feminist movements and their contemporary digital frameworks of identity and solidarity. Engaging media theory, critical race theory, and Black feminist theory, as well as contemporary feminist movements, this book argues that digital feminist interventions map themselves onto and make use of the multiplicity and ambiguity of digital spaces to question presentist and fixed notions of the internet as a white space and technologies in general as objective or universal. Understanding these frameworks as colonial constructions of the human, identity is traced to a socio-material condition that emerges with the modernity/colonialism binary. In the colonial moment, race and gender become the reasons for, as well as the effects of, technologies of identification, and thus need to be understood as and through technologies. What Deleuze has called modulation is not a present modality of control, but is placed into a longer genealogy of imperial division, which stands in opposition to feminist, queer, and anti-racist activism that insists on non-modular solidarities across seeming difference. At its heart, Feminist Solidarities after Modulation provides an analysis of contemporary digital feminist solidarities, which not only work at revealing the material histories and affective ""leakages"" of modular governance, but also challenges them to concentrate on forms of political togetherness that exceed a reductive or essentialist understanding of identity, solidarity, and difference. KW - social media KW - decolonial feminism KW - Germany KW - India KW - intersectionality KW - modulation KW - identity politics Y1 - 2020 SN - 978-1-68571-146-7 SN - 978-1-68571-147-4 U6 - https://doi.org/10.53288/0397.1.00 PB - punctum books CY - Brooklyn, NY ER - TY - THES A1 - Rolf, Werner T1 - Peri-urban farmland included in green infrastructure strategies promotes transformation pathways towards sustainable urban development N2 - Urbanization and agricultural land use are two of the main drivers of global changes with effects on ecosystem functions and human wellbeing. Green Infrastructure is a new approach in spatial planning contributing to sustainable urban development, and to address urban challenges, such as biodiversity conservation, climate change adaptation, green economy development, and social cohesion. Because the research focus has been mainly on open green space structures, such as parks, urban forest, green building, street green, but neglected spatial and functional potentials of utilizable agricultural land, this thesis aims at fill this gap. This cumulative thesis addresses how agricultural land in urban and peri-urban landscapes can contribute to the development of urban green infrastructure as a strategy to promote sustainable urban development. Therefore, a number of different research approaches have been applied. First, a quantitative, GIS-based modeling approach looked at spatial potentials, addressing the heterogeneity of peri-urban landscape that defines agricultural potentials and constraints. Second, a participatory approach was applied, involving stakeholder opinions to evaluate multiple urban functions and benefits. Finally, an evidence synthesis was conducted to assess the current state of research on evidence to support future policy making at different levels. The results contribute to the conceptual understanding of urban green infrastructures as a strategic spatial planning approach that incorporates inner-urban utilizable agricultural land and the agriculturally dominated landscape at the outer urban fringe. It highlights the proposition that the linkage of peri-urban farmland with the green infrastructure concept can contribute to a network of multifunctional green spaces to provide multiple benefits to the urban system and to successfully address urban challenges. Four strategies are introduced for spatial planning with the contribution of peri-urban farmland to a strategically planned multifunctional network, namely the connecting, the productive, the integrated, and the adapted way. Finally, this thesis sheds light on the opportunities that arise from the integration of the peri- urban farmland in the green infrastructure concept to support transformation towards a more sustainable urban development. In particular, the inherent core planning principle of multifunctionality endorses the idea of co-benefits that are considered crucial to trigger transformative processes. This work concludes that the linkage of peri-urban farmland with the green infrastructure concept is a promising action field for the development of new pathways for urban transformation towards sustainable urban development. Along with these outcomes, attention is drawn to limitations that remain to be addressed by future research, especially the identification of further mechanisms required to support policy integration at all levels. N2 - Urbanisierung und Landwirtschaft zählen zu den wesentlichen Faktoren des globalen Wandels mit Auswirkungen auf Ökosystemleistungen und menschliches Wohlergehen. Grüne Infrastruktur gilt als ein neuartiger Ansatz in der räumlichen Planung zur nachhaltigen Stadtentwicklung und um Begegnung von Herausforderungen wie den Schutz der biologischen Vielfalt, Anpassung an den Klimawandel, Entwicklung einer nachhaltigen Wirtschaft und zur des sozialen Zusammenhalts. Da ein Forschungsschwerpunkt bislang auf Freiraumstrukturen wie Parks, städtischen Wäldern, Gebäudebegrünung und Straßengrün lag, die räumlichen und funktionalen Potenziale landwirtschaftlicher Flächen unberücksichtigten, soll diese Arbeit hierzu einen Diskussionsbeitrag leisten. Diese kumulative Abschlussarbeit befasst sich mit der Frage, wie stadtnahe Landwirtschaftsflächen zur Entwicklung urbaner grünen Infrastrukturen, als Strategie zur Förderung einer nachhaltigen Stadtentwicklung beitragen können. Hierzu wurden verschiedene Forschungsansätze angewendet. Zunächst erfolgte ein quantitativer, GIS-basierter Modellierungsansatz, der sich mit den räumlichen Möglichkeiten und Grenzen befasst. Zweitens wurde ein partizipatorischer Ansatz verfolgt, der Funktionen und Nutzen aus Sicht verschiedener Interessenvertreter evaluiert. Schließlich wurde eine Evidenzsynthese durchgeführt, um den aktuellen Stand der Forschung hinsichtlich einer evidenzbasierten Politikgestaltung zu bewerten. Die Ergebnisse tragen zum konzeptionellen Verständnis urbaner grüner Infrastrukturen als strategischen raumplanerischen Ansatz bei, der Landwirtschaft mit einbezieht. Sie unterstützen die These, dass peri-urbane Landwirtschaftsflächen mit dem grünen Infrastrukturansatz zur Entwicklung eines multifunktionalen Freiraums beitragen und somit städtische Herausforderungen begegnen können. Es werden vier Strategien für eine Raumplanung vorgestellt, die sich für die Planung eignen. Schließlich beleuchtet diese Arbeit, welche Möglichkeiten sich in der Verknüpfung peri-urbaner Landwirtschaftsflächen mit dem Grüne Infrastrukturansatz für Transformationsprozesse bieten, um eine nachhaltige Stadtentwicklung zu unterstützen. Insbesondere das Kernplanungsprinzip der Multifunktionalität unterstützt die Idee zusätzlicher Nebeneffekte – sogenannte Co-Benefits –, die als einen wichtigen Auslöser transformativer Prozesse gelten. Die Arbeit kommt zu dem Schluss, dass sich durch die Berücksichtigung peri-urbaner Landwirtschaftsflächen im Grüne Infrastrukturansatz vielversprechende Handlungsfelder und Entwicklungspfade für eine nachhaltige Stadtentwicklung bieten. Neben diesen Ergebnissen wird auf die Grenzen aufmerksam gemacht, die von der künftigen Forschung noch angegangen werden müssen, insbesondere die Identifizierung weiterer Mechanismen, die zur Unterstützung der politischen Integration auf allen Ebenen erforderlich sind. T2 - Peri-urbaner Landwirtschaftsflächen integriert in grüne Infrastrukturstrategien fördert Transformationswege einer nachhaltigen Stadtentwicklung KW - agriculture KW - urban KW - spatial planning KW - planning strategies KW - green infrastructure KW - sustainable development KW - sustainability transformation KW - Landwirtschaft KW - Urban KW - Raumplanung KW - Planungsstrategien KW - Grüne Infrastruktur KW - Nachhaltige Entwicklung KW - Nachhaltigkeitstransformation Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-477002 ER - TY - THES A1 - Rodriguez Zuluaga, Juan T1 - Electric and magnetic characteristics of equatorial plasma depletions T1 - Elektrische und magnetische Beschreibung von äquatorialen Plasma-Verarmungen BT - an observational assessment using the Swarm mission BT - eine empirische Beurteilung mit der Satellitenmission Swarm N2 - Near-Earth space represents a significant scientific and technological challenge. Particularly at magnetic low-latitudes, the horizontal magnetic field geometry at the dip equator and its closed field-lines support the existence of a distinct electric current system, abrupt electric field variations and the development of plasma irregularities. Of particular interest are small-scale irregularities associated with equatorial plasma depletions (EPDs). They are responsible for the disruption of trans-ionospheric radio waves used for navigation, communication, and Earth observation. The fast increase of satellite missions makes it imperative to study the near-Earth space, especially the phenomena known to harm space technology or disrupt their signals. EPDs correspond to the large-scale structure (i.e., tens to hundreds of kilometers) of topside F region irregularities commonly known as Spread F. They are observed as depleted-plasma density channels aligned with the ambient magnetic field in the post-sunset low-latitude ionosphere. Although the climatological variability of their occurrence in terms of season, longitude, local time and solar flux is well-known, their day to day variability is not. The sparse observations from ground-based instruments like radars and the few simultaneous measurements of ionospheric parameters by space-based instruments have left gaps in the knowledge of EPDs essential to comprehend their variability. In this dissertation, I profited from the unique observations of the ESA’s Swarm constellation mission launched in November 2013 to tackle three issues that revealed novel and significant results on the current knowledge of EPDs. I used Swarm’s measurements of the electron density, magnetic, and electric fields to answer, (1.) what is the direction of propagation of the electromagnetic energy associated with EPDs?, (2.) what are the spatial and temporal characteristics of the electric currents (field-aligned and diamagnetic currents) related to EPDs, i.e., seasonal/geographical, and local time dependencies?, and (3.) under what conditions does the balance between magnetic and plasma pressure across EPDs occur? The results indicate that: (1.) The electromagnetic energy associated with EPDs presents a preference for interhemispheric flows; that is, the related Poynting flux directs from one magnetic hemisphere to the other and varies with longitude and season. (2.) The field-aligned currents at the edges of EPDs are interhemispheric. They generally close in the hemisphere with the highest Pedersen conductance. Such hemispherical preference presents a seasonal/longitudinal dependence. The diamagnetic currents increase or decrease the magnetic pressure inside EPDs. These two effects rely on variations of the plasma temperature inside the EPDs that depend on longitude and local time. (3.) EPDs present lower or higher plasma pressure than the ambient. For low-pressure EPDs the plasma pressure gradients are mostly dominated by variations of the plasma density so that variations of the temperature are negligible. High-pressure EPDs suggest significant temperature variations with magnitudes of approximately twice the ambient. Since their occurrence is more frequent in the vicinity of the South Atlantic magnetic anomaly, such high temperatures are suggested to be due to particle precipitation. In a broader context, this dissertation shows how dedicated satellite missions with high-resolution capabilities improve the specification of the low-latitude ionospheric electrodynamics and expand knowledge on EPDs which is valuable for current and future communication, navigation, and Earth-observing missions. The contributions of this investigation represent several ’firsts’ in the study of EPDs: (1.) The first observational evidence of interhemispheric electromagnetic energy flux and field-aligned currents. (2.) The first spatial and temporal characterization of EPDs based on their associated field-aligned and diamagnetic currents. (3.) The first evidence of high plasma pressure in regions of depleted plasma density in the ionosphere. These findings provide new insights that promise to advance our current knowledge of not only EPDs but the low-latitude post-sunset ionosphere environment. N2 - Der erdnahe Weltraum stellt eine bedeutende wissenschaftliche und technologische Herausforderung dar. Insbesondere in niedrigeren magnetischen Breitengraden unterstützen die horizontale Geometrie des Magnetfelds und seine geschlossenen Feldlinien das Vorhandensein eines speziellen elektrischen Stromsystems, abrupte Änderungen der elektrischen Felder und das Auftreten von Plasmairregularitäten. Von besonderem Interesse sind regionale Unregelmäßigkeiten im Zusammenhang mit äquatorialen Plasma-Verarmungen (EPDs, Abkürzung aus dem Englischen für „equatorial plasma depletions”). Sie stören trans-ionosphärischer Funkwellen, welche zur Positionierung, Kommunikation und Erd-beobachtung eingesetzt werden. Die schnelle Entwicklung von Satellitenmissionen macht das Verständnis der erdnahen Weltraumphänomene zu einer Priorität, insbesondere derjenigen, welche die Weltraumtechnologie schädigen oder ihre Signale stören können. Die EPDs und die damit verbundenen Plasmairregularitäten sind seit Beginn des Weltraumzeitalters eines der am häufigsten untersuchten Phänomene. EPDs sind großflächigen Strukturen (d. h. zehn bis hundert Kilometer), die auf Spread F Ereignisse zurückgeführt werden können. Sie äußern sich als mit dem Hintergrund-Magnetfeld ausgerichtete Kanäle verarmter Plasmadichte, welche in niedrigen Breiten in der Ionophäre nach Sonnenuntergang auftreten. Obwohl die klimatologische Variabilität des Auftretens von EPDs bezüglich der Jahreszeit, geografischen Länge, Ortszeit und des Sonnenzyklus wohl bekannt sind, trifft dies nicht für ihre Tag-zu-Tag-Variabilität zu. Die spärlichen Beobachtungen von bodengestützten Instrumenten, wie Radargeräten, und die wenigen gleichzeitigen Messungen ionosphärischer Parameter von weltraumgestützten Instrumenten auf erdnahen Umlaufbahnen haben Wissenslücken hinterlassen, die für das Verständnis der Variabilität von EPDs essentiell sind. In dieser Dissertation habe ich von einzigartigen Beobachtungen der im November 2013 gestarteten ESA Satellitenkonstellationsmission „Swarm“ profitiert, um drei Probleme zu bearbeiten, die neue und signifikante Ergebnisse zum aktuellen Wissen über EPDs enthüllten. Ich habe Swarms Messungen der Elektronendichte, des magnetischen und des elektrischen Feldes verwendet, um Folgendes zu beantworten: (1.) In welche Richtung breitet sich die mit den EPDs verbundene elektromagnetische Energie aus? (2.) Was sind die räumlichen und zeitlichen Eigenschaften der elektrischen Ströme (feldgerichtete und diamagnetische Ströme) in Bezug auf EPDs, d. h. wie hängen sie von der geografischen Länge, Jahreszeit und Lokalzeit ab? (3.) Unter welchen Bedingungen findet der mit EPDs verbundene Ausgleich zwischen magnetischem Druck und Plasmadruck statt? Die Ergebnisse zeigen, dass: (1.) Die mit EPDs verbundene elektromagnetische Energie bevorzugt interhemisphärische Strömungen, das heißt, der zugehörige Poynting-Fluss strömt von einer magnetischen Hemisphäre zur anderen und die Strömungsrichtung variiert mit geografischer Länge und Jahreszeit. (2.) Die feldgerichteten Ströme an den Rändern von EPDs sind interhemisphärisch. Im Allgemeinen schließen sie sich in der Hemisphäre mit der höchsten Pedersen-Leitfähigkeit. Die derartige hemisphärische Präferenz zeigt eine Abhängigkeit bezüglich der Jahreszeit/geografischen Länge. Die diamagnetischen Ströme erhöhen oder verringern den magnetischen Druck innerhalb der EPDs. Diese beiden Effekte beruhen auf Variationen der Plasmatemperatur innerhalb der EPDs, die von der geografischen Länge und der Lokalzeit abhängt. (3.) EPDs weisen einen höheren oder niedrigeren Plasmadruck als ihre Umgebung auf. In Niederdruck-EPDs werden die Plasmadruckgradienten meist durch Variationen der Plasmadichte hervorgerufen, sodass Temperaturschwankungen vernachlässigbar sind. Hochdruck-EPDs deuten auf hohe innere Temperaturen hin, etwa das Zweifache der Umgebungstemperatur. Aufgrund ihres häufigeren Auftretens in der Nähe der Südatlantischen Magnetfeldanomalie wird vermutet, dass solche hohen Temperaturen auf den Einfall hochenergetischer Teilchen zurückzuführen sind. In einem breiteren Kontext zeigt diese Dissertation auf, wie spezielle Satellitenmissionen mit hohem Auflösungsvermögen die Spezifikation der ionoshärischen Elektrodynamik in niedrigen Breiten und das Verständnis von EPDs verbessern, was wertvoll für aktuelle und zukünfte Kommunikatoins-, Positionierungs- sowie Erdbeobachtungsmissionen ist. Die Beiträge dieser Arbeit stellen gleich mehrere "Premieren" in der EPD-Forschung dar: (1.) Der erste empirische Nachweis interhemisphärischer elektromagnetischer Energieflüsse und feldgerichteter Ströme. (2.) Die erste raum-zeitliche Beschreibung von EPDs auf der Grundlage ihrer assoziierten feldgerichteten und diamagnetischen Ströme. (3.) Der erste Nachweis hohen Plasmadrucks in Regionen verminderter Plasmadichte in der Ionosphäre. Diese Forschungsergebnisse liefern neue Erkenntnisse, die nicht nur unser derzeitiges Wissen über EPDs, sondern auch jenes über die ionosphärische Domaine in niedrigen Breiten nach Sonnenuntergang fördert. KW - equatorial plasma depletions KW - electric and magnetic fields KW - spread F KW - ionosphere KW - swarm mission KW - äquatorialen Plasma-Verarmungen KW - elektrische und magnetische Felder KW - Spread F KW - Ionosphäre KW - Satellitenmission Swarm Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-445873 ER - TY - THES A1 - Risch, Julian T1 - Reader comment analysis on online news platforms N2 - Comment sections of online news platforms are an essential space to express opinions and discuss political topics. However, the misuse by spammers, haters, and trolls raises doubts about whether the benefits justify the costs of the time-consuming content moderation. As a consequence, many platforms limited or even shut down comment sections completely. In this thesis, we present deep learning approaches for comment classification, recommendation, and prediction to foster respectful and engaging online discussions. The main focus is on two kinds of comments: toxic comments, which make readers leave a discussion, and engaging comments, which make readers join a discussion. First, we discourage and remove toxic comments, e.g., insults or threats. To this end, we present a semi-automatic comment moderation process, which is based on fine-grained text classification models and supports moderators. Our experiments demonstrate that data augmentation, transfer learning, and ensemble learning allow training robust classifiers even on small datasets. To establish trust in the machine-learned models, we reveal which input features are decisive for their output with attribution-based explanation methods. Second, we encourage and highlight engaging comments, e.g., serious questions or factual statements. We automatically identify the most engaging comments, so that readers need not scroll through thousands of comments to find them. The model training process builds on upvotes and replies as a measure of reader engagement. We also identify comments that address the article authors or are otherwise relevant to them to support interactions between journalists and their readership. Taking into account the readers' interests, we further provide personalized recommendations of discussions that align with their favored topics or involve frequent co-commenters. Our models outperform multiple baselines and recent related work in experiments on comment datasets from different platforms. N2 - Kommentarspalten von Online-Nachrichtenplattformen sind ein essentieller Ort, um Meinungen zu äußern und politische Themen zu diskutieren. Der Missbrauch durch Trolle und Verbreiter von Hass und Spam lässt jedoch Zweifel aufkommen, ob der Nutzen die Kosten der zeitaufwendigen Kommentarmoderation rechtfertigt. Als Konsequenz daraus haben viele Plattformen ihre Kommentarspalten eingeschränkt oder sogar ganz abgeschaltet. In dieser Arbeit stellen wir Deep-Learning-Verfahren zur Klassifizierung, Empfehlung und Vorhersage von Kommentaren vor, um respektvolle und anregende Online-Diskussionen zu fördern. Das Hauptaugenmerk liegt dabei auf zwei Arten von Kommentaren: toxische Kommentare, die die Leser veranlassen, eine Diskussion zu verlassen, und anregende Kommentare, die die Leser veranlassen, sich an einer Diskussion zu beteiligen. Im ersten Schritt identifizieren und entfernen wir toxische Kommentare, z.B. Beleidigungen oder Drohungen. Zu diesem Zweck stellen wir einen halbautomatischen Moderationsprozess vor, der auf feingranularen Textklassifikationsmodellen basiert und Moderatoren unterstützt. Unsere Experimente zeigen, dass Datenanreicherung, Transfer- und Ensemble-Lernen das Trainieren robuster Klassifikatoren selbst auf kleinen Datensätzen ermöglichen. Um Vertrauen in die maschinell gelernten Modelle zu schaffen, zeigen wir mit attributionsbasierten Erklärungsmethoden auf, welche Teile der Eingabe für ihre Ausgabe entscheidend sind. Im zweiten Schritt ermutigen und markieren wir anregende Kommentare, z.B. ernsthafte Fragen oder sachliche Aussagen. Wir identifizieren automatisch die anregendsten Kommentare, so dass die Leser nicht durch Tausende von Kommentaren blättern müssen, um sie zu finden. Der Trainingsprozess der Modelle baut auf Upvotes und Kommentarantworten als Maß für die Aktivität der Leser auf. Wir identifizieren außerdem Kommentare, die sich an die Artikelautoren richten oder anderweitig für sie relevant sind, um die Interaktion zwischen Journalisten und ihrer Leserschaft zu unterstützen. Unter Berücksichtigung der Interessen der Leser bieten wir darüber hinaus personalisierte Diskussionsempfehlungen an, die sich an den von ihnen bevorzugten Themen oder häufigen Diskussionspartnern orientieren. In Experimenten mit Kommentardatensätzen von verschiedenen Plattformen übertreffen unsere Modelle mehrere grundlegende Vergleichsverfahren und aktuelle verwandte Arbeiten. T2 - Analyse von Leserkommentaren auf Online-Nachrichtenplattformen KW - machine learning KW - Maschinelles Lernen KW - text classification KW - Textklassifikation KW - social media KW - Soziale Medien KW - hate speech detection KW - Hasserkennung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-489222 ER - TY - THES A1 - Reschke, Maria T1 - Signal content of temperature proxy records BT - a correlation-based study Y1 - 2020 ER - TY - THES A1 - Reinhardt, Maria T1 - Hybrid filters and multi-scale models N2 - This thesis is concerned with Data Assimilation, the process of combining model predictions with observations. So called filters are of special interest. One is inter- ested in computing the probability distribution of the state of a physical process in the future, given (possibly) imperfect measurements. This is done using Bayes’ rule. The first part focuses on hybrid filters, that bridge between the two main groups of filters: ensemble Kalman filters (EnKF) and particle filters. The first are a group of very stable and computationally cheap algorithms, but they request certain strong assumptions. Particle filters on the other hand are more generally applicable, but computationally expensive and as such not always suitable for high dimensional systems. Therefore it exists a need to combine both groups to benefit from the advantages of each. This can be achieved by splitting the likelihood function, when assimilating a new observation and treating one part of it with an EnKF and the other part with a particle filter. The second part of this thesis deals with the application of Data Assimilation to multi-scale models and the problems that arise from that. One of the main areas of application for Data Assimilation techniques is predicting the development of oceans and the atmosphere. These processes involve several scales and often balance rela- tions between the state variables. The use of Data Assimilation procedures most often violates relations of that kind, which leads to unrealistic and non-physical pre- dictions of the future development of the process eventually. This work discusses the inclusion of a post-processing step after each assimilation step, in which a minimi- sation problem is solved, which penalises the imbalance. This method is tested on four different models, two Hamiltonian systems and two spatially extended models, which adds even more difficulties. N2 - Diese Dissertation beschäftigt sich mit Daten Assimilation - die Kombination von Modellvorhersagen mit Beobachtungen. Sogenannte Filter sind dabei von beson- derem Interesse. Diese Algorithmen berechnen die Wahrscheinlichkeitsverteilung des Zustandes eines physikalischen Prozesses in der Zukunft unter der Bedingung, dass wir (meist) fehlerbehaftete Messungen vorliegen haben. Der erste Teil bezieht sich auf Hybridfilter, welche eine Brücke zwischen den beiden Hauptgruppen von Filtern schlagen: Ensemble-Kalman-Filter (EnKF) und Teilchenfilter. Die erst- genannten sind sehr stabil und rechnerisch unaufwändig, aber basieren auf recht starken Voraussetzungen. Teilchenfilter hingegen sind allgemeiner aber recheninten- siv und daher nicht immer geeignet für höherdimensionale Systeme. Daher besteht die Notwen- digkeit beide Gruppen zu kombinieren um von den Vorteilen beider Filter zu prof- itieren. Dies kann erreicht werden, indem man, wenn eine Beobachtung assimiliert werden soll, die Likelihood-Funktion in zwei Teile spaltet und auf den einen Teil einen EnKF und auf den anderen einen Teilchenfilter anwendet. Der zweite Teil dieser Arbeit befasst sich mit der Anwendung von Daten Assimilation auf mehrskalige Modelle und die Probleme die daraus entstehen. Eines der Haup- tanwendungsgebiete für Daten Assimilation ist die Vorhersage der Entwicklung von Ozeanen und der Atmosphäre. Diese Prozesse finden auf mehreren Skalen statt und häufig bestehen Balancerelationen zwischen den Zustandsvariablen. Die Nutzung von Daten Assimilationstechniken zerstört diese Beziehungen häufig, was schließlich zu unrealistischen und unphysikalischen Vorhersagen führt. In dieser Dissertation wird vorgeschlagen, nach jedem Assimilationsschritt ein Minimierungsproblem zu lösen, welches die Imbalance als Strafterm beinhaltet. Diese Methode wird an vier verschiedenen Modellen getestet, zwei Hamiltonische Systeme und zwei Modelle mit räumlicher Ausdehnung, was zusätzliche Schwierigkeiten schafft. T2 - Hybridfilter und Multiskalen-Modelle KW - Data Assimilation KW - Daten Assimilation KW - Bayesian Inference KW - bayessche Inferenz KW - Uncertainty Quantification KW - Quantifizierung von Unsicherheit KW - Data-Driven Methods KW - Datengetriebene Methoden Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-474356 ER - TY - THES A1 - Ramezani Ziarani, Maryam T1 - Characterization of atmospheric processes related to hydro-meteorological extreme events over the south-central Andes N2 - The significant environmental and socioeconomic consequences of hydrometeorological extreme events, such as extreme rainfall, are constituted as a most important motivation for analyzing these events in the south-central Andes of NW Argentina. The steep topographic and climatic gradients and their interactions frequently lead to the formation of deep convective storms and consequently trigger extreme rainfall generation. In this dissertation, I focus on identifying the dominant climatic variables and atmospheric conditions and their spatiotemporal variability leading to deep convection and extreme rainfall in the south-central Andes. This dissertation first examines the significant contribution of temperature on atmospheric humidity (dew-point temperature, Td) and on convection (convective available potential energy, CAPE) for deep convective storms and hence, extreme rainfall along the topographic and climatic gradients. It was found that both climatic variables play an important role in extreme rainfall generation. However, their contributions differ depending on topographic and climatic sub-regions, as well as rainfall percentiles. Second, this dissertation explores if (near real-time) the measurements conducted by the Global Navigation Satellite System (GNSS) on integrated water vapor (IWV) provide reliable data for explaining atmospheric humidity. I argue that GNSS-IWV, in conjunction with other atmospheric stability parameters such as CAPE, is able to decipher the extreme rainfall in the eastern central Andes. In my work, I rely on a multivariable regression analysis described by a theoretical relationship and fitting function analysis. Third, this dissertation identifies the local impact of convection on extreme rainfall in the eastern Andes. Relying on a Principal Component Analysis (PCA) it was found that during the existence of moist and warm air, extreme rainfall is observed more often during local night hours. The analysis includes the mechanisms for this observation. Exploring the atmospheric conditions and climatic variables leading to extreme rainfall is one of the main findings of this dissertation. The conditions and variables are a prerequisite for understanding the dynamics of extreme rainfall and predicting these events in the eastern Andes. N2 - Die entscheidenden ökologischen und sozioökonomischen Folgen hydrometeorologischer Extremereignisse, wie z.B. extremer Niederschläge, stellen eine wichtige Motivation für die Analyse dieser Ereignisse in den südlich-zentralen Anden von NW Argentinien dar. Die steilen topographischen und klimatischen Gradienten und deren Wechselwirkungen führen häufig zu einer starken konvektiven Regenfallbildung und sind häufig auch die Auslöser von Starkniederschlägen. In dieser Dissertation konzentriere ich mich auf die Identifizierung der dominanten klimatischen Variablen und atmosphärischen Rahmenbedingungen und ihrer räumlich-zeitliche Variabilität, die zu starker Konvektion und extremen Niederschlägen in den südlich-zentralen Anden führt. Diese Dissertation untersucht zunächst den wichtigen Beitrag der Temperatur zur Luftfeuchtigkeit(Taupunkttemperatur, Td) und zur Konvektion (konvektive verfügbare potenzielle Energie, CAPE) für starke, konvektive Stürme und damit extreme Niederschläge entlang der topographischen und klimatischen Gradienten. Es wurde festgestellt, dass beide klimatischen Variablen eine wichtige Rolle bei der Erzeugung extremer Niederschläge spielen. Ihr Beitrag hängt jedoch von den topographischen und klimatischen Teilregionen sowie den Niederschlagsperzentilen ab. Zweitens, auf der Grundlage einer multivariablen Regressionsanalyse, die durch eine theoretische Beziehungs- und Anpassungsfunktionsanalyse beschrieben wird, untersucht diese Arbeit, ob integrierter Wasserdampf (IWV) auf der Grundlage von GNSS (Global Navigation Satellite System) Messungen zuverlässige Daten sind, um die Luftfeuchtigkeit zu erklären. Das GNSS-IWV in Verbindung mit anderen atmosphärischen Stabilitätsparametern wie z.B. CAPE ist in der Lage, die extremen Niederschläge in den östlichen zentralen Anden zu entschlüsseln. Drittens, diese Dissertation identifiziert die lokalen Auswirkungen der Konvektion auf extreme Niederschläge in den östlichen Anden. Auf der Grundlage einer Hauptkomponentenanalyse (PCA) wurde festgestellt, dass die extremen Niederschläge häufiger während der lokalen Nachtstunden beobachtet werden, wenn feuchte und warme Luft vorhanden ist. Die Erforschung der atmosphärischen Rahmenbedingungen und klimatischen Variablen, die zu extremen Niederschlägen führen, ist eines der wichtigste Ergebnisse dieser Arbeit. Sie ist Voraussetzung für das Verständnis der Dynamik von extremen Niederschlägen und wichtig für die Vorhersage dieser Ereignisse in den östlichen Anden. T2 - Charakterisierung der atmosphärischen Prozesse im Zusammenhang mit hydro-meteorologischen Extremereignissen über den süd-zentralen Anden KW - eastern south–central Andes KW - extreme rainfall KW - deep convection KW - östlich-südzentrale Anden KW - Extremniederschläge KW - starker Konvektion Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471755 ER - TY - THES A1 - Radtke, Ina T1 - Organizing immigration BT - German ministerial bureaucracies in a dynamic policy field N2 - Immigration constitutes a dynamic policy field with – often quite unpredictable – dynamics. This is based on immigration constituting a ‘wicked problem’ meaning that it is characterized by uncertainty, ambiguity and complexity. Due to the dynamics in the policy field, expectations towards public administrations often change. Following neo-institutionalist theory, public administrations depend on meeting the expectations in the organizational field in order to maintain legitimacy as the basis for, e.g., resources and compliance of stakeholders. With the dynamics in the policy field, expectations might change and public administrations consequently need to adapt in order to maintain or repair the then threatened legitimacy. If their organizational legitimacy is threatened by a perception of structures and processes being inadequate for changed expectations, an ‘institutional crisis’ unfolds. However, we know little about ministerial bureaucracies’ structural reactions to such crucial momentums and how this effects the quest for coordination within policy-making. Overall, the dissertation thus links to both policy analysis and public administration research and consists of five publications. It asks: How do structures in ministerial bureaucracies change in the context of institutional crises? And what effect do these changes have on ministerial coordination? The dissertation hereby focusses on the above described dynamic policy field of immigration in Germany in the period from 2005 to 2017 and pursues three objectives: 1) to identify the context and impulse for changes in the structures of ministerial bureaucracies, 2) to describe respective changes with regard to their organizational structures, and 3) to identify their effect on coordination. It hereby compares and contrasts institutional crises by incremental change and shock as well as changes and effects at federal and Länder level which allows a comprehensive answer to both of the research questions. Theoretically, the dissertation follows neo-institutionalist theory with a particular focus on changes in organizational structures, coordination and crisis management. Methodologically, it follows a comparative design. Each article (except for the literature review), focusses on ministerial bureaucracies at one governmental level (federal or Länder) and on an institutional crisis induced by either an incremental process or a shock. Thus, responses and effects can be compared and contrasted across impulses for institutional crises and governmental levels. Overall, the dissertation follows a mixed methods approach with a majority of qualitative single and small-n case studies based on document analysis and semi-structured interviews. Additionally, two articles use quantitative methods as they best suited the respective research question. The rather explorative nature of these two articles however fits to the overall interpretivist approach of the dissertation. Overall, the dissertation’s core argument is: Within the investigation period, varying dynamics and thus impulses for institutional crises took place in the German policy field of immigration. Respectively, expectations by stakeholders on how the politico-administrative system should address the policy problem changed. Ministerial administrations at both the federal and Länder level adapted to these expectations in order to maintain, or regain respectively, organizational legitimacy. The administration hereby referred to well-known recipes of structural changes. Institutional crises do not constitute fields of experimentation. The new structures had an immediate effect on ministerial coordination, with respect to both the horizontal and vertical dimension. Yet, they did not mean a comprehensive change of the system in place. The dissertation thus challenges the idea of the toppling effect of crises and rather shows that adaptability and persistence of public administrations constitute two sides of the same coin. KW - Ministerial bureaucracy KW - coordination KW - institutional crisis KW - immigration KW - migration KW - refugee crisis KW - Ministerialbürokratie KW - Koordination KW - institutionelle Krise KW - Immigration KW - Migration KW - Flüchtlingskrise Y1 - 2020 ER - TY - THES A1 - Purinton, Benjamin T1 - Remote sensing applications to earth surface processes in the Eastern Central Andes T1 - Fernerkundungsanwendungen für Erdoberflächenprozesse in den östlichen Zentralanden N2 - Geomorphology seeks to characterize the forms, rates, and magnitudes of sediment and water transport that sculpt landscapes. This is generally referred to as earth surface processes, which incorporates the influence of biologic (e.g., vegetation), climatic (e.g., rainfall), and tectonic (e.g., mountain uplift) factors in dictating the transport of water and eroded material. In mountains, high relief and steep slopes combine with strong gradients in rainfall and vegetation to create dynamic expressions of earth surface processes. This same rugged topography presents challenges in data collection and process measurement, where traditional techniques involving detailed observations or physical sampling are difficult to apply at the scale of entire catchments. Herein lies the utility of remote sensing. Remote sensing is defined as any measurement that does not disturb the natural environment, typically via acquisition of images in the visible- to radio-wavelength range of the electromagnetic spectrum. Remote sensing is an especially attractive option for measuring earth surface processes, because large areal measurements can be acquired at much lower cost and effort than traditional methods. These measurements cover not only topographic form, but also climatic and environmental metrics, which are all intertwined in the study of earth surface processes. This dissertation uses remote sensing data ranging from handheld camera-based photo surveying to spaceborne satellite observations to measure the expressions, rates, and magnitudes of earth surface processes in high-mountain catchments of the Eastern Central Andes in Northwest Argentina. This work probes the limits and caveats of remote sensing data and techniques applied to geomorphic research questions, and presents important progress at this disciplinary intersection. N2 - Die Geomorphologie versucht die Art, Geschwindigkeit und Ausmaße des Sediment- und Wassertransports zu charakterisieren welche zur Formung der Landschaften beitragen. Diese werden im Allgemeinen als Erdoberflächenprozesse bezeichnet, welche den Einfluss biologischer (z.B. Vegetation), klimatischer (z.B. Niederschlag) und tektonischer (z.B. Gebirgshebung) Faktoren auf den Transport von Wasser und das erodierte Material beschreiben. Im Hochgebirge entsteht eine dynamische Wechselwirkung zwischen hohen Reliefs und steilen Hängen und infolge dessen starke Regen- und Vegetationsgradienten. Die gleiche raue Topographie stellt wiederum eine Herausforderung bei der Datenerfassung und Prozessmessung dar, da hier herkömmliche Techniken zur detaillierten Beobachtung oder physikalischen Probenahmen im Maßstab ganzer Einzugsgebiete an ihre Grenzen stoßen. Hier zeigt sich der Nutzen der Fernerkundung. Fernerkundung ist definiert als Messung, welche die natürliche Umgebung nicht stört, typischerweise durch Aufnahme von Bildern im sichtbaren bis Radio-Wellenlängenbereich des elektromagnetischen Spektrums. Fernerkundung ist eine besonders vorteilhafte Option für die Messung von Erdoberflächenprozessen, da großflächige Messungen mit wesentlich geringerem Aufwand als bei herkömmlichen Methoden durchgeführt werden können. Diese Messungen ermöglichen nicht nur das Erfassen der topografischen Form, sondern auch das der Klima- und Umwelteinflüsse, die wiederum bei der Untersuchung von Erdoberflächenprozessen miteinander verknüpft sind. In dieser Dissertation werden Fernerkundungsdaten verwendet, die von kamerabasierten Handaufnahmen bis zu weltraumgestützten Satellitenbeobachtungen reichen, um die Auswirkungen, Geschwindigkeiten und das Ausmaß von Erdoberflächenprozessen in hochgebirgigen Einzugsgebieten der östlichen Zentralanden im Nordwesten Argentiniens zu messen. Diese Arbeit untersucht die Möglichkeiten und Grenzen von Fernerkundungsdaten und -techniken, die auf geomorphologische Forschungsfragen angewendet werden und präsentiert wichtige Fortschritte an diesem disziplinären Schnittpunkt. KW - Fernerkundung KW - remote sensing KW - Geomorphologie KW - geomorphology KW - Anden KW - Andes Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-445926 ER - TY - THES A1 - Pudell, Jan-Etienne T1 - Lattice dynamics T1 - Gitterdynamik BT - observed with x-ray diffraction BT - beobachtet mit Röntgenbeugung N2 - In this thesis I summarize my contribution to the research field of ultrafast structural dynamics in condensend matter. It consists of 17 publications that cover the complex interplay between electron, magnon, and phonon subsystems in solid materials and the resulting lattice dynamics after ultrafast photoexcitation. The investigation of such dynamics is necessary for the physical understanding of the processes in materials that might become important in the future as functional materials for technological applications, for example in data storage applications, information processing, sensors, or energy harvesting. In this work I present ultrafast x-ray diffraction (UXRD) experiments based on the optical pump – x-ray probe technique revealing the time-resolved lattice strain. To study these dynamics the samples (mainly thin film heterostructures) are excited by femtosecond near-infrared or visible light pulses. The induced strain dynamics caused by stresses of the excited subsystems are measured in a pump-probe scheme with x-ray diffraction (XRD) as a probe. The UXRD setups used during my thesis are a laser-driven table-top x-ray source and large-scale synchrotron facilities with dedicated time-resolved diffraction setups. The UXRD experiments provide quantitative access to heat reservoirs in nanometric layers and monitor the transient responses of these layers with coupled electron, magnon, and phonon subsystems. In contrast to optical probes, UXRD allows accessing the material-specific information, which is unavailable for optical light due to the detection of multiple indistinguishable layers in the range of the penetration depth. In addition, UXRD facilitates a layer-specific probe for layers buried opaque heterostructures to study the energy flow. I extended this UXRD technique to obtain the driving stress profile by measuring the strain dynamics in the unexcited buried layer after excitation of the adjacent absorbing layers with femtosecond laser pulses. This enables the study of negative thermal expansion (NTE) in magnetic materials, which occurs due to the loss of the magnetic order. Part of this work is the investigation of stress profiles which are the source of coherent acoustic phonon wave packets (hypersound waves). The spatiotemporal shape of these stress profiles depends on the energy distribution profile and the ability of the involved subsystems to produce stress. The evaluation of the UXRD data of rare-earth metals yields a stress profile that closely matches the optical penetration profile: In the paramagnetic (PM) phase the photoexcitation results in a quasi-instantaneous expansive stress of the metallic layer whereas in the antiferromagnetic (AFM) phase a quasi-instantaneous contractive stress and a second contractive stress contribution rising on a 10 ps time scale adds to the PM contribution. These two time scales are characteristic for the magnetic contribution and are in agreement with related studies of the magnetization dynamics of rare-earth materials. Several publications in this thesis demonstrate the scientific progress in the field of active strain control to drive a second excitation or engineer an ultrafast switch. These applications of ultrafast dynamics are necessary to enable control of functional material properties via strain on ultrafast time scales. For this thesis I implemented upgrades of the existing laser-driven table-top UXRD setup in order to achieve an enhancement of x-ray flux to resolve single digit nanometer thick layers. Furthermore, I developed and built a new in-situ time-resolved magneto-optic Kerr effect (MOKE) and optical reflectivity setup at the laser-driven table-top UXRD setup to measure the dynamics of lattice, electrons and magnons under the same excitation conditions. N2 - In dieser Doktoarbeit sind meine Beiträge zum Forschungsgebiet der ltraschnellen Strukturdynamik in kondensierter Materie zusammegefasst. Sie besteht aus 17 Publikationen, welche dieWechselwirkung zwischen Elektron-, Magnon- und Phononsystem in Festkörpern, sowie die dadurch verursachte Gitterdynamik nach ultraschneller optischer Anregung diskutieren. Die Untersuchung dieser Dynamik ist erforderlich für das physikalische Verständnis der Prozesse in Materialien, die in Zukunft als Funktionsmaterialien für technologische Anwendungen, z.B. in der Datenspeicherung und Informationsverarbeitung, sowie bei Sensoren und der Energiegewinnung, wichtig werden könnten. In dieser Arbeit präsentiere ich Experimente, welche ultraschneller Röntgenbeugung (UXRD) als Technik nutzen. Sie basiert auf der Anrege-Abfrage-Technik: Die Dynamik in der Probe (hauptsächlich Dünnfilm-Heterostrukturen) wird durch Femtosekunden-Lichtpulse im nahen Infrarot oder im sichtbaren Bereich angeregt. Die Dehnung des Materials, welche die Spannung (Druck) der angeregten Teilsysteme hervorruft, wird mit Röntgenbeugung als Abfrage gemessen. Während meiner Doktorandentätigkeit habe ich zwei Arten von Aufbauten zur UXRD genutzt: lasergetriebene laborbasierte Röntgenquellen und Synchrotronstrahlungsquellen mit zugehörigen zeitaufgelösten Messinstrumenten. Mit den UXRD-Experimenten kann die gespeicherte Energie unterschiedlicher gekoppelter Teilsysteme, wie Elektronen, Mangonen und Phononen, einer nur wenige Nanometer dicken Schicht gemessen werden. Im Vergleich zu optischenMesstechniken bietet UXRD den Zugriff auf materialspezifische Informationen, die für optisches Licht aufgrund der Detektion mehrerer nicht unterscheidbarer Schichten im Bereich der Eindringtiefe nicht zur Verfügung steht. Darüber hinaus lässt sich mit UXRD eine für optische Detektion verdeckte Schicht als schichtspezifische Sonde nutzen, um den Energietransport zu untersuchen. Dieses Prinzip wurde dazu genutzt, um das treibende Spannungsprofil mittels der Dehnungsdynamik in einer angrenzenden, optisch nicht angeregten Schicht zu messen. Dies ermöglichte die Untersuchung der Dichteanomalie in magnetischen Materialen, die durch den Verlust der magnetischen Ordnung entsteht. Ebenfalls Teil dieser Arbeit ist die Untersuchung von Spannungsprofilen als Quelle von kohärenten akustischen Phononen (Hyperschallwellen). Das raumzeitliche Profil des Spannungsprofils hängt von der Energieverteilung innerhalb der Teilsysteme und ihrer Fähigkeit ab, Energie in Dehnung umzusetzen. Die Auswertung von UXRD Experimenten an Metallen der Seltenen Erden ergab ein Spannungsprofil, dass dem Absorptionsprofil der optischen Anregung entsprach: In der paramagnetischen Phase erzeugte es einen instantanen expansiven Druck, wohingegen in der antiferromagnetischen Phase ein instantaner und ein auf einer 10 ps Zeitskala ansteigender kontrahierender Druck zusätzlich auftritt. Die beiden charakteristischen Zeitskalen in der antiferromagnetischen Phase sind in Übereinstimmung mit verschiedenen Studien der Demagnetisierungsdynamik in den Metallen der Seltenen Erden. Einige Publikationen dieser Arbeit beschäftigen sich mit Feld der aktiven Dehnungskontrolle. Dies ermöglich die Kontrolle von Funktionsmaterialen via Dehnung auf ultraschnellen Zeitskalen. Im Rahmen meiner Doktorandentätigkeit habe ich den lasergetriebenen UXRD Aufbau optimiert, um mit dem hohen Röntgenfluss Experimente mit nur einigen Nanometer dicken Schichten zu ermöglichen. Diese Maschine habe ich um einen zeitaufgelösten Aufbau zur in situ Messung der Reflektivität und Magnetisierungsdynamik mittels magnetooptischem Kerr-Effekt ergänzt. Dies ermöglicht die gleichzeitige Messung von Gitter-, Elektronen- und Magnonendynamik unter derselben Anregebedingung. KW - ultrafast x-ray diffraction KW - ultraschnelle Röntgendiffraktion KW - lattice dynamics KW - Gitterdynamik KW - nanoscale heat transfer KW - nanoskaliger Wärmetransport KW - ultrafast magnetism KW - ultraschneller Magnetimus KW - mechanical and acoustical properties KW - mechanische und akustische Eigenschaften Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-484453 ER -