TY - THES A1 - Adelhelm, Philipp T1 - Novel carbon materials with hierarchical porosity : templating strategies and advanced characterization T1 - Neue Kohlenstoffmaterialien mit hierarchischer Porosität : Strategien der Templatierung und erweiterte Charakterisierung N2 - The aim of this work was the generation of carbon materials with high surface area, exhibiting a hierarchical pore system in the macro- and mesorange. Such a pore system facilitates the transport through the material and enhances the interaction with the carbon matrix (macropores are pores with diameters > 50 nm, mesopores between 2 – 50 nm). Thereto, new strategies for the synthesis of novel carbon materials with designed porosity were developed that are in particular useful for the storage of energy. Besides the porosity, it is the graphene structure itself that determines the properties of a carbon material. Non-graphitic carbon materials usually exhibit a quite large degree of disorder with many defects in the graphene structure, and thus exhibit inherent microporosity (d < 2nm). These pores are traps and oppose reversible interaction with the carbon matrix. Furthermore they reduce the stability and conductivity of the carbon material, which was undesired for the proposed applications. As one part of this work, the graphene structures of different non-graphitic carbon materials were studied in detail using a novel wide-angle x-ray scattering model that allowed precise information about the nature of the carbon building units (graphene stacks). Different carbon precursors were evaluated regarding their potential use for the synthesis shown in this work, whereas mesophase pitch proved to be advantageous when a less disordered carbon microstructure is desired. By using mesophase pitch as carbon precursor, two templating strategies were developed using the nanocasting approach. The synthesized (monolithic) materials combined for the first time the advantages of a hierarchical interconnected pore system in the macro- and mesorange with the advantages of mesophase pitch as carbon precursor. In the first case, hierarchical macro- / mesoporous carbon monoliths were synthesized by replication of hard (silica) templates. Thus, a suitable synthesis procedure was developed that allowed the infiltration of the template with the hardly soluble carbon precursor. In the second case, hierarchical macro- / mesoporous carbon materials were synthesized by a novel soft-templating technique, taking advantage of the phase separation (spinodal decomposition) between mesophase pitch and polystyrene. The synthesis also allowed the generation of monolithic samples and incorporation of functional nanoparticles into the material. The synthesized materials showed excellent properties as an anode material in lithium batteries and support material for supercapacitors. N2 - Kohlenstoffmaterialien finden aufgrund ihrer Vielseitigkeit heute in den unterschiedlichsten Bereichen des täglichen Lebens ihren Einsatz. Bekannte Beispiele sind Kohlenstofffasern in Verbundwerkstoffen, Graphit als trockenes Schmiermittel, oder Aktivkohlen in Filtersystemen. Ferner wird Graphit als Elektrodenmaterial auch in Lithium-Ionen-Batterien verwendet. Wegen knapper werdender Ressourcen von Öl und Gas wurde in den letzten Jahren verstärkt an der Entwicklung neuer Materialien für die Speicherung von Wasserstoff und elektrischer Energie gearbeitet. Die Nanotechnologie ist dabei auch für neue Kohlenstoffmaterialien zukunftsweisend, denn sie stellt weitere Anwendungsmöglichkeiten in Aussicht. In dieser Arbeit wurden hierzu mittels des sogenannten Nanocastings neue Kohlenstoffmaterialien für Energieanwendungen, insbesondere zur Speicherung von elektrischer Energie entwickelt. Die Eigenschaften eines Kohlenstoffmaterials beruhen im Wesentlichen auf der Struktur des Kohlenstoffs im molekularen Bereich. Die in dieser Arbeit hergestellten Materialen bestehen aus nichtgraphitischem Kohlenstoff und wurden im ersten Teil der Arbeit mit den Methoden der Röntgenstreuung genau untersucht. Eine speziell für diese Art von Kohlenstoffen kürzlich entwickelte Modellfunktion wurde dazu an die experimentellen Streubilder angepasst. Das verwendete Modell basiert dabei auf den wesentlichen Strukturmerkmalen von nichtgraphitischem Kohlenstoff und ermöglichte von daher eine detaillierte Beschreibung der Materialien. Im Gegensatz zu den meisten nichtgraphitischen Kohlenstoffen konnte gezeigt werden, dass die Verwendung von Mesophasen-Pech als Vorläufersubstanz (Precursor) ein Material mit vergleichsweise geringem Grad an Unordnung ermöglicht. Solch ein Material erlaubt eine ähnlich reversible Einlagerung von Lithium-Ionen wie Graphit, weist aber gleichzeitig wegen des nichtgraphitischen Charakters eine deutlich höhere Speicherfähigkeit auf. Zur Beschreibung der Porosität eines Materials verwendet man die Begriffe der Makro-, Meso-, und Mikroporen. Die Aktivität eines Materials kann durch die Erhöhung der Oberfläche noch erheblich gesteigert werden. Hohe Oberflächen können insbesondere durch die Schaffung von Poren im Nanometerbereich erzielt werden. Um die Zugänglichkeit zu diesen Poren zu steigern, weist ein Material idealerweise zusätzlich ein kontinuierliches makroporöses Transportsystem (Porendurchmesser d > 50 nm) auf. Solch eine Art von Porosität über mehrere Größenordnungen wird allgemein als „hierarchische Porosität“ bezeichnet. Für elektrochemische Anwendungen sind sogenannte Mesoporen (d = 2 – 50 nm) relevant, da noch kleinere Poren (Mikroporen, d < 2 nm) z.B. zu einer irreversiblen Bindung von Lithium- Ionen führen können. Wird Mesophasen-Pech als Kohlenstoffprekursor verwendet, kann die Entstehung dieser Mikroporen verhindert werden. Im zweiten und dritten Teil der Arbeit konnte mit den Methoden des „Nanocastings“ zum ersten Mal die spezielle Struktur des Mesophasen-Pech basierenden Kohlenstoffmaterials mit den Vorteilen einer hierarchischen (makro- / meso-) Porosität kombiniert werden. Im ersten Syntheseverfahren wurde dazu ein sogenanntes „hartes Templat“ mit entsprechender Porosität aus Siliziumdioxid repliziert. Aufgrund der hohen Viskosität des Pechs und der geringen Löslichkeit wurde dazu ein Verfahren entwickelt, das die Infiltration des Templates auch auf der Nanometerebene ermöglicht. Das Material konnte in Form größerer Körper (Monolithen) hergestellt werden, die im Vergleich zu Pulvern eine bessere technische Verwendung ermöglichen. Im zweiten Syntheseverfahren konnte die Herstellung eines hierarchisch makro- / mesoporösen Kohlenstoffmaterials erstmals mittels eines weichen Templates (organisches Polymer) erreicht werden. Die einfache Entfernung von weichen Templaten durch eine geeignete Temperaturbehandlung, macht dieses Verfahren im Vergleich zu hart templatierten Materialien kostengünstiger und stellt eine technische Umsetzung in Aussicht. Desweiteren erlaubt das Syntheseverfahren die Herstellung von monolithischen Körpern und die Einbindung funktionaler Nanopartikel. Die hergestellten Materialien zeigen exzellente Eigenschaften als Elektrodenmaterial in Lithium-Ionen-Batterien und als Trägermaterial für Superkondensatoren. KW - Mesoporosität KW - hierarchische Porosität KW - weiche und harte Templatierung KW - Kohlenstoffmaterialien KW - Weitwinkelröntgenstreuung KW - Mesoporosity KW - hierarchical porosity KW - soft and hard templating KW - carbon materials KW - wide-angle x-ray scattering Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-15053 ER - TY - THES A1 - Andersen, Audrée T1 - Surfactant dynamics at interfaces : a series of second harmonic generation experiments T1 - Surfactant Dynamik an Grenzflächen : eine Studie über SHG-Experimente N2 - Adsorption layers of soluble surfactants enable and govern a variety of phenomena in surface and colloidal sciences, such as foams. The ability of a surfactant solution to form wet foam lamellae is governed by the surface dilatational rheology. Only systems having a non-vanishing imaginary part in their surface dilatational modulus, E, are able to form wet foams. The aim of this thesis is to illuminate the dissipative processes that give rise to the imaginary part of the modulus. There are two controversial models discussed in the literature. The reorientation model assumes that the surfactants adsorb in two distinct states, differing in their orientation. This model is able to describe the frequency dependence of the modulus E. However, it assumes reorientation dynamics in the millisecond time regime. In order to assess this model, we designed a SHG pump-probe experiment that addresses the orientation dynamics. Results obtained reveal that the orientation dynamics occur in the picosecond time regime, being in strong contradiction with the two states model. The second model regards the interface as an interphase. The adsorption layer consists of a topmost monolayer and an adjacent sublayer. The dissipative process is due to the molecular exchange between both layers. The assessment of this model required the design of an experiment that discriminates between the surface compositional term and the sublayer contribution. Such an experiment has been successfully designed and results on elastic and viscoelastic surfactant provided evidence for the correctness of the model. Because of its inherent surface specificity, surface SHG is a powerful analytical tool that can be used to gain information on molecular dynamics and reorganization of soluble surfactants. They are central elements of both experiments. However, they impose several structural elements of the model system. During the course of this thesis, a proper model system has been identified and characterized. The combination of several linear and nonlinear optical techniques, allowed for a detailed picture of the interfacial architecture of these surfactants. N2 - Amphiphile vereinen zwei gegensätzliche Strukturelemente in einem Molekül, eine hydrophile Kopfgruppe und ein hydrophobe, meist aliphatische Kette. Aufgrund der molekularen Asymmetrie erfolgt eine spontane Adsorption an der Wasser-Luft Grenzfläche. Die Adsorptionsschicht verändert die makroskopischen Eigenschaften des Materials, z.B. die Grenzflächenspannung wird erniedrigt. Amphiphile sind zentrale Bauelemente der Kolloid- und Grenzflächenforschung, die Phänomene, wie Schäume ermöglichen. Eine Schaumlamelle besteht aus einem dünnen Wasserfilm, der durch zwei Adsorptionsschichten stabilisiert wird. Die Stabilität der Lamelle wird durch die Grenzflächenrheologie entscheidend geprägt. Die wesentliche makroskopische Größe in diesem Zusammenhang ist das so genannte Grenzflächendilatationsmodul E. Es beschreibt die Fähigkeit des Systems die Gleichgewichtsgrenzflächenspannung nach einer Expansion oder Dilatation der Adsorptionschicht wieder herzustellen. Das Modul E ist eine komplexe Größe, in dem der Imaginärteil direkt mit der Schaumstabilität korreliert. Diese Arbeit widmet sich der Grenzflächenrheologie. In der Literatur werden zwei kontroverse Modelle zur Interpretation dieser Größe diskutiert. Diese Modelle werden experimentell in dieser Arbeit überprüft. Dies erfordert die Entwicklung neuer experimenteller Aufbauten basierend auf nichtlinearen, optischen Techniken. Mit diesen Experimenten konnte eines der Modelle bestätigt werden. KW - Tensid KW - Grenzflächenchemie KW - Nichtlineare Spektroskopie KW - Oscillating Bubble KW - surfactants KW - nonlinear optics KW - surface rheology KW - air-water interface KW - oscillating bubble Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-6553 ER - TY - THES A1 - Angermann, Lisa T1 - Hillslope-stream connectivity across scales T1 - Mehrskalige Untersuchung der Hang-Bach Konnektivität N2 - The concept of hydrologic connectivity summarizes all flow processes that link separate regions of a landscape. As such, it is a central theme in the field of catchment hydrology, with influence on neighboring disciplines such as ecology and geomorphology. It is widely acknowledged to be an important key in understanding the response behavior of a catchment and has at the same time inspired research on internal processes over a broad range of scales. From this process-hydrological point of view, hydrological connectivity is the conceptual framework to link local observations across space and scales. This is the context in which the four studies this thesis comprises of were conducted. The focus was on structures and their spatial organization as important control on preferential subsurface flow. Each experiment covered a part of the conceptualized flow path from hillslopes to the stream: soil profile, hillslope, riparian zone, and stream. For each study site, the most characteristic structures of the investigated domain and scale, such as slope deposits and peat layers were identified based on preliminary or previous investigations or literature reviews. Additionally, further structural data was collected and topographical analyses were carried out. Flow processes were observed either based on response observations (soil moisture changes or discharge patterns) or direct measurement (advective heat transport). Based on these data, the flow-relevance of the characteristic structures was evaluated, especially with regard to hillslope to stream connectivity. Results of the four studies revealed a clear relationship between characteristic spatial structures and the hydrological behavior of the catchment. Especially the spatial distribution of structures throughout the study domain and their interconnectedness were crucial for the establishment of preferential flow paths and their relevance for large-scale processes. Plot and hillslope-scale irrigation experiments showed that the macropores of a heterogeneous, skeletal soil enabled preferential flow paths at the scale of centimeters through the otherwise unsaturated soil. These flow paths connected throughout the soil column and across the hillslope and facilitated substantial amounts of vertical and lateral flow through periglacial slope deposits. In the riparian zone of the same headwater catchment, the connectivity between hillslopes and stream was controlled by topography and the dualism between characteristic subsurface structures and the geomorphological heterogeneity of the stream channel. At the small scale (1 m to 10 m) highest gains always occurred at steps along the longitudinal streambed profile, which also controlled discharge patterns at the large scale (100 m) during base flow conditions (number of steps per section). During medium and high flow conditions, however, the impact of topography and parafluvial flow through riparian zone structures prevailed and dominated the large-scale response patterns. In the streambed of a lowland river, low permeability peat layers affected the connectivity between surface water and groundwater, but also between surface water and the hyporheic zone. The crucial factor was not the permeability of the streambed itself, but rather the spatial arrangement of flow-impeding peat layers, causing increased vertical flow through narrow “windows” in contrast to predominantly lateral flow in extended areas of high hydraulic conductivity sediments. These results show that the spatial organization of structures was an important control for hydrological processes at all scales and study areas. In a final step, the observations from different scales and catchment elements were put in relation and compared. The main focus was on the theoretical analysis of the scale hierarchies of structures and processes and the direction of causal dependencies in this context. Based on the resulting hierarchical structure, a conceptual framework was developed which is capable of representing the system’s complexity while allowing for adequate simplifications. The resulting concept of the parabolic scale series is based on the insight that flow processes in the terrestrial part of the catchment (soil and hillslopes) converge. This means that small-scale processes assemble and form large-scale processes and responses. Processes in the riparian zone and the streambed, however, are not well represented by the idea of convergence. Here, the large-scale catchment signal arrives and is modified by structures in the riparian zone, stream morphology, and the small-scale interactions between surface water and groundwater. Flow paths diverge and processes can better be represented by proceeding from large scales to smaller ones. The catchment-scale representation of processes and structures is thus the conceptual link between terrestrial hillslope processes and processes in the riparian corridor. N2 - Das Konzept der hydrologischen Konnektivität umfasst alle Fließprozesse, welche verschiedene Bereiche einer Landschaft verbinden. Als solches ist es ein zentrales Thema in dem Forschungsbereich der Einzugsgebietshydrologie und beeinflusst auch benachbarte Disziplinen wie die Ökologie oder die Geomorphologie. Es ist allgemein akzeptiert, dass das Konzept der Konnektivität ein wichtiger Schlüssel zum Verständnis von Einzugsgebietsdynamiken ist, gleichzeitig inspiriert es die Erforschung interner Prozesse auf verschiedenen Skalen. Von dieser prozesshydrologischen Perspektive gesehen, bietet Konnektivität einen konzeptionellen Rahmen, um lokale Beobachtungen über Raum und Skalen miteinander in Verbindung zu setzen. In diesem Kontext stehen die vier Studien dieser Doktorarbeit. Der Fokus lag dabei auf räumlichen Strukturen als wichtigem Kontrollfaktor für präferentielle Fließpfade als spezieller Form unterirdischer Fließprozesse. Die Experimente deckten dabei je einen Abschnitt des konzeptionellen Fließweges vom Hang zum Bach exemplarisch ab: Bodenprofil und Hang, Hang und Auenbreich, und Bachbett. Für alle vier Studien wurden zunächst charakteristische Strukturen des Untersuchungsgebietes wie Schuttablagerungen am Hang oder Torfschichten im Flussbett auf Basis vorausgehender Untersuchungen und Literaturrecherchen identifiziert. Zusätzlich wurden weitere strukturelle Daten erfasst und digitale Geländemodelle ausgewertet. Anschließend wurde die Prozessrelevanz dieser Strukturen, vor allem im Hinblick auf die Hang-Bach-Konnektivität, untersucht. Die Ergebnisse der einzelnen Studien zeigten eine deutliche Verbindung zwischen den charakteristischen räumlichen Strukturen und dem hydrologischen Verhalten des untersuchten Gebietes. Insbesondere die räumliche Anordnung von Strukturen, d.h. die räumliche Verteilung und der Grad der Konnektivität der Strukturen, war ausschlaggebend für die Ausbildung präferenzieller Fließpfade und deren Relevanz für größerskalige Prozesse. Die räumliche Organisation von Strukturen war in allen Untersuchungsgebieten ein wichtiger Kontrollfaktor für hydrologische Prozesse. Die Beobachtungen auf verschiedenen Skalen und verschiedener Fließpfadabschnitte wurden miteinander in Verbindung gesetzt und verglichen. Besonderes Augenmerk lag dabei auf der theoretischen Analyse der Skalenhierarchie von Strukturen und Prozessen und der Richtung der Kausalität in diesem Zusammenhang. Auf dieser Grundlage wurde als Synthese der einzelnen Studien ein Konzept entwickelt, welches in der Lage ist, die Komplexität eines Einzugsgebietes abzubilden und gleichzeitig adequate Vereinfachungen zuzulassen. Diese Konzept der parabelförmigen Skalenabfolge beruht auf der Erkenntnis, dass Fließprozesse im terrestrischen Bereich eines Einzugsgebietes, also im Boden und den Hängen, vorwiegend konvergieren und sich von der kleinen Skala zur größeren hin zusammenfügen. Die Prozesse in der Aue und dem Bachbett werden von diesem Prinzip der Konvergenz allerding nicht abgebildet. Die in den Böden und an den Hängen erzeugten Fließmuster des Einzugsgebiets werden von den Strukturen in der Aue, der Morphologie des Baches und den kleinskaligen Wechselwirkungen zwischen Fließgewässer und Sediment überprägt. Die Fließprozesse divergieren, und eine Beschreibung von der großen Skala hin zur kleineren ist hier besser geeignet. Die räumlich diskrete oder konzeptionelle Darstellung von Prozessen auf der Einzugsgebietsskala bietet so die Verbindung zwischen terrestrischer Hanghydrologie und der bachseitigen Auenhydrologie. KW - catchment hydrology KW - hillslope hydrology KW - riparian zone KW - hyporheic zone KW - Einzugsgebietshydrologie KW - Hanghydrologie KW - Auenbereich KW - hyporheische Zone Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-424542 ER - TY - THES A1 - Arend, Marius T1 - Comparing genome-scale models of protein-constrained metabolism in heterotrophic and photosynthetic microorganisms N2 - Genome-scale metabolic models are mathematical representations of all known reactions occurring in a cell. Combined with constraints based on physiological measurements, these models have been used to accurately predict metabolic fluxes and effects of perturbations (e.g. knock-outs) and to inform metabolic engineering strategies. Recently, protein-constrained models have been shown to increase predictive potential (especially in overflow metabolism), while alleviating the need for measurement of nutrient uptake rates. The resulting modelling frameworks quantify the upkeep cost of a certain metabolic flux as the minimum amount of enzyme required for catalysis. These improvements are based on the use of in vitro turnover numbers or in vivo apparent catalytic rates of enzymes for model parameterization. In this thesis several tools for the estimation and refinement of these parameters based on in vivo proteomics data of Escherichia coli, Saccharomyces cerevisiae, and Chlamydomonas reinhardtii have been developed and applied. The difference between in vitro and in vivo catalytic rate measures for the three microorganisms was systematically analyzed. The results for the facultatively heterotrophic microalga C. reinhardtii considerably expanded the apparent catalytic rate estimates for photosynthetic organisms. Our general finding pointed at a global reduction of enzyme efficiency in heterotrophy compared to other growth scenarios. Independent of the modelled organism, in vivo estimates were shown to improve accuracy of predictions of protein abundances compared to in vitro values for turnover numbers. To further improve the protein abundance predictions, machine learning models were trained that integrate features derived from protein-constrained modelling and codon usage. Combining the two types of features outperformed single feature models and yielded good prediction results without relying on experimental transcriptomic data. The presented work reports valuable advances in the prediction of enzyme allocation in unseen scenarios using protein constrained metabolic models. It marks the first successful application of this modelling framework in the biotechnological important taxon of green microalgae, substantially increasing our knowledge of the enzyme catalytic landscape of phototrophic microorganisms. N2 - Genomweite Stoffwechselmodelle sind mathematische Darstellungen aller bekannten Reaktionen, die in einer Zelle ablaufen. In Kombination mit Einschränkungen, die auf physiologischen Messungen beruhen, wurden diese Modelle zur genauen Vorhersage von Stoffwechselflüssen und Auswirkungen von Manipulationene (z. B. Knock-outs) sowie zum Entwerfen von Metabolic Engineering Strategien verwendet. In jüngster Zeit hat sich gezeigt, dass proteinlimitierte Modelle, welche die Menge an Proteinen in einer Zelle als Modelbeschränkungen integrieren, ein erweitertes Modellierungspotenzial besitzen (insbesondere beim Überflussstoffwechsel) und gleichzeitig die Messungen der Nährstoffaufnahmerate eines Organismus optional machen. Die resultierenden Modelle quantifizieren die Unterhaltskosten eines bestimmten Stoffwechselflusses als die für die Katalyse erforderliche Mindestmenge an Enzymen. Die beobachtete Verbesserungen in den Voraussagefähigkeiten solcher Modelle werden durch die Parameterisierung mit unterschiedlichen in vitro und in vivo Approximationen der maximalen katalytischen Effizienz (Wechselzahl) aller Enyzme eines Organismus ermöglicht. In dieser Arbeit wurden verschiedene Verfahren zur Schätzung und Verfeinerung dieser Parameter auf der Grundlage von in vivo Proteomikdaten der Organismen Escherichia coli, Saccharomyces cerevisiae und Chlamydomonas reinhardtii entwickelt und angewendet. Der Unterschied zwischen den in vitro und in vivo berechneten katalytischen Raten für die drei Mikroorganismen wurde systematisch analysiert. Die Ergebnisse für die fakultativ heterotrophe Mikroalge C. reinhardtii erweitern die Menge an verfügbaren enzymkatalytischen Parametern für photosynthetische Organismen erheblich. Weiterhin deuten unsere Ergbnisse für C. reinhardtii auf eine globale Verringerung der Enzymeffizienz bei Heterotrophie im Vergleich zu anderen Wachstumsszenarien hin. Unabhängig vom modellierten Organismus konnte gezeigt werden, dass geschätzte in vivo Wechselzahlen die Genauigkeit der Vorhersagen von Proteinmengen im Vergleich zu in vitro Werten verbessern. Um die Vorhersagen von Proteinmengen weiter zu verbessern, wurden Modelle aus dem Bereich des maschinellen Lernens trainiert, die Prediktoren basierend auf der proteinlimitierten Modellierung und der Proteinsequenz integrieren. Die Kombination der beiden Arten von Prediktoren übertraf die Leistung von Modellen mit nur einer Art von Prediktoren und lieferte gute Vorhersageergebnisse, ohne auf experimentelle Transkriptionsdaten angewiesen zu sein. Die vorgestellte Arbeit stellt einen wertvollen Fortschritt bei der Vorhersage der Enzymallokation in unbekannten Szenarien unter Verwendung von proteinlimitierten Stoffwechselmodellen dar. Sie markiert die erste erfolgreiche Anwendung dieses Modellierungsverfahren in dem biotechnologisch wichtigen Taxon der grünen Mikroalgen und erweitert unser Wissen über die enzymkatalytische Landschaft phototropher Mikroorganismen entscheidend. T2 - Vergleich und Analyse genomweiter Modelle des protein-limitierten Metabolismus in heterotrophen und photosynthetischen Microorganismen KW - Metabolic Modeling KW - Systems Biology KW - Computational Biology KW - Proteomics KW - computergestützte Biologie KW - metabolische Modellierung KW - Proteomics KW - Systembiologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651470 ER - TY - THES A1 - Aue, Lars T1 - Cyclone impacts on sea ice in the Atlantic Arctic Ocean T1 - Auswirkungen von Zyklonen auf das Meereis im Atlantischen Arktischen Ozean N2 - The Arctic is the hot spot of the ongoing, global climate change. Over the last decades, near-surface temperatures in the Arctic have been rising almost four times faster than on global average. This amplified warming of the Arctic and the associated rapid changes of its environment are largely influenced by interactions between individual components of the Arctic climate system. On daily to weekly time scales, storms can have major impacts on the Arctic sea-ice cover and are thus an important part of these interactions within the Arctic climate. The sea-ice impacts of storms are related to high wind speeds, which enhance the drift and deformation of sea ice, as well as to changes in the surface energy budget in association with air mass advection, which impact the seasonal sea-ice growth and melt. The occurrence of storms in the Arctic is typically associated with the passage of transient cyclones. Even though the above described mechanisms how storms/cyclones impact the Arctic sea ice are in principal known, there is a lack of statistical quantification of these effects. In accordance with that, the overarching objective of this thesis is to statistically quantify cyclone impacts on sea-ice concentration (SIC) in the Atlantic Arctic Ocean over the last four decades. In order to further advance the understanding of the related mechanisms, an additional objective is to separate dynamic and thermodynamic cyclone impacts on sea ice and assess their relative importance. Finally, this thesis aims to quantify recent changes in cyclone impacts on SIC. These research objectives are tackled utilizing various data sets, including atmospheric and oceanic reanalysis data as well as a coupled model simulation and a cyclone tracking algorithm. Results from this thesis demonstrate that cyclones are significantly impacting SIC in the Atlantic Arctic Ocean from autumn to spring, while there are mostly no significant impacts in summer. The strength and the sign (SIC decreasing or SIC increasing) of the cyclone impacts strongly depends on the considered daily time scale and the region of the Atlantic Arctic Ocean. Specifically, an initial decrease in SIC (day -3 to day 0 relative to the cyclone) is found in the Greenland, Barents and Kara Seas, while SIC increases following cyclones (day 0 to day 5 relative to the cyclone) are mostly limited to the Barents and Kara Seas. For the cold season, this results in a pronounced regional difference between overall (day -3 to day 5 relative to the cyclone) SIC-decreasing cyclone impacts in the Greenland Sea and overall SIC-increasing cyclone impacts in the Barents and Kara Seas. A cyclone case study based on a coupled model simulation indicates that both dynamic and thermodynamic mechanisms contribute to cyclone impacts on sea ice in winter. A typical pattern consisting of an initial dominance of dynamic sea-ice changes followed by enhanced thermodynamic ice growth after the cyclone passage was found. This enhanced ice growth after the cyclone passage most likely also explains the (statistical) overall SIC-increasing effects of cyclones in the Barents and Kara Seas in the cold season. Significant changes in cyclone impacts on SIC over the last four decades have emerged throughout the year. These recent changes are strongly varying from region to region and month to month. The strongest trends in cyclone impacts on SIC are found in autumn in the Barents and Kara Seas. Here, the magnitude of destructive cyclone impacts on SIC has approximately doubled over the last four decades. The SIC-increasing effects following the cyclone passage have particularly weakened in the Barents Sea in autumn. As a consequence, previously existing overall SIC-increasing cyclone impacts in this region in autumn have recently disappeared. Generally, results from this thesis show that changes in the state of the sea-ice cover (decrease in mean sea-ice concentration and thickness) and near-surface air temperature are most important for changed cyclone impacts on SIC, while changes in cyclone properties (i.e. intensity) do not play a significant role. N2 - Die Arktis ist der Hotspot des globalen Klimawandels. In den letzten Jahrzehnten sind die oberflächennahen Temperaturen in der Arktis fast viermal so schnell gestiegen wie im globalen Durchschnitt. Diese verstärkte Erwärmung der Arktis und die damit verbundenen raschen Umweltveränderungen werden u.a. durch Wechselwirkungen zwischen den einzelnen Komponenten des arktischen Klimasystems angetrieben. Auf täglichen bis wöchentlichen Zeitskalen können Stürme große Einflüsse auf das arktische Meereis haben und sind somit ein wichtiger Teil dieser Wechselwirkungen innerhalb des arktischen Klimas. Der Einfluss der Stürme auf das Meereis resultiert aus den hohen Windgeschwindigkeiten, welche die Drift und Verformung des Meereises verstärken, sowie aus Änderungen in der Oberflächenenergiebilanz im Zusammenhang mit der Advektion von Luftmassen, was das Wachstum und Schmelzen des Meereises beeinflusst. Das Auftreten von Stürmen in der Arktis ist oft mit dem Durchzug von Zyklonen verbunden. Obwohl die oben beschriebenen Mechanismen, wie sich Stürme/Zyklone auf das arktische Meereis auswirken, im Prinzip bekannt sind, fehlt es an einer statistischen Quantifizierung dieser Effekte. Dementsprechend ist das übergeordnete Ziel dieser Arbeit eine statistische Quantifizierung der Auswirkungen von Zyklonen auf die Meereiskonzentration (engl. Sea Ice Concentration, SIC) im atlantischen Arktischen Ozeans über die letzten vier Jahrzehnte. Um ein Verständnis für die zugrunde liegenden Mechanismen zu erlangen, besteht ein weiteres Ziel darin, die dynamischen und thermodynamischen Auswirkungen von Zyklonen auf das Meereis zu trennen und ihre relative Bedeutung zu analysieren. Zuletzt zielt diese Arbeit darauf ab, aktuelle Veränderungen der Zykloneneinflüsse auf das Meereis zu quantifizieren. Zum Erreichen dieser Forschungsziele werden verschiedene Datensätze genutzt, darunter atmosphärische und ozeanische Reanalysedaten sowie eine gekoppelte Modellsimulation und ein Algorithmus zur automatischen Identifikation von Zyklonen. Die Ergebnisse dieser Arbeit zeigen, dass Zyklone die SIC im atlantischen Arktischen Ozean von Herbst bis Frühjahr signifikant beeinflussen, während es im Sommer meist keine signifikanten Auswirkungen gibt. Die Stärke und das Vorzeichen (abnehmende oder zunehmende SIC) der Auswirkungen der Zyklone hängt stark von der betrachteten täglichen Zeitskala und der Region des Arktischen Ozeans ab. So ist ein anfänglicher Rückgang der SIC (Tag -3 bis Tag 0 relativ zum Zyklonendurchgang) in der Grönland-, der Barents- und der Karasee festzustellen, während ein SIC-Anstieg nach dem Zyklonendurchgang (Tag 0 bis Tag 5 relativ zum Zyklonendurchgang) hauptsächlich auf die Barents- und die Karasee beschränkt ist. Für die kalte Jahreszeit ergibt sich daraus ein ausgeprägter regionaler Unterschied zwischen insgesamt (Tag -3 bis Tag 5 relativ zum Zyklon) SIC-verringernden Zyklonenauswirkungen in der Grönlandsee und insgesamt SIC-erhöhenden Zyklonenauswirkungen in der Barents- und Karasee. Die Analyse spezifischer Zyklonenfälle basierend auf einer gekoppelten Modellsimulation zeigt, dass sowohl dynamische als auch thermodynamische Mechanismen zu den Auswirkungen von Zyklonen auf das Meereis im Winter beitragen. Hierbei wurde ein typisches Muster bestehend aus einer anfänglichen Dominanz dynamischer Meereisveränderungen gefolgt von verstärktem thermodynamischem Eiswachstum nach der Zyklonenpassage gefunden. Dieses verstärkte Eiswachstum nach der Zyklonenpassage erklärt u.a. auch die (statistischen) insgesamt SIC-erhöhenden Effekte von Zyklonen in der Barents- und Karasee im Winter. Signifikante Änderungen in den Auswirkungen von Zyklonen auf die SIC über die letzten vier Dekaden sind das ganze Jahr über zu finden. Diese Veränderungen variieren stark von Region zu Region und von Monat zu Monat. Die stärksten Trends in den Auswirkungen von Zyklonen auf die SIC sind im Herbst in der Barents- und Karasee zu beobachten. Hier hat sich die Stärke der zerstörerischen Auswirkungen von Zyklonen auf die SIC in den letzten vier Jahrzehnten ungefähr verdoppelt. Die SIC-erhöhenden Effekte nach der Zyklonenpassage haben sich in der Barentssee im Herbst besonders abgeschwächt. Dadurch sind zuvor existierende, insgesamt SIC-erhöhende Zyklonenauswirkungen in dieser Region und Jahreszeit zuletzt verschwunden. Generell zeigen die Ergebnisse dieser Arbeit, dass Änderungen im Zustand des Meereises (Abnahme der mittleren Meereiskonzentration und -dicke) sowie in der Lufttemperatur die veränderten Auswirkungen der Zyklonen auf die SIC antreiben, während Veränderungen in den Eigenschaften der Zyklonen (z.B. ihre Intensität) keine wesentliche Rolle spielen. KW - Arctic KW - atmosphere KW - sea ice KW - cyclones KW - meteorology KW - Arktis KW - Atmosphäre KW - Meereis KW - Zyklone KW - Meteorologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-634458 SP - VIII, 131 ER - TY - THES A1 - Bajerski, Felizitas T1 - Bacterial communities in glacier forefields of the Larsemann Hills, East Antarctica : structure, development & adaptation T1 - Bakterielle Gemeinschaften in Gletschervorfeldern der Larsemann Berge der Ostantarktis : Struktur, Entwicklung & Anpassung N2 - Antarctic glacier forfields are extreme environments and pioneer sites for ecological succession. The Antarctic continent shows microbial community development as a natural laboratory because of its special environment, geographic isolation and little anthropogenic influence. Increasing temperatures due to global warming lead to enhanced deglaciation processes in cold-affected habitats and new terrain is becoming exposed to soil formation and accessible for microbial colonisation. This study aims to understand the structure and development of glacier forefield bacterial communities, especially how soil parameters impact the microorganisms and how those are adapted to the extreme conditions of the habitat. To this effect, a combination of cultivation experiments, molecular, geophysical and geochemical analysis was applied to examine two glacier forfields of the Larsemann Hills, East Antarctica. Culture-independent molecular tools such as terminal restriction length polymorphism (T-RFLP), clone libraries and quantitative real-time PCR (qPCR) were used to determine bacterial diversity and distribution. Cultivation of yet unknown species was carried out to get insights in the physiology and adaptation of the microorganisms. Adaptation strategies of the microorganisms were studied by determining changes of the cell membrane phospholipid fatty acid (PLFA) inventory of an isolated bacterium in response to temperature and pH fluctuations and by measuring enzyme activity at low temperature in environmental soil samples. The two studied glacier forefields are extreme habitats characterised by low temperatures, low water availability and small oligotrophic nutrient pools and represent sites of different bacterial succession in relation to soil parameters. The investigated sites showed microbial succession at an early step of soil formation near the ice tongue in comparison to closely located but rather older and more developed soil from the forefield. At the early step the succession is influenced by a deglaciation-dependent areal shift of soil parameters followed by a variable and prevalently depth-related distribution of the soil parameters that is driven by the extreme Antarctic conditions. The dominant taxa in the glacier forefields are Actinobacteria, Acidobacteria, Proteobacteria, Bacteroidetes, Cyanobacteria and Chloroflexi. The connection of soil characteristics with bacterial community structure showed that soil parameter and soil formation along the glacier forefield influence the distribution of certain phyla. In the early step of succession the relative undifferentiated bacterial diversity reflects the undifferentiated soil development and has a high potential to shift according to past and present environmental conditions. With progressing development environmental constraints such as water or carbon limitation have a greater influence. Adapting the culturing conditions to the cold and oligotrophic environment, the number of culturable heterotrophic bacteria reached up to 108 colony forming units per gram soil and 148 isolates were obtained. Two new psychrotolerant bacteria, Herbaspirillum psychrotolerans PB1T and Chryseobacterium frigidisoli PB4T, were characterised in detail and described as novel species in the family of Oxalobacteraceae and Flavobacteriaceae, respectively. The isolates are able to grow at low temperatures tolerating temperature fluctuations and they are not specialised to a certain substrate, therefore they are well-adapted to the cold and oligotrophic environment. The adaptation strategies of the microorganisms were analysed in environmental samples and cultures focussing on extracellular enzyme activity at low temperature and PLFA analyses. Extracellular phosphatases (pH 11 and pH 6.5), β-glucosidase, invertase and urease activity were detected in the glacier forefield soils at low temperature (14°C) catalysing the conversion of various compounds providing necessary substrates and may further play a role in the soil formation and total carbon turnover of the habitat. The PLFA analysis of the newly isolated species C. frigidisoli showed that the cold-adapted strain develops different strategies to maintain the cell membrane function under changing environmental conditions by altering the PLFA inventory at different temperatures and pH values. A newly discovered fatty acid, which was not found in any other microorganism so far, significantly increased at decreasing temperature and low pH and thus plays an important role in the adaption of C. frigidisoli. This work gives insights into the diversity, distribution and adaptation mechanisms of microbial communities in oligotrophic cold-affected soils and shows that Antarctic glacier forefields are suitable model systems to study bacterial colonisation in connection to soil formation. N2 - Gletschervorfelder der Antarktis stellen extreme Habitate dar und sind Pionierstandorte biologischer Sukzession. Insbesondere unter Berücksichtigung zuletzt beobachteter und vorausgesagter Erwärmungstrends in der Antarktis und der Relevanz der Mikroorganismen für das Antarktische Ökosystem, ist es essentiell mehr Informationen über die Entwicklung frisch exponierter Gletschervorfelder zu erlangen. Ziel dieser Studie ist es, die Struktur und Entwicklung bakterieller Gletschervorfeldgemeinschaften zu verstehen, insbesondere wie die Mikroorganismen von den Bodenparametern beeinflusst werden und wie diese sich an die extremen Bedingungen des Habitats anpassen. Für die Untersuchung der Proben von zwei Gletschervorfeldern aus den Larsemann Bergen der Ostantarktis diente eine Kombination aus Kultivierungsexperimenten und molekularen, geophysikalischen und geochemischen Analysen. Die untersuchten Gletschervorfelder sind durch extrem niedrige Temperaturen, einer geringen biologischen Wasserverfügbarkeit und oligotrophe Nährstoffgehalte charakterisiert und zeigen unterschiedliche Entwicklungsstufen in Verbindung zu den Bodenparametern. In einem frühen Schritt der Bodenbildung in der Nähe der Gletscherzunge sind die Gemeinschaften undifferenziert, doch mit fortschreitender Entwicklung nimmt de Einfluss von Wasser- und Nährstofflimitationen zu. Nachdem die Kultivierungsbedingungen den kalten und nährstoffarmen Bedingungen des Habitats angepasst wurden, konnten 108 koloniebildende Einheiten heterotropher Bakterien pro Gramm Boden angereichert und daraus 148 Isolate gewonnen werden. Zwei neue psychrotolerante Bakterien, Herbaspirillum psychrotolerans PB1T und Chryseobacterium frigidisoli PB4T, wurden detailiert charakterisiert und als jeweils neue Spezies beschrieben. Die Anpassungsstrategien der Mikroorganismen an die extremen antarktischen Bedingungen zeigten sich in der Aktivität extrazellulärer Enzyme bei niedriger Temperatur, die mit derer temperierter Habitate vergleichbar ist, und in der Fähigkeit der Mikroorganismen, die Fettsäurezusammensetzung der Zellmembran zu ändern. Eine neue Fettsäure, die bisher in keinen anderen Mikroorganismus gefunden wurde, spielt eine entscheidende Rolle in der Anpassung des neu-beschriebenen Bakteriums C. frigidisoli an niedrige Temperaturen und saure pH-Werte. Diese Arbeit gibt einen Einblick in die Vielfalt, Verteilung und Anpassung mikrobieller Gemeinschaften in nährstoffarmen und Kälte-beeinflussten Habitaten und zeigt, dass Antarktische Gletschervorfelder geeignete Modellsysteme, um bakterielle Besiedelung in Verbindung zu Bodenbildung zu untersuchen. KW - Antarktis KW - Gletschervorfeld KW - mikrobielle Gemeinschaften KW - Anpassung KW - Kultivierung KW - Antarctica KW - glacier forefield KW - microbial communities KW - adaptation KW - cultivation Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67424 ER - TY - THES A1 - Beamish, Alison Leslie T1 - Hyperspectral remote sensing of the spatial and temporal heterogeneity of low Arctic vegetation T1 - Hyperspektrale Fernerkundung der räumlichen und zeitlichen Heterogenität niedriger arktischer Vegetation BT - the role of phenology, vegetation colour, and intrinsic ecosystem components BT - die Rolle von Phänologie, Vegetationsfarbe und intrinsischer Ökosystemkomponenten N2 - Arctic tundra ecosystems are experiencing warming twice the global average and Arctic vegetation is responding in complex and heterogeneous ways. Shifting productivity, growth, species composition, and phenology at local and regional scales have implications for ecosystem functioning as well as the global carbon and energy balance. Optical remote sensing is an effective tool for monitoring ecosystem functioning in this remote biome. However, limited field-based spectral characterization of the spatial and temporal heterogeneity limits the accuracy of quantitative optical remote sensing at landscape scales. To address this research gap and support current and future satellite missions, three central research questions were posed: • Does canopy-level spectral variability differ between dominant low Arctic vegetation communities and does this variability change between major phenological phases? • How does canopy-level vegetation colour images recorded with high and low spectral resolution devices relate to phenological changes in leaf-level photosynthetic pigment concentrations? • How does spatial aggregation of high spectral resolution data from the ground to satellite scale influence low Arctic tundra vegetation signatures and thereby what is the potential of upcoming hyperspectral spaceborne systems for low Arctic vegetation characterization? To answer these questions a unique and detailed database was assembled. Field-based canopy-level spectral reflectance measurements, nadir digital photographs, and photosynthetic pigment concentrations of dominant low Arctic vegetation communities were acquired at three major phenological phases representing early, peak and late season. Data were collected in 2015 and 2016 in the Toolik Lake Research Natural Area located in north central Alaska on the North Slope of the Brooks Range. In addition to field data an aerial AISA hyperspectral image was acquired in the late season of 2016. Simulations of broadband Sentinel-2 and hyperspectral Environmental and Mapping Analysis Program (EnMAP) satellite reflectance spectra from ground-based reflectance spectra as well as simulations of EnMAP imagery from aerial hyperspectral imagery were also obtained. Results showed that canopy-level spectral variability within and between vegetation communities differed by phenological phase. The late season was identified as the most discriminative for identifying many dominant vegetation communities using both ground-based and simulated hyperspectral reflectance spectra. This was due to an overall reduction in spectral variability and comparable or greater differences in spectral reflectance between vegetation communities in the visible near infrared spectrum. Red, green, and blue (RGB) indices extracted from nadir digital photographs and pigment-driven vegetation indices extracted from ground-based spectral measurements showed strong significant relationships. RGB indices also showed moderate relationships with chlorophyll and carotenoid pigment concentrations. The observed relationships with the broadband RGB channels of the digital camera indicate that vegetation colour strongly influences the response of pigment-driven spectral indices and digital cameras can track the seasonal development and degradation of photosynthetic pigments. Spatial aggregation of hyperspectral data from the ground to airborne, to simulated satel-lite scale was influenced by non-photosynthetic components as demonstrated by the distinct shift of the red edge to shorter wavelengths. Correspondence between spectral reflectance at the three scales was highest in the red spectrum and lowest in the near infra-red. By artificially mixing litter spectra at different proportions to ground-based spectra, correspondence with aerial and satellite spectra increased. Greater proportions of litter were required to achieve correspondence at the satellite scale. Overall this thesis found that integrating multiple temporal, spectral, and spatial data is necessary to monitor the complexity and heterogeneity of Arctic tundra ecosystems. The identification of spectrally similar vegetation communities can be optimized using non-peak season hyperspectral data leading to more detailed identification of vegetation communities. The results also highlight the power of vegetation colour to link ground-based and satellite data. Finally, a detailed characterization non-photosynthetic ecosystem components is crucial for accurate interpretation of vegetation signals at landscape scales. N2 - Die arktische Erwärmung beeinflusst Produktivität, Wachstums, Artenzusammensetzung, Phänologie und den Reproduktionserfolg arktischer Vegetation, mit Auswirkungen auf die Ökosystemfunktionen sowie auf den globalen Kohlenstoff- und Energiehaushalt. Feldbasierte Messungen und spektrale Charakterisierungen der räumlichen und zeitlichen Heterogenität arktischer Vegetationsgemeinschaften sind limitiert und die Genauigkeit fernerkundlicher Methoden im Landschaftsmaßstab eingeschränkt. Um diese Forschungslücke zu schließen und aktuelle und zukünftige Satellitenmissionen zu unterstützen, wurden drei zentrale Forschungsfragen entwickelt: 1) Wie unterscheidet sich die spektrale Variabilität des Kronendaches zwischen dominanten Vegetationsgemeinschaften der niederen Arktis und wie verändert sich diese Variabilität zwischen den wichtigsten phänologischen Phasen? 2) Wie hängen Aufnahmen der Vegetationsfarbe des Kronendaches von hoch und niedrig auflösenden Geräten mit phänologischen Veränderungen des photosynthetischen Pigmentgehalts auf Blattebene zusammen? 3) Wie beeinflusst die räumliche Aggregation von Daten mit hoher spektraler Auflösung von der Boden- bis zur Satelliten-Skala die arktischen Vegetationssignale der Tundra und welches Potenzial haben zukünftige hyperspektraler Satellitensysteme für die arktische Vegetationscharakterisierung? Zur Beantwortung dieser Fragen wurde eine detaillierte Datenbank aus feldbasierten Daten erstellt und mit hyperspektralen Luftbildern sowie multispektralen Sentinel-2 und simulierten hyperspektralen EnMAP Satellitendaten verglichen. Die Ergebnisse zeigten, dass die Spätsai-son am besten geeignet ist um dominante Vegetationsgemeinschaften mit Hilfe von hyper-spektralen Daten zu identifizieren. Ebenfalls konnte gezeigt werden, dass die mit handelsüb-lichen Digitalkameras aufgenommene Vegetationsfarbe pigmentgesteuerte Spektralindizes stark beeinflusst und den Verlauf von photosynthetischen Pigmenten nachverfolgen kann. Die räumliche Aggregation hyperspektraler Daten von der Boden- über die Luft- zur Satelli-tenskala wurde durch nicht-photosynthetische Komponenten beeinflusst und die spektralen Reflexionsvermögen der drei Skalen stimmten im roten Spektrum am höchsten und im nahen Infrarotbereich am niedrigsten überein. Die vorliegende Arbeit zeigt, dass die Integration zeitlicher, spektraler und räumlicher Daten notwendig ist, um Komplexität und Heterogenität arktischer Vegetationsreaktionen in Reaktion auf klimatische Veränderungen zu überwachen. KW - hyperspectral remote sensing KW - Arctic tundra KW - vegetation KW - imaging spectroscopy KW - hyperspektral Fernerkundung KW - arktische Tundra KW - Vegetation KW - Spektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-425922 ER - TY - THES A1 - Behrens, Ricarda T1 - Causes for slow weathering and erosion in the steep, warm, monsoon-subjected Highlands of Sri Lanka T1 - Ursache von langsamer Verwitterung und Erosion im steilen, warmen und Monsun-beeinflussten Hochland von Sri Lanka N2 - In the Highlands of Sri Lanka, erosion and chemical weathering rates are among the lowest for global mountain denudation. In this tropical humid setting, highly weathered deep saprolite profiles have developed from high-grade metamorphic charnockite during spheroidal weathering of the bedrock. The spheroidal weathering produces rounded corestones and spalled rindlets at the rock-saprolite interface. I used detailed textural, mineralogical, chemical, and electron-microscopic (SEM, FIB, TEM) analyses to identify the factors limiting the rate of weathering front advance in the profile, the sequence of weathering reactions, and the underlying mechanisms. The first mineral attacked by weathering was found to be pyroxene initiated by in situ Fe oxidation, followed by in situ biotite oxidation. Bulk dissolution of the primary minerals is best described with a dissolution – re-precipitation process, as no chemical gradients towards the mineral surface and sharp structural boundaries are observed at the nm scale. Only the local oxidation in pyroxene and biotite is better described with an ion by ion process. The first secondary phases are oxides and amorphous precipitates from which secondary minerals (mainly smectite and kaolinite) form. Only for biotite direct solid state transformation to kaolinite is likely. The initial oxidation of pyroxene and biotite takes place in locally restricted areas and is relatively fast: log J = -11 molmin/(m2 s). However, calculated corestone-scale mineral oxidation rates are comparable to corestone-scale mineral dissolution rates: log R = -13 molpx/(m2 s) and log R = -15 molbt/(m2 s). The oxidation reaction results in a volume increase. Volumetric calculations suggest that this observed oxidation leads to the generation of porosity due to the formation of micro-fractures in the minerals and the bedrock allowing for fluid transport and subsequent dissolution of plagioclase. At the scale of the corestone, this fracture reaction is responsible for the larger fractures that lead to spheroidal weathering and to the formation of rindlets. Since these fractures have their origin from the initial oxidational induced volume increase, oxidation is the rate limiting parameter for weathering to take place. The ensuing plagioclase weathering leads to formation of high secondary porosity in the corestone over a distance of only a few cm and eventually to the final disaggregation of bedrock to saprolite. As oxidation is the first weathering reaction, the supply of O2 is a rate-limiting factor for chemical weathering. Hence, the supply of O2 and its consumption at depth connects processes at the weathering front with erosion at the surface in a feedback mechanism. The strength of the feedback depends on the relative weight of advective versus diffusive transport of O2 through the weathering profile. The feedback will be stronger with dominating diffusive transport. The low weathering rate ultimately depends on the transport of O2 through the whole regolith, and on lithological factors such as low bedrock porosity and the amount of Fe-bearing primary minerals. In this regard the low-porosity charnockite with its low content of Fe(II) bearing minerals impedes fast weathering reactions. Fresh weatherable surfaces are a pre-requisite for chemical weathering. However, in the case of the charnockite found in the Sri Lankan Highlands, the only process that generates these surfaces is the fracturing induced by oxidation. Tectonic quiescence in this region and low pre-anthropogenic erosion rate (attributed to a dense vegetation cover) minimize the rejuvenation of the thick and cohesive regolith column, and lowers weathering through the feedback with erosion. N2 - Erosions- und chemische Verwitterungsraten im srilankischen Hochland gehören zu den langsamsten der globalen Gebirgsdenudationsraten. In diesem tropischen, humiden Gebiet entwickelten sich mächtige Verwitterungsprofile – sogenannte Saprolite – auf spheroidal verwittertem, hochgradig metamorphen Charnockit. Spheroidale Verwitterung führt zu abgerundeten „corestones“ mit abgesplitterten Rinden („rindlets“) an der Gesteins – Saprolit Grenze. Zur Identifizierung der ratenlimitierenden Faktoren des Fortschreiten der Verwitterungsfront, der Sequenz der Verwitterungsreaktionen und der dahinterliegenden Mechanismen nutzte ich detaillierte gesteinsstrukturelle, mineralogische, chemische und elektronenmikroskopische (SEM, FIB, TEM) Analysemethoden. Die initiale Verwitterung beginnt mit lokal begrenzter in situ Oxidation in Pyroxen, gefolgt von in situ Oxidation von Biotit. Die Auflösung der Minerale wird am besten durch einen Auflöse – Wiederausfällungs-prozess beschrieben, da zur Mineralgrenze hin keine chemischen Gradienten, dafür aber auf der nm-Skala scharfe strukturelle Grenzen zu beobachten sind. Die ersten ausfallenden Sekundärphasen sind Oxide und amorphe Phasen aus denen sich Sekundärmineral (hauptsächlich Smectit und Kaolinit) bilden. Für Biotit ist auch eine direkte Umwandlung im Festzustand zu Kaolinit möglich. Die initiale Pyroxen- und Biotitoxidation ist relativ schnell: log J = -11 molmin/(m2 s). Berechnete Oxidationsraten auf der corestone-Skala (cm) sind vergleichbar zu Auflöseraten auf derselben Skala: log R = -13 molpx/(m2 s) und log R = -15 molbt/(m2 s). Volumetrische Berechnungen führen zum Schluss, dass die Oxidation mit einhergehender Volumenzunahme zur Entwicklung von Mikrofrakturen in den Mineralen und dem Gesamtgestein führt. Diese begünstigen Fluidtransport und damit einhergehende Plagioklasverwitterung. Des Weiteren ist diese Oxidationsreaktion verantwortlich für die Entstehung der Frakturen bei spheroidaler Verwitterung des Gesteins, welche die „rindlets“ vom „corestone“ abgrenzen. Daraus kann geschlossen werden, dass in situ Oxidation der ratenlimitierende Prozess bei der Verwitterung ist. Plagioklasverwitterung führt zu einer hohen Porositätszunahme und der endgültigen Umwandlung von Gestein zu Saprolit. Da Oxidation die erste Verwitterungsreaktion ist, verbinden die Zuführung und der Verbrauch von O2 zur, beziehungsweise an die Verwitterungsfront Erosion an der Oberfläche mit Prozessen an der Verwitterungsfront über einen Feedbackmechanismus. Daher hängt die langsame Verwitterungsrate letztlich vom Sauerstofftransport durch das Verwitterungsprofil und von lithologischen Faktoren des Charnockit wie zum Beispiel geringe Gesteinsporosität und/oder wenige Fe(II)-haltige Primärminerale ab. Des Weiteren ist der einzige Prozess im Charnockit der frische verwitterbare Oberflächen (eine Voraussetzung für chemische Verwitterung) generiert die oxidations-induzierte Frakturierung. Darüber hinaus minimieren die Abwesenheit von tektonischer Aktivität und geringe prä-anthropogene Erosionsraten in dieser Region den Abtrag des mächtigen und kohäsiven Verwitterungsprofils und somit über den beschriebenen Feedback auch die chemische Verwitterungsrate. KW - Sri Lanka KW - chemical weathering KW - erosion KW - saprolite KW - weathering feedback KW - charnockite KW - critical zone KW - mineral weathering reactions KW - Sri Lanka KW - chemische Verwitterung KW - Erosion KW - Saprolit KW - Verwitterungsfeedback KW - Charnockit KW - kritische Zone KW - Mineralverwitterungsreaktionen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408503 ER - TY - THES A1 - Berger, Florian T1 - Different modes of cooperative transport by molecular motors T1 - Verschiedene Arten kooperativen Transportes mittels molekularer Motoren N2 - Cargo transport by molecular motors is ubiquitous in all eukaryotic cells and is typically driven cooperatively by several molecular motors, which may belong to one or several motor species like kinesin, dynein or myosin. These motor proteins transport cargos such as RNAs, protein complexes or organelles along filaments, from which they unbind after a finite run length. Understanding how these motors interact and how their movements are coordinated and regulated is a central and challenging problem in studies of intracellular transport. In this thesis, we describe a general theoretical framework for the analysis of such transport processes, which enables us to explain the behavior of intracellular cargos based on the transport properties of individual motors and their interactions. Motivated by recent in vitro experiments, we address two different modes of transport: unidirectional transport by two identical motors and cooperative transport by actively walking and passively diffusing motors. The case of cargo transport by two identical motors involves an elastic coupling between the motors that can reduce the motors’ velocity and/or the binding time to the filament. We show that this elastic coupling leads, in general, to four distinct transport regimes. In addition to a weak coupling regime, kinesin and dynein motors are found to exhibit a strong coupling and an enhanced unbinding regime, whereas myosin motors are predicted to attain a reduced velocity regime. All of these regimes, which we derive both by analytical calculations and by general time scale arguments, can be explored experimentally by varying the elastic coupling strength. In addition, using the time scale arguments, we explain why previous studies came to different conclusions about the effect and relevance of motor-motor interference. In this way, our theory provides a general and unifying framework for understanding the dynamical behavior of two elastically coupled molecular motors. The second mode of transport studied in this thesis is cargo transport by actively pulling and passively diffusing motors. Although these passive motors do not participate in active transport, they strongly enhance the overall cargo run length. When an active motor unbinds, the cargo is still tethered to the filament by the passive motors, giving the unbound motor the chance to rebind and continue its active walk. We develop a stochastic description for such cooperative behavior and explicitly derive the enhanced run length for a cargo transported by one actively pulling and one passively diffusing motor. We generalize our description to the case of several pulling and diffusing motors and find an exponential increase of the run length with the number of involved motors. N2 - Lastentransport mittels Motorproteinen ist ein grundlegender Mechanismus aller eukaryotischen Zellen und wird üblicherweise von mehreren Motoren kooperativ durchgeführt, die zu einer oder zu verschiedenen Motorarten wie Kinesin, Dynein oder Myosin gehören. Diese Motoren befördern Lasten wie zum Beispiel RNAs, Proteinkomplexe oder Organellen entlang Filamenten, von denen sie nach einer endlichen zurückgelegten Strecke abbinden. Es ist ein zentrales und herausforderndes Problem zu verstehen, wie diese Motoren wechselwirken und wie ihre Bewegungen koordiniert und reguliert werden. In der vorliegenden Arbeit wird eine allgemeine theoretische Herangehensweise zur Untersuchung solcher Transportprozesse beschrieben, die es uns ermöglicht, das Verhalten von intrazellularem Transport, ausgehend von den Transporteigenschaften einzelner Motoren und ihren Wechselwirkungen, zu verstehen. Wir befassen uns mit zwei Arten kooperativen Transports, die auch kürzlich in verschiedenen in vitro-Experimenten untersucht wurden: (i) gleichgerichteter Transport mit zwei identischen Motorproteinen und (ii) kooperativer Transport mit aktiv schreitenden und passiv diffundierenden Motoren. Beim Lastentransport mit zwei identischen Motoren sind die Motoren elastisch gekoppelt, was eine Verminderung ihrer Geschwindigkeit und/oder ihrer Bindezeit am Filament hervorrufen kann. Wir zeigen, dass solch eine elastische Kopplung im Allgemeinen zu vier verschiedenen Transportcharakteristiken führt. Zusätzlich zu einer schwachen Kopplung, können bei Kinesinen und Dyneinen eine starke Kopplung und ein verstärktes Abbinden auftreten, wohingegen bei Myosin Motoren eine verminderte Geschwindigkeit vorhergesagt wird. All diese Transportcharakteristiken, die wir mit Hilfe analytischer Rechnungen und Zeitskalenargumenten herleiten, können durch Änderung der elastischen Kopplung experimentell untersucht werden. Zusätzlich erklären wir anhand der Zeitskalenargumente, warum frühere Untersuchungen zu unterschiedlichen Erkenntnissen über die Auswirkung und die Wichtigkeit der gegenseitigen Beeinflussung der Motoren gelangt sind. Auf diese Art und Weise liefert unsere Theorie eine allgemeine und vereinheitlichende Beschreibung des dynamischen Verhaltens von zwei elastisch gekoppelten Motorproteinen. Die zweite Art von Transport, die in dieser Arbeit untersucht wird ist der Lastentransport durch aktiv ziehende und passiv diffundierende Motoren. Obwohl die passiven Motoren nicht zum aktiven Transport beitragen, verlängern sie stark die zurückgelegte Strecke auf dem Filament. Denn wenn ein aktiver Motor abbindet, wird das Lastteilchen immer noch am Filament durch den passiven Motor festgehalten, was dem abgebundenen Motor die Möglichkeit gibt, wieder an das Filament anzubinden und den aktiven Transport fortzusetzen. Für dieses kooperative Verhalten entwickeln wir eine stochastische Beschreibung und leiten explizit die verlängerte Transportstrecke für einen aktiv ziehenden und einen passiv diffundierenden Motor her. Wir verallgemeinern unsere Beschreibung für den Fall von mehreren ziehenden und diffundierenden Motoren und finden ein exponentielles Anwachsen der zurückgelegten Strecke in Abhängigkeit von der Anzahl der beteiligten Motoren. KW - molekulare Motoren KW - kooperativer Transport KW - intrazellulärer Transport KW - elastische Kopplung KW - stochastische Prozesse KW - molecular motors KW - cooperative transport KW - intracellular transport KW - elastic coupling KW - stochastic processes Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60319 ER - TY - THES A1 - Bierbaum, Veronika T1 - Chemomechanical coupling and motor cycles of the molecular motor myosin V T1 - Chemomechanische Kopplung und Motorzyklen für den molekularen Motor Myosin V N2 - In the living cell, the organization of the complex internal structure relies to a large extent on molecular motors. Molecular motors are proteins that are able to convert chemical energy from the hydrolysis of adenosine triphosphate (ATP) into mechanical work. Being about 10 to 100 nanometers in size, the molecules act on a length scale, for which thermal collisions have a considerable impact onto their motion. In this way, they constitute paradigmatic examples of thermodynamic machines out of equilibrium. This study develops a theoretical description for the energy conversion by the molecular motor myosin V, using many different aspects of theoretical physics. Myosin V has been studied extensively in both bulk and single molecule experiments. Its stepping velocity has been characterized as a function of external control parameters such as nucleotide concentration and applied forces. In addition, numerous kinetic rates involved in the enzymatic reaction of the molecule have been determined. For forces that exceed the stall force of the motor, myosin V exhibits a 'ratcheting' behaviour: For loads in the direction of forward stepping, the velocity depends on the concentration of ATP, while for backward loads there is no such influence. Based on the chemical states of the motor, we construct a general network theory that incorporates experimental observations about the stepping behaviour of myosin V. The motor's motion is captured through the network description supplemented by a Markov process to describe the motor dynamics. This approach has the advantage of directly addressing the chemical kinetics of the molecule, and treating the mechanical and chemical processes on equal grounds. We utilize constraints arising from nonequilibrium thermodynamics to determine motor parameters and demonstrate that the motor behaviour is governed by several chemomechanical motor cycles. In addition, we investigate the functional dependence of stepping rates on force by deducing the motor's response to external loads via an appropriate Fokker-Planck equation. For substall forces, the dominant pathway of the motor network is profoundly different from the one for superstall forces, which leads to a stepping behaviour that is in agreement with the experimental observations. The extension of our analysis to Markov processes with absorbing boundaries allows for the calculation of the motor's dwell time distributions. These reveal aspects of the coordination of the motor's heads and contain direct information about the backsteps of the motor. Our theory provides a unified description for the myosin V motor as studied in single motor experiments. N2 - Die hier vorgelegte Arbeit entwickelt unter Verwendung vieler verschiedener Aspekte der statistischen Physik eine Theorie der chemomechanischen Kopplung für den Energieumsatz des molekularen Motors Myosin V. Das Myosin V ist sowohl in chemokinetischen wie in Einzelmolekülexperimenten grundlegend untersucht worden. Seine Schrittgeschwindigkeit ist in Abhängigkeit verschiedener externer Parameter, wie der Nukleotidkonzentration und einer äußeren Kraft, experimentell bestimmt. Darüber hinaus ist eine große Anzahl verschiedener chemokinetischer Raten, die an der enzymatischen Reaktion des Moleküls beteiligt sind, quantitativ erfasst. Unter der Wirkung externer Kräfte, die seine Anhaltekraft überschreiten, verhält sich der Motor wie eine Ratsche: Für Kräfte, die entlang der Schrittbewegung des Motors wirken, hängt seine Geschwindigkeit von der ATP-Konzentration ab, für rückwärts angreifende Kräfte jedoch ist die Bewegung des Motors unabhängig von ATP. Auf der Grundlage der chemischen Zustände des Motors wird eine Netzwerktheorie aufgebaut, die die experimentellen Beobachtungen des Schrittverhaltens für Myosin V einschließt. Diese Netzwerkbeschreibung dient als Grundlage für einen Markovprozess, der die Dynamik des Motors beschreibt. Die Verwendung diskreter Zustände bietet den Vorteil der direkten Erfassung der chemischen Kinetik des Moleküls. Darüber hinaus werden chemische und mechanische Eigenschaften des Motors in gleichem Maße im Modell berücksichtigt. Durch die Erfassung der Enzymkinetik mittels eines stochastischen Prozesses lässt sich die Motordynamik mit Hilfe des stationären Zustands der Netzwerkdarstellung beschreiben. Um diesen zu bestimmen, verwenden wir eine graphentheoretische Methode, die auf Kirchhoff zurückgreift. Wir zeigen in Einklang mit den Gesetzen der Thermodynamik für Nichtgleichgewichtssysteme, dass das Schrittverhalten des Motors von mehreren chemomechanischen Zyklen beeinflusst wird. Weiterhin untersuchen wir das funktionale Verhalten mechanischer Schrittraten in Abhängigkeit der äußeren Kraft unter Verwendung einer geeigneten Fokker-Planck-Gleichung. Hierfür wird auf die Theorie einer kontinuierlichen Beschreibung von molekularen Methoden zurückgegriffen. Wir berechnen Größen wie die mittlere Schrittgeschwindigkeit, das Verhältnis von Vorwärts- und Rückwärtsschritten, und die Lauflänge des Motors in Abhängigkeit einer äußeren angreifenden Kraft sowie der Nukleotidkonzentration, und vergleichen diese mit experimentellen Daten. Für Kräfte, die kleiner als die Anhaltekraft des Motors sind, unterscheidet sich der chemomechanische Zyklus grundlegend von demjenigen, der für große Kräfte dominiert. Diese Eigenschaft resultiert in einem Schrittverhalten, das mit den experimentellen Beobachtungen übereinstimmt. Es ermöglicht weiterhin die Zerlegung des Netzwerks in einzelne Zyklen, die die Bewegung des Motors für verschiedene Bereiche externer Kräfte erfassen. Durch die Erweiterung unseres Modells auf Markovprozesse mit absorbierenden Zuständen können so die Wartezeitenverteilungen für einzelne Zyklen des Motors analytisch berechnet werden. Sie erteilen Aufschluss über die Koordination des Motors und enthalten zudem direkte Informationen über seine Rückwärtsschritte, die experimentell nicht erfasst sind. Für das gesamte Netzwerk werden die Wartezeitenverteilungen mit Hilfe eines Gillespie-Algorithmus bestimmt. Unsere Theorie liefert eine einheitliche Beschreibung der Eigenschaften von Myosin V, die in Einzelmolekülexperimenten erfasst werden können. KW - statistische Physik KW - Markov-Prozesse KW - molekulare Motoren KW - statistical physics KW - markov processes KW - molecular motors Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53614 ER - TY - THES A1 - Bojdys, Michael Janus T1 - On new allotropes and nanostructures of carbon nitrides T1 - Über neue Allotrope und Nanostrukturen von Karbonitriden N2 - In the first section of the thesis graphitic carbon nitride was for the first time synthesised using the high-temperature condensation of dicyandiamide (DCDA) – a simple molecular precursor – in a eutectic salt melt of lithium chloride and potassium chloride. The extent of condensation, namely next to complete conversion of all reactive end groups, was verified by elemental microanalysis and vibrational spectroscopy. TEM- and SEM-measurements gave detailed insight into the well-defined morphology of these organic crystals, which are not based on 0D or 1D constituents like known molecular or short-chain polymeric crystals but on the packing motif of extended 2D frameworks. The proposed crystal structure of this g-C3N4 species was derived in analogy to graphite by means of extensive powder XRD studies, indexing and refinement. It is based on sheets of hexagonally arranged s-heptazine (C6N7) units that are held together by covalent bonds between C and N atoms. These sheets stack in a graphitic, staggered fashion adopting an AB-motif, as corroborated by powder X-ray diffractometry and high-resolution transmission electron microscopy. This study was contrasted with one of many popular – yet unsuccessful – approaches in the last 30 years of scientific literature to perform the condensation of an extended carbon nitride species through synthesis in the bulk. The second section expands the repertoire of available salt melts introducing the lithium bromide and potassium bromide eutectic as an excellent medium to obtain a new phase of graphitic carbon nitride. The combination of SEM, TEM, PXRD and electron diffraction reveals that the new graphitic carbon nitride phase stacks in an ABA’ motif forming unprecedentedly large crystals. This section seizes the notion of the preceding chapter, that condensation in a eutectic salt melt is the key to obtain a high degree of conversion mainly through a solvatory effect. At the close of this chapter ionothermal synthesis is seen established as a powerful tool to overcome the inherent kinetic problems of solid state reactions such as incomplete polymerisation and condensation in the bulk especially when the temperature requirement of the reaction in question falls into the proverbial “no man’s land” of classical solvents, i.e. above 250 to 300 °C. The following section puts the claim to the test, that the crystalline carbon nitrides obtained from a salt melt are indeed graphitic. A typical property of graphite – namely the accessibility of its interplanar space for guest molecules – is transferred to the graphitic carbon nitride system. Metallic potassium and graphitic carbon nitride are converted to give the potassium intercalation compound, K(C6N8)3 designated according to its stoichiometry and proposed crystal structure. Reaction of the intercalate with aqueous solvents triggers the exfoliation of the graphitic carbon nitride material and – for the first time – enables the access of singular (or multiple) carbon nitride sheets analogous to graphene as seen in the formation of sheets, bundles and scrolls of carbon nitride in TEM imaging. The thus exfoliated sheets form a stable, strongly fluorescent solution in aqueous media, which shows no sign in UV/Vis spectroscopy that the aromaticity of individual sheets was subject to degradation. The final section expands on the mechanism underlying the formation of graphitic carbon nitride by literally expanding the distance between the covalently linked heptazine units which constitute these materials. A close examination of all proposed reaction mechanisms to-date in the light of exhaustive DSC/MS experiments highlights the possibility that the heptazine unit can be formed from smaller molecules, even if some of the designated leaving groups (such as ammonia) are substituted by an element, R, which later on remains linked to the nascent heptazine. Furthermore, it is suggested that the key functional groups in the process are the triazine- (Tz) and the carbonitrile- (CN) group. On the basis of these assumptions, molecular precursors are tailored which encompass all necessary functional groups to form a central heptazine unit of threefold, planar symmetry and then still retain outward functionalities for self-propagated condensation in all three directions. Two model systems based on a para-aryl (ArCNTz) and para-biphenyl (BiPhCNTz) precursors are devised via a facile synthetic procedure and then condensed in an ionothermal process to yield the heptazine based frameworks, HBF-1 and HBF-2. Due to the structural motifs of their molecular precursors, individual sheets of HBF-1 and HBF-2 span cavities of 14.2 Å and 23.0 Å respectively which makes both materials attractive as potential organic zeolites. Crystallographic analysis confirms the formation of ABA’ layered, graphitic systems, and the extent of condensation is confirmed as next-to-perfect by elemental analysis and vibrational spectroscopy. N2 - Die vorliegende Arbeit befasst sich mit der Synthese und Charakterisierung neuer Allotropen und Nanostrukturen von Karbonitriden und berührt einige ihrer möglichen Anwendungen. Alle gezeigten, ausgedehnten, kovalent verbundenen Karbonitridgerüste wurden in einem ionothermalen Syntheseprozess – einer Hochtemperaturbehandlung in einem eutektischen Salzgemisch als ungewöhnlichem Lösungsmittel – aus einfachen Präkursormolkülen erzeugt. Der Kondensationsmechanismus folgt einer temperaturinduzierten Deaminierung und Bildung einer ausgedehnten, aromatischen Einheit; des dreifach substituierten Heptazines. Die Dissertation folgt vier übergreifenden Themen, beginnend mit der Einleitung in Karbonitridsysteme und der Suche nach einem Material, welches einzig aus Kohlenstoff und Stickstoff aufgebaut ist – einer Suche, die 1834 mit den Beobachtungen Justus von Liebigs „über einige Stickstoffverbindungen“ begann. Der erste Abschnitt zeigt die erfolgreiche Synthese von graphitischem Karbonitrid (g-C3N4); einer Spezies, welche auf Schichten hexagonal angeordneter s-Heptazineinheiten beruht, die durch kovalente Bindungen zwischen C- und N-Atomen zusammengehalten werden, und welche in einer graphitischen, verschobenen Art und Weise gestapelt sind. Der zweite Abschnitt berührt die Vielfalt von Salzschmelzensystemen, die für die Ionothermalsynthese geeignet sind und zeigt auf, dass die bloße Veränderung der Salzschmelze eine andere Kristallphase des graphitischen Karbonitrides ergibt – das g-C3N4-mod2. Im dritten Abschnitt wird vom Graphit bekannte Interkallationschemie auf das g-C3N4 angewendet, um eine Kalliuminterkallationsverbindung des graphitischen Karbonitirdes zu erhalten (K(C6N8)3). Diese Verbindung kann in Analogie zum graphitischen System leicht exfoliiert werden, um Bündel von Karbonitridnanoschichten zu erhalten, und weist darüberhinaus interessante optische Eigenschaften auf. Der vierte und letzte Abschnitt handelt von der Einführung von Aryl- und Biphenylbrücken in das Karbonitridmaterial durch rationale Synthese der Präkursormoleküle. Diese ergeben die heptazinbasierten Frameworks, HBF-1 und HBF-2 – zwei kovalente, organische Gerüste. KW - kovalente Rahmenbedingungen KW - mehrschichtige Verbindungen KW - Triazin KW - Heptazine KW - Karbonnitrid Ionothermalsynthese KW - Salzschmelze KW - covalent frameworks KW - layered compounds KW - triazine KW - heptazine KW - carbon nitride KW - ionothermal synthesis KW - salt melt Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41236 ER - TY - THES A1 - Borisova, Dimitriya T1 - Feedback active coatings based on mesoporous silica containers T1 - Rückkopplungsaktive Beschichtungen basierend auf mesoporösen Silika-Behältern N2 - Metalle werden oft während ihrer Anwendung korrosiven Bedingungen ausgesetzt, was ihre Alterungsbeständigkeit reduziert. Deswegen werden korrosionsanfällige Metalle, wie Aluminiumlegierungen mit Schutzbeschichtungen versehen, um den Korrosionsprozess aktiv oder passiv zu verhindern. Die klassischen Schutzbeschichtungen funktionieren als physikalische Barriere zwischen Metall und korrosiver Umgebung und bieten einen passiven Korrosionsschutz nur, wenn sie unbeschädigt sind. Im Gegensatz dazu kann die Korrosion auch im Fall einer Beschädigung mittels aktiver Schutzbeschichtungen gehemmt werden. Chromathaltige Beschichtungen bieten heutzutage den besten aktiven Korrosionsschutz für Aluminiumlegierungen. Aufgrund ihrer Giftigkeit wurden diese weltweit verboten und müssen durch neue umweltfreundliche Schutzbeschichtungen ersetzt werden. Ein potentieller Ersatz sind Schutzbeschichtungen mit integrierten Nano- und Mikrobehältern, die mit ungiftigem Inhibitor gefüllt sind. In dieser Arbeit werden die Entwicklung und Optimierung solcher aktiver Schutzbeschichtungen für die industriell wichtige Aluminiumlegierung AA2024-T3 dargestellt Mesoporöse Silika-Behälter wurden mit dem ungiftigen Inhibitor (2-Mercaptobenzothiazol) beladen und dann in die Matrix anorganischer (SiOx/ZrOx) oder organischer (wasserbasiert) Schichten dispergiert. Zwei Sorten von Silika-Behältern mit unterschiedlichen Größen (d ≈ 80 and 700 nm) wurden verwendet. Diese haben eine große spezifische Oberfläche (≈ 1000 m² g-1), eine enge Porengrößenverteilung mit mittlerer Porenweite ≈ 3 nm und ein großes Porenvolumen (≈ 1 mL g-1). Dank dieser Eigenschaften können große Inhibitormengen im Behälterinneren adsorbiert und gehalten werden. Die Inhibitormoleküle werden bei korrosionsbedingter Erhöhung des pH-Wertes gelöst und freigegeben. Die Konzentration, Position und Größe der integrierten Behälter wurden variiert um die besten Bedingungen für einen optimalen Korrosionsschutz zu bestimmen. Es wurde festgestellt, dass eine gute Korrosionsschutzleistung durch einen Kompromiss zwischen ausreichender Inhibitormenge und guten Barriereeigenschaften hervorgerufen wird. Diese Studie erweitert das Wissen über die wichtigsten Faktoren, die den Korrosionsschutz beeinflussen. Somit wurde die Entwicklung effizienter, aktiver Schutzbeschichtungen ermöglicht, die auf mit Inhibitor beladenen Behältern basieren. N2 - Metals are often used in environments that are conducive to corrosion, which leads to a reduction in their mechanical properties and durability. Coatings are applied to corrosion-prone metals such as aluminum alloys to inhibit the destructive surface process of corrosion in a passive or active way. Standard anticorrosive coatings function as a physical barrier between the material and the corrosive environment and provide passive protection only when intact. In contrast, active protection prevents or slows down corrosion even when the main barrier is damaged. The most effective industrially used active corrosion inhibition for aluminum alloys is provided by chromate conversion coatings. However, their toxicity and worldwide restriction provoke an urgent need for finding environmentally friendly corrosion preventing systems. A promising approach to replace the toxic chromate coatings is to embed particles containing nontoxic inhibitor in a passive coating matrix. This work presents the development and optimization of effective anticorrosive coatings for the industrially important aluminum alloy, AA2024-T3 using this approach. The protective coatings were prepared by dispersing mesoporous silica containers, loaded with the nontoxic corrosion inhibitor 2-mercaptobenzothiazole, in a passive sol-gel (SiOx/ZrOx) or organic water-based layer. Two types of porous silica containers with different sizes (d ≈ 80 and 700 nm, respectively) were investigated. The studied robust containers exhibit high surface area (≈ 1000 m² g-1), narrow pore size distribution (dpore ≈ 3 nm) and large pore volume (≈ 1 mL g-1) as determined by N2 sorption measurements. These properties favored the subsequent adsorption and storage of a relatively large amount of inhibitor as well as its release in response to pH changes induced by the corrosion process. The concentration, position and size of the embedded containers were varied to ascertain the optimum conditions for overall anticorrosion performance. Attaining high anticorrosion efficiency was found to require a compromise between delivering an optimal amount of corrosion inhibitor and preserving the coating barrier properties. This study broadens the knowledge about the main factors influencing the coating anticorrosion efficiency and assists the development of optimum active anticorrosive coatings doped with inhibitor loaded containers. KW - Korrosion KW - Beschichtungen KW - Aluminiumlegierung KW - Silika KW - Nanopartikel KW - mesoporös KW - corrosion KW - coating KW - aluminum alloy KW - silica nanoparticles KW - mesoporous Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63505 ER - TY - THES A1 - Brauer, Dorothée T1 - Chemo-kinematic constraints on Milky Way models from the spectroscopic surveys SEGUE & RAVE T1 - Beschränkungen von Modellen der Milchstraße auf Basis der chemisch-kinematischen Analyse von Beobachtungsdaten der spektroskopischen Himmelsdurchmusterungen SEGUE und RAVE N2 - The Milky Way is only one out of billions of galaxies in the universe. However, it is a special galaxy because it allows to explore the main mechanisms involved in its evolution and formation history by unpicking the system star-by-star. Especially, the chemical fingerprints of its stars provide clues and evidence of past events in the Galaxy’s lifetime. These information help not only to decipher the current structure and building blocks of the Milky Way, but to learn more about the general formation process of galaxies. In the past decade a multitude of stellar spectroscopic Galactic surveys have scanned millions of stars far beyond the rim of the solar neighbourhood. The obtained spectroscopic information provide unprecedented insights to the chemo-dynamics of the Milky Way. In addition analytic models and numerical simulations of the Milky Way provide necessary descriptions and predictions suited for comparison with observations in order to decode the physical properties that underlie the complex system of the Galaxy. In the thesis various approaches are taken to connect modern theoretical modelling of galaxy formation and evolution with observations from Galactic stellar surveys. With its focus on the chemo-kinematics of the Galactic disk this work aims to determine new observational constraints on the formation of the Milky Way providing also proper comparisons with two different models. These are the population synthesis model TRILEGAL based on analytical distribution functions, which aims to simulate the number and distribution of stars in the Milky Way and its different components, and a hybrid model (MCM) that combines an N-body simulation of a Milky Way like galaxy in the cosmological framework with a semi-analytic chemical evolution model for the Milky Way. The major observational data sets in use come from two surveys, namely the “Radial Velocity Experiment” (RAVE) and the “Sloan Extension for Galactic Understanding and Exploration” (SEGUE). In the first approach the chemo-kinematic properties of the thin and thick disk of the Galaxy as traced by a selection of about 20000 SEGUE G-dwarf stars are directly compared to the predictions by the MCM model. As a necessary condition for this, SEGUE's selection function and its survey volume are evaluated in detail to correct the spectroscopic observations for their survey specific selection biases. Also, based on a Bayesian method spectro-photometric distances with uncertainties below 15% are computed for the selection of SEGUE G-dwarfs that are studied up to a distance of 3 kpc from the Sun. For the second approach two synthetic versions of the SEGUE survey are generated based on the above models. The obtained synthetic stellar catalogues are then used to create mock samples best resembling the compiled sample of observed SEGUE G-dwarfs. Generally, mock samples are not only ideal to compare predictions from various models. They also allow validation of the models' quality and improvement as with this work could be especially achieved for TRILEGAL. While TRILEGAL reproduces the statistical properties of the thin and thick disk as seen in the observations, the MCM model has shown to be more suitable in reproducing many chemo-kinematic correlations as revealed by the SEGUE stars. However, evidence has been found that the MCM model may be missing a stellar component with the properties of the thick disk that the observations clearly show. While the SEGUE stars do indicate a thin-thick dichotomy of the stellar Galactic disk in agreement with other spectroscopic stellar studies, no sign for a distinct metal-poor disk is seen in the MCM model. Usually stellar spectroscopic surveys are limited to a certain volume around the Sun covering different regions of the Galaxy’s disk. This often prevents to obtain a global view on the chemo-dynamics of the Galactic disk. Hence, a suitable combination of stellar samples from independent surveys is not only useful for the verification of results but it also helps to complete the picture of the Milky Way. Therefore, the thesis closes with a comparison of the SEGUE G-dwarfs and a sample of RAVE giants. The comparison reveals that the chemo-kinematic relations agree in disk regions where the samples of both surveys show a similar number of stars. For those parts of the survey volumes where one of the surveys lacks statistics they beautifully complement each other. This demonstrates that the comparison of theoretical models on the one side, and the combined observational data gathered by multiple surveys on the other side, are key ingredients to understand and disentangle the structure and formation history of the Milky Way. N2 - Die Milchstraße ist nur eine unter Milliarden von Galaxien im Universum, dennoch ist sie besonders. Sie bietet die einzigartige Möglichkeit anhand ihrer einzeln auflösbaren Sterne und deren im Detail beobachtbaren Eigenschaften die Mechanismen ihrer Evolutions- und Entstehungsgeschichte genau zu studieren und damit Rückschlüsse auf die Entwicklungsprozesse von Galaxien im Allgemeinen zu ziehen. Insbesondere der chemische Fingerabdruck ihrer Sterne liefert dabei Indizien und Beweise für Ereignisse im Leben der Galaxie. In den letzten 15 Jahren wurden daher in einer Vielzahl von Himmeldurchmusterungen Millionen von Sternen in der Milchstraße spektroskopisch beobachtet. Die so gewonnenen Informationen bieten detaillierte Einblicke in die Substrukturen unserer Galaxie und deren chemisch-kinematische Struktur. Ergänzend dazu liefern analytische Modelle und numerische Simulationen der Milchstraße wichtige Beschreibungen, die sich zum Vergleich mit Beobachtungen eignen, um die dem komplexen System der Galaxie zugrunde liegenden exakten physikalischen Eigenschaften entschlüsseln zu können. Die vorliegende Arbeit nutzt verschiedene Ansätze, um moderne theoretische Modelle der Galaxienentstehung und -evolution mit Daten aus stellaren Beobachtungskampagnen zu vergleichen. Die dazu analysierten Beobachtungsdatensätze stammen aus zwei großen Himmelsdurchmusterungen, dem „Radial Velocity Experiment“ (RAVE) und dem „Sloan Extension for Galactic Understanding and Exploration“ (SEGUE). Mit dem Fokus auf der chemisch-kinematischen Struktur der galaktischen Scheibe geht es im Wesentlichen darum, zwei Modelle der Milchstraße zu testen, nämlich ein Populationssynthesemodell (TRILEGAL) und ein Hybridmodell (MCM). Während TRILEGAL auf analytischen Verteilungsfunktionen basiert und zum Ziel hat, die Anzahl und Verteilung der Sterne innerhalb der Galaxie und ihrer unterschiedlichen Komponenten zu simulieren, verbindet das MCM Modell eine kosmologische N-Körper Simulation einer der Milchstraße ähnlichen Galaxie mit einem semi-analytischen Modell zur Beschreibung der chemischen Evolution der Milchstraße. Auf Grundlage einer Auswahl von etwa 20000 SEGUE G-Zwergsternen werden in einem ersten Ansatz die aus den Messdaten gewonnenen chemisch-kinematischen Eigenschaften der dünnen und dicken Scheibe der Milchstraße mit den direkten Vorhersagen des MCM Modells verglichen. Eine notwendige Bedingung dafür ist die Korrektur der Beobachtungsdaten für systematische Fehler bei der Objektauswahl der Beobachtungskampagne. Zudem werden mittels einer Bayesischen Methode spektro-photometrische Distanzen mit Fehlern kleiner als 15% für die Auswahl an SEGUE Sternen berechnet, die sich in einer Entfernung von bis zu 3 kpc von der Sonne befinden. Für den zweiten Ansatz werden basierend auf den oben genannten Modellen zwei synthetische Versionen der SEGUE Himmelsdurchmusterung generiert. Diese künstlichen stellaren Kataloge werden dann verwendet, um Vergleichspseudodatensätze für die verwendeten Zwergsterndaten anzufertigen. Solche synthetischen Testdatensätze eignen sich nicht nur, um die Vorhersagen verschiedener Modelle zu vergleichen, sie können auch zur Validierung der Qualität einzelner Modelle herangezogen werden. Während sich in der Analyse zeigt, dass TRILEGAL sich besonders gut eignet, statistische Eigenschaften der dünnen und dicken galaktischen Scheibe zu reproduzieren, spiegelt das MCM Modell viele der in der Milchstraße beobachtbaren chemisch-kinematischen Korrelationen gut wieder. Trotzdem finden sich Beweise dafür, dass dem MCM Modell eine stellare Komponente fehlt, deren Eigenschaften der in den Beobachtungen sichtbaren dicken Scheibe ähnlich sind. Meist sind spektroskopische Beobachtungskampagnen auf ein bestimmtes Volumen um die Sonne beschränkt. Oftmals verhindert dies die Möglichkeit einen globalen Blick auf die chemisch-kinematischen Eigenschaften der galaktischen Scheibe zu erlangen. Die Kombination von stellaren Daten unabhängiger Kampagnen ist daher nicht nur nützlich für die Verifikation von Ergebnissen, es hilft auch ein ganzheitlicheres Bild der Galaxie zu erlangen. Die vorliegende Arbeit schließt daher mit einem Vergleich der SEGUE G-Zwergsterne und einer Auswahl von RAVE Riesensternen. Es zeigt sich eine gute Übereinstimmung bzgl. der chemisch-kinematischen Struktur der galaktischen Scheibe besonders in denjenigen Regionen, die von einer Vielzahl von SEGUE und RAVE Objekten abgedeckt werden. Für Regionen des Beobachtungsvolumens, in dem die eine oder die andere der beiden Beobachtungskampagnen eine geringere Statistik von beobachteten Sternen aufweist, ergänzen sich RAVE und SEGUE gut. Dies zeigt, dass nicht nur der Vergleich von Beobachtungen und theoretischen Modellen, sondern auch die Kombination von Messdaten aus verschiedenen Himmelsdurchmusterungen wichtig ist, um die Struktur und die Entstehungsgeschichte der Milchstraße zu verstehen und zu entschlüsseln. KW - galaktische Astronomie KW - galactic astronomy KW - Entstehung der Milchstraße KW - Milky Way formation KW - Evolution der Milchstraße KW - Milky Way evolution KW - Milky Way chemo-kinematics KW - Chemokinematik der Milchstraße KW - SEGUE survey KW - SEGUE Beobachtungskampagne KW - RAVE survey KW - RAVE Beobachtungskampagne KW - mock data catalogues KW - Pseudodatensätze Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403968 ER - TY - THES A1 - Braun, Tobias T1 - Recurrences in past climates T1 - Rekurrenzen in vergangenen Klimaperioden BT - novel concepts & tools for the study of Palaeoseasonality and beyond BT - neue Konzepte und Methoden zur Analyse von Paläosaisonalität und darüber hinaus N2 - Our ability to predict the state of a system relies on its tendency to recur to states it has visited before. Recurrence also pervades common intuitions about the systems we are most familiar with: daily routines, social rituals and the return of the seasons are just a few relatable examples. To this end, recurrence plots (RP) provide a systematic framework to quantify the recurrence of states. Despite their conceptual simplicity, they are a versatile tool in the study of observational data. The global climate is a complex system for which an understanding based on observational data is not only of academical relevance, but vital for the predurance of human societies within the planetary boundaries. Contextualizing current global climate change, however, requires observational data far beyond the instrumental period. The palaeoclimate record offers a valuable archive of proxy data but demands methodological approaches that adequately address its complexities. In this regard, the following dissertation aims at devising novel and further developing existing methods in the framework of recurrence analysis (RA). The proposed research questions focus on using RA to capture scale-dependent properties in nonlinear time series and tailoring recurrence quantification analysis (RQA) to characterize seasonal variability in palaeoclimate records (‘Palaeoseasonality’). In the first part of this thesis, we focus on the methodological development of novel approaches in RA. The predictability of nonlinear (palaeo)climate time series is limited by abrupt transitions between regimes that exhibit entirely different dynamical complexity (e.g. crossing of ‘tipping points’). These possibly depend on characteristic time scales. RPs are well-established for detecting transitions and capture scale-dependencies, yet few approaches have combined both aspects. We apply existing concepts from the study of self-similar textures to RPs to detect abrupt transitions, considering the most relevant time scales. This combination of methods further results in the definition of a novel recurrence based nonlinear dependence measure. Quantifying lagged interactions between multiple variables is a common problem, especially in the characterization of high-dimensional complex systems. The proposed ‘recurrence flow’ measure of nonlinear dependence offers an elegant way to characterize such couplings. For spatially extended complex systems, the coupled dynamics of local variables result in the emergence of spatial patterns. These patterns tend to recur in time. Based on this observation, we propose a novel method that entails dynamically distinct regimes of atmospheric circulation based on their recurrent spatial patterns. Bridging the two parts of this dissertation, we next turn to methodological advances of RA for the study of Palaeoseasonality. Observational series of palaeoclimate ‘proxy’ records involve inherent limitations, such as irregular temporal sampling. We reveal biases in the RQA of time series with a non-stationary sampling rate and propose a correction scheme. In the second part of this thesis, we proceed with applications in Palaeoseasonality. A review of common and promising time series analysis methods shows that numerous valuable tools exist, but their sound application requires adaptions to archive-specific limitations and consolidating transdisciplinary knowledge. Next, we study stalagmite proxy records from the Central Pacific as sensitive recorders of mid-Holocene El Niño-Southern Oscillation (ENSO) dynamics. The records’ remarkably high temporal resolution allows to draw links between ENSO and seasonal dynamics, quantified by RA. The final study presented here examines how seasonal predictability could play a role for the stability of agricultural societies. The Classic Maya underwent a period of sociopolitical disintegration that has been linked to drought events. Based on seasonally resolved stable isotope records from Yok Balum cave in Belize, we propose a measure of seasonal predictability. It unveils the potential role declining seasonal predictability could have played in destabilizing agricultural and sociopolitical systems of Classic Maya populations. The methodological approaches and applications presented in this work reveal multiple exciting future research avenues, both for RA and the study of Palaeoseasonality. N2 - Unsere Fähigkeit, den Zustand eines Systems vorherzusagen, hängt grundlegend von der Tendenz des Systems ab, zu früheren Zuständen zurückzukehren. Solche "Rekurrenzen" sind sogar Bestandteil unserer Intuition und alltäglichen Erfahrungswelt: regelmäßige Routinen, soziale Zusammentreffen and die Wiederkehr der Jahreszeiten sind hierfür nur vereinzelte Beispiele. Rekurrenzplots (RPs) stellen uns in diesem Kontext eine systematische Methode zur Verfügung, um die Wiederkehreigenschaften von Systemzuständen quantitativ zu untersuchen. Obwohl RPs konzeptionell vergleichsweise simpel sind, stellen sie eine vielseitige Methode zur Analyse von gemessenen Beobachtungsdaten dar. Das globale Klimasystem ist ein komplexes System, bei dem ein datenbasiertes Verständnis nicht lediglich von rein akademischen Wert ist – es ist viel mehr relevant für das Fortbestehen der Gesellschaft innerhalb der natürlichen planetaren Grenzen. Um die heute beobachteten Klimaveränderungen allerdings in einen langfristigen Kontext einzuordnen, benötigen wir empirische Daten, die weit über die Periode hinaus gehen, für die instrumentelle Daten verfügbar sind. Paläoklimatologische Datenreihen repräsentieren hier ein wertvolles Archiv, dessen Auswertung jedoch Analysemethoden erfordert, die an die Komplexitäten von paläoklimatologischen ‘Proxydaten’ angepasst sind. Um einen wissenschaftlichen Beitrag zu dieser Problemstellung zu leisten, befasst sich diese Doktorarbeit mit der Konzeptionierung neuer Methoden und der problemstellungsbezogenen Anpassung bewährter Methoden in der Rekurrenzanalyse (RA). Die hier formulierten zentralen Forschungsfragen konzentrieren sich auf den Nachweis zeitskalen-abhängiger Eigenschaften in nichtlinearen Zeitreihen und, insbesondere, der Anpassung von quantitativen Maßen in der RA, um paläosaisonale Proxydaten zu charakterisieren (‘Paläosaisonalität’). Im ersten Teil dieser Arbeit liegt der Schwerpunkt auf der Entwicklung neuer methodischer Ansätze in der RA. Die Vorhersagbarkeit nichtlinearer (paläo)klimatologischer Zeitreihen ist durch abrupte Übergänge zwischen dynamisch grundlegend verschiedenen Zuständen erschwert (so zum Beispiel das Übertreten sogenannter ‘Kipppunkte’). Solche Zustandsübergänge zeigen oft charakteristische Zeitskalen-Abhängigkeiten. RPs haben sich als Methode zum Nachweis von Zustandsübergängen bewährt und sind darüber hinaus geeignet, Skalenabhängigkeiten zu identifizieren. Dennoch wurden beide Aspekte bislang selten methodisch zusammengeführt. Wir kombinieren hier bestehende Konzepte aus der Analyse selbstähnlicher Strukturen und RPs, um abrupte Zustandsübergänge unter Einbezug der relevantesten Zeitskalen zu identifizieren. Diese Kombination von Konzepten führt uns ferner dazu, ein neues rekurrenzbasiertes, nichtlineares Abhängigkeitsmaß einzuführen. Die quantitative Untersuchung zeitversetzter Abhängigkeiten zwischen zahlreichen Variablen ist ein zentrales Problem, das insbesondere in der Analyse hochdimensionaler komplexer Systeme auftritt. Das hier definierte ‘Rekurrenzfluß’-Abhängigkeitsmaß ermöglicht es auf elegante Weise, derartige Abhängigkeiten zu charakterisieren. Bei räumlich ausgedehnten komplexen Systemen führen Interaktionen zwischen lokalen Variablen zu der Entstehung räumlicher Muster. Diese räumlichen Muster zeigen zeitliche Rekurrenzen. In einer auf dieser Beobachtung aufbauenden Publikation stellen wir eine neue Methode vor, mit deren Hilfe differenzierbare, makroskopische Zustände untersucht werden können, die zu zentralen, zeitlich wiederkehrenden räumlichen Mustern korrespondieren. Folgend leiten wir über zum zweiten Teil dieser Arbeit, indem wir uns Anpassungen von Methoden zur Untersuchung von Paläosaisonalität zuwenden. Messreihen paläoklimatologischer Proxydaten geben uns nur indirekt Informationen über die ihnen zugrunde liegenden Klimavariablen und weisen inhärente Limitationen auf, wie zum Beispiel unregelmäßige Zeitabstände zwischen Datenpunkten. Wir zeigen statistische Verzerrungseffekte auf, die in der quantitativen RA auftreten, wenn Signale mit nichtstationärer Abtastrate untersucht werden. Eine Methode zur Korrektur wird vorgestellt und anhand von Messdaten validiert. Der zweite Teil dieser Dissertation befasst sich mit angewandten Analysen von paläosaisonalen Zeitreihen. Eine Literaturauswertung verbreiteter und potentiell vielversprechender Zeitreihenanalysemethoden zeigt auf, dass es eine Vielzahl solcher Methoden gibt, deren adäquate Anwendung aber Anpassungen an Klimaarchiv-spezifische Grenzen und Probleme sowie eine Zusammenführung interdisziplinärer Fähigkeiten erfordert. Daraufhin untersuchen wir an einem Stalagmiten gemessene Proxydaten aus der zentralen Pazifikregion als ein natürliches Archiv für potentielle Veränderungen der El Niño-Southern Oscillation (ENSO) währen des mittleren Holozäns. Die bemerkenswert hohe zeitliche Auflösung der Proxy-Zeitreihen erlaubt es uns, Verbindungen zwischen der Ausprägung der ENSO und saisonalen Zyklen herzustellen, wobei wir erneut Gebrauch von der RA machen. Die letzte Publikation in dieser Arbeit untersucht, in wie fern die Vorhersagbarkeit saisonaler Veränderungen eine Rolle für die Stabilität von Gesellschaften spielen könnte, deren Nahrungsversorgung auf Landwirtschaft beruht. Die klassische Maya-Zivilisation erlitt zwischen 750-950 CE eine drastische Fragmentierung urbaner Zentren, die mit regionalen Dürren in Verbindung gebracht werden. Auf Grundlage von saisonal-aufgelösten Proxydaten aus der Yok Balum Höhle in Belize, definieren wir ein quantitatives Maß für saisonale Vorhersagbarkeit. Dies erlaubt Schlussfolgerungen über die potentielle Rolle, die ein Verlust saisonaler Vorhersagbarkeit für die sich destablisierenden agrarwirtschaftlichen und soziopolitischen Systeme der Maya gehabt haben könnte. Die methodischen Ansätze und Anwendungen in dieser Arbeit zeigen vielseitige, spannende Forschungsfragen für zukünftige Untersuchungen in der RA und Paläosaisonalität auf. KW - recurrence analysis KW - palaeoclimate KW - seasonality KW - nonlinear time series analysis KW - self-similarity KW - regime shifts KW - climate impact research KW - Klimafolgenforschung KW - nichtlineare Zeitreihenanalyse KW - Paläoklima KW - Rekurrenzanalyse KW - abrupte Übergänge KW - Selbstähnlichkeit Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586900 ER - TY - THES A1 - Breitenbach, Sebastian Franz Martin T1 - Changes in monsoonal precipitation and atmospheric circulation during the Holocene reconstructed from stalagmites from Northeastern India T1 - Veränderungen monsunalen Niederschlages und atmosphärischer Zirkulation während des Holozäns, rekonstruiert aus Stalagmiten aus Nordostindien N2 - Recent years witnessed a vast advent of stalagmites as palaeoclimate archives. The multitude of geochemical and physical proxies and a promise of a precise and accurate age model greatly appeal to palaeoclimatologists. Although substantial progress was made in speleothem-based palaeoclimate research and despite high-resolution records from low-latitudinal regions, proving that palaeo-environmental changes can be archived on sub-annual to millennial time scales our comprehension of climate dynamics is still fragmentary. This is in particular true for the summer monsoon system on the Indian subcontinent. The Indian summer monsoon (ISM) is an integral part of the intertropical convergence zone (ITCZ). As this rainfall belt migrates northward during boreal summer, it brings monsoonal rainfall. ISM strength depends however on a variety of factors, including snow cover in Central Asia and oceanic conditions in the Indic and Pacific. Presently, many of the factors influencing the ISM are known, though their exact forcing mechanism and mutual relations remain ambiguous. Attempts to make an accurate prediction of rainfall intensity and frequency and drought recurrence, which is extremely important for South Asian countries, resemble a puzzle game; all interaction need to fall into the right place to obtain a complete picture. My thesis aims to create a faithful picture of climate change in India, covering the last 11,000 ka. NE India represents a key region for the Bay of Bengal (BoB) branch of the ISM, as it is here where the monsoon splits into a northwestward and a northeastward directed arm. The Meghalaya Plateau is the first barrier for northward moving air masses and receives excessive summer rainfall, while the winter season is very dry. The proximity of Meghalaya to the Tibetan Plateau on the one hand and the BoB on the other hand make the study area a key location for investigating the interaction between different forcings that governs the ISM. A basis for the interpretation of palaeoclimate records, and a first important outcome of my thesis is a conceptual model which explains the observed pattern of seasonal changes in stable isotopes (d18O and d2H) in rainfall. I show that although in tropical and subtropical regions the amount effect is commonly called to explain strongly depleted isotope values during enhanced rainfall, alone it cannot account for observed rainwater isotope variability in Meghalaya. Monitoring of rainwater isotopes shows no expected negative correlation between precipitation amount and d18O of rainfall. In turn I find evidence that the runoff from high elevations carries an inherited isotopic signature into the BoB, where during the ISM season the freshwater builds a strongly depleted plume on top of the marine water. The vapor originating from this plume is likely to memorize' and transmit further very negative d18O values. The lack of data does not allow for quantication of this plume effect' on isotopes in rainfall over Meghalaya but I suggest that it varies on seasonal to millennial timescales, depending on the runoff amount and source characteristics. The focal point of my thesis is the extraction of climatic signals archived in stalagmites from NE India. High uranium concentration in the stalagmites ensured excellent age control required for successful high-resolution climate reconstructions. Stable isotope (d18O and d13C) and grey-scale data allow unprecedented insights into millennial to seasonal dynamics of the summer and winter monsoon in NE India. ISM strength (i. e. rainfall amount) is recorded in changes in d18Ostalagmites. The d13C signal, reflecting drip rate changes, renders a powerful proxy for dry season conditions, and shows similarities to temperature-related changes on the Tibetan Plateau. A sub-annual grey-scale profile supports a concept of lower drip rate and slower stalagmite growth during dry conditions. During the Holocene, ISM followed a millennial-scale decrease of insolation, with decadal to centennial failures resulting from atmospheric changes. The period of maximum rainfall and enhanced seasonality corresponds to the Holocene Thermal Optimum observed in Europe. After a phase of rather stable conditions, 4.5 kyr ago, the strengthening ENSO system dominated the ISM. Strong El Nino events weakened the ISM, especially when in concert with positive Indian Ocean dipole events. The strongest droughts of the last 11 kyr are recorded during the past 2 kyr. Using the advantage of a well-dated stalagmite record at hand I tested the application of laser ablation-inductively coupled plasma-mass spectrometry (LA-ICP-MS) to detect sub-annual to sub-decadal changes in element concentrations in stalagmites. The development of a large ablation cell allows for ablating sample slabs of up to 22 cm total length. Each analyzed element is a potential proxy for different climatic parameters. Combining my previous results with the LAICP- MS-generated data shows that element concentration depends not only on rainfall amount and associated leaching from the soil. Additional factors, like biological activity and hydrogeochemical conditions in the soil and vadose zone can eventually affect the element content in drip water and in stalagmites. I present a theoretical conceptual model for my study site to explain how climatic signals can be transmitted and archived in stalagmite carbonate. Further, I establish a first 1500 year long element record, reconstructing rainfall variability. Additionally, I hypothesize that volcanic eruptions, producing large amounts of sulfuric acid, can influence soil acidity and hence element mobilization. N2 - Stalagmiten erfuhren in den letzten Jahren vermehrt Aufmerksamkeit als bedeutende Paläoklima- Archive. Paläoklimatologen sind beeindruckt von der grossen Zahl geochemischer und physikalischer Indikatoren (Proxies) und der Möglichkeit, präzise absolute Altersmodelle zu erstellen. Doch obwohl substantielle Fortschritte in der speleothem-basierten Klimaforschung gemacht wurden, und trotz hochaufgelöster Archive aus niederen Breiten, welche zeigen, das Umweltveränderungen auf Zeitskalen von Jahren bis Jahrtausenden archiviert und rekonstruiert werden können, bleibt unser Verständnis der Klimadynamik fragmentarisch. Ganz besonders gilt dies für den Indischen Sommermonsun (ISM) auf dem Indischen Subkontinent. Der ISM ist heute als ein integraler Bestandteil der intertropischen Konvergenzzone verstanden. Sobald dieser Regengürtel während des borealen Sommer nordwärts migriert kann der ISM seine feuchten Luftmassen auf dem Asiatischen Festland entladen. Dabei hängt die Stärke des ISM von einer Vielzahl von Faktoren ab. Zu diesen gehören die Schneedicke in Zentralasien im vorhergehenden Winter und ozeanische Bedingungen im Indischen und Pazifschen Ozean. Heute sind viele dieser Faktoren bekannt. Trotzdem bleiben deren Mechanismen und internen Verbindungen weiterhin mysteriös. Versuche, korrekte Vorhersagen zu Niederschlagsintensität und Häufigkeit oder zu Dürreereignissen zu erstellen ähneln einem Puzzle. All die verschiedenen Interaktionen müssen an die richtige Stelle gelegt werden, um ein sinnvolles Bild entstehen zu lassen. Meine Dissertation versucht, ein vertrauenswürdiges Bild des sich wandelnden Holozänen Klimas in Indien zu erstellen. NE Indien ist eine Schlüsselregion für den östlichen Arm des ISM, da sich hier der ISM in zwei Arme aufteilt, einen nordwestwärts und einen nordostwärts gerichteten. Das Meghalaya Plateau ist das erste Hindernis für die sich nordwärts bewegenden Luftmassen und erhält entsprechend exzessive Niederschläge während des Sommers. Die winterliche Jahreszeit dagegen ist sehr trocken. Die Nähe zum Tibetplateau einerseits und der Bucht von Bengalen andererseits determinieren die Schlüsselposition dieser Region für das Studium der Interaktionen der den ISM beeinflussenden Kräfte. Ein Fundament für die Interpretation der Paläoklimarecords und ein erstes wichtiges Ergebnis meiner Arbeit ist ein konzeptuelles Modell, welches die beobachteten saisonalen Veränderungen stabiler Isotope (d18O und d2H) im Niederschlag erklärt. Ich zeige, das obwohl in tropischen und subtropischen Regionen meist der amount effect zur Erklärung stark negativer Isotopenwerte während starker Niederschläge herangezogen wird, dieser allein nicht ausreicht, um die Isotopenvariabilität im Niederschlag Meghalaya's zu erklären. Die Langzeitbeobachtung der Regenwasserisotopie zeigt keine negative Korrelation zwischen Niederschlagsmenge und d18O. Es finden sich Hinweise, das der Abfluss aus den Hochgebirgsregionen Tibets und des Himalaya eine Isotopensignatur an das Oberflächenwasser der Bucht von Bengalen vererbt. Dort bildet sich aus isotopisch stark abgereicherten Wässern während des ISM eine Süsswasserlinse aus. Es ist wahrscheinlich, das Wasserdampf, der aus dieser Linse stammt, ein Isotopensignal aufgeprägt bekommt, welches abgereichertes d18O weitertransportiert. Der Mangel an Daten lässt es bisher leider nicht zu, quantitative Aussagen über den Einfluss dieses plume effect' auf Niederschläge in Meghalaya zu treffen. Es lässt sich allerdings vermuten, das dieser Einfluss auf saisonalen wie auch auf langen Zeitskalen variabel ist, abhängig vom Abfluss und der Quellencharacteristik. Der Fokus meiner Arbeit liegt in der Herauslösung klimatischer Signale aus nordostindischen Stalagmiten. Hohe Urankonzentrationen in diesen Stalagmiten erlaubt eine exzellente Alterskontrolle, die für hochauflösende Klimarekonstruktionen unerlässlich ist. Die stabilen Isotope (d18O und d13C), sowie Grauwertdaten, erlauben einmalige Einblicke in die Dynamik des Sommer und auch des Wintermonsun in NE Indien. Die ISM Stärke (d. h. Niederschlagsmenge) wird in Veränderungen in den d18Ostalagmites reflektiert. Das d13C Signal, welches Tropfratenänderungen speichert, dient als potenter Indikator für winterliche Trockenheitsbedingungen. Es zeigt Ähnlichkeit zu temperaturabhängigen Veränderungen auf dem Tibetplateau. Das sub-annuell aufgelöste Grauwertprofil stärkt das Konzept, das verminderte Tropfraten und langsameres Stalagmitenwachstum eine Folge von Trockenheit sind. Während des Holozäns folgte der ISM der jahrtausendelangen Verringerung der Insolation. Es finden sich aber ebenso rapide Anomalien, die aus atmosphärischen Veränderungen resultieren. Die Phase des höchsten Niederschlages und erhöhter Saisonalität korrespondiert mit dem Holozänen Thermalen Maximum. Nach einer Phase einigermassen stabilen Bedingungen begann vor ca. 4500 Jahren ENSO einen zunehmenden Einfluss auf den ISM auszuüben. Starke El Nino Ereignisse schwächen den ISM, besonders wenn diese zeitgleich mit positiven Indian Ocean Dipole Ereignissen auftreten. Die stärksten Dürren des gesamten Holozäns traten in den letzten 2000 Jahren auf. Um zusätzliche Informationen aus den hervorragenden Proben zu gewinnen nutzte ich die Vorteile der laser ablation inductively coupled plasma mass spectrometry (LA-ICP-MS). Diese erlaubt die Detektion sub-annueller bis sub-dekadischer Elementkonzentrationsveränderungen in Stalagmiten. Mittels einer neu entwickelten Ablationszelle konnten Proben von maximal 22 cm Länge untersucht werden. Jedes analysierte Element ist ein potentieller Träger einer Klimainformation. Die Kombination der früheren Ergebnisse mit denen der LA-IPC-MS zeigt, das die Elementkonzentrationen nicht nur von Niederschlagsveränderungen und assoziiertem Auswaschen aus dem Boden abhängen. Zusätzlich können auch die biologische Aktivität und hydrogeochemische Bedingungen in der vadosen Zone Einfluss auf die Elementzusammensetzung im Tropfwasser und in den Stalagmiten haben. Darum entwickelte ich ein theoretisches Modell für meinen Standort, um zu klären, wie Klimasignale von der Atmosphäre in die Höhle transportiert werden können. Ein anschliessend rekonstruierter 1500 Jahre langer Proxyrecord zeigt Niederschlagsvariabilität an. Zudem besteht die Möglichkeit, das Vulkaneruptionen, welche grosse Mengen an Schwefelsäure produzieren, eine Bodenversauerung verursachen und damit die Elementmobilisierung verstärken können. KW - Indischer Sommermonsun KW - Stabile Isotope KW - Stalagmiten KW - Holozän KW - Bucht von Bengalen KW - Indian Summer Monsoon KW - Bay of Bengal KW - stable isotopes KW - stalagmites KW - Laser ablation Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-37807 ER - TY - THES A1 - Brenner, Andri Caspar T1 - Sustainable urban growth T1 - Nachhaltige urbane Wachstumspfade BT - technology supply and agglomeration economies in the city BT - Angebote an Technologie und Agglomerationsexternalitäten in den Städten N2 - This dissertation explores the determinants for sustainable and socially optimalgrowth in a city. Two general equilibrium models establish the base for this evaluation, each adding its puzzle piece to the urban sustainability discourse and examining the role of non-market-based and market-based policies for balanced growth and welfare improvements in different theory settings. Sustainable urban growth either calls for policy actions or a green energy transition. Further, R&D market failures can pose severe challenges to the sustainability of urban growth and the social optimality of decentralized allocation decisions. Still, a careful (holistic) combination of policy instruments can achieve sustainable growth and even be first best. N2 - Diese Dissertation untersucht die Determinanten für ein nachhaltiges und sozial optimales Wachstum in den Städten. Zwei endogene Wachstumsmodelle untersuchen hierzu die Rolle von nichtmarktbasierten und marktbasierten Politikeingriffen. Jedes Modell fügt dabei dem städtischen Nachhaltigkeitsdiskurs sein eigenes Puzzleteil hinzu. Nachhaltiges städtisches Wachstum erfordert entweder politische Maßnahmen oder eine grüne Energiewende. Darüber hinaus können Verzerrungen im Forschungsmarkt ernsthafte Herausforderungen für die Nachhaltigkeit des städtischen Wachstums und für die soziale Optimalität dezentralisierter Allokationsentscheidungen darstellen. Dennoch kann eine sorgfältige (ganzheitliche) Kombination von Politikinstrumenten Erfolg haben und zu einem sozial optimalen Resultat führen. KW - urban growth KW - sustainable development KW - density effects KW - innovations in the city KW - Stadtwachstumsraten KW - nachhaltige Stadtentwicklung KW - Dichteeffekte KW - Innovationen in den Städten Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555223 ER - TY - THES A1 - Brill, Fabio Alexander T1 - Applications of machine learning and open geospatial data in flood risk modelling N2 - Der technologische Fortschritt erlaubt es, zunehmend komplexe Vorhersagemodelle auf Basis immer größerer Datensätze zu produzieren. Für das Risikomanagement von Naturgefahren sind eine Vielzahl von Modellen als Entscheidungsgrundlage notwendig, z.B. in der Auswertung von Beobachtungsdaten, für die Vorhersage von Gefahrenszenarien, oder zur statistischen Abschätzung der zu erwartenden Schäden. Es stellt sich also die Frage, inwiefern moderne Modellierungsansätze wie das maschinelle Lernen oder Data-Mining in diesem Themenbereich sinnvoll eingesetzt werden können. Zusätzlich ist im Hinblick auf die Datenverfügbarkeit und -zugänglichkeit ein Trend zur Öffnung (open data) zu beobachten. Thema dieser Arbeit ist daher, die Möglichkeiten und Grenzen des maschinellen Lernens und frei verfügbarer Geodaten auf dem Gebiet der Hochwasserrisikomodellierung im weiteren Sinne zu untersuchen. Da dieses übergeordnete Thema sehr breit ist, werden einzelne relevante Aspekte herausgearbeitet und detailliert betrachtet. Eine prominente Datenquelle im Bereich Hochwasser ist die satellitenbasierte Kartierung von Überflutungsflächen, die z.B. über den Copernicus Service der Europäischen Union frei zur Verfügung gestellt werden. Große Hoffnungen werden in der wissenschaftlichen Literatur in diese Produkte gesetzt, sowohl für die akute Unterstützung der Einsatzkräfte im Katastrophenfall, als auch in der Modellierung mittels hydrodynamischer Modelle oder zur Schadensabschätzung. Daher wurde ein Fokus in dieser Arbeit auf die Untersuchung dieser Flutmasken gelegt. Aus der Beobachtung, dass die Qualität dieser Produkte in bewaldeten und urbanen Gebieten unzureichend ist, wurde ein Verfahren zur nachträglichenVerbesserung mittels maschinellem Lernen entwickelt. Das Verfahren basiert auf einem Klassifikationsalgorithmus der nur Trainingsdaten von einer vorherzusagenden Klasse benötigt, im konkreten Fall also Daten von Überflutungsflächen, nicht jedoch von der negativen Klasse (trockene Gebiete). Die Anwendung für Hurricane Harvey in Houston zeigt großes Potenzial der Methode, abhängig von der Qualität der ursprünglichen Flutmaske. Anschließend wird anhand einer prozessbasierten Modellkette untersucht, welchen Einfluss implementierte physikalische Prozessdetails auf das vorhergesagte statistische Risiko haben. Es wird anschaulich gezeigt, was eine Risikostudie basierend auf etablierten Modellen leisten kann. Solche Modellketten sind allerdings bereits für Flusshochwasser sehr komplex, und für zusammengesetzte oder kaskadierende Ereignisse mit Starkregen, Sturzfluten, und weiteren Prozessen, kaum vorhanden. Im vierten Kapitel dieser Arbeit wird daher getestet, ob maschinelles Lernen auf Basis von vollständigen Schadensdaten einen direkteren Weg zur Schadensmodellierung ermöglicht, der die explizite Konzeption einer solchen Modellkette umgeht. Dazu wird ein staatlich erhobener Datensatz der geschädigten Gebäude während des schweren El Niño Ereignisses 2017 in Peru verwendet. In diesem Kontext werden auch die Möglichkeiten des Data-Mining zur Extraktion von Prozessverständnis ausgelotet. Es kann gezeigt werden, dass diverse frei verfügbare Geodaten nützliche Informationen für die Gefahren- und Schadensmodellierung von komplexen Flutereignissen liefern, z.B. satellitenbasierte Regenmessungen, topographische und hydrographische Information, kartierte Siedlungsflächen, sowie Indikatoren aus Spektraldaten. Zudem zeigen sich Erkenntnisse zu den Schädigungsprozessen, die im Wesentlichen mit den vorherigen Erwartungen in Einklang stehen. Die maximale Regenintensität wirkt beispielsweise in Städten und steilen Schluchten stärker schädigend, während die Niederschlagssumme in tiefliegenden Flussgebieten und bewaldeten Regionen als aussagekräftiger befunden wurde. Ländliche Gebiete in Peru weisen in der präsentierten Studie eine höhere Vulnerabilität als die Stadtgebiete auf. Jedoch werden auch die grundsätzlichen Grenzen der Methodik und die Abhängigkeit von spezifischen Datensätzen and Algorithmen offenkundig. In der übergreifenden Diskussion werden schließlich die verschiedenen Methoden – prozessbasierte Modellierung, prädiktives maschinelles Lernen, und Data-Mining – mit Blick auf die Gesamtfragestellungen evaluiert. Im Bereich der Gefahrenbeobachtung scheint eine Fokussierung auf neue Algorithmen sinnvoll. Im Bereich der Gefahrenmodellierung, insbesondere für Flusshochwasser, wird eher die Verbesserung von physikalischen Modellen, oder die Integration von prozessbasierten und statistischen Verfahren angeraten. In der Schadensmodellierung fehlen nach wie vor die großen repräsentativen Datensätze, die für eine breite Anwendung von maschinellem Lernen Voraussetzung ist. Daher ist die Verbesserung der Datengrundlage im Bereich der Schäden derzeit als wichtiger einzustufen als die Auswahl der Algorithmen. N2 - Technological progress allows for producing ever more complex predictive models on the basis of increasingly big datasets. For risk management of natural hazards, a multitude of models is needed as basis for decision-making, e.g. in the evaluation of observational data, for the prediction of hazard scenarios, or for statistical estimates of expected damage. The question arises, how modern modelling approaches like machine learning or data-mining can be meaningfully deployed in this thematic field. In addition, with respect to data availability and accessibility, the trend is towards open data. Topic of this thesis is therefore to investigate the possibilities and limitations of machine learning and open geospatial data in the field of flood risk modelling in the broad sense. As this overarching topic is broad in scope, individual relevant aspects are identified and inspected in detail. A prominent data source in the flood context is satellite-based mapping of inundated areas, for example made openly available by the Copernicus service of the European Union. Great expectations are directed towards these products in scientific literature, both for acute support of relief forces during emergency response action, and for modelling via hydrodynamic models or for damage estimation. Therefore, a focus of this work was set on evaluating these flood masks. From the observation that the quality of these products is insufficient in forested and built-up areas, a procedure for subsequent improvement via machine learning was developed. This procedure is based on a classification algorithm that only requires training data from a particular class to be predicted, in this specific case data of flooded areas, but not of the negative class (dry areas). The application for hurricane Harvey in Houston shows the high potential of this method, which depends on the quality of the initial flood mask. Next, it is investigated how much the predicted statistical risk from a process-based model chain is dependent on implemented physical process details. Thereby it is demonstrated what a risk study based on established models can deliver. Even for fluvial flooding, such model chains are already quite complex, though, and are hardly available for compound or cascading events comprising torrential rainfall, flash floods, and other processes. In the fourth chapter of this thesis it is therefore tested whether machine learning based on comprehensive damage data can offer a more direct path towards damage modelling, that avoids explicit conception of such a model chain. For that purpose, a state-collected dataset of damaged buildings from the severe El Niño event 2017 in Peru is used. In this context, the possibilities of data-mining for extracting process knowledge are explored as well. It can be shown that various openly available geodata sources contain useful information for flood hazard and damage modelling for complex events, e.g. satellite-based rainfall measurements, topographic and hydrographic information, mapped settlement areas, as well as indicators from spectral data. Further, insights on damaging processes are discovered, which mainly are in line with prior expectations. The maximum intensity of rainfall, for example, acts stronger in cities and steep canyons, while the sum of rain was found more informative in low-lying river catchments and forested areas. Rural areas of Peru exhibited higher vulnerability in the presented study compared to urban areas. However, the general limitations of the methods and the dependence on specific datasets and algorithms also become obvious. In the overarching discussion, the different methods – process-based modelling, predictive machine learning, and data-mining – are evaluated with respect to the overall research questions. In the case of hazard observation it seems that a focus on novel algorithms makes sense for future research. In the subtopic of hazard modelling, especially for river floods, the improvement of physical models and the integration of process-based and statistical procedures is suggested. For damage modelling the large and representative datasets necessary for the broad application of machine learning are still lacking. Therefore, the improvement of the data basis in the field of damage is currently regarded as more important than the selection of algorithms. KW - flood risk KW - machine learning KW - open data KW - damage modelling KW - data-mining KW - Schadensmodellierung KW - Data-Mining KW - Hochwasserrisiko KW - maschinelles Lernen KW - offene Daten Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555943 ER - TY - THES A1 - Bryant, Seth T1 - Aggregation and disaggregation in flood risk models T1 - Aggregation und Disaggregation in Hochwasserrisikomodellen N2 - Floods continue to be the leading cause of economic damages and fatalities among natural disasters worldwide. As future climate and exposure changes are projected to intensify these damages, the need for more accurate and scalable flood risk models is rising. Over the past decade, macro-scale flood risk models have evolved from initial proof-of-concepts to indispensable tools for decision-making at global-, nationaland, increasingly, the local-level. This progress has been propelled by the advent of high-performance computing and the availability of global, space-based datasets. However, despite such advancements, these models are rarely validated and consistently fall short of the accuracy achieved by high-resolution local models. While capabilities have improved, significant gaps persist in understanding the behaviours of such macro-scale models, particularly their tendency to overestimate risk. This dissertation aims to address such gaps by examining the scale transfers inherent in the construction and application of coarse macroscale models. To achieve this, four studies are presented that, collectively, address exposure, hazard, and vulnerability components of risk affected by upscaling or downscaling. The first study focuses on a type of downscaling where coarse flood hazard inundation grids are enhanced to a finer resolution. While such inundation downscaling has been employed in numerous global model chains, ours is the first study to focus specifically on this component, providing an evaluation of the state of the art and a novel algorithm. Findings demonstrate that our novel algorithm is eight times faster than existing methods, offers a slight improvement in accuracy, and generates more physically coherent flood maps in hydraulically challenging regions. When applied to a case study, the algorithm generated a 4m resolution inundation map from 30m hydrodynamic model outputs in 33 s, a 60-fold improvement in runtime with a 25% increase in RMSE compared with direct hydrodynamic modelling. All evaluated downscaling algorithms yielded better accuracy than the coarse hydrodynamic model when compared to observations, demonstrating similar limits of coarse hydrodynamic models reported by others. The substitution of downscaling into flood risk model chains, in place of high-resolution modelling, can drastically improve the lead time of impactbased forecasts and the efficiency of hazard map production. With downscaling, local regions could obtain high resolution local inundation maps by post-processing a global model without the need for expensive modelling or expertise. The second study focuses on hazard aggregation and its implications for exposure, investigating implicit aggregations commonly used to intersect hazard grids with coarse exposure models. This research introduces a novel spatial classification framework to understand the effects of rescaling flood hazard grids to a coarser resolution. The study derives closed-form analytical solutions for the location and direction of bias from flood grid aggregation, showing that bias will always be present in regions near the edge of inundation. For example, inundation area will be positively biased when water depth grids are aggregated, while volume will be negatively biased when water elevation grids are aggregated. Extending the analysis to effects of hazard aggregation on building exposure, this study shows that exposure in regions at the edge of inundation are an order of magnitude more sensitive to aggregation errors than hazard alone. Among the two aggregation routines considered, averaging water surface elevation grids better preserved flood depths at buildings than averaging of water depth grids. The study provides the first mathematical proof and generalizeable treatment of flood hazard grid aggregation, demonstrating important mechanisms to help flood risk modellers understand and control model behaviour. The final two studies focus on the aggregation of vulnerability models or flood damage functions, investigating the practice of applying per-asset functions to aggregate exposure models. Both studies extend Jensen’s inequality, a well-known 1906 mathematical proof, to demonstrate how the aggregation of flood damage functions leads to bias. Applying Jensen’s proof in this new context, results show that typically concave flood damage functions will introduce a positive bias (overestimation) when aggregated. This behaviour was further investigated with a simulation experiment including 2 million buildings in Germany, four global flood hazard simulations and three aggregation scenarios. The results show that positive aggregation bias is not distributed evenly in space, meaning some regions identified as “hot spots of risk” in assessments may in fact just be hot spots of aggregation bias. This study provides the first application of Jensen’s inequality to explain the overestimates reported elsewhere and advice for modellers to minimize such artifacts. In total, this dissertation investigates the complex ways aggregation and disaggregation influence the behaviour of risk models, focusing on the scale-transfers underpinning macro-scale flood risk assessments. Extending a key finding of the flood hazard literature to the broader context of flood risk, this dissertation concludes that all else equal, coarse models overestimate risk. This dissertation goes beyond previous studies by providing mathematical proofs for how and where such bias emerges in aggregation routines, offering a mechanistic explanation for coarse model overestimates. It shows that this bias is spatially heterogeneous, necessitating a deep understanding of how rescaling may bias models to effectively reduce or communicate uncertainties. Further, the dissertation offers specific recommendations to help modellers minimize scale transfers in problematic regions. In conclusion, I argue that such aggregation errors are epistemic, stemming from choices in model structure, and therefore hold greater potential and impetus for study and mitigation. This deeper understanding of uncertainties is essential for improving macro-scale flood risk models and their effectiveness in equitable, holistic, and sustainable flood management. N2 - Hochwasser sind weiterhin die größte Ursache für wirtschaftliche Schäden undTodesopfer durch Naturkatastrophen weltweit. Da prognostiziert wird, dass künftige Klima- und Expositionsänderungen diese Schäden noch verstärken werden, steigt der Bedarf an genaueren und skalierbaren Hochwasserrisikomodellen. In den letzten zehn Jahren haben sich makroskalige Hochwasserrisikomodelle von ersten Machbarkeitsversuchen zu unverzichtbaren Instrumenten für Entscheidungsträger auf globaler, nationaler und zunehmend auch lokaler Ebene entwickelt. Dieser Fortschritt wurde weitgehend durch das Aufkommen von Hochleistungsrechnern und dieVerfügbarkeit globaler,weltraumgestützter Datensätze vorangetrieben. Trotz dieser Fortschrittewerden diese Modelle jedoch nur selten validiert und bleiben durchweg hinter der Genauigkeit zurück, die von hochauflösenden lokalen Modellen erreicht wird. Obwohl sich die Möglichkeiten verbessert haben, gibt es immer noch erhebliche Lücken im Verständnis der Skalenübertragungen, die typischerweise in großskaligen Modellen verwendet werden, insbesondere zu deren Tendenz zur Überschätzung von Risiken. Diese Dissertation zielt darauf ab, diese Lücken zu schließen, indem sie diese Skalentransfers untersucht, die mit der Konstruktion und Anwendung solcher groben makroskaligen Modelle einhergehen. Zu diesem Zweck werden vier Studien vorgestellt, die gemeinsam die Expositions- , Gefährdungs- und Vulnerabilitätskomponenten des Risikos betrachten, welche durch Upscaling oder Downscaling beeinflusst werden. Die erste Studie konzentriert sich auf eine Art von Downscaling, bei dem grobe Überschwemmungsraster auf eine feinere Auflösung umskaliert werden. Eine solche Herabskalierung von Überschwemmungsdaten wurde zwar bereits in zahlreichen globalen Modellketten eingesetzt, doch ist unsere Studie die erste, die sich speziell auf diese Komponente konzentriert und eine Bewertung des Standes der Technik sowie einen neuartigen Algorithmus liefert. Die Ergebnisse zeigen, dass unser neuartiger Algorithmus achtmal schneller ist als bestehende Methoden, eine leichte Verbesserung der Genauigkeit bietet und physikalisch kohärentere Überschwemmungskarten in hydraulisch anspruchsvollen Regionen erzeugt. Bei der Anwendung in einer Fallstudie erzeugte der Algorithmus eine Überschwemmungskarte mit einer Auflösung von 4 Metern aus den Ergebnissen eines 30-metrigen hydrodynamischen Modells in 33 Sekunden, was eine 60-fache Verbesserung der Laufzeit bei einem 25-prozentigen Anstieg des RMSE im Vergleich zur direkten hydrodynamischen Modellierung darstellt. Alle bewerteten Downscaling-Algorithmen erbrachten – im Vergleich zu Messergebnissen – eine bessere Genauigkeit als das grobe hydrodynamische Modell, was die Grenzen der groben hydrodynamischen Modelle aus früheren Studien bestätigt. Der Einsatz von Downscaling in Hochwasserrisikomodellketten anstelle von hochauflösender Modellierung kann die Vorlaufzeit von auswirkungsbasierten Vorhersagen und die Effizienz der Erstellung von Gefahrenkarten drastisch verbessern. Downscaling könnte es regional erlauben, hochauflösende lokale Überschwemmungskarten aus einem globalen Modell zu generieren, ohne dass teure Modellierung oder Fachwissen erforderlich sind. Die zweite Studie befasst sich mit der Aggregation von Gefahren und deren Auswirkungen auf die Exposition, wobei implizite Aggregationen untersucht werden, die üblicherweise Verwendung finden, wenn Gefahrenraster mit groben Expositionsmodellen verknüpft werden. In dieser Studie wird ein neuartiges räumliches Klassifizierungsframework eingeführt, um die Auswirkungen der Umskalierung von Hochwassergefahrenrastern auf eine gröbere Auflösung zu verstehen. Die Studie leitet analytische Lösungen in geschlossener Form für die räumliche Ausprägung und die Richtung des systematischen Fehlers durch die Aggregation von Überschwemmungsrastern ab und zeigt, dass dieser Fehler in Regionen nahe der Überschwemmungsgrenze immer auftritt. So wird beispielsweise die Überschwemmungsfläche positiv beeinflusst, wenn Einstautiefenraster aggregiert werden, während das Hochwasservolumen negativ beeinflusst wird, wenn Wasserhöhenraster aggregiert werden. Bei der Ausweitung der Analyse auf die Auswirkungen der Gefahrenaggregation auf die Gebäudeexposition zeigt diese Studie, dass die Exposition in Regionen am Rande der Überschwemmung um eine Größenordnung empfindlicher auf Aggregationsfehler reagiert als die Hochwassergefahr allein. Von den beiden betrachteten Aggregationsroutinen bewahrte die Mittelung von Wasseroberflächen-Höhenrastern die Überschwemmungstiefen an Gebäuden besser als die Mittelung von Einstautiefenrastern. Die Studie liefert den ersten mathematischen Beweis und eine verallgemeinerungsfähige Aggregationsmethode für Hochwassergefahrenraster und zeigt wichtige Mechanismen auf, die Hochwasserrisikomodellierern helfen können, das Modellverhalten zu verstehen und zu kontrollieren. Die letzten beiden Studien konzentrieren sich auf die Aggregation von Vulnerabilitätsmodellen oder Hochwasserschadensfunktionen und untersuchen die Praxis der Anwendung von gebäudespezifischen Funktionen auf aggregierte Expositionsmodelle. Beide Studien erweitern die Jensen’sche Ungleichung, einen bekannten mathematischen Beweis, um zu zeigen, wie die Aggregation von Flutschadensfunktionen zu systematischen Fehlern führt. Die Anwendung von Jensens Beweis aus dem Jahr 1906 in diesem neuen Kontext zeigt, dass typischerweise konkave Hochwasserschadensfunktionen zu einer systematischen Überschätzung führen, wenn sie aggregiert werden. Dieses Verhalten wurde anhand eines Simulationsexperiments mit 2 Millionen Gebäuden in Deutschland, vier globalen Hochwasserrisikosimulationen und drei Aggregationsszenarien weiter untersucht. Die Ergebnisse zeigen, dass die positive Aggregationsverzerrung nicht gleichmäßig im Raum verteilt ist, was bedeutet, dass einige Regionen, die in den Bewertungen als „Hochrisikogebiete“ identifiziert wurden, in Wirklichkeit bloß „Hochfehlergebiet“ seien könnten. Dies ist die erste Anwendung der Jensen’schen Ungleichung zur Erklärung der Überschätzungen, die in anderen Studien für grobskalige Hochwasserrisikomodelle berichtet wurden. Diese Dissertation untersucht die komplexe Art und Weise, wie Aggregation und Disaggregation das Verhalten von Risikomodellen beeinflussen, und konzentriert sich dabei auf die Skalentransfers, die den makroskaligen Hochwasserrisikobewertungen zugrunde liegen. Indem sie eine wichtige Erkenntnis aus der Literatur zur Hochwassergefahr auf den breiteren Kontext des Hochwasserrisikos ausweitet, zeigt diese Dissertation, dass grobe Modelle das Risiko überschätzen, wenn alle anderen Faktoren gleich sind. Diese Dissertation geht über frühere Studien hinaus, indem sie mathematische Beweise dafür liefert, wie und wo systematische Fehler in Aggregationsroutinen entstehen, und bietet eine mechanistische Erklärung für die Überschätzung in groben Modellen. Es wird gezeigt, dass diese Verzerrung räumlich heterogen ist, was ein tiefes Verständnis der Art und Weise erfordert, wie die Umskalierung Modelle verzerren kann, um Unsicherheiten effektiv zu reduzieren oder zu kommunizieren. Die Dissertation enthält spezifische Empfehlungen, die Modellierern helfen sollen, Skalenübertragungen in problematischen Regionen zu minimieren. Abschließend argumentiere ich, dass solche Aggregationsfehler epistemischer Natur sind, da sie aus der Wahl der Modellstruktur resultieren, und daher ein größeres Potenzial und einen stärkeren Anstoß zur Verbesserung bieten sollten. Dieses tiefere Verständnis von Unsicherheiten ist unerlässlich, wenn makroskalige Hochwasserrisikomodelle ihr volles Potenzial als Werkzeuge für ein gerechtes, ganzheitliches und nachhaltiges Zusammenleben mit extremen Überschwemmungen entfalten sollen. KW - flood risk KW - uncertainty KW - models KW - GIS KW - Hochwasserrisiko KW - Unsicherheit KW - Modelle KW - GIS Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-650952 ER - TY - THES A1 - Canil, Laura T1 - Tuning Interfacial Properties in Perovskite Solar Cells through Defined Molecular Assemblies T1 - Anpassung von Grenzflächeneigenschaften von Perowskit-Solarzellen durch den Einsatz von molekularen Schichten N2 - In the frame of a world fighting a dramatic global warming caused by human-related activities, research towards the development of renewable energies plays a crucial role. Solar energy is one of the most important clean energy sources and its role in the satisfaction of the global energy demand is set to increase. In this context, a particular class of materials captured the attention of the scientific community for its attractive properties: halide perovskites. Devices with perovskite as light-absorber saw an impressive development within the last decade, reaching nowadays efficiencies comparable to mature photovoltaic technologies like silicon solar cells. Yet, there are still several roadblocks to overcome before a wide-spread commercialization of this kind of devices is enabled. One of the critical points lies at the interfaces: perovskite solar cells (PSCs) are made of several layers with different chemical and physical features. In order for the device to function properly, these properties have to be well-matched. This dissertation deals with some of the challenges related to interfaces in PSCs, with a focus on the interface between the perovskite material itself and the subsequent charge transport layer. In particular, molecular assemblies with specific properties are deposited on the perovskite surface to functionalize it. The functionalization results in energy level alignment adjustment, interfacial losses reduction, and stability improvement. First, a strategy to tune the perovskite’s energy levels is introduced: self-assembled monolayers of dipolar molecules are used to functionalize the surface, obtaining simultaneously a shift in the vacuum level position and a saturation of the dangling bonds at the surface. A shift in the vacuum level corresponds to an equal change in work function, ionization energy, and electron affinity. The direction of the shift depends on the direction of the collective interfacial dipole. The magnitude of the shift can be tailored by controlling the deposition parameters, such as the concentration of the solution used for the deposition. The shift for different molecules is characterized by several non-invasive techniques, including in particular Kelvin probe. Overall, it is shown that it is possible to shift the perovskite energy levels in both directions by several hundreds of meV. Moreover, interesting insights on the molecules deposition dynamics are revealed. Secondly, the application of this strategy in perovskite solar cells is explored. Devices with different perovskite compositions (“triple cation perovskite” and MAPbBr3) are prepared. The two resulting model systems present different energetic offsets at the perovskite/hole-transport layer interface. Upon tailored perovskite surface functionalization, the devices show a stabilized open circuit voltage (Voc) enhancement of approximately 60 meV on average for devices with MAPbBr3, while the impact is limited on triple-cation solar cells. This suggests that the proposed energy level tuning method is valid, but its effectiveness depends on factors such as the significance of the energetic offset compared to the other losses in the devices. Finally, the above presented method is further developed by incorporating the ability to interact with the perovskite surface directly into a novel hole-transport material (HTM), named PFI. The HTM can anchor to the perovskite halide ions via halogen bonding (XB). Its behaviour is compared to that of another HTM (PF) with same chemical structure and properties, except for the ability of forming XB. The interaction of perovskite with PFI and PF is characterized through UV-Vis, atomic force microscopy and Kelvin probe measurements combined with simulations. Compared to PF, PFI exhibits enhanced resilience against solvent exposure and improved energy level alignment with the perovskite layer. As a consequence, devices comprising PFI show enhanced Voc and operational stability during maximum-power-point tracking, in addition to hysteresis reduction. XB promotes the formation of a high-quality interface by anchoring to the halide ions and forming a stable and ordered interfacial layer, showing to be a particularly interesting candidate for the development of tailored charge transport materials in PSCs. Overall, the results exposed in this dissertation introduce and discuss a versatile tool to functionalize the perovskite surface and tune its energy levels. The application of this method in devices is explored and insights on its challenges and advantages are given. Within this frame, the results shed light on XB as ideal interaction for enhancing stability and efficiency in perovskite-based devices. N2 - Im Kampf gegen den menschengemachten Klimawandel spielt die Forschung und Entwicklung von erneuerbaren Energien eine tragende Rolle. Solarenergie ist eine der wichtigsten grünen Energiequellen und von steigender Bedeutung für die Deckung des globalen Energiebedarfs. In diesem Kontext hat eine bestimme Materialklasse aufgrund ihrer attraktiven Eigenschaften die Aufmerksamkeit der Wissenschaft erregt: Halogenid-Perowskit. Perowskit-Solarzellen haben im letzten Jahrzehnt eine beeindruckende Entwicklung durchgemacht und erreichen heutzutage Effizienzen, die mit weit entwickelten Photovoltaik-Technologien wie Silizium-Solarzellen vergleichbar sind. Jedoch existieren immer noch mehrere Hürden, die einer marktweiten Kommerzialisierung dieser jungen Technologie im Wege stehen. Eines der kritischen Probleme befindet sich an den Grenzflächen. Perowskit-Solarzellen bestehen aus mehreren Schichten mit unterschiedlichen chemischen und physikalischen Eigenschaften. Damit die Solarzelle bestmöglich funktioniert, müssen diese Eigenschaften aufeinander abgestimmt sein. Diese Dissertation beschäftigt sich mit einigen Herausforderungen im Zusammenhang mit Grenzflächen in Perowskit-Solarzellen, dabei liegt der Fokus auf der Grenzfläche zwischen Perowskit-Absorber und der angrenzenden Ladungstransportschicht. Insbesondere werden organische Moleküle mit spezifischen Eigenschaften verwendet um die Oberfläche des Perowskiten zu funktionalisieren. Dadurch wird eine Bandanpassung erreicht, Grenzflächenverluste reduziert und die Stabilität der Solarzellen erhöht. Zunächst wird eine Strategie zum Anpassen der Bandenergien vorgestellt: Selbst-organisierende Monoschichten dipolarer Moleküle werden auf die Perowskit-Oberfläche abgeschieden, um diese zu funktionalisieren. Dadurch wird eine Anpassung des Energie-Levels im Perowskiten und die Sättigung von ungebundenen Elektronenbindungen (engl. dangling bonds) an der Oberfläche erreicht. Die Richtung der Energielevel-Verschiebung hängt von der Richtung des kollektiven Grenzflächen-Dipols ab. Der Betrag der Energielevel-Verschiebung kann über die Depositionsparameter während der Schichtherstellung eingestellt werden. Die Energielevel-Verschiebung bei der Verwendung verschiedener Moleküle wird mit Hilfe verschiedener non-invasiver Charakterisierungsmethoden untersucht, insbesondere mit der Hilfe von Kelvin-Sonde Messungen. Diese Messungen ermöglichen interessante Erkenntnisse über die Dynamik der Deposition der Moleküle. Es ist möglich die Energielevel in beide Richtungen um mehrere hundert meV zu verschieben. Als Zweites wird die Anwendung dieser Stategie in Perowskit-Solarzellen erforscht. Solarzellen mit Perowskit-Absorbern unterschiedlicher Zusammensetzung (“Dreifach-Kationen-Perowskit” und MAPbBr3) werden präpariert; die beiden Modellsysteme besitzen dann unterschiedliche energetische Offsets an der Perowskit-Lochleiter Grenzfläche. Mit einer maßgeschneiderter Funktionalisierung der Perowskit-Oberfläche zeigen die MAPbBr3 Solarzellen eine permanente Verbesserung der offene-Klemmen-Spannung (engl. open circuit voltage, Voc) um durchschnittlich 60 meV, während der Einfluss auf die Solarzellen mit Dreifach-Kationen-Perowskit gering ist. Dies zeigt, dass die vorgestellte Methode zur Bandanpassung funktioniert, aber ihre Effektivität zudem von weiteren Faktoren abhängt: Die Relevanz des energetischen Offsets im Vergleich zu anderen Verlustmechanismen beeinflusst unter anderem die Effektivität der Funktionalisierung. Abschließend wird beschrieben, wie die präsentierte Methode zur Bandanpassung weiterentwickelt wird, indem das Vermögen, mit der Perowskit-Oberfläche zu interagieren, direkt in einen neuartigen Lochleiter („PFI“) integriert wird. Der Lochleiter kann sich über Halogenbindungen an den Perowskiten anlagern. Das Verhalten von PFI wird verglichen mit dem eines anderen Lochleiters („PF“), welcher die fast gleiche chemische Struktur und sehr ähnliche Eigenschaften aufweist, ausgenommen der Fähigkeit eine Halogenbindung zu formen. Die PFI-Perowskit und PF-Perowskit Interaktion wird durch UV-Vis Spektroskopie, Rasterkraftmikroskopie und Kelvin-Sonde Messungen, kombiniert mit Simulationen, charakterisiert. Beim direkten Vergleich von PFI und PF zeigt sich die Bildung der Halogenbindung in einer bei PFI verbesserten Widerstandskraft gegen Lösungsmittel und Bandanpassung zum Perowskiten. Beim Folgerichtig zeigen Solarzellen mit PFI zusätzlich zu einer verringerten Hysterese einen höheren Voc und eine erhöhte Stabilität während des Betriebs unter Maximum-Power-Point Tracking Zusammenfassend stellt diese Dissertation somit ein vielseitiges Werkzeug zur Funktionalisierung von Perowskit-Oberflächen und der dadurch erreichten Bandanpassung vor. Die Anwendung dieses Werkzeugs an Solarzellen wird erprobt und Einsichten in seine Vorteile und Nachteile erlangt. Die Halogenbindung wird als spezifische Interaktion identifiziert, die sich ideal zur Steigerung von Effizienz und Stabilität von Perowskit-basierten optoelektronischen Bauteilen erweisen könnte. KW - photovoltaic KW - perovskite solar cells KW - interfaces KW - energy levels KW - halogen bonding KW - Grenzflächen KW - Perowskit Solarzellen KW - Photovoltaik KW - Bandenenergien KW - Halogenbindung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546333 ER - TY - THES A1 - Chaleawlert-Umpon, Saowaluk T1 - Sustainable electrode materials based on lignin T1 - Ligninbasierte nachhaltige Elektrodenmaterialien N2 - The utilization of lignin as renewable electrode material for electrochemical energy storage is a sustainable approach for future batteries and supercapacitors. The composite electrode was fabricated from Kraft lignin and conductive carbon and the charge storage contribution was determined in terms of electrical double layer (EDL) and redox reactions. The important factors at play for achieving high faradaic charge storage capacity contribute to high surface area, accessibility of redox sites in lignin and their interaction with conductive additives. A thinner layer of lignin covering the high surface area of carbon facilitates the electron transfer process with a shorter pathway from the active sites of nonconductive lignin to the current collector leading to the improvement of faradaic charge storage capacity. Composite electrodes from lignin and carbon would be even more sustainable if the fluorinated binder can be omitted. A new route to fabricate a binder-free composite electrode from Kraft lignin and high surface area carbon has been proposed by crosslinking lignin with glyoxal. A high molecular weight of lignin is obtained to enhance both electroactivity and binder capability in composite electrodes. The order of the processing step of crosslinking lignin on the composite electrode plays a crucial role in achieving a stable electrode and high charge storage capacity. The crosslinked lignin based electrodes are promising since they allow for more stable, sustainable, halogen-free and environmentally benign devices for energy storage applications. Furthermore, improvement of the amount of redox active groups (quinone groups) in lignin is useful to enhance the capacity in lithium battery applications. Direct oxidative demethylation by cerium ammonium nitrate has been carried out under mild conditions. This proves that an increase of quinone groups is able to enhance the performance of lithium battery. Thus, lignin is a promising material and could be a good candidate for application in sustainable energy storage devices. N2 - Die Verwendung von Lignin als erneuerbares Ausgangsmaterial für Elektroden ist ein nachhaltiger Ansatz für die Herstellung der nächsten Generation von Batterien und Superkondensatoren. In dieser Arbeit werden Verbundelektroden auf der Basis von Kraft-Lignin und leitfähigem Kohlenstoff hergestellt und getestet. Die Beiträge des Aufbaus einer elektrischen Doppelschicht (EDL) und der Redoxreaktionen zur Kapazität der Elektrode werden diskutiert. Die wichtigsten Faktoren um eine hohe faradaysche Kapazität der aktiven Gruppen in Lignin zu erreichen sind eine große Oberfläche, die Zugänglichkeit der redoxaktiven Gruppen, sowie die Wechselwirkung mit leitfähigen Additiven. Dabei verringert eine dünnere Ligninschicht auf der Oberfläche des leitfähigen Kohlenstoffs den Elektronentransportweg zwischen den redoxaktiven Gruppen und dem Stromabnehmer und wirkt sich somit positiv auf die faradaysche Kapazität aus. Traditionelle Verbundelektroden enthalten in der Regel fluorierte Bindemittel, was deren Nachhaltigkeit in Frage stellt. Die Verwendung von Glyoxal als Quervernetzer für Lignin stellt eine Alternative zur Herstellung von bindemittelfreien ligninbasierten Verbundelektroden dar. Durch die Quervernetzung wird Lignin mit hohem Molekulargewicht erhalten, was sich insbesondere vorteilhaft auf die Stabilität der Elektroden auswirkt. Für das Erreichen einer hohen Kapazität spielt allerdings die Reihenfolge der Produktionsschritte eine entscheidende Rolle, was hier auch diskutiert wird. Eine Erhöhung der Anzahl an redoxativen Gruppen, insbesondere Chinon-Funktionalitäten, im Lignin führt darüber hinaus zur Erhöhung der Kapazität in primären Lithiumbatterien. Die direkte oxidative Demethylierung von Phenylethern mit Hilfe von Cerammoniumnitrat wurde in dieser Arbeit unter milden Reaktionsbedingungen durchgeführt und die verbesserte Kapazität in Lithiumbatterien aufgrund der erhöhten Anzahl an redoxaktiven Gruppen aufgezeigt. Abschließend kann Lignin, quervernetzt oder oxidiert, als vielversprechender Wegbereiter für nachhaltige Materialen in der Energiespeicherung angesehen werden. KW - lignin KW - energy storage KW - sustainable energy storage materials KW - Lignin KW - Energiespeicher KW - nachhaltige Energiespeichermaterialien Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411793 ER - TY - THES A1 - Codutti, Agnese T1 - Behavior of magnetic microswimmers T1 - Verhalten magnetischer Microschwimmer BT - simulations for natural swimmers and synthetic propellers BT - Simulationen von natürlichen Schwimmern und synthetischen Propellern N2 - Microswimmers, i.e. swimmers of micron size experiencing low Reynolds numbers, have received a great deal of attention in the last years, since many applications are envisioned in medicine and bioremediation. A promising field is the one of magnetic swimmers, since magnetism is biocom-patible and could be used to direct or actuate the swimmers. This thesis studies two examples of magnetic microswimmers from a physics point of view. The first system to be studied are magnetic cells, which can be magnetic biohybrids (a swimming cell coupled with a magnetic synthetic component) or magnetotactic bacteria (naturally occurring bacteria that produce an intracellular chain of magnetic crystals). A magnetic cell can passively interact with external magnetic fields, which can be used for direction. The aim of the thesis is to understand how magnetic cells couple this magnetic interaction to their swimming strategies, mainly how they combine it with chemotaxis (the ability to sense external gradient of chemical species and to bias their walk on these gradients). In particular, one open question addresses the advantage given by these magnetic interactions for the magnetotactic bacteria in a natural environment, such as porous sediments. In the thesis, a modified Active Brownian Particle model is used to perform simulations and to reproduce experimental data for different systems such as bacteria swimming in the bulk, in a capillary or in confined geometries. I will show that magnetic fields speed up chemotaxis under special conditions, depending on parameters such as their swimming strategy (run-and-tumble or run-and-reverse), aerotactic strategy (axial or polar), and magnetic fields (intensities and orientations), but it can also hinder bacterial chemotaxis depending on the system. The second example of magnetic microswimmer are rigid magnetic propellers such as helices or random-shaped propellers. These propellers are actuated and directed by an external rotating magnetic field. One open question is how shape and magnetic properties influence the propeller behavior; the goal of this research field is to design the best propeller for a given situation. The aim of the thesis is to propose a simulation method to reproduce the behavior of experimentally-realized propellers and to determine their magnetic properties. The hydrodynamic simulations are based on the use of the mobility matrix. As main result, I propose a method to match the experimental data, while showing that not only shape but also the magnetic properties influence the propellers swimming characteristics. N2 - Die Forschung an Mikroschwimmern oder genauer gesagt an aktiv schwimmenden Mikroorganismen oder Objekten mit niedrigen Reynolds Zahlen, hat in den letzten Jahren wegen ihrer vielfältigen Anwendungen in der Medizin und Bioremediation stark an Bedeutung gewonnen. Besonders vielversprechend ist die Arbeit mit magnetischen Mikroschwimmern, da deren biokompatibler Magnetismus genutzt werden kann um die Schwimmer gezielt zu steuern. In dieser Arbeit werden zwei Beispiele von magnetischen Mikroschwimmern aus physikalischer Sicht untersucht. Das erste Modellsystem hierfür sind magnetische Zellen. Diese können entweder magnetische Biohybride (eine schwimm-Zelle gekoppelt mit einer synthetischen magnetischen Komponente) oder magnetotaktische Bakterien (natürlich vorkommende Bakterien die eine intrazelluläre Kette von magnetischen Kristallen produzieren) sein. Die passive Wechselwirkung der magnetischen Zelle mit einem externen Magnetfeld kann zu deren Steuerung genutzt werden. Das Ziel dieser Arbeit ist es zu verstehen wie magnetische Zellen die magnetische Wechselwirkung mit ihre Schwimmstrategie verknüpfen, oder genauer gesagt, wie sie sie zur Chemotaxis (die Fähigkeit externe chemische Gradienten wahrzunehmen und die Fortbewegungsrichtung daran anzupassen) zu nutzen. Es ist immer noch nicht restlos geklärt worin in der natürlichen Umgebung der magnetischen Bakterien, wie beispielsweise in porösem Sediment, der Vorteil der Wechselwirkung mit dem externen magnetischen Feld liegt. In dieser Arbeit wurde ein modifiziertes „Active Brownian Particle model“ verwendet um mittels Computersimulationen experimentelle Ergebnisse an Bakterien zu reproduzieren, die sich frei, in einer Glaskapillare, oder in anders begrenzten Geometrien bewegen. Ich werde zeigen, dass abhängig von der Schwimmstrategie („run-and-tumble“ oder „runand-reverse“), aerotaktische Strategie (axial oder polar), und der Feldintensität und Orientierung, das magnetische Feld Chemotaxis beschleunigen kann. Abhängig von dem gewählten Modellsystem kann es jedoch auch zu einer Behinderung der Chemotaxis kommen. Das zweite Beispiel für magnetische Mikroschwimmer sind starre (z.B. Helices) oder zufällig geformte magnetische Propeller. Sie werden durch ein externes magnetisches Feld angetrieben und gelenkt. Hierbei stellt sich die Frage wie die Form der Propeller deren Verhalten beeinflusst und wie sie für eine bestimmte Anwendung optimiert werden können. Daher ist es das Ziel dieser Arbeit Simulationsmethoden vorzuschlagen um das experimentell beobachtete Verhalten zu reproduzieren und die magnetischen Eigenschaften der Propeller zu beschreiben. Hierfür wird die Mobilitätsmatrix verwendet um die hydrodynamischen Simulationen zu realisieren. Ein Hauptresultat meiner Arbeit ist eine neue Methode, welche die Simulationen in Einklang mit den experimentellen Resultaten bringt. Hierbei zeigt sich, dass nicht nur die Form sondern insbesondere auch die magnetischen Eigenschaften die Schwimmcharakteristik der Propeller entscheidend beeinflussen. KW - microswimmers KW - magnetism KW - bacteria KW - propellers KW - simulation KW - Microschwimmer KW - Magnetismus KW - Bakterien KW - Propeller KW - Simulationen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-422976 ER - TY - THES A1 - Cruz Lemus, Saul Daniel T1 - Enhancing Efficiency of Inverted Perovskite Solar Cells BT - Employing Carbon Nitride and Poly (Ionic -Liquid)s as Interlayers N2 - Carbon nitride and poly(ionic liquid)s (PILs) have been successfully applied in various fields of materials science owing to their outstanding properties. This thesis aims at the successful application of these polymers as innovative materials in the interfaces of hybrid organic–inorganic perovskite solar cells. A critical problem in harnessing the full thermodynamic potential of halide perovskites in solar cells is the design and modification of interfaces to reduce carrier recombination. Therefore, the interface must be properly studied and improved. This work investigated the effect of applying carbon nitride and PILs on a perovskite surface on the device performance. The facile synthetic method for modifying carbon nitride with vinyl thiazole and barbituric acid (CMB-vTA) yields 2.3 nm layers when solution processing is performed using isopropanol. The nanosheets were applied as a metal-free electron transport layer in inverted perovskite solar cells. The application of carbon nitride layers (CMB-vTA) resulted in negligible current-voltage hysteresis with a high open circuit voltage (Voc) of 1.1 V and a short-circuit current (Jsc) of 20.28 mA cm-2, which afforded efficiencies of up to 17%. Thus, the successful implementation of a carbon nitride-based structure enabled good charge extraction with minimized interface recombination between the perovskite and PCBM. Similarly, PILs represent a new strategy of interfacial modification using an ionic polymer in an n-i-p perovskite architecture.. The application of PILs as an interfacial modifier resulted in solar cell devices with an extraordinarily high efficiency of 21.8% and a Voc of 1.17 V. The implementation reduced non-radiative recombination at the perovskite surface through defect passivation. Finally, our work proposes a novel method to efficiently suppress non-radiative charge recombination using the unexplored properties of carbon nitride and PILs in the solar cell field. Additionally, the method for interfacial modification has general applicability because of the simplicity of the post-treatment approach, and therefore has potential applicability in other solar cells. Thus, this work opens the door to a new class of materials to be implemented. Y1 - 2020 ER - TY - THES A1 - Damseaux, Adrien T1 - Improving permafrost dynamics in land surface models: insights from dual sensitivity experiments T1 - Verbesserung der Permafrostdynamik in Landoberflächenmodellen: Erkenntnisse aus doppelten Sensitivitätsexperimenten N2 - The thawing of permafrost and the subsequent release of greenhouse gases constitute one of the most significant and uncertain positive feedback loops in the context of climate change, making predictions regarding changes in permafrost coverage of paramount importance. To address these critical questions, climate scientists have developed Land Surface Models (LSMs) that encompass a multitude of physical soil processes. This thesis is committed to advancing our understanding and refining precise representations of permafrost dynamics within LSMs, with a specific focus on the accurate modeling of heat fluxes, an essential component for simulating permafrost physics. The first research question overviews fundamental model prerequisites for the representation of permafrost soils within land surface modeling. It includes a first-of-its-kind comparison between LSMs in CMIP6 to reveal their differences and shortcomings in key permafrost physics parameters. Overall, each of these LSMs represents a unique approach to simulating soil processes and their interactions with the climate system. Choosing the most appropriate model for a particular application depends on factors such as the spatial and temporal scale of the simulation, the specific research question, and available computational resources. The second research question evaluates the performance of the state-of-the-art Community Land Model (CLM5) in simulating Arctic permafrost regions. Our approach overcomes traditional evaluation limitations by individually addressing depth, seasonality, and regional variations, providing a comprehensive assessment of permafrost and soil temperature dynamics. I compare CLM5's results with three extensive datasets: (1) soil temperatures from 295 borehole stations, (2) active layer thickness (ALT) data from the Circumpolar Active Layer Monitoring Network (CALM), and (3) soil temperatures, ALT, and permafrost extent from the ESA Climate Change Initiative (ESA-CCI). The results show that CLM5 aligns well with ESA-CCI and CALM for permafrost extent and ALT but reveals a significant global cold temperature bias, notably over Siberia. These results echo a persistent challenge identified in numerous studies: the existence of a systematic 'cold bias' in soil temperature over permafrost regions. To address this challenge, the following research questions propose dual sensitivity experiments. The third research question represents the first study to apply a Plant Functional Type (PFT)-based approach to derive soil texture and soil organic matter (SOM), departing from the conventional use of coarse-resolution global data in LSMs. This novel method results in a more uniform distribution of soil organic matter density (OMD) across the domain, characterized by reduced OMD values in most regions. However, changes in soil texture exhibit a more intricate spatial pattern. Comparing the results to observations reveals a significant reduction in the cold bias observed in the control run. This method shows noticeable improvements in permafrost extent, but at the cost of an overestimation in ALT. These findings emphasize the model's high sensitivity to variations in soil texture and SOM content, highlighting the crucial role of soil composition in governing heat transfer processes and shaping the seasonal variation of soil temperatures in permafrost regions. Expanding upon a site experiment conducted in Trail Valley Creek by \citet{dutch_impact_2022}, the fourth research question extends the application of the snow scheme proposed by \citet{sturm_thermal_1997} to cover the entire Arctic domain. By employing a snow scheme better suited to the snow density profile observed over permafrost regions, this thesis seeks to assess its influence on simulated soil temperatures. Comparing this method to observational datasets reveals a significant reduction in the cold bias that was present in the control run. In most regions, the Sturm run exhibits a substantial decrease in the cold bias. However, there is a distinctive overshoot with a warm bias observed in mountainous areas. The Sturm experiment effectively addressed the overestimation of permafrost extent in the control run, albeit resulting in a substantial reduction in permafrost extent over mountainous areas. ALT results remain relatively consistent compared to the control run. These outcomes align with our initial hypothesis, which anticipated that the reduced snow insulation in the Sturm run would lead to higher winter soil temperatures and a more accurate representation of permafrost physics. In summary, this thesis demonstrates significant advancements in understanding permafrost dynamics and its integration into LSMs. It has meticulously unraveled the intricacies involved in the interplay between heat transfer, soil properties, and snow dynamics in permafrost regions. These insights offer novel perspectives on model representation and performance. N2 - Das Auftauen von Permafrost und die anschließende Freisetzung von Treibhausgasen stellen eine der bedeutendsten und unsichersten positiven Rückkopplungsschleifen im Kontext des Klimawandels dar, was Vorhersagen über Veränderungen der Permafrostverbreitung von größter Bedeutung macht. Um diese kritischen Fragen zu adressieren, haben Klimawissenschaftler Landoberflächenmodelle (LSMs) entwickelt, die eine Vielzahl physikalischer Bodenprozesse umfassen. Diese Dissertation widmet sich der Vertiefung unseres Verständnisses und der Verfeinerung präziser Darstellungen der Permafrostdynamik innerhalb von LSMs, mit einem besonderen Fokus auf die genaue Modellierung von Wärmeflüssen, einem wesentlichen Bestandteil der Simulation von Permafrostphysik. Die erste Forschungsfrage gibt einen Überblick über grundlegende Modellanforderungen für die Darstellung von Permafrostböden innerhalb der Landoberflächenmodellierung. Sie beinhaltet einen erstmaligen Vergleich zwischen LSMs im Rahmen von CMIP6, um deren Unterschiede und Schwächen in den Schlüsselparametern der Permafrostphysik aufzuzeigen. Insgesamt repräsentiert jedes dieser LSMs einen einzigartigen Ansatz zur Simulation von Bodenprozessen und deren Wechselwirkungen mit dem Klimasystem. Die Wahl des am besten geeigneten Modells für eine bestimmte Anwendung hängt von Faktoren wie dem räumlichen und zeitlichen Maßstab der Simulation, der spezifischen Forschungsfrage und den verfügbaren Rechenressourcen ab. Die zweite Forschungsfrage bewertet die Leistungsfähigkeit des hochmodernen Community Land Model (CLM5) bei der Simulation arktischer Permafrostregionen. Unser Ansatz überwindet traditionelle Evaluationsbeschränkungen, indem er Tiefe, Saisonalität und regionale Variationen einzeln berücksichtigt und eine umfassende Bewertung der Permafrost- und Bodentemperaturdynamik liefert. Ich vergleiche die Ergebnisse von CLM5 mit drei umfangreichen Datensätzen: (1) Bodentemperaturen von 295 Bohrlochstationen, (2) Daten zur aktiven Schichtdicke (ALT) aus dem Circumpolar Active Layer Monitoring Network (CALM) und (3) Bodentemperaturen, ALT und Permafrostausdehnung aus der ESA Climate Change Initiative (ESA-CCI). Die Ergebnisse zeigen, dass CLM5 gut mit ESA-CCI und CALM für Permafrostausdehnung und ALT übereinstimmt, jedoch eine signifikante globale kalte Temperaturabweichung aufweist, insbesondere über Sibirien. Diese Ergebnisse spiegeln eine anhaltende Herausforderung wider, die in zahlreichen Studien identifiziert wurde: das Vorhandensein einer systematischen "kalten Abweichung" bei Bodentemperaturen in Permafrostregionen. Um diese Herausforderung anzugehen, schlagen die folgenden Forschungsfragen duale Sensitivitätsexperimente vor. Die dritte Forschungsfrage stellt die erste Studie dar, die einen pflanzenfunktionstypbasierten Ansatz (PFT) zur Ableitung von Bodentextur und organischer Bodensubstanz (SOM) anwendet und sich von der herkömmlichen Verwendung grob aufgelöster globaler Daten in LSMs abwendet. Diese neuartige Methode führt zu einer gleichmäßigeren Verteilung der Dichte organischer Bodensubstanz (OMD) im gesamten Bereich, gekennzeichnet durch geringere OMD-Werte in den meisten Regionen. Veränderungen in der Bodentextur zeigen jedoch ein komplexeres räumliches Muster. Der Vergleich der Ergebnisse mit Beobachtungen zeigt eine signifikante Reduzierung der kalten Abweichung, die im Kontrolllauf beobachtet wurde. Diese Methode zeigt bemerkenswerte Verbesserungen in der Permafrostausdehnung, jedoch auf Kosten einer Überschätzung der ALT. Diese Ergebnisse unterstreichen die hohe Empfindlichkeit des Modells gegenüber Variationen in der Bodentextur und dem SOM-Gehalt und heben die entscheidende Rolle der Bodenbeschaffenheit bei der Steuerung der Wärmeübertragungsprozesse und der saisonalen Variation der Bodentemperaturen in Permafrostregionen hervor. Aufbauend auf einem Standortexperiment im Trail Valley Creek von Dutch et al. (2022) erweitert die vierte Forschungsfrage die Anwendung des von Sturm et al. (1997) vorgeschlagenen Schneeschemas auf das gesamte arktische Gebiet. Durch die Anwendung eines Schneeschemas, das besser zu dem in Permafrostregionen beobachteten Schneedichteprofil passt, versucht diese Dissertation, dessen Einfluss auf die simulierten Bodentemperaturen zu bewerten. Der Vergleich dieser Methode mit Beobachtungsdatensätzen zeigt eine signifikante Reduzierung der kalten Abweichung, die im Kontrolllauf vorhanden war. In den meisten Regionen weist der Sturm-Lauf eine erhebliche Verringerung der kalten Abweichung auf. Es gibt jedoch eine deutliche Überschreitung mit einer warmen Abweichung in Bergregionen. Das Sturm-Experiment hat die Überschätzung der Permafrostausdehnung im Kontrolllauf wirksam angegangen, was jedoch zu einer erheblichen Reduzierung der Permafrostausdehnung in Bergregionen führte. Die ALT-Ergebnisse bleiben im Vergleich zum Kontrolllauf relativ konsistent. Diese Ergebnisse entsprechen unserer ursprünglichen Hypothese, die erwartete, dass die reduzierte Schneedecke im Sturm-Lauf zu höheren Winterbodentemperaturen und einer genaueren Darstellung der Permafrostphysik führen würde. Zusammenfassend zeigt diese Dissertation bedeutende Fortschritte im Verständnis der Permafrostdynamik und deren Integration in LSMs. Sie hat die Komplexität der Wechselwirkungen zwischen Wärmeübertragung, Bodeneigenschaften und Schneedynamik in Permafrostregionen sorgfältig entschlüsselt. Diese Erkenntnisse bieten neue Perspektiven auf die Modellierung und Leistung von Modellen. KW - snow thermal conductivity KW - soil organic matter KW - model validation KW - Modellvalidierung KW - Wärmeleitfähigkeit von Schnee KW - organische Bodensubstanz Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-639450 ER - TY - THES A1 - De Andrade Queiroz, Anna Barbara T1 - The Milky Way disks, bulge, and bar sub-populations T1 - Die Scheiben, der Bulge und der Balken der Milchstraße Subpopulationen BT - a chemo-dynamical view of our Galaxy in the APOGEE + Gaia era BT - ein chemodynamischer Blick auf unsere Galaxie in der APOGEE + Gaia Ära N2 - In recent decades, astronomy has seen a boom in large-scale stellar surveys of the Galaxy. The detailed information obtained about millions of individual stars in the Milky Way is bringing us a step closer to answering one of the most outstanding questions in astrophysics: how do galaxies form and evolve? The Milky Way is the only galaxy where we can dissect many stars into their high-dimensional chemical composition and complete phase space, which analogously as fossil records can unveil the past history of the genesis of the Galaxy. The processes that lead to large structure formation, such as the Milky Way, are critical for constraining cosmological models; we call this line of study Galactic archaeology or near-field cosmology. At the core of this work, we present a collection of efforts to chemically and dynamically characterise the disks and bulge of our Galaxy. The results we present in this thesis have only been possible thanks to the advent of the Gaia astrometric satellite, which has revolutionised the field of Galactic archaeology by precisely measuring the positions, parallax distances and motions of more than a billion stars. Another, though not less important, breakthrough is the APOGEE survey, which has observed spectra in the near-infrared peering into the dusty regions of the Galaxy, allowing us to determine detailed chemical abundance patterns in hundreds of thousands of stars. To accurately depict the Milky Way structure, we use and develop the Bayesian isochrone fitting tool/code called StarHorse; this software can predict stellar distances, extinctions and ages by combining astrometry, photometry and spectroscopy based on stellar evolutionary models. The StarHorse code is pivotal to calculating distances where Gaia parallaxes alone cannot allow accurate estimates. We show that by combining Gaia, APOGEE, photometric surveys and using StarHorse, we can produce a chemical cartography of the Milky way disks from their outermost to innermost parts. Such a map is unprecedented in the inner Galaxy. It reveals a continuity of the bimodal chemical pattern previously detected in the solar neighbourhood, indicating two populations with distinct formation histories. Furthermore, the data reveals a chemical gradient within the thin disk where the content of 𝛼-process elements and metals is higher towards the centre. Focusing on a sample in the inner MW we confirm the extension of the chemical duality to the innermost regions of the Galaxy. We find stars with bar shape orbits to show both high- and low-𝛼 abundances, suggesting the bar formed by secular evolution trapping stars that already existed. By analysing the chemical orbital space of the inner Galactic regions, we disentangle the multiple populations that inhabit this complex region. We reveal the presence of the thin disk, thick disk, bar, and a counter-rotating population, which resembles the outcome of a perturbed proto-Galactic disk. Our study also finds that the inner Galaxy holds a high quantity of super metal-rich stars up to three times solar suggesting it is a possible repository of old super-metal-rich stars found in the solar neighbourhood. We also enter into the complicated task of deriving individual stellar ages. With StarHorse, we calculate the ages of main-sequence turn-off and sub-giant stars for several public spectroscopic surveys. We validate our results by investigating linear relations between chemical abundances and time since the 𝛼 and neutron capture elements are sensitive to age as a reflection of the different enrichment timescales of these elements. For further study of the disks in the solar neighbourhood, we use an unsupervised machine learning algorithm to delineate a multidimensional separation of chrono-chemical stellar groups revealing the chemical thick disk, the thin disk, and young 𝛼-rich stars. The thick disk is shown to have a small age dispersion indicating its fast formation contrary to the thin disk that spans a wide range of ages. With groundbreaking data, this thesis encloses a detailed chemo-dynamical view of the disk and bulge of our Galaxy. Our findings on the Milky Way can be linked to the evolution of high redshift disk galaxies, helping to solve the conundrum of galaxy formation. N2 - In den letzten Jahrzehnten hat die Astronomie mit großen galaktischen Durchmusterungen einen Boom erlebt. Die dadurch gewonnenen detaillierten Informationen über Millionen von Einzelsternen in der Milchstraße bringen uns der Beantwortung einer der wichtigsten Fragen der Astrophysik einen Schritt näher: Wie entstehen und entwickeln sich Galaxien? Die Milchstraße ist die einzige Galaxie, in der wir viele Sterne in ihre hochdimensionale chemische Zusammensetzung und ihren vollständigen Phasenraum zerlegen können, was analog zu fossilen Aufzeichnungen die Entstehungsgeschichte der Galaxie enthüllen kann. Für kosmologische Modelle ist es von entscheidender Bedeutung, die Prozesse zu verstehen, die zur Bildung großer Strukturen wie der Milchstraße führen; wir nennen diese Studienrichtung Galaktische Archäologie oder Nahfeldkosmologie. Im Mittelpunkt dieser Arbeit stehen die Bemühungen, die Scheiben und den Bulge unserer Galaxie chemisch und dynamisch zu charakterisieren. Die Ergebnisse, die wir in dieser Arbeit vorstellen, waren nur dank des starts des astrometrischen Satelliten Gaia möglich, der das Gebiet der galaktischen Archäologie durch die präzise Messung der Positionen, Parallaxenwinkel und Eigenbewegungen von mehr als einer Milliarde Sterne revolutioniert hat. Ein weiterer, aber nicht minder wichtiger Durchbruch ist die APOGEE-Durchmusterung, die Spektren im nahen Infrarot beobachtet hat, was es uns erlaubt, durch die staubigen Regionen der Milchstraße hindurchzublicken und die chemischen Fingerabdrücke von Hunderttausenden von Sternen zu bestimmen. Um die Struktur der Milchstraße genau darzustellen, verwenden und entwickeln wir das Isochrone-fitting-Tool StarHorse; diese Software kann Sternentfernungen, Aussterbezeiten und Alter vorhersagen, indem sie Astrometrie, Photometrie und Spektroskopie auf der Grundlage von Modellen der Sternentwicklung kombiniert. Der Code StarHorse ist von zentraler Bedeutung für die Berechnung von Entfernungen, bei denen Gaia -Parallaxen allein keine Bestimmung ermöglichen. Wir zeigen, dass wir durch die Kombination von Gaia, APOGEE und StarHorse eine chemische Kartographie der Milchstraßenscheiben von ihrem äußersten bis zum innersten Teil erstellen können. Eine solche Karte ist in der inneren Galaxis beispiellos und zeigt ein bimodales chemisches Muster, das auf zwei Populationen mit unterschiedlichen Entstehungsgeschichten hinweist. Darüber hinaus bestätigen die Daten einen chemischen Gradienten innerhalb der dünnen Scheibe, bei dem der Gehalt an Elementen und Metallen aus 𝛼-Prozessen zum Zentrum hin zunimmt ist. Eine Überdichte in der Anzahl der Sterne bestätigt zudem die Signatur eines Balkens in der inneren Galaxie. Modelle der Galaxienentstehung sagen gewöhnlich deren Beginn im galaktischen Zentrum voraus. Wir konzentrieren uns auf eine Stichprobe in der inneren Galaxie und erwarten, dass wir primordiale stellare Populationen finden. Wir bestätigen die chemische Bimodalität der inneren Galaxie und dass der galaktische Balken sowohl aus Sternen mit hohem als auch mit niedrigem 𝛼 besteht, was darauf hindeutet, dass sich der Balken durch säkulare Evolution gebildet hat, bei der bereits existierende Sterne eingefangen wurden. Durch die Analyse des chemischen Orbitalraums der inneren galaktischen Regionen können wir die verschiedenen Populationen, die diese komplexe Region bewohnen, unterscheiden. Wir zeigen das Vorhandensein einer dünnen Scheibe, einer dicken Scheibe, eines Balkens und einer gegenläufig rotierenden Population, die dem Ergebnis einer gestörten proto-galaktischen Scheibe ähnelt. Unsere Studie zeigt auch, dass die innere Galaxie eine große Menge an supermetallreichen Sternen enthält, die bis zum Dreifachen der solaren Metallizität reichen. Möglicherweise handelt es sich bei der Gruppe alter supermetallreicher Sterne, die in der Sonnenumgebung gefunden wurden um Kandidaten für Migranten aus den innersten Regionen. Wir befassen uns auch mit der komplizierten Aufgabe der Bestimmung individueller Sternalter. Mit StarHorse berechnen wir das Alter von Hauptreihenabzweig- und Unterriesensternen für mehrere öffentliche spektroskopische Durchmusterungen. Wir validieren unsere Ergebnisse, indem wir lineare Abhängigkeiten zwischen den chemischen Häufigkeiten und der Zeit untersuchen, da die 𝛼- und Neutroneneinfang-Elemente empfindlich auf das Alter reagieren, was auf die unterschiedlichen Zeitskalen der Anreicherung dieser Elemente zurückzuführen ist. Zur weiteren Untersuchung der Scheiben in der Sonnenumgebung verwenden wir einen nicht überwachten Algorithmus für maschinelles Lernen, um eine mehrdimensionale Trennung der chrono-chemischen Sterngruppen vorzunehmen. Dies macht die chemisch dicke Scheibe, die dünne Scheibe und junge 𝛼 Sterne erkennbar. Es zeigt sich, dass die dicke Scheibe eine geringe Altersstreuung aufweist, was auf ihre schnelle Entstehung hindeutet, während die dünne Scheibe eine große Altersspanne abdeckt. Mit bahnbrechenden Daten liefert diese Arbeit ein detailliertes chemodynamisches Bild der Scheibe und des Bulge der Galaxis. Unsere Erkenntnisse über die Milchstraße können mit der Entwicklung von Scheibengalaxien mit hoher Rotverschiebung in Verbindung gebracht werden und so zur Lösung des Rätsels der Galaxienbildung beitragen. KW - stars: distances KW - fundamental parameters KW - statistics KW - galaxy: general KW - disc KW - bulge KW - stellar content KW - Bulge KW - Scheibe KW - fundamentale Parameter KW - Galaxie: allgemein KW - Sterne: Entfernungen KW - Statistik KW - stellarer Inhalt Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-590615 ER - TY - THES A1 - Demircioglu, Aydin T1 - Reconstruction of deligne classes and cocycles T1 - Rekonstruktion von Deligne Klassen und Kozykeln N2 - In der vorliegenden Arbeit verallgemeinern wir im Wesentlichen zwei Theoreme von Mackaay-Picken und Picken (2002, 2004). Im ihrem Artikel zeigen Mackaay und Picken,dass es eine bijektive Korrespodenz zwischen Deligne 2-Klassen $\xi \in \check{H}^2(M, \mathcal{D}^2)$ und Holonomie Abbildungen von der zweiten dünnen Homotopiegruppe $\pi_2^2(M)$ in die abelsche Gruppe $U(1)$ gibt. Im zweiten Artikel wird eine Verallgemeinerung dieses Theorems bewiesen: Picken zeigt, dass es eine Bijektion gibt zwischen Deligne 2-Kozykeln und gewissen 2-dimensionalen topologischen Quantenfeldtheorien. In dieser Arbeit zeigen wir, dass diese beiden Theoreme in allen Dimensionen gelten.Wir betrachten zunächst den Holonomie Fall und können mittels simplizialen Methoden nachweisen, dass die Gruppe der glatten Deligne $d$-Klassen isomorph ist zu der Gruppe der glatten Holonomie Abbildungen von der $d$-ten dünnen Homotopiegruppe $\pi_d^d(M)$ nach $U(1)$, sofern $M$ eine $(d-1)$-zusammenhängende Mannigfaltigkeit ist. Wir vergleichen dieses Resultat mit einem Satz von Gajer (1999). Gajer zeigte, dass jede Deligne $d$-Klasse durch eine andere Klasse von Holonomie-Abbildungen rekonstruiert werden kann, die aber nicht nur Holonomien entlang von Sphären, sondern auch entlang von allgemeinen $d$-Mannigfaltigkeiten in $M$ enthält. Dieser Zugang benötigt dann aber nicht, dass $M$ hoch-zusammenhängend ist. Wir zeigen, dass im Falle von flachen Deligne $d$-Klassen unser Rekonstruktionstheorem sich von Gajers unterscheidet, sofern $M$ nicht als $(d-1)$, sondern nur als $(d-2)$-zusammenhängend angenommen wird. Stiefel Mannigfaltigkeiten besitzen genau diese Eigenschaft, und wendet man unser Theorem auf diese an und vergleicht das Resultat mit dem von Gajer, so zeigt sich, dass es zuviele Deligne Klassen rekonstruiert. Dies bedeutet, dass unser Rekonstruktionsthreorem ohne die Zusatzbedingungen an die Mannigfaltigkeit M nicht auskommt, d.h. unsere Rekonstruktion benötigt zwar weniger Informationen über die Holonomie entlang von d-dimensionalen Mannigfaltigkeiten, aber dafür muss M auch $(d-1)$-zusammenhängend angenommen werden. Wir zeigen dann, dass auch das zweite Theorem verallgemeinert werden kann: Indem wir das Konzept einer Picken topologischen Quantenfeldtheorie in beliebigen Dimensionen einführen, können wir nachweisen, dass jeder Deligne $d$-Kozykel eine solche $d$-dimensionale Feldtheorie mit zwei besonderen Eigenschaften, der dünnen Invarianz und der Glattheit, induziert. Wir beweisen, dass jede $d$-dimensionale topologische Quantenfeldtheorie nach Picken mit diesen zwei Eigenschaften auch eine Deligne $d$-Klasse definiert und prüfen nach, dass diese Konstruktion sowohl surjektiv als auch injektiv ist. Demzufolge sind beide Gruppen isomorph. N2 - In this thesis we mainly generalize two theorems from Mackaay-Picken and Picken (2002, 2004). In the first paper, Mackaay and Picken show that there is a bijective correspondence between Deligne 2-classes $\xi \in \check{H}^2(M,\mathcal{D}^2)$ and holonomy maps from the second thin-homotopy group $\pi_2^2(M)$ to $U(1)$. In the second one, a generalization of this theorem to manifolds with boundaries is given: Picken shows that there is a bijection between Deligne 2-cocycles and a certain variant of 2-dimensional topological quantum field theories. In this thesis we show that these two theorems hold in every dimension. We consider first the holonomy case, and by using simplicial methods we can prove that the group of smooth Deligne $d$-classes is isomorphic to the group of smooth holonomy maps from the $d^{th}$ thin-homotopy group $\pi_d^d(M)$ to $U(1)$, if $M$ is $(d-1)$-connected. We contrast this with a result of Gajer (1999). Gajer showed that Deligne $d$-classes can be reconstructed by a different class of holonomy maps, which not only include holonomies along spheres, but also along general $d$-manifolds in $M$. This approach does not require the manifold $M$ to be $(d-1)$-connected. We show that in the case of flat Deligne $d$-classes, our result differs from Gajers, if $M$ is not $(d-1)$-connected, but only $(d-2)$-connected. Stiefel manifolds do have this property, and if one applies our theorem to these and compare the result with that of Gajers theorem, it is revealed that our theorem reconstructs too many Deligne classes. This means, that our reconstruction theorem cannot live without the extra assumption on the manifold $M$, that is our reconstruction needs less informations about the holonomy of $d$-manifolds in $M$ at the price of assuming $M$ to be $(d-1)$-connected. We continue to show, that also the second theorem can be generalized: By introducing the concept of Picken-type topological quantum field theory in arbitrary dimensions, we can show that every Deligne $d$-cocycle induces such a $d$-dimensional field theory with two special properties, namely thin-invariance and smoothness. We show that any $d$-dimensional topological quantum field theory with these two properties gives rise to a Deligne $d$-cocycle and verify that this construction is surjective and injective, that is both groups are isomorphic. KW - Holonomie KW - Hauptfaserbündel KW - Gerben KW - Deligne Kohomologie KW - Globale Differentialgeometrie KW - Holonomy KW - Prinicipal Fibre Bundles KW - Gerbes KW - Deligne Cohomology KW - Global Differentialgeometry Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-13755 ER - TY - THES A1 - Djalali, Saveh Arman T1 - Multiresponsive complex emulsions: Concepts for the design of active and adaptive liquid colloidal systems T1 - Multiresponsive komplexe Emulsionen: Konzepte für das Design von aktiven und adaptiven flüssig-kolloidalen Systemen N2 - Complex emulsions are dispersions of kinetically stabilized multiphasic emulsion droplets comprised of two or more immiscible liquids that provide a novel material platform for the generation of active and dynamic soft materials. In recent years, the intrinsic reconfigurable morphological behavior of complex emulsions, which can be attributed to the unique force equilibrium between the interfacial tensions acting at the various interfaces, has become of fundamental and applied interest. As such, particularly biphasic Janus droplets have been investigated as structural templates for the generation of anisotropic precision objects, dynamic optical elements or as transducers and signal amplifiers in chemo- and bio-sensing applications. In the present thesis, switchable internal morphological responses of complex droplets triggered by stimuli-induced alterations of the balance of interfacial tensions have been explored as a universal building block for the design of multiresponsive, active, and adaptive liquid colloidal systems. A series of underlying principles and mechanisms that influence the equilibrium of interfacial tensions have been uncovered, which allowed the targeted design of emulsion bodies that can alter their shape, bind and roll on surfaces, or change their geometrical shape in response to chemical stimuli. Consequently, combinations of the unique triggerable behavior of Janus droplets with designer surfactants, such as a stimuli-responsive photosurfactant (AzoTAB) resulted for instance in shape-changing soft colloids that exhibited a jellyfish inspired buoyant motion behavior, holding great promise for the design of biological inspired active material architectures and transformable soft robotics. In situ observations of spherical Janus emulsion droplets using a customized side-view microscopic imaging setup with accompanying pendant dropt measurements disclosed the sensitivity regime of the unique chemical-morphological coupling inside complex emulsions and enabled the recording of calibration curves for the extraction of critical parameters of surfactant effectiveness. The deduced new "responsive drop" method permitted a convenient and cost-efficient quantification and comparison of the critical micelle concentrations (CMCs) and effectiveness of various cationic, anionic, and nonionic surfactants. Moreover, the method allowed insightful characterization of stimuli-responsive surfactants and monitoring of the impact of inorganic salts on the CMC and surfactant effectiveness of ionic and nonionic surfactants. Droplet functionalization with synthetic crown ether surfactants yielded a synthetically minimal material platform capable of autonomous and reversible adaptation to its chemical environment through different supramolecular host-guest recognition events. Addition of metal or ammonium salts resulted in the uptake of the resulting hydrophobic complexes to the hydrocarbon hemisphere, whereas addition of hydrophilic ammonium compounds such as amino acids or polypeptides resulted in supramolecular assemblies at the hydrocarbon-water interface of the droplets. The multiresponsive material platform enabled interfacial complexation and thus triggered responses of the droplets to a variety of chemical triggers including metal ions, ammonium compounds, amino acids, antibodies, carbohydrates as well as amino-functionalized solid surfaces. In the final chapter, the first documented optical logic gates and combinatorial logic circuits based on complex emulsions are presented. More specifically, the unique reconfigurable and multiresponsive properties of complex emulsions were exploited to realize droplet-based logic gates of varying complexity using different stimuli-responsive surfactants in combination with diverse readout methods. In summary, different designs for multiresponsive, active, and adaptive liquid colloidal systems were presented and investigated, enabling the design of novel transformative chemo-intelligent soft material platforms. N2 - Komplexe Emulsionen sind Dispersionen kinetisch stabilisierter mehrphasiger Emulsionströpfchen, die aus zwei oder mehreren nicht mischbaren Flüssigkeiten bestehen und eine neuartige Materialplattform für die Herstellung aktiver und dynamischer weicher Materialien darstellen. In den letzten Jahren haben komplexe Emulsionen aufgrund ihres intrinsisch rekonfigurierbaren morphologischen Verhaltens, dass auf ein einzigartiges Kräftegleichgewicht zwischen den an den verschiedenen Grenzflächen wirkenden Grenzflächenspannungen zurückzuführen ist, zunehmendes wissenschaftliches Interesse erfahren. So wurden insbesondere zweiphasige Janus-Tropfen als strukturelle Vorlagen für die Erzeugung anisotroper Präzisionsobjekte, dynamischer optischer Elemente oder als Wandler und Signalverstärker in Chemo- und Bio-Sensorik-Anwendungen untersucht. In der vorliegenden Arbeit wurden schaltbare interne morphologische Veränderungen komplexer Tröpfchen erforscht, die durch Stimulus-induzierte Verschiebungen des Grenzflächenspannungsgleichgewichts ausgelöst werden. Diese können als universelle Bausteine für das Design multiresponsiver, aktiver und adaptiver flüssiger kolloidaler Systeme dienen. Es wurde eine Reihe von grundlegenden Prinzipien und Mechanismen zur Beeinflussung des Grenzflächenspannungsgleichgewichtes erforscht, die die gezielte Entwicklung von formverändernden, sich an Oberflächen bindenden und in Reaktion auf chemische Stimuli verändernden Emulsionskörpern ermöglicht. Die Kombination des einzigartigen responsiven Verhaltens von Janus-Tropfen mit maßgeschneiderten Tensiden erlaubt die Erschließung von biologisch inspirierten aktiven Materialarchitekturen. So führte beispielsweise die Funktionalisierung von Janus-Tropfen mit einem photo-responsiven Tensid (AzoTAB) zu formverändernden weichen Kolloiden, die ein von Quallen inspiriertes Schwimmverhalten zeigten und damit vielversprechend für die Anwendung im Forschungsfeld der transformierbaren „soft-robotics“ sind. Die In-situ-Beobachtung von sphärischen Janus-Emulsionströpfchen mit einem Seitenansichts-Mikroskop und begleitenden Pendant-Drop-Messungen ermöglichten es das Empfindlichkeitsregime der einzigartigen chemisch-morphologischen Kopplung innerhalb komplexer Emulsionen offenzulegen. Die resultierende Kalibrierungskurve erlaubt die Extraktion von kritischen Parametern der Tensidwirksamkeit. Die daraus abgeleitete neue "responsive drop"-Methode ermöglicht eine einfache, kosteneffiziente Quantifizierung der kritischen Mizellenkonzentrationen (CMCs) und einen Vergleich der Wirksamkeit verschiedener kationischer, anionischer und nichtionischer Tenside. Darüber hinaus ermöglichte die Methode eine aufschlussreiche Charakterisierung Stimuli-responsiver Tenside und die Überwachung des Einflusses anorganischer Salze auf die CMC und die Tensidwirksamkeit ionischer und nichtionischer Tenside. Die Funktionalisierung von Tröpfchen mit synthetischen Kronenether-Tensiden führte zu einer synthetisch minimalen Materialplattform, die in der Lage ist, sich durch verschiedene supramolekulare Wirts-Gast-Erkennungsereignisse selbständig und reversibel an ihre chemische Umgebung anzupassen. Die Zugabe von Metall- oder Ammoniumsalzen hatte eine Aufnahme der resultierenden hydrophoben Komplexe in die Kohlenwasserstoff-Hemisphäre zur Folge, während die Zugabe von hydrophilen Ammoniumverbindungen wie Aminosäuren oder Polypeptiden zu supramolekularen Assemblierungen an der Kohlenwasserstoff-Wasser-Grenzfläche der Tröpfchen führte. Die multiresponsive Materialplattform ermöglicht die Grenzflächenkomplexierung und damit die morphologische Reaktion der Tröpfchen auf eine Vielzahl von chemischen Triggern, darunter Metallionen, Ammoniumverbindungen, Aminosäuren, Antikörper, Kohlenhydrate sowie aminofunktionalisierte feste Oberflächen. Im letzten Kapitel werden die ersten dokumentierten optischen Logikgatter und kombinatorischen Logikschaltungen auf der Grundlage von komplexen Emulsionen vorgestellt. Zur Realisierung von Tropfen-basierten Logikgattern unterschiedlicher Komplexität wurden die einzigartigen rekonfigurierbaren und multiresponsiven Eigenschaften komplexer Emulsionen ausgenutzt. Dabei wurden Stimuli-responsive Tenside in Kombination mit unterschiedlichen Auslesemethoden verwendet. Zusammenfassend wurden verschiedene Designs für multiresponsive, aktive und adaptive flüssige kolloidale Systeme vorgestellt und untersucht, die die Entwicklung neuartiger chemo-intelligenter weicher Materialplattformen ermöglichen. KW - complex emulsion KW - emulsion KW - multiresponsive KW - komplexe Emulsion KW - Emulsion KW - multiresponsiv Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-575203 ER - TY - THES A1 - Drobyshev, Evgenii T1 - Toxic or beneficial? What is the role of food-relevant selenium species selenoneine? T1 - Giftig oder nützlich? Welche Rolle spielt die lebensmittelrelevante Selenspezies Selenonein? N2 - Selenium (Se) is an essential trace element that is ubiquitously present in the environment in small concentrations. Essential functions of Se in the human body are manifested through the wide range of proteins, containing selenocysteine as their active center. Such proteins are called selenoproteins which are found in multiple physiological processes like antioxidative defense and the regulation of thyroid hormone functions. Therefore, Se deficiency is known to cause a broad spectrum of physiological impairments, especially in endemic regions with low Se content. Nevertheless, being an essential trace element, Se could exhibit toxic effects, if its intake exceeds tolerable levels. Accordingly, this range between deficiency and overexposure represents optimal Se supply. However, this range was found to be narrower than for any other essential trace element. Together with significantly varying Se concentrations in soil and the presence of specific bioaccumulation factors, this represents a noticeable difficulty in the assessment of Se epidemiological status. While Se is acting in the body through multiple selenoproteins, its intake occurs mainly in form of small organic or inorganic molecular mass species. Thus, Se exposure not only depends on daily intake but also on the respective chemical form, in which it is present. The essential functions of selenium have been known for a long time and its primary forms in different food sources have been described. Nevertheless, analytical capabilities for a comprehensive investigation of Se species and their derivatives have been introduced only in the last decades. A new Se compound was identified in 2010 in the blood and tissues of bluefin tuna. It was called selenoneine (SeN) since it is an isologue of naturally occurring antioxidant ergothioneine (ET), where Se replaces sulfur. In the following years, SeN was identified in a number of edible fish species and attracted attention as a new dietary Se source and potentially strong antioxidant. Studies in populations whose diet largely relies on fish revealed that SeN represents the main non-protein bound Se pool in their blood. First studies, conducted with enriched fish extracts, already demonstrated the high antioxidative potential of SeN and its possible function in the detoxification of methylmercury in fish. Cell culture studies demonstrated, that SeN can utilize the same transporter as ergothioneine, and SeN metabolite was found in human urine. Until recently, studies on SeN properties were severely limited due to the lack of ways to obtain the pure compound. As a predisposition to this work was firstly a successful approach to SeN synthesis in the University of Graz, utilizing genetically modified yeasts. In the current study, by use of HepG2 liver carcinoma cells, it was demonstrated, that SeN does not cause toxic effectsup to 100 μM concentration in hepatocytes. Uptake experiments showed that SeN is not bioavailable to the used liver cells. In the next part a blood-brain barrier (BBB) model, based on capillary endothelial cells from the porcine brain, was used to describe the possible transfer of SeN into the central nervous system (CNS). The assessment of toxicity markers in these endothelial cells and monitoring of barrier conditions during transfer experiments demonstrated the absence of toxic effects from SeN on the BBB endothelium up to 100 μM concentration. Transfer data for SeN showed slow but substantial transfer. A statistically significant increase was observed after 48 hours following SeN incubation from the blood-facing side of the barrier. However, an increase in Se content was clearly visible already after 6 hours of incubation with 1 μM of SeN. While the transfer rate of SeN after application of 0.1 μM dose was very close to that for 1 μM, incubation with 10 μM of SeN resulted in a significantly decreased transfer rate. Double-sided application of SeN caused no side-specific transfer of SeN, thus suggesting a passive diffusion mechanism of SeN across the BBB. This data is in accordance with animal studies, where ET accumulation was observed in the rat brain, even though rat BBB does not have the primary ET transporter – OCTN1. Investigation of capillary endothelial cell monolayers after incubation with SeN and reference selenium compounds showed no significant increase of intracellular selenium concentration. Speciesspecific Se measurements in medium samples from apical and basolateral compartments, as good as in cell lysates, showed no SeN metabolization. Therefore, it can be concluded that SeN may reach the brain without significant transformation. As the third part of this work, the assessment of SeN antioxidant properties was performed in Caco-2 human colorectal adenocarcinoma cells. Previous studies demonstrated that the intestinal epithelium is able to actively transport SeN from the intestinal lumen to the blood side and accumulate SeN. Further investigation within current work showed a much higher antioxidant potential of SeN compared to ET. The radical scavenging activity after incubation with SeN was close to the one observed for selenite and selenomethionine. However, the SeN effect on the viability of intestinal cells under oxidative conditions was close to the one caused by ET. To answer the question if SeN is able to be used as a dietary Se source and induce the activity of selenoproteins, the activity of glutathione peroxidase (GPx) and the secretion of selenoprotein P (SelenoP) were measured in Caco-2 cells, additionally. As expected, reference selenium compounds selenite and selenomethionine caused efficient induction of GPx activity. In contrast to those SeN had no effect on GPx activity. To examine the possibility of SeN being embedded into the selenoproteome, SelenoP was measured in a culture medium. Even though Caco-2 cells effectively take up SeN in quantities much higher than selenite or selenomethionine, no secretion of SelenoP was observed after SeN incubation. Summarizing, we can conclude that SeN can hardly serve as a Se source for selenoprotein synthesis. However, SeN exhibit strong antioxidative properties, which appear when sulfur in ET is exchanged by Se. Therefore, SeN is of particular interest for research not as part of Se metabolism, but important endemic dietary antioxidant. N2 - Selen (Se) ist ein essentielles Spurenelement, das in geringen Konzentrationen ubiquitär in der Umwelt vorkommt. Essentielle Funktionen von Se im menschlichen Körper manifestieren sich in einer Vielzahl von Proteinen, die Selenocystein als aktives Zentrum enthalten. Solche Proteine werden Selenoproteine genannt, die in zahlreichen physiologischen Prozessen wie der antioxidativen Abwehr und der Regulierung der Schilddrüsenhormonfunktionen vorkommen. Daher ist bekannt, dass ein Se-Mangel ein breites Spektrum physiologischer Beeinträchtigungen verursacht, insbesondere in solchen Regionen mit niedrigem Se-Bodengahlten. Dennoch kann Se als essentielles Spurenelement auch toxische Wirkungen entfalten, wenn seine Aufnahme das tolerierbare Maß überschreitet. Dementsprechend stellt dieser Bereich zwischen Mangel und Überbelichtung eine optimale Se-Versorgung dar. Dieser Bereich erwies sich jedoch als enger als bei jedem anderen essentiellen Spurenelement. Zusammen mit stark schwankenden SeKonzentrationen im Boden und dem Vorliegen spezifischer Bioakkumulationsfaktoren stellt dies eine deutliche Schwierigkeit bei der Beurteilung des epidemiologischen Selenstatus dar. Während im Körper mehrere Selenoproteine vorliegen, erfolgt seine Aufnahme hauptsächlich in Form kleiner organischer oder anorganischer Moleküle. Somit hängt die Se-Exposition nicht nur von der täglichen Aufnahme ab, sondern auch von der jeweiligen chemischen Form, in der es vorliegt. Die essentiellen Funktionen von Selen sind seit langem bekannt und seine Primärformen in verschiedenen Nahrungsquellen dominierenden Formen wurden bereits gut beschrieben. Dennoch wurden erst in den letzten Jahrzehnten neue analytische Möglichkeiten für eine umfassendere Untersuchung von Se-Spezies und ihren Derivaten entwickelt. Beispielsweise wurde 2010 eine neue Se-Verbindung im Blut und im Gewebe von Rotem Thunfisch identifiziert. Es wurde Selenonein (SeN) genannt, da es ein Isolog des natürlich vorkommenden Antioxidans Ergothionein (ET) ist, bei dem Se durch Schwefel ersetzt ist. In den folgenden Jahren wurde SeN in einer Reihe von essbaren Fischarten identifiziert und erregte einerseits als neue Nahrungsquelle für Se und andererseits als potenziell starkes Antioxidans Aufmerksamkeit. Studien an Probanden, deren Ernährung hauptsächlich von Fisch geprägt ist, haben gezeigt, dass SeN den hauptsächlichen nicht-proteingebundenen Se-Pool in ihrem Blut darstellt. Erste Studien mit angereicherten Fischextrakten zeigten bereits das hohe antioxidative Potenzial von SeN und seine mögliche Funktion bei der Entgiftung von Methylquecksilber im Fisch. Zellkulturstudien zeigten, dass SeN den gleichen Transporter wie Ergothionein nutzen kann und ein weiterer SeN-Metabolit wurde im menschlichen Urin gefunden. Bis vor kurzem waren Studien zu den Eigenschaften von SeN aufgrund fehlender Möglichkeiten, die reine Verbindung zu erwerben, stark eingeschränkt. Als wichtige Grundlage für die vorliegende Arbeit diente zunächst die erfolgreiche Synthese des SeN, welche an der Universität Graz unter Verwendung gentechnisch veränderter Hefen erfolgte. In der aktuellen Studie wurde unter Verwendung von HepG2-Leberkarzinomzellen gezeigt, dass SeN in physiologisch relevanten Konzentrationen keine toxischen Effekte in diesen Hepatozyten induziert. Bioverfügbarkeitsexperimente zeigten, dass SeN für die verwendeten Leberzellen nicht bioverfügbar ist. Im nächsten Teil wurde ein Modell der Blut-Hirn-Schranke (BHS) verwendet, das auf kapillaren Endothelzellen aus dem Schweinehirn basiert, um den möglichen Transfer von SeN in das zentrale Nervensystem (ZNS) zu untersuchen. Die Bewertung von Toxizitätsmarkern in diesen Endothelzellen und die online Überwachung der Barriere-Bedingungen während der Transferexperimente zeigten, dass bei physiologisch relevanten Konzentrationen keine toxischen Wirkungen von SeN auf das BHS-Endothel auftreten. Daten bezüglich des Übergangs der Selenspezies SeN zeigten zwar eine langsame, jedoch eine nicht zu vernachlässigenden Menge, die die Barriere passieren kann. Die gleichzeitige Inkubation von SeN auf beiden Barriere-Seiten verursachte keinen seitenspezifischen Transfer von SeN, was auf einen passiven Diffusionsmechanismus von SeN über die BHS hindeutet. Diese Daten stimmen mit Tierstudien überein, in denen eine ET-Akkumulation im Rattengehirn beobachtet wurde, obwohl die BHS der Ratte nicht über den primären ET-Transporter – OCTN1 – verfügt. Die Untersuchung von Monolayern aus kapillaren Endothelzellen nach Inkubation mit SeN und Referenzselenverbindungen zeigte keinen signifikanten Anstieg der intrazellulären Selenkonzentration. Speziesspezifische Se-Messungen in Mediumproben aus den apikalen und basolateralen Kompartimenten, sowie in den Zelllysaten zeigten keine SeN-Metabolisierung. Daraus kann geschlossen werden, dass SeN das Gehirn ohne signifikante Transformation erreichen kann. Als dritter Teil dieser Arbeit wurde die Bewertung der antioxidativen Eigenschaften von SeN in menschlichen Caco-2, also kolorektale Adenokarzinomzellen, durchgeführt. Frühere Studien zeigten, dass das Darmepithel in der Lage ist, SeN aktiv vom Darmlumen zur Blutseite zu transportieren und dort SeN anzureichern. Weitere Untersuchungen im Rahmen der aktuellen Arbeiten zeigten ein viel höheres antioxidatives Potenzial von SeN im Vergleich zu ET. Die Aktivität als Radikalfänger nach Inkubation mit SeN war ähnlich wie bei Selenit und Selenomethionin. Wobei die Wirkung von SeN auf die Lebensfähigkeit von Darmzellen unter oxidativen Bedingungen jedoch ähnlich der durch ET verursachten war. Um die Frage zu beantworten, ob SeN als diätetische Se-Quelle verwendet werden kann um die Aktivität von Selenoproteinen zu induzieren, wurden zusätzlich die Aktivität der Glutathionperoxidase (GPx) und die Sekretion von Selenoprotein P (SelenoP) in Caco-2-Zellen gemessen. Wie erwartet, bewirkten die Referenz-Selenverbindungen Selenit und Selenomethionin eine effiziente Induktion der GPx-Aktivität, im Gegensatz zu diesen hatte SeN keinen Einfluss auf die GPx-Aktivität. Um die Möglichkeit einer Einbettung von SeN in das Selenoproteom zu untersuchen, wurde SelenoP im Kulturmedium gemessen. Obwohl Caco-2-Zellen SeN effektiv in viel höherenMengen als Selenit oder Selenomethionin aufnehmen, wurde nach der SeN-Inkubation keine Sekretion von SelenoP beobachtet. Zusammenfassend können wir schlussfolgern, dass SeN kaum als Se-Quelle für die Selenoproteinsynthese dienen kann. SeN weist jedoch starke antioxidative Eigenschaften auf, die auftreten, wenn Schwefel in ET durch Se ausgetauscht wird. Daher ist SeN von besonderem Interesse für die Forschung, nicht als Teil des Se-Stoffwechsels, sondern als wichtiges endemisches diätetisches Antioxidans. KW - selenium KW - selenoneine KW - HepG2 KW - Caco-2 KW - PBCEC KW - Caco-2 KW - HepG2 KW - PBCEC KW - Selen KW - Selenonein Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-573794 ER - TY - THES A1 - Dubinovska, Daria T1 - Optical surveys of AGN and their host galaxies T1 - Optische Durchmusterungen von aktiven Galaxienkernen und ihren Muttergalaxien N2 - This thesis rests on two large Active Galactic Nuclei (AGNs) surveys. The first survey deals with galaxies that host low-level AGNs (LLAGN) and aims at identifying such galaxies by quantifying their variability. While numerous studies have shown that AGNs can be variable at all wavelengths, the nature of the variability is still not well understood. Studying the properties of LLAGNs may help to understand better galaxy evolution, and how AGNs transit between active and inactive states. In this thesis, we develop a method to extract variability properties of AGNs. Using multi-epoch deep photometric observations, we subtract the contribution of the host galaxy at each epoch to extract variability and estimate AGN accretion rates. This pipeline will be a powerful tool in connection with future deep surveys such as PANSTARS. The second study in this thesis describes a survey of X-ray selected AGN hosts at redshifts z>1.5 and compares them to quiescent galaxies. This survey aims at studying environments, sizes and morphologies of star-forming high-redshift AGN hosts in the COSMOS Survey at the epoch of peak AGN activity. Between redshifts 1.51.5 to date. We analyzed the evolution of structural parameters of AGN and non-AGN host galaxies with redshift, and compared their disturbance rates to identify the more probable AGN triggering mechanism in the 43.5 1.5, um sie mit inaktiven Galaxien zu vergleichen. Ziel ist, bei sternbildenden, hochrotverschobenen AGN-Muttergalaxien aus der COSMOS-Durchmusterung die Umgebung, Grösse und Morphologie zum Zeitpunkt der stärksten AGN Aktivität zu studieren. Die COSMOS-HST/ACS-Photometrie untersucht den ultravioletten Spektralbereich von Muttergalaxien bei einer Rotverschiebung von 1.5 < z < 3.8, wo es sehr schwierig ist, den Flussbeitrag des AGN von dem der Muttergalaxie zu trennen. Dennoch gelang es uns, mittels zweidimensionaler Modellierung der Flächenhelligkeitprofile Struktureigenschaften für 249 AGN-Muttergalaxien aus der COSMOS-Durchmusterung abzuleiten. Dies ist für AGN-Muttergalaxien mit einer Rotverschiebung z > 1.5 die bislang grösste Stichprobe. Wir haben die Entwicklung der Strukturparameter mit der Rotverschiebung von AGN-Muttergalaxien und Galaxien ohne aktiven Kern analysiert und die Häufigkeit morphologischer Besonderheiten bei diesen beiden Gruppen miteinander verglichen, um die wahrscheinlichste Ursache für AGN-Aktivität für Galaxien im Roentgen-Leuchtkraft-Bereich von 43.5 100 GeV) instruments such as imaging atmospheric Cherenkov telescopes (IACTs) can play an important role in constraining the main properties of such DM particles, by detecting these products. One of the most privileged targets where to look for DM signal are dwarf spheroidal galaxies (dSphs), as they are expected to be high DM-dominated objects with a clean, gas-free environment. Some dSphs could be considered as extended sources, considering the angular resolution of IACTs; their angu- lar resolution is adequate to detect extended emission from dSphs. For this reason, we performed an extended-source analysis, by taking into account in the unbinned maximum likelihood estimation both the energy and the angular extension dependency of observed events. The goal was to set more constrained upper limits on the velocity-averaged cross-section annihilation of WIMPs with VERITAS data. VERITAS is an array of four IACTs, able to detect γ-ray photons ranging between 100 GeV and 30 TeV. The results of this extended analysis were compared against the traditional spectral analysis. We found that a 2D analysis may lead to more constrained results, depending on the DM mass, channel, and source. Moreover, in this thesis, the results of a multi-instrument project are presented too. Its goal was to combine already published 20 dSphs data from five different experiments, such as Fermi-LAT, MAGIC, H.E.S.S., VERITAS and HAWC, in order to set upper limits on the WIMP annihilation cross-section in the widest mass range ever reported. N2 - Im letzten Jahrhundert haben verschiedene mehrere astronomische Messungen gezeigt, dass ein erheblicher Prozentsatz (etwa 22 %) der Gesamtmasse des Universums auf galaktischer und extragalaktischer Ebene aus einer geheimnisvollen ”dunklen” Materie (DM) besteht. DM interagiert nicht mit der elektromagnetischen Kraft und reflektiert, absorbiert oder emittiert daher kein Licht. Es ist möglich, dass es sich bei DM-Teilchen um schwach wechselwirkende massive Teilchen (engl. weakly interacting massive particles, WIMPs) handelt, die in Teilchen des Standardmodells (SM) annihilieren (oder zerfallen) können. Indem sie diese Produkte nachweisen, können moderne Detektoren für sehr hoch energetische (engl. very-high-energy, VHE; 100 GeV) Gammastrahlung, wie zum Beispiel bildgebende atmosphärische Cherenkov-Teleskope (engl. imaging atmospheric Cherenkov telescopes, IACTs), eine wichtige Rolle bei der Bestimmung der Haupteigenschaften solcher DM-Teilchen spielen. Eines der am besten geeignetsten Ziele für die Suche nach DM-Signalen sind sphäroidische Zwerggalaxien (engl. dwarf spheroidal galaxies, dSphs), da diese stark DM-dominierte Objekte mit einer gasfreien Umgebung sind. Die Winkelauflösung von IACTs ist ausreichend, um ausgedehnte Emission von dSphs zu entdecken. Aus diesem Grund haben wir eine Analyse dieser Quellen durchgeführt, indem wir in der unbinned Maximum-Likelihood-Schätzung sowohl die Energie als auch die Abhängigkeit der Winkelausdehnung der beobachteten Gammastrahlung berücksichtigt haben. Das Ziel war es, mit Hilfe der VERITAS-Daten genauere Obergrenzen für den geschwindigkeitsgemittelten Annihilationsquerschnitt von WIMPs zu bestimmen. VERITAS ist eine Anordnung von vier IACTs, die Gammastrahlen im Bereich von 100 GeV bis 30 TeV detektieren können. Die Ergebnisse dieser erweiterten Analyse wurden mit der traditionellen Spektralanalyse verglichen. Es zeigte sich, dass je nach DM-Masse, Kanal und Quelle eine 2D-Analyse zu aussagekräftigeren Ergebnissen führen kann. Darüber hinaus werden in dieser Arbeit auch die Ergebnisse eines Multi-Instrumenten-Projekts vorgestellt. Das Ziel war es, die bereits veröffentlichte 20 dSphs-Datensätze von Fermi-LAT, MAGIC, H.E.S.S., VERITAS und HAWC zu kombinieren, um obere Grenzwerte für den WIMP-Annihilationsquerschnitt im breitesten jemals veröffentlichten Massenbereich zu bestimmen. KW - Dark Matter KW - data analysis KW - Cherenkov telescopes KW - dwarf spheroidal galaxies KW - Dunkle Materie KW - Datenanalyse KW - Cherenkov-Teleskope KW - sphäroidische Zwerggalaxien Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-575869 ER - TY - THES A1 - Golly, Antonius T1 - Formation and evolution of channel steps and their role for sediment dynamics in a steep mountain stream T1 - Formation und Evolution von Bachstufen und ihr Einfluss auf die Sedimentdynamik eines steilen Gebirgseinzugsgebietes N2 - Steep mountain channels are an important component of the fluvial system. On geological timescales, they shape mountain belts and counteract tectonic uplift by erosion. Their channels are strongly coupled to hillslopes and they are often the main source of sediment transported downstream to low-gradient rivers and to alluvial fans, where commonly settlements in mountainous areas are located. Hence, mountain streams are the cause for one of the main natural hazards in these regions. Due to climate change and a pronounced populating of mountainous regions the attention given to this threat is even growing. Although quantitative studies on sediment transport have significantly advanced our knowledge on measuring and calibration techniques we still lack studies of the processes within mountain catchments. Studies examining the mechanisms of energy and mass exchange on small temporal and spatial scales in steep streams remain sparse in comparison to low-gradient alluvial channels. In the beginning of this doctoral project, a vast amount of experience and knowledge of a steep stream in the Swiss Prealps had to be consolidated in order to shape the principal aim of this research effort. It became obvious, that observations from within the catchment are underrepresented in comparison to experiments performed at the catchment’s outlet measuring fluxes and the effects of the transported material. To counteract this imbalance, an examination of mass fluxes within the catchment on the process scale was intended. Hence, this thesis is heavily based on direct field observations, which are generally rare in these environments in quantity and quality. The first objective was to investigate the coupling of the channel with surrounding hillslopes, the major sources of sediment. This research, which involved the monitoring of the channel and adjacent hillslopes, revealed that alluvial channel steps play a key role in coupling of channel and hillslopes. The observations showed that hillslope stability is strongly associated with the step presence and an understanding of step morphology and stability is therefore crucial in understanding sediment mobilization. This finding refined the way we think about the sediment dynamics in steep channels and motivated continued research of the step dynamics. However, soon it became obvious that the technological basis for developing field tests and analyzing the high resolution geometry measured in the field was not available. Moreover, for many geometrical quantities in mountain channels definitions and a clear scientific standard was not available. For example, these streams are characterized by a high spatial variability of the channel banks, preventing straightforward calculations of the channel width without a defined reference. Thus, the second and inevitable part of this thesis became the development and evaluation of scientific tools in order to investigate the geometrical content of the study reach thoroughly. The developed framework allowed the derivation of various metrics of step and channel geometry which facilitated research on the a large data set of observations of channel steps. In the third part, innovative, physically-based metrics have been developed and compared to current knowledge on step formation, suggested in the literature. With this analyses it could be demonstrated that the formation of channel steps follow a wide range of hydraulic controls. Due to the wide range of tested parameters channel steps observed in a natural stream were attributed to different mechanisms of step formation, including those based on jamming and those based on key-stones. This study extended our knowledge on step formation in a steep stream and harmonized different, often time seen as competing, processes of step formation. This study was based on observations collected at one point in time. In the fourth part of this project, the findings of the snap-shot observations were extended in the temporal dimension and the derived concepts have been utilized to investigate reach-scale step patterns in response to large, exceptional flood events. The preliminary results of this work based on the long-term analyses of 7 years of long profile surveys showed that the previously observed channel-hillslope mechanism is the responsible for the short-term response of step formation. The findings of the long-term analyses of step patterns drew a bow to the initial observations of a channel-hillslope system which allowed to join the dots in the dynamics of steep stream. Thus, in this thesis a broad approach has been chosen to gain insights into the complex system of steep mountain rivers. The effort includes in situ field observations (article I), the development of quantitative scientific tools (article II), the reach-scale analyses of step-pool morphology (article III) and its temporal evolution (article IV). With this work our view on the processes within the catchment has been advanced towards a better mechanistic understanding of these fluvial system relevant to improve applied scientific work. N2 - Gebirgsbäche sind stark gekoppelt mit angrenzenden Hängen, welche eine Hauptquelle von Sediment darstellen. Dieses Sediment wird durch erosive Prozesse weiter im fluvialen System stromabwärts transportiert, häufig auch in Bereiche alpiner Besiedlung. Das transportierte Sediment kann dort verheerende Schäden an Gebäuden und Infrastruktur anrichten. Daher stellen Gebirgsbäche eine Hauptursache für Naturgefahren in steilen Regionen dar, welche durch den Wandel des Klimas und die fortschreitende Besiedlung durch den Menschen noch verstärkt werden. Wenngleich quantitative Studien unser Wissen über Mess- und Kalibrierungstechniken zur Erfassung von Sedimenttransport erweitert haben, so sind doch viele Prozesse innerhalb der Einzugsgebiete in Hinblick auf Erosion und Sedimentverfügbarkeit weitgehend unerforscht. So stellen Beobachtungen von Mechanismen von Energie- und Massenaustausch auf kleinen räumlichen und zeitlichen Skalen innerhalb steiler Gebirgseinzugsgebiete eine Ausname dar. Diese Doktorarbeit basiert auf hoch-qualitativen Feldbeobachtungen in einem schweizer Gebirgsbach um Forschungsfragen in Hinblick auf die Sediementdyanmik zu behandeln. Das erste Ziel war es, die Gerinne-Hang-Kopplung zu erforschen und zu verstehen, um mögliche Sedimentquellen zu identifizieren, sowie die Mechanismen und Prozesse der Sedimentgenerierung in den Kontext der allgemeinen Dynamik von Gebirgsbächen zu bringen. Die erste Studie, welche auf visuellen Beobachtungen basiert, offenbarte eine Schlüsselrolle von Bachstufen in der Gerinne-Hang-Kopplung. Auf dieser Grundlage wurde ein konzeptuelles Modell entwickelt (Artikel I): durch die Erosion von Bachstufen werden angrenzende Hänge destabilisiert und ermöglichen anhaltenden Sedimenteintrag. Diese Forschung regte eine genauere Beobachtung der räumlichen und zeitlichen Evolution von Bachstufen an. Die weitere Forschung erforderte jedoch neue technologische Werkzeuge und Methoden welche zunächst in dieser Doktorarbeit eigens entwickelt wurden (Artikel II). Mit diesen Werkzeugen wurde dann ein Datensatz eingemessener Bachstufen in Hinblick auf den Formationsprozess analysiert (Artikel III). Mit dieser Analyse konnten verschiedene Stufenbildungstheorien überprüft und und zwei dominante Mechanismen verifiziert werden: Bachstufen formen sich in engen und verengenden Bachabchnitten durch Verklemmung, sowie in breiten und breiter werdenden Abschnitten durch die Ablagerung von Schlüsselsteinen. Durch diese Beobachtung wurde unser Wissen über Stufenbildung erweitert indem verschiedene hypothetisierte Mechanismen in einem Gebirgsbach harmonisiert wurden. Zu guter Letzt wurde diese Punktbeobachtung schließlich in den zeitlichen Kontext gesetzt, indem die Muster von Bachstufen über 7 Jahre nach einem hydrologischen Großereignis in 2010 untersucht wurden (Artikel IV). Die vorläufigen Ergebnisse zeigen, dass Großereignisse einen erheblichen Einfluss auf die Gerinnebreite haben: sowohl die räumlich gemittelte Gerinnebreite, als auch die mittlere Gerinnebreite an Bachstufen ist unmittelbar nach dem Großereignis deutlich erhöht. Weiterhin ist die relative Anzahl der Bachstufen welche durch Schlüsselsteine erzeugt werden größer nach dem Großereignis. Dies deutet darauf hin, dass der zuerst beobachtete Mechanismus der Gerinne-Hang-Kopplung (Artikel I) verantwortlich ist für die zeitliche Evolution der Bachstufen nach Großereignissen (Artikel IV). KW - Geomorphologie KW - geomorphology KW - Naturgefahren KW - natural hazards KW - Gebirgsbäche KW - mountain rivers KW - Geschiebetransport KW - bedload transport KW - Bachstufen KW - channel steps KW - Gerinne-Hang-Kopplung KW - channel-hillslope coupling Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411728 ER - TY - THES A1 - Gostkowska-Lekner, Natalia Katarzyna T1 - Organic-inorganic hybrids based on P3HT and mesoporous silicon for thermoelectric applications T1 - Organisch-anorganische Hybride basierend auf P3HT und porösem Silizium für thermoelektrische Anwendungen N2 - This thesis presents a comprehensive study on synthesis, structure and thermoelectric transport properties of organic-inorganic hybrids based on P3HT and porous silicon. The effect of embedding polymer in silicon pores on the electrical and thermal transport is studied. Morphological studies confirm successful polymer infiltration and diffusion doping with roughly 50% of the pore space occupied by conjugated polymer. Synchrotron diffraction experiments reveal no specific ordering of the polymer inside the pores. P3HT-pSi hybrids show improved electrical transport by five orders of magnitude compared to porous silicon and power factor values comparable or exceeding other P3HT-inorganic hybrids. The analysis suggests different transport mechanisms in both materials. In pSi, the transport mechanism relates to a Meyer-Neldel compansation rule. The analysis of hybrids' data using the power law in Kang-Snyder model suggests that a doped polymer mainly provides charge carriers to the pSi matrix, similar to the behavior of a doped semiconductor. Heavily suppressed thermal transport in porous silicon is treated with a modified Landauer/Lundstrom model and effective medium theories, which reveal that pSi agrees well with the Kirkpatrick model with a 68% percolation threshold. Thermal conductivities of hybrids show an increase compared to the empty pSi but the overall thermoelectric figure of merit ZT of P3HT-pSi hybrid exceeds both pSi and P3HT as well as bulk Si. N2 - Diese Arbeit präsentiert eine umfassende Studie über Synthese, Struktur und thermoelektrische Transporteigenschaften von organisch-anorganischen Hybriden basierend auf P3HT und porösem Silizium. Es wird die Auswirkung der Einbettung von Polymerin Siliziumporen auf den elektrischen und thermischen Transport untersucht. Morphologische Studien bestätigen eine erfolgreiche Polymerinfiltration und Diffusionsdotierung, wobei etwa 50% des Porenraums mit konjugiertem Polymer gefüllt sind. Synchrotronexperimente zeigen keine spezifische Ordnung des Polymers innerhalb der Poren. P3HT-pSi-Hybride zeigen einen um fünf Größenordnungen verbesserten elektrischen Transport im Vergleich zu porösem Silizium und sogenannte Powerfaktoren, die mit anderen P3HT-anorganischen Hybriden vergleichbar sind oder diese übertreffen. Die Analyse lässt auf unterschiedliche Transportmechanismen in beiden Materialien schließen. In pSi bezieht sich der Transportmechanismus auf eine Meyer-Neldel-{Kompensa\-tionsregel}. Die Analyse der Hybriddaten unter Verwendung des Potenzgesetzes im Kang-Snyder-Modell legt nahe, dass ein dotiertes Polymer hauptsächlich Ladungsträger für die pSi-Matrix bereitstellt, ähnlich dem Verhalten eines {dotier\-ten} Halbleiters. Der stark unterdrückte Wärmetransport in porösem Silizium wird mit einem modifizierten Landauer/Lundstrom-Modell und Effektivmediumtheorien behandelt, die zeigen, dass pSi mit einem Perkolationsschwellenwert von 68% gut mit dem Kirkpatrick-Modell übereinstimmt. Die {Wärmeleitfähigkei\-ten} von Hybriden zeigen einen Anstieg im Vergleich zum leeren pSi, aber der gesamte thermoelektrische Gütefaktor ZT des P3HT-pSi-Hybrids übertrifft sowohl pSi und P3HT als auch den von Bulk-Si. KW - physics KW - energy KW - thermoelectricity KW - organic-inorganic hybrids KW - Energie KW - organisch-anorganische Hybride KW - Physik KW - Thermoelektrizität Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620475 ER - TY - THES A1 - Gressel, Oliver T1 - Supernova-driven turbulence and magnetic field amplification in disk galaxies T1 - Supernovagetriebene Turbulenz und Magnetfeldverstärkung in Scheibengalaxien N2 - Supernovae are known to be the dominant energy source for driving turbulence in the interstellar medium. Yet, their effect on magnetic field amplification in spiral galaxies is still poorly understood. Analytical models based on the uncorrelated-ensemble approach predicted that any created field will be expelled from the disk before a significant amplification can occur. By means of direct simulations of supernova-driven turbulence, we demonstrate that this is not the case. Accounting for vertical stratification and galactic differential rotation, we find an exponential amplification of the mean field on timescales of 100Myr. The self-consistent numerical verification of such a “fast dynamo” is highly beneficial in explaining the observed strong magnetic fields in young galaxies. We, furthermore, highlight the importance of rotation in the generation of helicity by showing that a similar mechanism based on Cartesian shear does not lead to a sustained amplification of the mean magnetic field. This finding impressively confirms the classical picture of a dynamo based on cyclonic turbulence. N2 - Supernovae sind bekanntermaßen die dominante treibende Energiequelle für Turbulenz im interstellaren Medium. Dennoch ist ihre Auswirkung auf die Verstärkung von Magnetfeldern in Spiralgalaxien weitestgehend unverstanden. Analytische Modelle, die auf der Annahme eines unkorrelierten Ensembles beruhen, sagen voraus, dass das erzeugte Feld aus der galaktischen Scheibe herausgedrängt wird bevor eine substantielle Verstärkung erfolgen kann. Mithilfe numerischer Simulationen supernovagetriebener Turbulenz zeigen wir, dass dies nicht der Fall ist. Unter Berücksichtigung einer vertikalen Schichtung und differentieller galaktischer Rotation beobachten wir eine exponentielle Verstärkung des mittleren Magnetfeldes auf einer Zeitskala von 100 Mio. Jahren. Diese selbstkonsistente numerische Bestätigung eines “schnellen Dynamos” erlaubt es, die beobachteten starken Magnetfelder in jungen Galaxien zu erklären. Darüberhinaus stellen wir die Wichtigkeit der Rotation bei der Erzeugung von Helizität heraus, indem wir zeigen, dass ein ähnlicher Effekt basierend auf kartesischer Scherung nicht zu einer Verstärkung des mittleren Magnetfeldes führt. Dies bestätigt eindrucksvoll das klassische Bild zyklonischer Turbulenz. KW - Turbulenz KW - Magnetfelder KW - Magnetohydrodynamik KW - Supernovaüberreste KW - Galaxien KW - turbulence KW - magnetic fields KW - magnetohydrodynamics KW - supernova remnants KW - galaxies Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29094 ER - TY - THES A1 - Gruner, David T1 - New frontiers in gyrochronology T1 - Neue Horizonte in Gyrochronologie BT - exploring the evolution of stellar rotation in open clusters and wide binaries BT - eine Untersuchung der Entwicklung von Sternrotation in offenen Sternhaufen und weiten Doppelsternsystemen N2 - Late-type stars are by far the most frequent stars in the universe and of fundamental interest to various fields of astronomy – most notably to Galactic archaeology and exoplanet research. However, such stars barely change during their main sequence lifetime; their temperature, luminosity, or chemical composition evolve only very slowly over the course of billions of years. As such, it is difficult to obtain the age of such a star, especially when it is isolated and no other indications (like cluster association) can be used. Gyrochronology offers a way to overcome this problem. Stars, just like all other objects in the universe, rotate and the rate at which stars rotate impacts many aspects of their appearance and evolution. Gyrochronology leverages the observed rotation rate of a late-type main sequence star and its systematic evolution to estimate their ages. Unlike the above-mentioned parameters, the rotation rate of a main sequence star changes drastically throughout its main sequence lifetime; stars spin down. The youngest stars rotate every few hours, whereas much older stars rotate only about once a month, or – in the case of some late M-stars – once in a hundred days. Given that this spindown is systematic (with an additional mass dependence), it gave rise to the idea of using the observed rotation rate of a star (and its mass or a suitable proxy thereof) to estimate a star’s age. This has been explored widely in young stellar open clusters but remains essentially unconstrained for stars older than the sun, and K and M stars older than 1 Gyr. This thesis focuses on the continued exploration of the spindown behavior to assess, whether gyrochronology remains applicable for stars of old ages, whether it is universal for late-type main sequence stars (including field stars), and to provide calibration mileposts for spindown models. To accomplish this, I have analyzed data from Kepler space telescope for the open clusters Ruprecht 147 (2.7 Gyr old) and M 67 (4 Gyr). Time series photometry data (light curves) were obtained for both clusters during Kepler’s K2 mission. However, due to technical limitations and telescope malfunctions, extracting usable data from the K2 mission to identify (especially long) rotation periods requires extensive data preparation. For Ruprecht 147, I have compiled a list of about 300 cluster members from the literature and adopted preprocessed light curves from the Kepler archive where available. They have been cleaned of the gravest of data artifacts but still contained systematics. After correcting them for said artifacts, I was able to identify rotation periods in 31 of them. For M 67 more effort was taken. My work on Ruprecht 147 has shown the limitations imposed by the preselection of Kepler targets. Therefore, I adopted the time series full frame image directly and performed photometry on a much higher spatial resolution to be able to obtain data for as many stars as possible. This also means that I had to deal with the ubiquitous artifacts in Kepler data. For that, I devised a method that correlates the artificial flux variations with the ongoing drift of the telescope pointing in order to remove it. This process was a large success and I was able to create light curves whose quality match and even exceede those that were created by the Kepler mission – all while operating on higher spatial resolution and processing fainter stars. Ultimately, I was able to identify signs of periodic variability in the (created) light curves for 31 and 47 stars in Ruprecht 147 and M 67, respectively. My data connect well to bluer stars of cluster of the same age and extend for the first time to stars redder than early-K and older than 1 Gyr. The cluster data show a clear flattening in the distribution of Ruprecht 147 and even a downturn for M 67, resulting in a somewhat sinusoidal shape. With that, I have shown that the systematic spindown of stars continues at least until 4 Gyr and stars continue to live on a single surface in age-rotation periods-mass space which allows gyrochronology to be used at least up to that age. However, the shape of the spindown – as exemplified by the newly discovered sinusoidal shape of the cluster sequence – deviates strongly from the expectations. I then compiled an extensive sample of rotation data in open clusters – very much including my own work – and used the resulting cluster skeleton (with each cluster forming a rip in color-rotation period-mass space) to investigate if field stars follow the same spindown as cluster stars. For the field stars, I used wide binaries, which – with their shared origin and coevality – are in a sense the smallest possible open clusters. I devised an empirical method to evaluate the consistency between the rotation rates of the wide binary components and found that the vast majority of them are in fact consistent with what is observed in open clusters. This leads me to conclude that gyrochronology – calibrated on open clusters – can be applied to determine the ages of field stars. N2 - Sterne mit späten Spektraltypen sind mit Abstand die Häufigsten im Universum und von großem Interesse für verschiedene Bereiche der Astronomie. Dabei sind insbesondere galaktische Archäologie und die Erforschung von Exoplanten zu nennen. Das Problem ist jedoch, dass sich diese Sterne nur sehr langsam entwickeln; ihre Temperatur, Helligkeit und chemische Zusammensetzung ändern kaum während ihrer langen Hauptreihenphase. Daher ist es schwierig für solche Sterne ein Alter zu bestimmen – vorallem wenn sie isoliert sind und es keine anderne Indikatoren (z.B. die Zugehörigkeit zu einem Sternhaufen) gibt. Eine Möglichkeit dieses Problem zu umgehen ist Gyrochronologie. Sterne, wie alle anderen Objekte im Universum, rotieren und die Rate, mit der sie rotieren, beeinflusst viele Aspekte ihrer Evolution. Gyrochronologie nutzt die beobachtete Rotation und ihre Änderung mit der Zeit als ein Mittel zur Altersbestimmung. Anders als zuvor genannte Parameter ändert sich die Rate, mit der Sterne rotieren, deutlich im Laufe ihrer Hauptreihenentwicklung. Sie verlangsamt sich. Junge Sterne rotieren in wenigen Stunden einmal um sich selbst – ältere brauchen dafür schon einen Monat oder gar bis zu über hundert Tage. Die Tatsache, dass das Abbremsen systematischen Gesetzmäßigkeiten unterliegt, gebar die Idee dies zu nutzen um das Alter eines Sternes zu bestimmen. Das Verhalten junger Sterne wurde ausführlich erfoscht, jedoch für die meisten Sterne älter als 1 Gyr nicht bekannt, wie sich die Rotationsraten entwickeln. Diese Arbeit fokussiert sich auf die fortgesetzte Erforschung des Abbremsens; insbesondere ob Gyrochronologie auch für ältere Sterne nutzbar ist, ob es universell für alle Sterne (inklusive Feldsterne) ist und darauf weitere Kalibrationspunkte für Abbrems-Modelle bereitzustellen. Dafür habe ich, basierend auf photometrischen Zeitserien (Lichtkurven) von Keplers K2 Programm, die offenen Sternhaufen Ruprecht 147 (2.7 Gyr alt) and M 67 (4 Gyr) untersucht. Es sind jedoch umfangreiche Schritte in der Datenverarbeitung notwendig um Fehlfunktionen und technischen Limitationen des Teleskops zu begegnen. Für Ruprecht 147 habe ich aus Literaturdaten eine Liste von 300 Haufen-zugehörigen Sternen erstellt und mit fertigreduzierte Lichtkurven aus dem Kepler Archiv kombiniert. Die gröbsten Datensystematiken wurden in diesen bereinigt, denoch sind problematische Artefakte weiterhin vorhanden. Die Arbeit an Ruprecht 147 hat die Limitationen von archivierten Kepler Daten gezeigt. Daher wurde für M 67 mehr Aufwand betrieben. Direkt basierend auf den photometrischen Auffnahmen habe ich eigene Lichtkurven erzeugt, was eine deutlich höhere räumliche Auflösung erlaubt hat. Das hieß jedoch auch, dass ich mich mit all Systematiken in Kepler Daten befassen musste. Dafür habe ich eine Methodik konzipiert, die die künstlichen Variation im aufgezeichneten Fluss mit der Position eines Sterns auf dem Detektor korreliert und daraus eine Korrektur bestimmt. Dieser Prozess war so erfolgreich, dass ich Lichtkurven kreiert habe, die in ihrer Qualität an die archivierten Daten heran kommen oder sie gar übersteigen. Nach entsprechender Korrektur der Artefakte konnte ich Rotationsperioden für 31 (in Ruprecht 147) und 47 (in M 67) Sterne identifizieren. Genau wie zuvor in jüngeren Sternhaufen gesehen, folgen auch die äelteren Sternhaufen einer klaren Sequenz im Farb-Rotations-Raum. Meine Daten schließen direkt an Ergebnisse gleichaltriger Haufen an und erweitern diese zum ersten Mal zu Sternen älter als 1 Gyr und röter als frühe K-Sterne. Meine Ergebnisse zeigen eine deutliche Abweichung von der erwarteten Entwicklung, verkörpert durch eine klare Abflachung der Sequenz für Ruprecht 147, die für M 67 eine sinusförmige Struktur annimmt. Dennoch konnte ich damit zeigen, dass sich das systematische Abbremsen der Rotation von Sterne auch bis 4 Gyr fortsetzt und Sterne sich weiterhin auf eine wohldefinierten Ebene im Farb-Rotations-Alters-Raum befinden. Das heißt auch, Gyrochronologie kann mindestens für bis zu 4 Gyr alte Sterne genutzt werden. Basierend auf meinen eigenen Ergebnissen und Literaturdaten für jüngere Sternhaufen habe ich einen Vergleich mit Feldsternen durchgeführt. Die Feldsterne für diesen Vergleich entstammen weiten Doppelsternsystemen. Deren gemeinsamer Ursprung erlaubt eine Evaluierung der inneren Konsistenz beider Sterne. Mein Vergleich hat gezeigt, dass Doppelsternsysteme mit sich selbst aber auch mit den Sternhaufen konsistent sind. Ich habe damit erstmalig gezeigt, dass sich die Rotation von Feldsternen und Haufensternen gleich entwickelt. In Konsequenz bedeutet dies auch, dass Gyrochronologie angewandt werden kann, um das Alter von Feldsternen zu bestimmen. KW - Gyrochronologie KW - gyrochronology KW - spindown KW - rotation KW - Rotation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-615268 ER - TY - THES A1 - Gäbert, Chris T1 - Light-responsive polymer systems aiming towards programmable friction T1 - Lichtschaltbare Polymersysteme mit dem Ziel programmierbarer Reibung BT - the application driven development of 9-anthracene ester-terminated silicone oils and spiropyran graft copolymers as novel functional materials BT - die anwendungsorientierte Entwicklung von 9-Anthracenester-terminierten Silikonölen und Spiropyran-Pfropfcopolymeren als neuartige Funktionsmaterialien N2 - The development of novel programmable materials aiming to control friction in real-time holds potential to facilitate innovative lubrication solutions for reducing wear and energy losses. This work describes the integration of light-responsiveness into two lubricating materials, silicon oils and polymer brush surfaces. The first part focusses on the assessment on 9-anthracene ester-terminated polydimethylsiloxanes (PDMS-A) and, in particular, on the variability of rheological properties and the implications that arise with UV-light as external trigger. The applied rheometer setup contains an UV-transparent quartz-plate, which enables radiation and simultaneous measurement of the dynamic moduli. UV-A radiation (354 nm) triggers the cycloaddition reaction between the terminal functionalities of linear PDMS, resulting in chain extension. The newly-formed anthracene dimers cleave by UV-C radiation (254 nm) or at elevated temperatures (T > 130 °C). The sequential UV-A radiation and thermal reprogramming over three cycles demonstrate high conversions and reproducible programming of rheological properties. In contrast, the photochemical back reaction by UV-C is incomplete and can only partially restore the initial rheological properties. The dynamic moduli increase with each cycle in photochemical programming, presumably resulting from a chain segment re-arrangement as a result of the repeated partial photocleavage and subsequent chain length-dependent dimerization. In addition, long periods of radiation cause photooxidative degradation, which damages photo-responsive functions and consequently reduces the programming range. The absence of oxygen, however, reduces undesired side reactions. Anthracene-functionalized PDMS and native PDMS mix depending on the anthracene ester content and chain length, respectively, and allow fine-tuning of programmable rheological properties. The work shows the influence of mixing conditions during the photoprogramming step on the rheological properties, indicating that material property gradients induced by light attenuation along the beam have to be considered. Accordingly, thin lubricant films are suggested as potential application for light-programmable silicon fluids. The second part compares strategies for the grafting of spiropyran (SP) containing copolymer brushes from Si wafers and evaluates the light-responsiveness of the surfaces. Pre-experiments on the kinetics of the thermally initiated RAFT copolymerization of 2-hydroxyethyl acrylate (HEA) and spiropyran acrylate (SPA) in solution show, first, a strong retardation by SP and, second, the dependence of SPA polymerization on light. Surprisingly, the copolymerization of SPA is inhibited in the dark. These findings contribute to improve the synthesis of polar, spiropyran-containing copolymers. The comparison between initiator systems for the grafting-from approach indicates PET-RAFT superior to thermally initiated RAFT, suggesting a more efficient initiation of surface-bound CTA by light. Surface-initiated polymerization via PET-RAFT with an initiator system of EosinY (EoY) and ascorbic acid (AscA) facilitates copolymer synthesis from HEA and 5-25 mol% SPA. The resulting polymer film with a thickness of a few nanometers was detected by atomic force microscopy (AFM) and ellipsometry. Water contact angle (CA) measurements demonstrate photo-switchable surface polarity, which is attributed to the photoisomerization between non-polar spiropyran and zwitterionic merocyanine isomer. Furthermore, the obtained spiropyran brushes show potential for further studies on light-programmable properties. In this context, it would be interesting to investigate whether swollen spiropyran-containing polymers change their configuration and thus their film thickness under the influence of light. In addition, further experiments using an AFM or microtribometer should evaluate whether light-programmable solvation enables a change in frictional properties between polymer brush surfaces. N2 - Die Entwicklung neuartiger programmierbarer Materialien zur Anpassung von Reibung in Echtzeit birgt Potenzial, innovative Schmierungslösungen zu ermöglichen, um Verschleiß und Energieverluste zu reduzieren. Die vorliegende Arbeit beschreibt die Integration von Lichtlichtschaltbarkeit in zwei schmierende Materialien, Silikonöle und Oberflächen mit Polymerbürsten. Der erste Teil konzentriert sich auf die Bewertung von 9-Anthracenester-terminierten Polydimethylsiloxanen (PDMS-As) und insbesondere auf die Veränderbarkeit der rheologischen Eigenschaften sowie Implikationen, die sich bei der Verwendung von UV-Licht als externe Trigger ergeben. Der verwendete Rheometeraufbau enthält eine UV-transparente Quarzplatte, welche somit die Bestrahlung bei gleichzeitiger Messung der dynamischen Moduli ermöglicht. UV-A-Strahlung (354 nm) löst die Cycloadditionsreaktion zwischen den endständigen Funktionalitäten des linearen PDMS aus und führt so zu einer Kettenverlängerung. Die dabei gebildeten Anthracen-Dimere werden durch UV-C-Strahlung (254 nm) oder bei erhöhten Temperaturen (T > 130 °C) gespalten. Die sequentielle UV-A-Bestrahlung und thermische Reprogrammierung in drei Schaltzyklen führen zu hohen Umsätzen und zeigen reproduzierbar einstellbare Materialeigenschaften. Im Gegensatz dazu ist die photochemische Rückreaktion durch UV-C unvollständig und kann die ursprünglichen rheologischen Eigenschaften nur teilweise wiederherstellen. Die dynamischen Module nehmen mit jedem Zyklus der photochemischen Programmierung zu, was vermutlich auf eine Neuanordnung der Kettensegmente infolge der wiederholten partiellen Photospaltung und der anschließenden kettenlängenabhängigen Dimerisierung zurückzuführen ist. Darüber hinaus kommt es bei langer Bestrahlungsdauer zu einem photooxidativen Abbau, der die photoschaltbaren Funktionen des Silikons beeinträchtigt und folglich den Programmierbereich verringert. Der Ausschluss von Sauerstoff reduziert jedoch unerwünschte Nebenreaktionen. Anthracenfunktionalisiertes PDMS und unfunktionalisiertes PDMS mischen sich in Abhängigkeit vom Anthracenestergehalt beziehungsweise der Kettenlänge und ermöglichen die Feinabstimmung programmierbarer rheologischer Eigenschaften. Die Arbeit zeigt den Einfluss der Mischungsbedingungen während des Photoprogrammierungsschritts auf die rheologischen Eigenschaften, was darauf hindeutet, dass Materialeigenschaftsgradienten, die durch Lichtabschwächung entlang des Lichtstrahls entstehen, berücksichtigt werden müssen. Entsprechend werden dünne Schmiermittelfilme als mögliche Anwendung für lichtprogrammierbare Silikonöle vorgeschlagen. Der zweite Teil vergleicht ‚grafting-from‘-Methoden zur Synthese Spiropyran(SP)-haltiger Copolyme auf Si-Wafern und bewertet die Lichtschaltbarkeit der Oberflächeneigenschaften. Vorversuche zur Kinetik der thermisch initiierten RAFT-Copolymerisation von 2-Hydroxyethylacrylat (HEA) und Spiropyranacrylat (SPA) in Lösung zeigen erstens, eine starke Retardierung durch SP, und zweitens, die Lichtabhängigkeit der SPA-Polymerisation. Überraschenderweise ist die Copolymerisation von SPA im Dunkeln gehemmt. Diese Ergebnisse tragen dazu bei, die Synthese von polaren, spiropyranhaltigen Copolymeren zu verbessern. Der Vergleich zwischen Initiatorsystemen für den ‚grafting-from‘-Ansatz zeigt, dass PET-RAFT der thermisch initiierten RAFT überlegen ist, was auf eine effizientere Initiierung von oberflächengebundenem CTA durch Licht hindeutet. Die oberflächeninitierte Polymerisation via PET-RAFT mit einem Initiatorsystem aus EosinY (EoY) und Ascorbinsäure (AscA) ermöglicht die Copolymersynthese aus HEA und 5-25 mol% SPA. Der entstandene Polymerfilm mit einer Dicke von einigen Nanometern wurde mittels Rasterkraftmikroskopie (AFM) und Ellipsometrie nachgewiesen. Die Messungen des Wasserkontaktwinkels (CA) zeigt eine photoschaltbare Oberflächenpolarität, welche der Photoisomerisierung zwischen unpolaren Spiropyran und zwitterionischen Merocyanin-Isomer zugeschrieben wird. Darüber hinaus zeigen die erhaltenen Spiropyranbürsten Potenzial für weitere Untersuchungen zu lichtprogrammierbaren Eigenschaften. In diesem Zusammenhang wäre es interessant weiterführend zu untersuchen, ob gequollene spiropyranhaltige Polymere unter Lichteinfluss tatsächlich ihre Konfiguration und damit ihre Filmdicke ändern. Darüber hinaus wäre es sinnvoll, mit Hilfe eines AFM oder Mikrotribometers zu evaluieren, ob diese lichtprogrammierbare Solvatisierung eine Veränderung der Reibungseigenschaften zwischen Polymerbürstenoberflächen ermöglicht. KW - programmable friction KW - lubricant KW - light-programmable viscosity KW - spiropyran copolymer KW - grafting-from Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-553380 ER - TY - THES A1 - Herbrich, Marcus T1 - Einfluss der erosionsbedingten Pedogenese auf den Wasserund Stoffhaushalt ackerbaulich genutzter Böden der Grundmoränenbodenlandschaft NO-Deutschlands - hydropedologische Untersuchungen mittels wägbarer Präzisionslysimeter T1 - Effects of erosion-affected soil evolution on water and dissolved carbon fluxes, soil hydraulic properties, and crop development of soils from a hummocky ground moraine landscape - hydropedological analysis using high precision weighing lysimeters N2 - In the arable soil landscape of hummocky ground moraines, an erosion-affected spatial differentiation of soils can be observed. Man-made erosion leads to soil profile modifications along slopes with changed solum thickness and modified properties of soil horizons due to water erosion in combination with tillage operations. Soil erosion creates, thereby, spatial patterns of soil properties (e.g., texture and organic matter content) and differences in crop development. However, little is known about the manner in which water fluxes are affected by soil-crop interactions depending on contrasting properties of differently-developed soil horizons and how water fluxes influence the carbon transport in an eroded landscape. To identify such feedbacks between erosion-induced soil profile modifications and the 1D-water and solute balance, high-precision weighing lysimeters equipped with a wide range of sensor technique were filled with undisturbed soil monoliths that differed in the degree of past soil erosion. Furthermore, lysimeter effluent concentrations were analyzed for dissolved carbon fractions in bi-weekly intervals. The water balance components measured by high precision lysimeters varied from the most eroded to the less eroded monolith up to 83 % (deep drainage) primarily caused due to varying amounts of precipitation and evapotranspiration for a 3-years period. Here, interactions between crop development and contrasting rainfall interception by above ground biomass could explain differences in water balance components. Concentrations of dissolved carbon in soil water samples were relatively constant in time, suggesting carbon leaching was mainly affected by water fluxes in this observation period. For the lysimeter-based water balance analysis, a filtering scheme was developed considering temporal autocorrelation. The minute-based autocorrelation analysis of mass changes from lysimeter time series revealed characteristic autocorrelation lengths ranging from 23 to 76 minutes. Thereby, temporal autocorrelation provided an optimal approximation of precipitation quantities. However, the high temporal resolution in lysimeter time series is restricted by the lengths of autocorrelation. Erosion-induced but also gradual changes in soil properties were reflected by dynamics of soil water retention properties in the lysimeter soils. Short-term and long-term hysteretic water retention data suggested seasonal wettability problems of soils increasingly limited rewetting of previously dried pore regions. Differences in water retention were assigned to soil tillage operations and the erosion history at different slope positions. The threedimensional spatial pattern of soil types that result from erosional soil profile modifications were also reflected in differences of crop root development at different landscape positions. Contrasting root densities revealed positive relations of root and aboveground plant characteristics. Differences in the spatially-distributed root growth between different eroded soil types provided indications that root development was affected by the erosion-induced soil evolution processes. Overall, the current thesis corroborated the hypothesis that erosion-induced soil profile modifications affect the soil water balance, carbon leaching and soil hydraulic properties, but also the crop root system is influenced by erosion-induced spatial patterns of soil properties in the arable hummocky post glacial soil landscape. The results will help to improve model predictions of water and solute movement in arable soils and to understand interactions between soil erosion and carbon pathways regarding sink-or-source terms in landscapes. N2 - Hydropedologische Wechselwirkungen zwischen Wasserflüssen und erosionsbedingten Veränderungen im Profilaufbau ackerbaulich genutzter Böden treten insbesondere in der Jungmoränenlandschaft auf, die sich durch eine überwiegend flachwellige bis kuppige Topographie auszeichnet. Mit der dynamischen Veränderung von Bodenprofilen, wie etwa der veränderten Solumtiefe und Horizontabfolgen, sowie deren Verteilungen in der Landschaft gehen Veränderungen in den bodenhydraulischen Eigenschaften einher. Über deren Auswirkungen auf den Wasser- und Stoffhaushalt ist bislang nur wenig bekannt. Im Rahmen dieser Dissertation wurden kontinuierliche Messungen aus vier Jahren (2011 bis 2014) unter Verwendung von wägbaren Lysimetern in der ackerbaulich genutzten Bodenlandschaft Nordostdeutschlands (Uckermark) erhoben. Dabei sollte die zentrale Frage, inwieweit die erosionsbedingte Pedogenese, in Wechselwirkung mit der pflanzenbaulichen Nutzung, den Wasser- und Kohlenstoffhaushalt beeinflusst, beantwortet werden. Ziel dieser Arbeit war es, 1D-Wasserflüsse und Austräge an gelöstem Kohlenstoff für unterschiedlich erodierte Bodenprofile zu quantifizieren. Damit einhergehend wurden Untersuchungen zu hydraulischen Bodeneigenschaften sowie möglichen Veränderungen im System Boden-Pflanze (Wurzeluntersuchungen) durchgeführt. Um derartige Veränderungen zwischen unterschiedlich erodierten Böden beschreiben zu können, wurden Bodenmonolithe in ungestörter Lagerung entnommen und in Lysimeteranlagen installiert. Zudem erfolgte eine Instrumentierung der einzelnen Lysimeter mit verschiedener Sensorik, u.a. um Wassergehalte und Matrixpotentiale zu messen. Für stoffhaushaltliche Untersuchungen wurden darüber hinaus Konzentrationen der gelösten Kohlenstofffraktion in der Bodenlösung in 14-tägigen Intervallen bestimmt. Der Wasserhaushalt von sechs gering bis stark erodierten Parabraunerden unterschied sich im Hinblick auf die bilanzierten Wasserhaushaltskomponenten deutlich. Anhand dieser Ergebnisse liegt die Vermutung nahe, dass die dynamischen Veränderungen im Gefüge- und Profilaufbau (in Abhängigkeit von der Bodenerosion) einen Effekt auf die Wasserbilanzen aufweisen. Über die mehrjährige Messperiode von 2011 bis 2014 konnte für das mit einer stark erodierten Parabraunerde gefüllte Lysimeter ein circa 83 Prozent höherer Abfluss als für das Lysimeter mit einer wenig erodierten Parabraunerde gemessen werden. Somit variierte der Abfluss am unteren Rand in Abhängigkeit zum Erosionsgrad. Neben dem unterschiedlichen Abflussverhalten variierten die Bodenmonolithe innerhalb der Lysimeter ebenfalls in den Evapotranspirations- und Niederschlagsmengen, hervorgerufenen durch die Differenzierung in den Horizontabfolgen, -mächtigkeiten und deren Einfluss auf die bodenhydraulischen Eigenschaften in Abhängigkeit vom Pflanzenbewuchs. Aufgrund der homogen verteilten Stoffkonzentrationen des gelösten organischen und anorganischen Kohlenstoffs am unteren Rand waren Kohlenstoffausträge maßgeblich von den Wasserflüssen abhängig. Als Grundlage der Lysimeter-basierten Wasserhaushaltsanalyse diente ein im Rahmen dieser Dissertation entwickeltes Auswertungsverfahren von kontinuierlichen Gewichtsänderungen unter Berücksichtigung der zeitlichen Autokorrelation. Um eine mögliche Periodizität in zeitlich hochaufgelösten Änderungen des Lysimeterwaagensystems zu ermitteln, fand eine Autokorrelationsfunktion in der Zeitreihenanalyse von vier saisonalen Messzeiträumen Anwendung. Die Ergebnisse der Arbeit deuten darauf hin, dass hochaufgelöste Lysimeterzeitreihen in einem Bereich von circa 30 min bis circa 60 min zeitlich autokorreliert sind. Die ermittelten Autokorrelationslängen bieten wiederum eine Möglichkeit zur Annäherung von (optimalen) Zeitintervallen für die Niederschlagsberechnung, basierend auf Änderungen in den Wiegedaten. Im Vergleich zu einem Kippwaagenregenmesser nahe der Lysimeterstation überstiegen die ermittelten Niederschlagsmengen der Lysimeter in Bodennähe die der in zwei Metern Höhe erfolgten Messung deutlich. Zur Charakterisierung der zeitlichen (Hysterese), als auch räumlichen (erosionsbedingter Pedogenese) Veränderungen der bodenhydraulischen Eigenschaften der Lysimeterböden wurden kontinuierliche Datenreihen des Wassergehaltes und Matrixpotentials analysiert. Die daraus abgeleiteten Wasserretentionskurven wurden in 3 Messtiefen (10, 30, 50 cm) unter Feldbedingungen ausgewertet und mit Labormessungen von Bodenkernen verglichen. Sowohl zwischen den unterschiedlich erodierten Bodenprofilen als auch zwischen den Feld- und Labormessungen waren Unterschiede in den Wasserretentionseigenschaften ersichtlich. Innerhalb eines Jahres (eingeschränkte Benetzbarkeit) sowie zwischen den Jahren (Veränderung der Porenmatrix) zeigten die Ergebnisse zudem eine zeitliche Veränderung der Wasserretentionseigenschaften. Diese dynamische Variabilität der Wasserretention wiederum unterliegt der räumlichen Heterogenität von Bodeneigenschaften, wie Textur und Lagerungsdichte. Für die Interpretation der unterschiedlichen bodenhydraulischen Eigenschaften sowie im Hinblick auf Veränderungen im Wasserhaushalt von ackerbaulich genutzten Lysimetern spielt das System Boden-Pflanze eine bedeutende Rolle. Diesbezüglich wurden Biomasse- und Wurzeluntersuchungen an unterschiedlich erodierten Böden durchgeführt. Die erzielten Ergebnisse verdeutlichen, dass erosionsbedingte Veränderungen im Profilaufbau beziehungsweise Horizonteigenschaften die Wurzelentwicklung beeinflussen können. Zudem stehen die Durchwurzelungsraten an grundwasserbeeinflussten Senkenstandorten in enger Beziehung zum Grundwasserstand (insbesondere im Frühjahr). Die oberirdisch beobachteten Unterschiede in der Biomasse korrelierten stark mit den ermittelten Wurzeldichten (Winterweizen), dies lässt vermuten, dass eine Abschätzung der Wurzelentwicklung mittels oberirdischer Biomasse möglich ist. Zusammenfassend zeigen die Ergebnisse der vorliegenden Lysimeterstudie komplexe Wechselwirkungen zwischen dem pedogenetischen Zustand erodierter Böden und dem Wasserhaushalt, den bodenhydraulischen Eigenschaften sowie der Wurzelentwicklung angebauter Kulturen. Zudem leisten die ermittelten unterschiedlichen Austragsraten an gelöstem Kohlenstoff einen Beitrag zur Abschätzung der langfristigen, in die Tiefe fortschreitenden Entkalkung sowie zur Beantwortung der Fragestellung, ob ackerbaulich genutzte Böden eher als Quell- oder als Senkenterm für Kohlendioxid fungieren. KW - Lysimeter KW - Wasserhaushalt KW - Kohlenstoff KW - lysimeter KW - water balance KW - carbon Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408561 ER - TY - THES A1 - Herrero Alonso, Yohana T1 - Properties of high-redshift galaxies in different environments T1 - Eigenschaften von Galaxien mit hoher Rotverschiebung in verschiedenen Umgebungen N2 - The Lyman-𝛼 (Ly𝛼) line commonly assists in the detection of high-redshift galaxies, the so-called Lyman-alpha emitters (LAEs). LAEs are useful tools to study the baryonic matter distribution of the high-redshift universe. Exploring their spatial distribution not only reveals the large-scale structure of the universe at early epochs, but it also provides an insight into the early formation and evolution of the galaxies we observe today. Because dark matter halos (DMHs) serve as sites of galaxy formation, the LAE distribution also traces that of the underlying dark matter. However, the details of this relation and their co-evolution over time remain unclear. Moreover, theoretical studies predict that the spatial distribution of LAEs also impacts their own circumgalactic medium (CGM) by influencing their extended Ly𝛼 gaseous halos (LAHs), whose origin is still under investigation. In this thesis, I make several contributions to improve the knowledge on these fields using samples of LAEs observed with the Multi Unit Spectroscopic Explorer (MUSE) at redshifts of 3 < 𝑧 < 6. N2 - Die Lyman-𝛼 (Ly𝛼)-Linie erleichtert die Detektion von Galaxien bei hoher Rotverschiebung, sogenannten den Lyman-Alpha-Emittern (LAEs). Die Erforschung ihrer Verteilung enthüllt nicht nur die großräumige Struktur des Universums in frühen Epochen, sondern bietet auch einen Einblick in die Entstehung und Entwicklung der Galaxien, die wir heute beobachten. Da Halos aus Dunkler Materie (DMHs) als Orte der Galaxienentstehung dienen, spiegelt die LAE-Verteilung auch die der zugrunde liegenden Dunklen Materie wider. Darüber hinaus sagen theoretische Studien voraus, dass die Verteilung von LAEs auch Auswirkungen auf ihr eigenes zirkumgalaktisches Medium (CGM) hat, indem sie ihre ausgedehnten gasförmigen Ly𝛼-Halos (LAHs) beeinflusst. In dieser Dissertation leiste ich mehrere Beiträge zur Verbesserung des Wissens über diese Felder anhand von Stichproben von LAEs, die mit dem Multi Unit Spectroscopic Explorer (MUSE) bei Rotverschiebungen von 3 < 𝑧 < 6 beobachtet wurden. KW - high-redshift KW - Lyman-alpha emitters KW - clustering KW - large-scale structure KW - Lyman-Alpha-Emitter KW - Clustering KW - hoher Rotverschiebung KW - großräumige Struktur des Universums Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-613288 ER - TY - THES A1 - Hoffmann, Anne T1 - Comparative aerosol studies based on multi-wavelength Raman LIDAR at Ny-Ålesund, Spitsbergen T1 - Vergleichende Aerosolstudien mittels Mehrwellenlängen-Raman-LIDAR in Ny-Ålesund,Spitzbergen N2 - The Arctic is a particularly sensitive area with respect to climate change due to the high surface albedo of snow and ice and the extreme radiative conditions. Clouds and aerosols as parts of the Arctic atmosphere play an important role in the radiation budget, which is, as yet, poorly quantified and understood. The LIDAR (Light Detection And Ranging) measurements presented in this PhD thesis contribute with continuous altitude resolved aerosol profiles to the understanding of occurrence and characteristics of aerosol layers above Ny-Ålesund, Spitsbergen. The attention was turned to the analysis of periods with high aerosol load. As the Arctic spring troposphere exhibits maximum aerosol optical depths (AODs) each year, March and April of both the years 2007 and 2009 were analyzed. Furthermore, stratospheric aerosol layers of volcanic origin were analyzed for several months, subsequently to the eruptions of the Kasatochi and Sarychev volcanoes in summer 2008 and 2009, respectively. The Koldewey Aerosol Raman LIDAR (KARL) is an instrument for the active remote sensing of atmospheric parameters using pulsed laser radiation. It is operated at the AWIPEV research base and was fundamentally upgraded within the framework of this PhD project. It is now equipped with a new telescope mirror and new detection optics, which facilitate atmospheric profiling from 450m above sea level up to the mid-stratosphere. KARL provides highly resolved profiles of the scattering characteristics of aerosol and cloud particles (backscattering, extinction and depolarization) as well as water vapor profiles within the lower troposphere. Combination of KARL data with data from other instruments on site, namely radiosondes, sun photometer, Micro Pulse LIDAR, and tethersonde system, resulted in a comprehensive data set of scattering phenomena in the Arctic atmosphere. The two spring periods March and April 2007 and 2009 were at first analyzed based on meteorological parameters, like local temperature and relative humidity profiles as well as large scale pressure patterns and air mass origin regions. Here, it was not possible to find a clear correlation between enhanced AOD and air mass origin. However, in a comparison of two cloud free periods in March 2007 and April 2009, large AOD values in 2009 coincided with air mass transport through the central Arctic. This suggests the occurrence of aerosol transformation processes during the aerosol transport to Ny-Ålesund. Measurements on 4 April 2009 revealed maximum AOD values of up to 0.12 and aerosol size distributions changing with altitude. This and other performed case studies suggest the differentiation between three aerosol event types and their origin: Vertically limited aerosol layers in dry air, highly variable hygroscopic boundary layer aerosols and enhanced aerosol load across wide portions of the troposphere. For the spring period 2007, the available KARL data were statistically analyzed using a characterization scheme, which is based on optical characteristics of the scattering particles. The scheme was validated using several case studies. Volcanic eruptions in the northern hemisphere in August 2008 and June 2009 arose the opportunity to analyze volcanic aerosol layers within the stratosphere. The rate of stratospheric AOD change was similar within both years with maximum values above 0.1 about three to five weeks after the respective eruption. In both years, the stratospheric AOD persisted at higher rates than usual until the measurements were stopped in late September due to technical reasons. In 2008, up to three aerosol layers were detected, the layer structure in 2009 was characterized by up to six distinct and thin layers which smeared out to one broad layer after about two months. The lowermost aerosol layer was continuously detected at the tropopause altitude. Three case studies were performed, all revealed rather large indices of refraction of m = (1.53–1.55) - 0.02i, suggesting the presence of an absorbing carbonaceous component. The particle radius, derived with inversion calculations, was also similar in both years with values ranging from 0.16 to 0.19 μm. However, in 2009, a second mode in the size distribution was detected at about 0.5 μm. The long term measurements with the Koldewey Aerosol Raman LIDAR in Ny-Ålesund provide the opportunity to study Arctic aerosols in the troposphere and the stratosphere not only in case studies but on longer time scales. In this PhD thesis, both, tropospheric aerosols in the Arctic spring and stratospheric aerosols following volcanic eruptions have been described qualitatively and quantitatively. Case studies and comparative studies with data of other instruments on site allowed for the analysis of microphysical aerosol characteristics and their temporal evolution. N2 - Die Arktis ist ein bezüglich Klimaveränderungen besonders sensitives Gebiet, d.h. die globale Erwärmung wirkt sich aufgrund der saisonal hochvariablen Strahlungsbedingungen und der Bodenalbedo dort verstärkt aus.Wolken und Aerosole als Bestandteile der arktischen Atmosphäre spielen dabei eine besondere Rolle im Strahlungsgleichgewicht. Die vorliegende Promotionsarbeit leistet mit Hilfe von LIDAR-Messungen (Light Detection and Ranging) einen Beitrag zum Verständnis von Vorkommen und Eigenschaften von Aerosolschichten über Ny-Ålesund, Spitzbergen. Besonderes Augenmerk liegt dabei auf der Analyse von Zeiträumen mit erhöhter Aerosolbelastung. Es wurde zum einen die arktische Troposphäre zweier Frühjahre (März und April der Jahre 2007 und 2009) untersucht, da im Frühjahr die Aerosol-optische Dicke (AOD) in der Arktis Maximalwerte erreicht. Zum anderen wurden stratosphärische Aerosolschichten vulkanischen Ursprungs analysiert, die in den Sommern 2008 und 2009 nach Ausbrüchen der Kasatochi und Sarychev Vulkane jeweils für mehrere Monate in der unteren Stratosphäre messbar waren. Das an der AWIPEV Forschungsstation betriebene Koldewey Aerosol Raman LIDAR (KARL), ein Instrument zur optischen Fernerkundung atmosphärischer Parameter mittels gepulster Laserstrahlung, wurde im Rahmen der Promotion grundlegend überarbeitet und mit einem neuen Teleskop sowie neuen Detektoroptiken versehen. Dies ermöglicht die Profilerfassung ab 450m über dem Meeresspiegel bis in die mittlere Stratosphäre. KARL liefert hochaufgelöste Messungen der Streueigenschaften von Aerosol- undWolkenteilchen (Rückstreuung, Extinktion und Depolarisation) sowieWasserdampfprofile in der unteren Troposphäre. Durch die Kombination von KARL Messungen mit Daten anderer Messgeräte an der AWIPEV Forschungsstation wie Radiosonden, Sonnenphotometer, Micro Pulse LIDAR und Fesselsonden wurde ein umfassender Datenbestand von Streuphänomenen in der arktischen Atmosphäre geschaffen. Die beiden genannten Frühjahreszeiträume März und April 2007 und 2009 wurden zunächst anhand meteorologischer Parameter, wie lokaler Temperatur- und Feuchteprofile sowie großskaliger Druckmuster und Luftmassenquellgebiete analysiert. Dabei konnte kein eindeutiger Zusammenhang zwischen Quellgebieten und erhöhter AOD festgestellt werden. In einem Vergleich zweier wolkenfreier Perioden im März 2007 und April 2009 war jedoch die höhere Aerosolbelastung in 2009 mit dem Transport von Luftmassen durch die innere Arktis verbunden. Aufgrund der begrenzten Lebensdauer von Aerosolen lässt das entweder Aerosol-Entstehungsprozesse in der Zentralarktis oder Transformationsprozesse während des Transportes nach Ny-Ålesund vermuten. Für Messungen am 4. April 2009 mit Maximalwerten der AOD von bis zu 0.12 konnte die Größe der Aerosolteilchen in verschiedenen Höhen mit Hilfe von Inversionsrechnungen abgeschätzt werden. Diese und andere betrachtete Fallstudien legen eine Unterscheidung von Aerosolereignissen in drei Kategorien nahe, die sich in ihrer Entstehung deutlich unterscheiden: Vertikal begrenzte Aeosolschichten in trockener Luft, zeitlich hochvariable feuchte Aerosolschichten in der planetaren Grenzschicht sowie eine erhöhte Aerosolbelastung über große Teile der Troposphäre. Für das sehr klare Frühjahr 2007 wurden die vorhandenen KARL-Daten mit Hilfe eines Klassifikationsschemas, das auf den optischen Eigenschaften der streuenden Teilchen beruht, statistisch ausgewertet. Das verwendete Schema wurde mit Hilfe von verschiedenen Fallstudien validiert und ermöglicht bei Anwendung auf größere Datenbestände eine aussagekräftige Analyse von jährlichen Schwankungen der Aerosol- und Wolkenvorkommen über Ny-Ålesund. Die Ausbrüche zweier Vulkane in der nördlichen Hemisphäre im August 2008 und im Juni 2009 erlaubten die Analyse vulkanischer Aerosolschichten in der Stratosphäre. Die zeitliche Entwicklung der stratosphärischen AOD verlief in beiden Jahren ähnlich mit Maximalwerten von über 0.1 etwa drei bis fünfWochen nach dem jeweiligen Ausbruch. In beiden Jahren wurden bis zum technisch bedingten Abbruch der Messungen jeweils Ende September erhöhte stratosphärische AOD Werte gemessen. Die niedrigste Aerosolschicht konnte jeweils direkt an der Tropopause detektiert werden. Im Jahr 2008 wurden bis zu drei Schichten detektiert, die Struktur 2009 war durch bis zu sechs schmale Schichten gekennzeichnet, die nach etwa zwei Monaten zu einer breiten Schicht verschmierten. Drei Fallstudien zu mikrophysikalischen Aerosoleigenschaften wurden durchgeführt. Dabei wurden für beide Jahre sehr große Brechungsindices von m=(1.53–1.55) - 0.02i ermittelt, die auf eine absorbierende Kohlenstoffkomponente der Vulkanaerosole hinweisen. Der errechnete Teilchenradius war ebenfalls in beiden Jahren vergleichbar mit Werten zwischen 0.16 und 0.19 μm. 2009 wurde zusätzlich ein zweites Maximum der Größenverteilung bei ca. 0.5μm gefunden. Die Langzeitmessungen mit dem Koldewey Aerosol Raman LIDAR KARL in Ny-Ålesund schaffen die Möglichkeit, arktische Aerosole in Troposphäre und Stratosphäre nicht nur in Fallstudien, sondern auch über längere Zeiträume hinweg zu analysieren. Im Rahmen dieser Promotionsarbeit konnten sowohl Aerosolvorkommen in der arktischen Troposphäre im Frühjahr als auch eine vulkanisch bedingte erhöhte Aerosolbelastung in der Stratosphäre qualitativ und quantitativ beschrieben werden. Fallstudien und die Kombination mit Daten anderer Messgeräte ermöglichten Analysen mikrophysikalischer Aerosolparameter und deren Entwicklungsprozesse. KW - Arktis KW - Lidar KW - Aerosole KW - Fernerkundung KW - Arctic KW - Lidar KW - Aerosols KW - Remote Sensing Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52426 ER - TY - THES A1 - Hoffmann, Mathias T1 - Improving measurement and modelling approaches of the closed chamber method to better assess dynamics and drivers of carbon based greenhouse gas emissions N2 - The trace gases CO2 and CH4 pertain to the most relevant greenhouse gases and are important exchange fluxes of the global carbon (C) cycle. Their atmospheric quantity increased significantly as a result of the intensification of anthropogenic activities, such as especially land-use and land-use change, since the mid of the 18th century. To mitigate global climate change and ensure food security, land-use systems need to be developed, which favor reduced trace gas emissions and a sustainable soil carbon management. This requires the accurate and precise quantification of the influence of land-use and land-use change on CO2 and CH4 emissions. A common method to determine the trace gas dynamics and C sink or source function of a particular ecosystem is the closed chamber method. This method is often used assuming that accuracy and precision are high enough to determine differences in C gas emissions for e.g., treatment comparisons or different ecosystem components. However, the broad range of different chamber designs, related operational procedures and data-processing strategies which are described in the scientific literature contribute to the overall uncertainty of closed chamber-based emission estimates. Hence, the outcomes of meta-analyses are limited, since these methodical differences hamper the comparability between studies. Thus, a standardization of closed chamber data acquisition and processing is much-needed. Within this thesis, a set of case studies were performed to: (I) develop standardized routines for an unbiased data acquisition and processing, with the aim of providing traceable, reproducible and comparable closed chamber based C emission estimates; (II) validate those routines by comparing C emissions derived using closed chambers with independent C emission estimates; and (III) reveal processes driving the spatio-temporal dynamics of C emissions by developing (data processing based) flux separation approaches. The case studies showed: (I) the importance to test chamber designs under field conditions for an appropriate sealing integrity and to ensure an unbiased flux measurement. Compared to the sealing integrity, the use of a pressure vent and fan was of minor importance, affecting mainly measurement precision; (II) that the developed standardized data processing routines proved to be a powerful and flexible tool to estimate C gas emissions and that this tool can be successfully applied on a broad range of flux data sets from very different ecosystem; (III) that automatic chamber measurements display temporal dynamics of CO2 and CH4 fluxes very well and most importantly, that they accurately detect small-scale spatial differences in the development of soil C when validated against repeated soil inventories; and (IV) that a simple algorithm to separate CH4 fluxes into ebullition and diffusion improves the identification of environmental drivers, which allows for an accurate gap-filling of measured CH4 fluxes. Overall, the proposed standardized data acquisition and processing routines strongly improved the detection accuracy and precision of source/sink patterns of gaseous C emissions. Hence, future studies, which consider the recommended improvements, will deliver valuable new data and insights to broaden our understanding of spatio-temporal C gas dynamics, their particular environmental drivers and underlying processes. N2 - Die Spurengase CO2 und CH4 gehören zu den wichtigsten atmosphärischen Treibhausgasen und sind zugleich wichtige Austauschflüsse im globalen Kohlenstoff-(C)-Kreislauf. Als Ergebnis zunehmender anthropogener Aktivitäten insbesondere auch im Bereich der Landnutzung und des Landnutzungswandel stiegen seit Mitte des 18 Jahrhunderts die atmosphärischen CO2 und CH4 Konzentrationen deutlich an. Um die zu erwartenden Auswirkungen des globalen Klimawandels abzuschwächen aber auch um die weltweite Ernährungssicherheit zu gewährleisten, bedarf es der Entwicklung neuer Landnutzungssysteme welche sich durch verminderte Treibhausgasemissionen und ein nachhaltiges Management der Bodenkohlenstoffvorrate auszeichnen. Dies erfordert die akkurate und präzise Quantifizierung des Einflusses von Landnutzung und Landnutzungswandel auf die CO2 und CH4 Emissionen. Eine gängige Methode zur Bestimmung von Spurengasemissionen und darauf aufbauend der C Senken bzw. Quellenfunktion verschiedenster Ökosysteme stellen Haubenmessungen dar. Unterschiedliche Haubendesigns, Messprozeduren und Strategien bei der Datenaufbereitung führen jedoch mitunter zu erheblichen Unsicherheiten bei den gemessenen C Emissionen. Dies kann die Aussagekraft von Metastudien maßgeblich beeinträchtigen, da die Vergleichbarkeit mittels geschlossener Hauben durchgeführter Untersuchungen nicht gewährleistet werden kann. Daher ist eine Standardisierung der Erfassung und Auswertung von Haubenmessungen dringend erforderlich. Im Rahmen dieser Arbeit wurden deshalb eine Reihe von Fallstudien durchgeführt um: (I) standardisierte Routinen zu entwickeln welche eine fehlerfreiere Datenerfassung und Bearbeitung von Haubenmessungen erlauben und so nachvollziehbare, reproduzierbare und vergleichbare C Emissionen liefern; (II) erarbeitete Routinen zu validieren indem auf geschlossenen Haubenmessungen basierende C Emissionen mit unabhängigen Daten verglichen werden; und (III) mittels entwickelter Separationsverfahren Teilflüsse präzise zu quantifizieren um Beziehungen zwischen CO2 und CH4 Flüssen und ihren Treibern besser analysieren zu können. Die durchgeführten Fallstudien zeigen: (I) die Notwendigkeit eingesetzte Hauben unter möglichst realistischen (Feld)-Bedingungen hinsichtlich ihrer Dichtigkeit (insbesondere an der Abdichtung zwischen Rahmen und Haube) zu überprüfen, da nur so fehlerfreie Messungen sichergestellt werden können; (II) das die entwickelten Routinen zur standardisierten Datenbearbeitung ein geeignetes flexibles Werkzeug darstellen um eine verlässliche Abschatzung gasförmige C Emissionen vorzunehmen; (III) das die zeitliche Dynamik von CO2 und CH4 Flüssen sowie kleinräumige Unterschiede in der Entwicklung von Bodenkohlenstoffvorraten gut mittels automatischer Haubenmesssysteme erfasst werden können (Validierung der Ergebnisse mittels wiederholter Bodeninventarisierung); und (IV) das ein einfacher Algorithmus zur Separation von CH4 in seine Flusskompartimente (blasenförmiger Massenfluss vs. Diffusion) die Identifizierung von Treibern verbessert und so ein akkurateres Füllen von Messlücken ermöglicht. Die in der Arbeit vorgestellten Routinen zur standardisierten Datenerfassung und Bearbeitung finden gegenwärtig national wie international Anwendung und helfen somit bei der Generierung vergleichbarer, akkurater und präziser Abschätzungen von standort-/ökosystemspezifischen C Emissionen. N2 - Следовые газы CO2 и CH4 относятся к наиболее значимым парниковым газам и являются важнейшими компонентами глобального углеродного (С) цикла. С середины XVIII столетия их атмосферная концентрация значительно увеличилась, в результате возросшей антропогенной деятельности, в особенности за счет такой сферы как землепользование и изменение землепользования. С целью смягчения последствий глобального изменения климата и обеспечения продовольственной безопасности, необходима разработка систем землепользования, которые будет способствовать сокращению эмиссии следовых газов и обеспечат устойчивое управление углеродными запасами почв. В свою очередь, это требует проведения аккуратной и точной количественной оценки воздействия землепользования и изменения землепользования на эмиссии CO2 и CH4. Стандартным способом для оценки динамики следовых газов и определения функции накопления или потери углерода экосистемой является метод закрытых камер. Данный метод часто используется с учетом предположения, что аккуратность и точность полученных результатов достаточно высоки, чтобы оценить разность между потоками углеродсодержащих газов. Например, при сравнении способов воздействия на экосистему либо для оценки углеродных потоков от ее компонентов. В научной литературе описано множество различных вариантов конструкций закрытых камер, связанных с ними операционных процедур и стратегий обработки данных. Это широкое разнообразие вносит свой вклад в общую неопределенность при оценке эмиссии парниковых газов методом закрытых камер. В результате, полученные на основе мета-анализа выводы обладают определенными ограничениями, т.к. методологические различия между разными исследованиями затрудняют сравнение их результатов. В связи с этим, необходимо проведение стандартизации сбора и обработки данных для методики закрытых камер. В рамках данных тезисов, был выполнен ряд тематических исследований с целью:(1) разработать для методики закрытых камер стандартизированные процедуры несмещенного сбора и обработки данных, которые позволят получить явно отслеживаемые, воспроизводимые и сопоставимые оценки углеродных потоков; (2) провести валидацию этих процедур, путем сравнения оценок потоков углерода, полученных методом закрытых камер с результатами оценки других независимых методов; (3) разработать, на основе анализа данных, способы для разделения углеродных потоков и установить процессы, регулирующие их пространственно-временную динамику. Результаты тематических исследований показали: (1) Важно проводить испытания конструкции камер на герметичность в полевых условиях и удостовериться, что измерения потоков углерода несмещенные. В сравнении с влиянием герметичности камеры, использование клапанов для выравнивания давления и вентиляторов имело несущественное значение и влияло только на точность измерений; (2) Было подтверждено, что разработанные стандартизированные методы обработки данных являются мощным и гибким инструментом оценки эмиссии углерода. На сегодняшний день эти методы успешно применяются на широком спектре разнообразных наборов данных углеродных потоков для различных типов экосистем; (3) Измерения, выполненные автоматическими закрытыми камерами, отчетливо демонстрируют временную динамику потоков CO2 и CH4 и, что наиболее важно, они хорошо выявляют мелкомасштабные пространственные различия в накоплении почвенного углерода, что было подтверждено с помощью повторяемой инвентаризации почвенных запасов углерода; (4) Простой алгоритм разделения эмиссии CH4 на потоки выбросов в виде диффузии газа и выделения в виде пузырей улучшает идентификацию экологических факторов, которые их регулируют, что позволяет более точно оценить эмиссии CH4 в периоды между измерениями. В целом предложенные стандартизированные методы сбора и обработки данных значительно увеличивают точность моделей выделения-поглощения газообразных углеродных эмиссий. Таким образом, будущие исследования, проведенные с учетом рекомендуемых усовершенствований, позволят получить новые ценные данные и гипотезы для расширения нашего понимания пространственно-временной динамики потоков углеродсодержащих газов, экологических факторов их регулирования и лежащих в их основе процессов. N2 - Le dioxyde de carbone (CO2) et le méthane (CH4) font partie des gaz à effet de serre les plus importants et sont également des éléments majeurs du cycle global du carbone. Depuis le milieu du XVIIIe siècle, leur quantité dans l’atmosphère a considérablement augmenté en raison de l'intensification des activités anthropiques, notamment l'exploitation des terres et la modification de l'utilisation de ces dernières. Afin d’atténuer les effets du changement climatique et d’assurer la sécurité alimentaire, il faut mettre au point des systèmes d’utilisation des terres qui favorisent la réduction des émissions de gaz à effet de serre ainsi qu’une gestion durable des stocks de carbone dans les sols. Cela exige une quantification exacte et précise de l'influence de l'utilisation des terres et de la modification de l'utilisation des sols sur les émissions de CO2 et de CH4. La méthode à chambre fermée est une méthode courante pour déterminer l’évolution des gaz présents à faible concentration atmosphérique et du puits de carbone, ou pour analyser la fonction primaire d'un écosystème singulier. Cette méthode est souvent utilisée en supposant que l’exactitude et la précision sont suffisamment élevées pour déterminer les différences dans les émissions de gaz à effet de serre, par exemple pour comparer les traitements ou les différentes composantes de l’écosystème. Toutefois, la vaste gamme de conceptions de chambres différentes, les procédures de mesure et les stratégies de traitement des données décrites dans la documentation scientifique contribuent à l’incertitude générale quant à l’analyse des émissions récoltées en chambre fermée. Par conséquent, les résultats des méta-analyses sont limités, car ces différences méthodologiques entravent la comparabilité des études. La standardisation de l’acquisition et du traitement des données en chambre fermée est donc indispensable. Dans le cadre de cette thèse, une série d'études de cas ont été réalisées pour: (I) élaborer des routines standardisées pour l'acquisition et le traitement de données impartiales, dans le but de fournir des estimations des émissions de carbone en chambre fermée traçables, reproductibles et comparables; (II) valider ces routines en comparant les émissions de carbone obtenues par la méthode des chambres fermées avec des estimations indépendantes des émissions de carbone; et (III) révéler les processus qui déterminent la dynamique spatio-temporelle des émissions de carbone en développant un processus de traitement de données basé sur l’approche de la séparation des flux. Les études de cas montrent: (I) l'importance de tester la conception des chambres dans des conditions de terrain pour une étanchéité appropriée et pour assurer une mesure impartiale des flux. Comparé à l'intégrité de l'étanchéité, l'utilisation d'une soupape de compensation de pression et d'un ventilateur était d'une importance mineure, affectant principalement la précision des mesures; (II) que les routines de traitement des données standardisées développées se sont avérées être un outil puissant et flexible pour estimer les émissions de carbone. L'outil est maintenant appliqué avec succès sur un large éventail de séries de données de flux provenant d'écosystèmes très différents; (III) que les mesures faites à l’aide de chambres automatiques montrent très bien la dynamique temporelle des flux CO2 et de CH4 et, surtout, qu'elles détectent avec précision les différences spatiales à petite échelle dans le développement des réserves de carbone dans le sol lorsqu'elles sont validées par des inventaires périodiques du sol; et (IV) qu’un algorithme simple pour séparer les flux de CH4 en ébullition et en diffusion améliore l'identification de facteurs environnementaux, ce qui permet de combler avec précision les données manquantes des flux de CH4 mesurés. Dans l'ensemble, les routines standardisées proposées pour l'acquisition et le traitement des données ont grandement amélioré l'exactitude de la détection des profils source/évier des émissions de carbone gazeux. Par conséquent, les études futures, qui tiennent compte des améliorations recommandées, fourniront de nouvelles données et de nouvelles perspectives précieuses pour élargir notre compréhension de la dynamique spatio-temporelle du gaz carbone, de ses moteurs environnementaux spécifiques et des processus sous-jacents. N2 - Los gases traza CO2 y CH4 pertenecen a los gases de efecto invernadero más importantes del ciclo global del carbono (C). Su concentración en la atmósfera se ha incrementado significativamente desde mediados del siglo XVIII como resultado de la intensificación de las actividades antropogénicas, como el uso del suelo y el cambio en los usos de la tierra. Para mitigar el cambio climático global y garantizar la seguridad alimentaria es necesario desarrollar sistemas de uso del suelo que favorezcan la reducción de emisiones de gases de efecto invernadero y una gestión sostenible del carbono en el suelo. Esto requiere un cálculo exacto y preciso de la influencia del uso del suelo y de los cambios en el uso del suelo en las emisiones de CO2 y CH4. Un método común para determinar las dinámicas del gas traza y la función de fuente o sumidero de C de un ecosistema es el método de las cámaras cerradas. Este método se utiliza comúnmente asumiendo que la exactitud y precisión son lo suficientemente elevadas para determinar las diferencias en la emisiones de gases C, por ejemplo, comparaciones de tratamientos o de los diferentes componentes del ecosistema. Sin embargo, la amplia gama de diseños de cámaras, los procedimientos operativos relacionados y las estrategias de procesamiento de datos descritas en la literatura científica contribuyen a la incertidumbre general de las estimaciones de emisiones basadas en cámaras cerradas. Además, los resultados de los metanálisis son limitados, ya que estas diferencias metodológicas dificultan la comparabilidad entre los estudios. Por lo tanto, la estandarización en la obtención y procesamiento de datos en el método de la cámara cerrada es muy necesaria. En esta tesis se desarrollan un conjunto de casos de estudio para: (I) Desarrollar rutinas estandarizadas para una obtención y procesamiento de datos imparcial, con el objetivo de proporcionar estimaciones de emisiones de C basadas en cámaras cerradas trazables, reproducibles y comparables; (II) Validar esas rutinas comparando las emisiones de C derivadas del método de las cámaras cerradas con estimaciones independientes de emisiones de C; y (III) revelar procesos que impulsan la dinámica espacio temporal de las emisiones de C, a través del desarrollo de un proceso de tratamiento de datos basado en el enfoque de la separación de flujos. Los casos de estudio muestran: (I) La importancia de someter a prueba el diseño de las cámaras a las condiciones de campo para una apropiada integridad del sellado y para garantizar una medición de flujo imparcial. Comparado con la integridad del sellado, el uso de la ventilación a presión y del ventilador resultó de menor importancia, afectando principalmente a la precisión de las mediciones. (II) que las rutinas estandarizadas desarrolladas para el procesamiento de datos demostraron ser una herramienta poderosa y flexible para estimar las emisiones de gases de C. La herramienta ahora se aplica con éxito en una amplia gama de conjuntos de datos de flujo de ecosistemas muy diferentes; (III) que las mediciones con cámaras automáticas muestran claramente la dinámica temporal de las emisiones de CO2 y lo más importante, que detectan con precisión diferencias espaciales a pequeña escala en el desarrollo del C en el suelo cuando se validan con inventarios periódicos del suelo ; y (IV) que un simple algoritmo para separar flujos de CH4 entre ebullición y difusión mejora la identificación de los impulsores ambientales, lo cual permite un procedimiento más exacto para el relleno del vacío de datos de las mediciones de los flujos de CH4. En términos generales puede decirse que los algoritmos de obtención y procesamiento de datos estandarizados propuestos mejoraron en gran medida la precisión de detección de los patrones fuente / sumidero de emisiones de C gaseoso. Por lo tanto, los futuros estudios, que consideren las mejoras recomendadas, ofrecerán nuevos datos y conocimientos útiles para ampliar nuestra comprensión de la dinámica espacio-temporal del C de los gases, sus impulsores ambientales específicos y los procesos subyacentes. T2 - Verbesserung von Mess- und Modellierungsansätzen der geschlossenen Haubenmessmethode zur besseren Erfassung von raumzeitlichen Veränderungen und potentiellen Treibern kohlenstoffbasierter Treibhausgasemissionen KW - greenhouse gases KW - closed chamber method KW - carbon dioxide KW - methane KW - Kohlenstoffdioxid KW - geschlossene Haubenmessmethode KW - Treibhausgase KW - Methan Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421302 ER - TY - THES A1 - Hoffmann, Toni T1 - Cloning and characterisation of the HMA3 gene and its promoter from Arabidopsis halleri (L.) O'Kane and Al'Shehbaz and Arabidopsis thaliana (L.) Heynhold T1 - Klonierung und Charakterisierung des HMA3 Genes und seines Promotors aus Arabidopsis halleri (L.) O'Kane und Al'Shehbaz und Arabidopsis thaliana (L.) Heynhold N2 - Being living systems unable to adjust their location to changing environmental conditions, plants display homeostatic networks that have evolved to maintain transition metal levels in a very narrow concentration range in order to avoid either deficiency or toxicity. Hence, plants possess a broad repertoire of mechanisms for the cellular uptake, compartmentation and efflux, as well as for the chelation of transition metal ions. A small number of plants are hypertolerant to one or a few specific transition metals. Some metal tolerant plants are also able to hyperaccumulate metal ions. The Brassicaceae family member Arabidopis halleri ssp. halleri (L.) O´KANE and AL´SHEHBAZ is a hyperaccumulator of zinc (Zn), and it is closely related to the non-hypertolerant and non-hyperaccumulating model plant Arabidopsis thaliana (L.) HEYNHOLD. The close relationship renders A. halleri a promising emerging model plant for the comparative investigation of the molecular mechanisms behind hypertolerance and hyperaccumulation. Among several potential candidate genes that are probably involved in mediating the zinc-hypertolerant and zinc-hyperaccumulating trait is AhHMA3. The AhHMA3 gene is highly similar to AtHMA3 (AGI number: At4g30120) in A. thaliana, and its encoded protein belongs to the P-type IB ATPase family of integral membrane transporter proteins that transport transition metals. In contrast to the low AtHMA3 transcript levels in A. thaliana, the gene was found to be constitutively highly expressed across different Zn treatments in A. halleri, especially in shoots. In this study, the cloning and characterisation of the HMA3 gene and its promoter from Arabidopsis halleri (L.) O´KANE and AL´SHEHBAZ and Arabidopsis thaliana (L.) HEYNHOLD is described. Heterologously expressed AhHMA3 mediated enhanced tolerance to Zn and to a much lesser degree to cadmium (Cd) but not to cobalt (Co) in metal-sensitive mutant strains of budding yeast. It is demonstrated that the genome of A. halleri contains at least four copies of AhHMA3, AhHMA3-1 to AhHMA3-4. A copy-specific real-time RT-PCR indicated that an AhHMA3-1 related gene copy is the source of the constitutively high transcript level in A. halleri and not a gene copy similar to AhHMA3-2 or AhHMA3-4. In accordance with the enhanced AtHMA3mRNA transcript level in A. thaliana roots, an AtHMA3 promoter-GUS gene construct mediated GUS activity predominantly in the vascular tissues of roots and not in shoots. However, the observed AhHMA3-1 and AhHMA3-2 promoter-mediated GUS activity in A. thaliana or A. halleri plants did not reflect the constitutively high expression of AhHMA3 in shoots of A. halleri. It is suggested that other factors e. g. characteristic sequence inserts within the first intron of AhHMA3-1 might enable a constitutively high expression. Moreover, the unknown promoter of the AhHMA3-3 gene copy could be the source of the constitutively high AhHMA3 transcript levels in A. halleri. In that case, the AhHMA3-3 sequence is predicted to be highly homologous to AhHMA3-1. The lack of solid localisation data for the AhHMA3 protein prevents a clear functional assignment. The provided data suggest several possible functions of the AhHMA3 protein: Like AtHMA2 and AtHMA4 it might be localised to the plasma membrane and could contribute to the efficient translocation of Zn from root to shoot and/or to the cell-to-cell distribution of Zn in the shoot. If localised to the vacuolar membrane, then a role in maintaining a low cytoplasmic zinc concentration by vacuolar zinc sequestration is possible. In addition, AhHMA3 might be involved in the delivery of zinc ions to trichomes and mesophyll leaf cells that are major zinc storage sites in A. halleri. N2 - Pflanzen sind lebende Systeme, die nicht in der Lage sind ihren Standort sich ändernden Umweltbedingungen anzupassen. Infolgedessen weisen Pflanzen homöostatischeNetzwerke auf, welche die Mengen an intrazellulären Übergangsmetallen in einem sehr engen Konzentrationsbereich kontrollieren um somit Vergiftungs- oder Mangelerscheinungen zu vermeiden. Eine kleine Anzahl von Pflanzen ist hypertolerant gegenüber einem oder mehreren Übergangsmetallen. Einige wenige dieser metalltoleranten Pflanzen sind fähig Übergangsmetalle in beträchtlichen Mengen zu speichern, sprich zu hyperakkumulieren, ohne Vergiftungserscheinungen zu zeigen. Die Haller’sche Schaumkresse (Arabidopis halleri ssp. halleri (L.) O´KANE und AL´SHEHBAZ) aus der Familie der Kreuzblütler (Brassicaceae) ist ein solcher Hyperakkumulator für Zink (Zn). Sie ist nah verwandt mit der Modellpflanze Ackerschmalwand (Arabidopsis thaliana (L.) HEYNHOLD), die jedoch nicht-hypertolerant und nicht-hyperakkumulierend für Übergangsmetalle ist. Diese nahe Verwandtschaft erlaubt vergleichende Studien der molekularen Mechanismen, die Hypertoleranz und Hyperakkumulation zu Grunde liegen. Zu der Gruppe von Kandidatengenen, die möglicherweise von Bedeutung für die Zink-hypertoleranten und -hyperakkumulierenden Eigenschaften von A. halleri sind, gehört AhHMA3, ein Gen mit großer Ähnlichkeit zu AtHMA3 (AGI Nummer: At4g30120) aus A. thaliana. Es kodiert ein Protein aus der Familie transmembraner Übergangsmetall-Transportproteine, den P-typ IB ATPasen. Im Gegensatz zu den niedrigen AtHMA3 Transkriptmengen in A. thaliana wird das AhHMA3 Gen in A. halleri in Gegenwart verschiedener Zn Konzentrationen konstitutiv hoch exprimiert, insbesondere im Spross der Pflanze. Diese Arbeit beschreibt die Klonierung und Charakterisierung des HMA3 Gens und seines Promoters aus A. halleri und A. thaliana. Es wurde gezeigt, dass heterolog exprimiertes AhHMA3 Protein in metallsensitiven Hefestämmen eine erhöhte Toleranz gegenüber Zink und zu einem geringen Grad gegenüber Kadmium (Cd) jedoch nicht gegenüber Kobalt (Co) vermittelt.Weiterhin wurden im Genom von A. halleri mindestens vier AhHMA3 Genkopien, AhHMA3-1 bis AhHMA3-4, nachgewiesen. Eine Genkopie-spezifische Echtzeit-RT-PCR (real-time RT-PCR) deutete darauf hin, dass eine zu AhHMA3-1 und nicht zu AhHMA3-2 oder AhHMA3-4 ähnliche Genkopie die Quelle der konstitutiv hohen Transkriptmengen in A. halleri ist. In Übereinstimmung mit erhöhten mRNS Transkriptmengen inWurzeln von A. thaliana, vermittelte ein AtHMA3 Promoter-GUS (ß-Glucuronidase) Genkonstrukt GUS-Aktivität hauptsächlich in den Leitgeweben der Wurzeln jedoch nicht des Sprosses. Die vermittelte GUS-Aktivität durch Promoterfragmente von AhHMA3-1 und AhHMA3-2 in A. thaliana oder A. halleri Pflanzen spiegelte jedoch nicht die konstitutiv hohe AhHMA3 Expression im Spross von A. halleri wieder. Es wird vermutet, dass andere Faktoren die konstitutiv hohe Expression ermöglichen wie zum Beispiel die gefundenen kopiespezifischen Sequenzinsertionen innerhalb des ersten AhHMA3-1 Introns. Weiterhin ist es denkbar, dass der unbekannte Promoter der AhHMA3-3 Genkopie die Quelle der konstitutiv hohen AhHMA3 Transkriptmengen ist. In diesem Fall wird eine sehr hohe Ähnlichkeit zwischen den Sequenzen von AhHMA3-3 und der AhHMA3-1 vorhergesagt. Es konnten keine deutlichen Ergebnisse zur intrazellulären Lokalisierung gemacht werden, die eine exakte Einordnung der Funktion des AhHMA3 Proteins erlauben würden. Die bisher ermittelten Ergebnisse schlagen jedoch mehrere mögliche Funktionen für AhHMA3 vor: Ähnlich den AhHMA3 homologen Proteinen, AtHMA2 und AtHMA4, könnte AhHMA3 in der Plasmamembran der Zelle sitzen und dort zur effizienten Translokation von Zink aus der Wurzel in den Spross und/oder zur Zell-zu-Zell Verteilung von Zn im Spross beitragen. Falls AhHMA3 in der Membran der Vakuole sitzt, könnte es eine Rolle bei der Aufrechterhaltung niedriger zytoplasmatischer Zinkkonzentrationen durch vakuoläre Zinksequestrierung spielen. Zusätzlich ist es denkbar, dass AhHMA3 an der Abgabe von Zinkionen an Trichome und Blattmesophyllzellen beteiligt ist, die die Haupteinlagerungsorte für Zink in A. halleri darstellen. KW - P-Typ ATPase KW - Übergangsmetalle KW - Hyperakkumulation KW - Zink KW - HMA KW - p-type ATPase KW - transition metals KW - hyperaccumulation KW - zinc KW - HMA Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-15259 ER - TY - THES A1 - Holsten, Anne T1 - Climate change vulnerability assessments in the regional context T1 - Studien zur Vulnerabilität gegenüber Klimawandel im regionalen Kontext N2 - Adapting sectors to new conditions under climate change requires an understanding of regional vulnerabilities. Conceptually, vulnerability is defined as a function of sensitivity and exposure, which determine climate impacts, and adaptive capacity of a system. Vulnerability assessments for quantifying these components have become a key tool within the climate change field. However, there is a disagreement on how to make the concept operational in studies from a scientific perspective. This conflict leads to many still unsolved challenges, especially regarding the quantification and aggregation of the components and their suitable level of complexity. This thesis therefore aims at advancing the scientific foundation of such studies by translating the concept of vulnerability into a systematic assessment structure. This includes all components and implies that for each considered impact (e.g. flash floods) a clear sensitive entity is defined (e.g. settlements) and related to a direction of change for a specific climatic stimulus (e.g. increasing impact due to increasing days with heavy precipitation). Regarding the challenging aggregation procedure, two alternative methods allowing a cross-sectoral overview are introduced and their advantages and disadvantages discussed. This assessment structure is subsequently exemplified for municipalities of the German state North Rhine-Westphalia via an indicator-based deductive approach using information from literature. It can be transferred also to other regions. As for many relevant sectors, suitable indicators to express the vulnerability components are lacking, new quantification methods are developed and applied in this thesis, for example for the forestry and health sector. A lack of empirical data on relevant thresholds is evident, for example which climatic changes would cause significant impacts. Consequently, the multi-sectoral study could only provide relative measures for each municipality, in relation to the region. To fill this gap, an exemplary sectoral study was carried out on windthrow impacts in forests to provide an absolute quantification of the present and future impact. This is achieved by formulating an empirical relation between the forest characteristics and damage based on data from a past storm event. The resulting measure indicating the sensitivity is then combined with wind conditions. Multi-sectoral vulnerability assessments require considerable resources, which often hinders the implementation. Thus, in a next step, the potential for reducing the complexity is explored. To predict forest fire occurrence, numerous meteorological indices are available, spanning over a range of complexity. Comparing their performance, the single variable relative humidity outperforms complex indicators for most German states in explaining the monthly fire pattern. This is the case albeit it is itself an input factor in most indices. Thus, this meteorological factor alone is well suited to evaluate forest fire danger in many Germany regions and allows a resource-efficient assessment. Similarly, the complexity of methods is assessed regarding the application of the ecohydrological model SWIM to the German region of Brandenburg. The inter-annual soil moisture levels simulated by this model can only poorly be represented by simpler statistical approach using the same input data. However, on a decadal time horizon, the statistical approach shows a good performance and a strong dominance of the soil characteristic field capacity. This points to a possibility to reduce the input factors for predicting long-term averages, but the results are restricted by a lack of empirical data on soil water for validation. The presented assessments of vulnerability and its components have shown that they are still a challenging scientific undertaking. Following the applied terminology, many problems arise when implementing it for regional studies. Advances in addressing shortcomings of previous studies have been made by constructing a new systematic structure for characterizing and aggregating vulnerability components. For this, multiple approaches were presented, but they have specific advantages and disadvantages, which should also be carefully considered in future studies. There is a potential to simplify some methods, but more systematic assessments on this are needed. Overall, this thesis strengthened the use of vulnerability assessments as a tool to support adaptation by enhancing their scientific basis. N2 - Die Anpassung von Sektoren an veränderte klimatische Bedingungen erfordert ein Verständnis von regionalen Vulnerabilitäten. Vulnerabilität ist als Funktion von Sensitivität und Exposition, welche potentielle Auswirkungen des Klimawandels darstellen, und der Anpassungsfähigkeit von Systemen definiert. Vulnerabilitätsstudien, die diese Komponenten quantifizieren, sind zu einem wichtigen Werkzeug in der Klimawissenschaft geworden. Allerdings besteht von der wissenschaftlichen Perspektive aus gesehen Uneinigkeit darüber, wie diese Definition in Studien umgesetzt werden soll. Ausdiesem Konflikt ergeben sich viele Herausforderungen, vor allem bezüglich der Quantifizierung und Aggregierung der einzelnen Komponenten und deren angemessenen Komplexitätsniveaus. Die vorliegende Dissertation hat daher zum Ziel die Anwendbarkeit des Vulnerabilitätskonzepts voranzubringen, indem es in eine systematische Struktur übersetzt wird. Dies beinhaltet alle Komponenten und schlägt für jede Klimaauswirkung (z.B. Sturzfluten) eine Beschreibung des vulnerablen Systems vor (z.B. Siedlungen), welches direkt mit einer bestimmten Richtung eines relevanten klimatischen Stimulus in Verbindung gebracht wird (z.B. stärkere Auswirkungen bei Zunahme der Starkregentage). Bezüglich der herausfordernden Prozedur der Aggregierung werden zwei alternative Methoden, die einen sektorübergreifenden Überblick ermöglichen, vorgestellt und deren Vor- und Nachteile diskutiert. Anschließend wird die entwickelte Struktur einer Vulnerabilitätsstudie mittels eines indikatorbasierten und deduktiven Ansatzes beispielhaft für Gemeinden in Nordrhein-Westfalen in Deutschland angewandt. Eine Übertragbarkeit auf andere Regionen ist dennoch möglich. Die Quantifizierung für die Gemeinden stützt sich dabei auf Informationen aus der Literatur. Da für viele Sektoren keine geeigneten Indikatoren vorhanden waren, werden in dieser Arbeit neue Indikatoren entwickelt und angewandt, beispielsweise für den Forst- oder Gesundheitssektor. Allerdings stellen fehlende empirische Daten bezüglich relevanter Schwellenwerte eine Lücke dar, beispielsweise welche Stärke von Klimaänderungen eine signifikante Auswirkung hervorruft. Dies führt dazu, dass die Studie nur relative Aussagen zum Grad der Vulnerabilität jeder Gemeinde im Vergleich zum Rest des Bundeslandes machen kann. Um diese Lücke zu füllen, wird für den Forstsektor beispielhaft die heutige und zukünftige Sturmwurfgefahr von Wäldern berechnet. Zu diesem Zweck werden die Eigenschaften der Wälder mit empirischen Schadensdaten eines vergangenen Sturmereignisses in Verbindung gebracht. Der sich daraus ergebende Sensitivitätswert wird anschließend mit den Windverhältnissen verknüpft. Sektorübergreifende Vulnerabilitätsstudien erfordern beträchtliche Ressourcen, was oft deren Anwendbarkeit erschwert. In einem nächsten Schritt wird daher das Potential einer Vereinfachung der Komplexität anhand zweier sektoraler Beispiele untersucht. Um das Auftreten von Waldbränden vorherzusagen, stehen zahlreiche meteorologische Indices zur Verfügung, welche eine Spannbreite unterschiedlicher Komplexitäten aufweisen. Bezüglich der Anzahl monatlicher Waldbrände weist die relative Luftfeuchtigkeit für die meisten deutschen Bundesländer eine bessere Vorhersagekraft als komplexere Indices auf. Dies ist er Fall, obgleich sie selbst als Eingangsvariable für die komplexeren Indices verwendet wird. Mit Hilfe dieses einzelnen meteorologischen Faktors kann also die Waldbrandgefahr in deutschen Region ausreichend genau ausgedrückt werden, was die Ressourceneffizienz von Studien erhöht. Die Methodenkomplexität wird auf ähnliche Weise hinsichtlich der Anwendung des ökohydrologischen Modells SWIM für die Region Brandenburg untersucht. Die interannuellen Bodenwasserwerte, welche durch dieses Modell simuliert werden, können nur unzureichend durch ein einfacheres statistisches Modell, welches auf denselben Eingangsdaten aufbaut, abgebildet werden. Innerhalb eines Zeithorizonts von Jahrzehnten, kann der statistische Ansatz jedoch das Bodenwasser zufriedenstellend abbilden und zeigt eine Dominanz der Bodeneigenschaft Feldkapazität. Dies deutet darauf hin, dass die Komplexität im Hinblick auf die Anzahl der Eingangsvariablen für langfristige Berechnungen reduziert werden kann. Allerdings sind die Aussagen durch fehlende beobachtete Bodenwasserwerte zur Validierung beschränkt. Die vorliegenden Studien zur Vulnerabilität und ihren Komponenten haben gezeigt, dass eine Anwendung noch immer wissenschaftlich herausfordernd ist. Folgt man der hier verwendeten Vulnerabilitätsdefinition, treten zahlreiche Probleme bei der Implementierung in regionalen Studien auf. Mit dieser Dissertation wurden Fortschritte bezüglich der aufgezeigten Lücken bisheriger Studien erzielt, indem eine systematische Struktur für die Beschreibung und Aggregierung von Vulnerabilitätskomponenten erarbeitet wurde. Hierfür wurden mehrere Ansätze diskutiert, die jedoch Vor- und Nachteile besitzen. Diese sollten vor der Anwendung von zukünftigen Studien daher ebenfalls sorgfältig abgewogen werden. Darüber hinaus hat sich gezeigt, dass ein Potential besteht einige Ansätze zu vereinfachen, jedoch sind hierfür weitere Untersuchungen nötig. Insgesamt konnte die Dissertation die Anwendung von Vulnerabilitätsstudien als Werkzeug zur Unterstützung von Anpassungsmaßnahmen stärken. KW - Klimawandel KW - Impakt KW - Vulnerabilität KW - Forstwirtschaft KW - Boden KW - climate change KW - impact KW - vulnerability KW - forestry KW - soil Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66836 ER - TY - THES A1 - Höchner, Andreas T1 - GPS based analysis of earthquake induced phenomena at the Sunda Arc T1 - GPS-basierte Analyse erdbebeninduzierter Phänomene am Sundabogen N2 - Indonesia is one of the countries most prone to natural hazards. Complex interaction of several tectonic plates with high relative velocities leads to approximately two earthquakes with magnitude Mw>7 every year, being more than 15% of the events worldwide. Earthquakes with magnitude above 9 happen far more infrequently, but with catastrophic effects. The most severe consequences thereby arise from tsunamis triggered by these subduction-related earthquakes, as the Sumatra-Andaman event in 2004 showed. In order to enable efficient tsunami early warning, which includes the estimation of wave heights and arrival times, it is necessary to combine different types of real-time sensor data with numerical models of earthquake sources and tsunami propagation. This thesis was created as a result of the GITEWS project (German Indonesian Tsunami Early Warning System). It is based on five research papers and manuscripts. Main project-related task was the development of a database containing realistic earthquake scenarios for the Sunda Arc. This database provides initial conditions for tsunami propagation modeling used by the simulation system at the early warning center. An accurate discretization of the subduction geometry, consisting of 25x150 subfaults was constructed based on seismic data. Green’s functions, representing the deformational response to unit dip- and strike slip at the subfaults, were computed using a layered half-space approach. Different scaling relations for earthquake dimensions and slip distribution were implemented. Another project-related task was the further development of the ‘GPS-shield’ concept. It consists of a constellation of near field GPS-receivers, which are shown to be very valuable for tsunami early warning. The major part of this thesis is related to the geophysical interpretation of GPS data. Coseismic surface displacements caused by the 2004 Sumatra earthquake are inverted for slip at the fault. The effect of different Earth layer models is tested, favoring continental structure. The possibility of splay faulting is considered and shown to be a secondary order effect in respect to tsunamigenity for this event. Tsunami models based on source inversions are compared to satellite radar altimetry observations. Postseismic GPS time series are used to test a wide parameter range of uni- and biviscous rheological models of the asthenosphere. Steady-state Maxwell rheology is shown to be incompatible with near-field GPS data, unless large afterslip, amounting to more than 10% of the coseismic moment is assumed. In contrast, transient Burgers rheology is in agreement with data without the need for large aseismic afterslip. Comparison to postseismic geoid observation by the GRACE satellites reveals that even with afterslip, the model implementing Maxwell rheology results in amplitudes being too small, and thus supports a biviscous asthenosphere. A simple approach based on the assumption of quasi-static deformation propagation is introduced and proposed for inversion of coseismic near-field GPS time series. Application of this approach to observations from the 2004 Sumatra event fails to quantitatively reconstruct the rupture propagation, since a priori conditions are not fulfilled in this case. However, synthetic tests reveal the feasibility of such an approach for fast estimation of rupturing properties. N2 - Indonesien ist eines der am stärksten von Naturkatastrophen bedrohten Länder der Erde. Die komplexe Interaktion mehrer tektonischer Platten, die sich mit hohen Relativgeschwindigkeiten zueinander bewegen, führt im Mittel zu ungefähr zwei Erdbeben mit Magnitude Mw>7 pro Jahr, was mehr als 15% der Ereignisse weltweit entspricht. Beben mit Magnitude über 9 sind weitaus seltener, haben aber katastrophale Folgen. Die schwerwiegendsten Konsequenzen hierbei werden durch Tsunamis verursacht, welche durch diese Subduktionsbeben ausgelöst werden, wie das Sumatra-Andamanen Ereignis von 2004 gezeigt hat. Um eine wirksame Tsunami-Frühwarnung zu ermöglichen, welche die Abschätzung der Wellenhöhen und Ankunftszeiten beinhaltet, ist es erforderlich, verschieden Arten von Echtzeit-Sensordaten mit numerischen Modellen für die Erdbebenquelle und Tsunamiausbreitung zu kombinieren. Diese Doktorarbeit wurde im Rahmen des GITEWS-Projektes (German Indonesian Tsunami Early Warning System) erstellt und umfasst fünf Fachpublikationen und Manuskripte. Projektbezogene Hauptaufgabe war die Erstellung einer Datenbank mit realistischen Bebenszenarien für den Sundabogen. Die Datenbank beinhaltet Anfangsbedingungen für die Tsunami-Ausbreitungsmodellierung und ist Teil des Simulationssystems im Frühwarnzentrum. Eine sorgfältige Diskretisierung der Subduktionsgeometrie, bestehend aus 25x150 subfaults, wurde basierend auf seismischen Daten erstellt. Greensfunktionen, welche die Deformation, hervorgerufen durch Verschiebung an den subfaults ausmachen, wurden mittels eines semianalytischen Verfahrens für den geschichteten Halbraum berechnet. Verschiedene Skalierungsrelationen für Erdbebendimension und slip-Verteilung wurden implementiert. Eine weitere projektbezogene Aufgabe war die Weiterentwicklung des ‚GPS-Schild’-Konzeptes. Dieses besteht aus einer Konstellation von GPS-Empfängern im Nahfeldbereich, welche sich als sehr wertvoll für die Tsunami-Frühwarnung erweisen. Der größere Teil dieser Doktorarbeit beschäftigt sich mit der geophysikalischen Interpretation von GPS-Daten. Coseismische Verschiebungen an der Erdoberfläche, ausgelöst durch das Erdbeben von 2004, werden nach slip an der Verwerfung invertiert. Die Wirkung verschiedener Erdschichtungsmodelle wird getestet und resultiert in der Bevorzugung einer kontinentalen Struktur. Die Möglichkeit von splay-faulting wird untersucht und erweist sich als zweitrangiger Effekt bezüglich der Tsunamiwirkung für dieses Ereignis. Die auf der Quelleninversion basierenden Tsunamimodelle werden mit satellitengestützen Radaraltimetriedaten verglichen. Postseismische GPS-Daten werden verwendet, um einen weiten Parameterbereich uni- und bi-viskoser Modelle der Asthenosphäre zu testen. Dabei stellt sich stationäre Maxwell-Rheologie als inkompatibel mit Nahfeld-GPS-Zeitreihen heraus, es sei denn, eine große Quantität an afterslip, entsprechend etwa 10% des coseismischen Momentes, wird angenommen. Im Gegensatz dazu ist die transiente Burgers-Rheologie ohne große Mengen an afterslip kompatibel zu den Beobachtungen. Der Vergleich mit postseismischen Geoidbeobachtungen durch die GRACE-Satelliten zeigt, dass das Modell basierend auf Maxwell-Rheologie, auch mit afterslip, zu kleine Amplituden liefert, und bekräftigt die Annahme einer biviskosen Rheologie der Asthenosphäre. Ein einfacher Ansatz, der auf einer quasi-statischen Deformationsausbreitung beruht, wird eingeführt und zur Inversion coseismischer Nahfeld-GPS-Zeitreihen vorgeschlagen. Die Anwendung dieses Ansatzes auf Beobachtungen vom Sumatra-Beben von 2004 ermöglicht nicht die quantitative Rekonstruktion der Ausbreitung des Bruches, da die notwendigen Bedingungen in diesem Fall nicht erfüllt sind. Jedoch zeigen Experimente an synthetischen Daten die Gültigkeit eines solchen Ansatzes zur raschen Abschätzung der Bruchausbreitungseigenschaften. KW - GPS KW - Erdbeben KW - Tsunami KW - Rheologie KW - GITEWS KW - GPS KW - Earthquake KW - Tsunami KW - Rheology KW - GITEWS Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53166 ER - TY - THES A1 - Ilić Petković, Nikoleta T1 - Stars under influence: evidence of tidal interactions between stars and substellar companions T1 - Sterne unter Einfluss: Beweise für Gezeitenwechselwirkungen zwischen Sternen und substellaren Begleitern N2 - Tidal interactions occur between gravitationally bound astrophysical bodies. If their spatial separation is sufficiently small, the bodies can induce tides on each other, leading to angular momentum transfer and altering of evolutionary path the bodies would have followed if they were single objects. The tidal processes are well established in the Solar planet-moon systems and close stellar binary systems. However, how do stars behave if they are orbited by a substellar companion (e.g. a planet or a brown dwarf) on a tight orbit? Typically, a substellar companion inside the corotation radius of a star will migrate toward the star as it loses orbital angular momentum. On the other hand, the star will gain angular momentum which has the potential to increase its rotation rate. The effect should be more pronounced if the substellar companion is more massive. As the stellar rotation rate and the magnetic activity level are coupled, the star should appear more magnetically active under the tidal influence of the orbiting substellar companion. However, the difficulty in proving that a star has a higher magnetic activity level due to tidal interactions lies in the fact that (I) substellar companions around active stars are easier to detect if they are more massive, leading to a bias toward massive companions around active stars and mimicking the tidal interaction effect, and that (II) the age of a main-sequence star cannot be easily determined, leaving the possibility that a star is more active due to its young age. In our work, we overcome these issues by employing wide stellar binary systems where one star hosts a substellar companion, and where the other star provides the magnetic activity baseline for the host star, assuming they have coevolved, and thereby provides the host's activity level if tidal interactions have no effect on it. Firstly, we find that extrasolar planets can noticeably increase the host star's X-ray luminosity and that the effect is more pronounced if the exoplanet is at least Jupiter-like in mass and close to the star. Further, we find that a brown dwarf will have an even stronger effect, as expected, and that the X-ray surface flux difference between the host star and the wide stellar companion is a significant outlier when compared to a large sample of similar wide binary systems without any known substellar companions. This result proves that substellar hosting wide binary systems can be good tools to reveal the tidal effect on host stars, and also show that the typical stellar age indicators as activity or rotation cannot be used for these stars. Finally, knowing that the activity difference is a good tracer of the substellar companion's tidal impact, we develop an analytical method to calculate the modified tidal quality factor Q' of individual host stars, which defines the tidal dissipation efficiency in the convective envelope of a given main-sequence star. N2 - Gezeitenwechselwirkungen treten zwischen gravitativ gebundenen astrophysikalischen Körpern auf. Wenn ihr räumlicher Abstand hinreichend gering ist, können die Körper gegenseitig Gezeiten hervorrufen, die eine Drehimpulsübertragung bewirken und den Entwicklungsweg der Körper verändern, den sie als Einzelobjekte einschlagen würden. Die Gezeitenprozesse sind in den Planet-Mond-Systemen des Sonnensystems und in engen Doppelsternsystemen gut bekannt. Wie verhalten sich jedoch Sterne, die von einem substellaren Begleiter (z. B. einem Planeten oder einem Braunen Zwerg) auf einer engen Bahn umkreist werden? In der Regel wandert ein substellarer Begleiter innerhalb des Korotationsradius eines Sterns in Richtung des Sterns, da er an Bahndrehimpuls verliert. Auf der anderen Seite gewinnt der Stern an Drehimpuls, was seine Rotationsrate erhöhen kann. Dieser Effekt dürfte umso ausgeprägter sein, je massereicher der substellare Begleiter ist. Da die Rotationsrate des Sterns und das Niveau der magnetischen Aktivität gekoppelt sind, sollte der Stern unter dem Gezeiteneinfluss des ihn umkreisenden substellaren Begleiters magnetisch aktiver erscheinen. Die Schwierigkeit beim Nachweis, dass ein Stern aufgrund von Gezeitenwechselwirkungen eine höhere magnetische Aktivität aufweist, liegt jedoch darin, dass (I) substellare Begleiter um aktive Sterne leichter aufzuspüren sind, wenn sie massereicher sind, wodurch eine Tendenz zu massereichen Begleitern um aktive Sterne entsteht und der Effekt der Gezeitenwechselwirkung nachgeahmt wird, und dass (II) das Alter eines Hauptreihensterns nicht leicht bestimmt werden kann, so dass die Möglichkeit besteht, dass ein Stern aufgrund seines jungen Alters aktiver ist. In unserer Arbeit überwinden wir diese Hindernisse, indem wir weiträumige Doppelsternsysteme verwenden, in denen ein Stern einen substellaren Begleiter beherbergt und in denen der andere Stern den Referenzwert für die magnetische Aktivität des Wirtssterns liefert im Fall das Gezeitenwechselwirkungen keinen Einfluss auf ihn haben, wobei wir davon ausgehen, dass die Sterne sich gemeinsam entwickelt haben. Erstens stellen wir fest, dass extrasolare Planeten die Röntgenleuchtkraft des Wirtssterns merklich erhöhen können und dass der Effekt ausgeprägter ist, wenn der Exoplanet mindestens eine jupiterähnliche Masse hat und sich nahe am Stern befindet. Darüber hinaus stellen wir fest, dass ein Brauner Zwerg erwartungsgemäß einen noch stärkeren Einfluss hat und dass der Unterschied im Röntgenflächenfluss zwischen dem Wirtsstern und dem weiträumigen stellaren Begleiter ein signifikanter Ausreißer im Vergleich zu einer großen Stichprobe ähnlicher weiträumiger Doppelsternsysteme ohne bekannte substellare Begleiter ist. Dieses Ergebnis beweist, dass weiträumige Doppelsternsysteme mit substellaren Begleitern ein gutes Werkzeug sein können, um den Gezeiteneffekt auf Wirtssterne aufzudecken, und zeigt auch, dass die typischen stellaren Altersindikatoren wie Aktivität oder Rotation für diese Sterne nicht verwendet werden können. Mit dem Wissen, dass der Aktivitätsunterschied ein guter Indikator für den Gezeiteneinfluss des substellaren Begleiters ist, entwickeln wir schließlich eine analytische Methode zur Berechnung des modifizierten Gezeitenqualitätsfaktors Q' für einzelne Wirtssterne, der die Effizienz der Gezeitendissipation in der konvektiven Hülle eines gegebenen Hauptreihensterns definiert. KW - stellar evolution KW - tidal interactions KW - star-planet systems KW - star-brown dwarf systems KW - Stern-Brauner Zwerg Systeme KW - Stern-Planet Systeme KW - Sternentwicklung KW - Gezeitenwechselwirkungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-615972 ER - TY - THES A1 - Imran ul-haq, Muhammad T1 - Synthesis of fluorinated polymers in supercritical carbon dioxide (scCO₂) T1 - Synthese von Fluorpolymeren in überkritischem Kohlendioxid (scCO₂) N2 - For the first time stabilizer-free vinylidene fluoride (VDF) polymerizations were carried out in homogeneous phase with supercritical CO₂. Polymerizations were carried out at 140°C, 1500 bar and were initiated with di-tert-butyl peroxide (DTBP). In-line FT-NIR (Fourier Transform- Near Infrared) spectroscopy showed that complete monomer conversion may be obtained. Molecular weights were determined via size-exclusion chromatography (SEC) and polymer end group analysis by 1H-NMR spectroscopy. The number average molecular weights were below 104 g∙mol−1 and polydispersities ranged from 3.1 to 5.7 depending on DTBP and VDF concentration. To allow for isothermal reactions high CO₂ contents ranging from 61 to 83 wt.% were used. The high-temperature, high-pressure conditions were required for homogeneous phase polymerization. These conditions did not alter the amount of defects in VDF chaining. Scanning electron microscopy (SEM) indicated that regular stack-type particles were obtained upon expansion of the homogeneous polymerization mixture. To reduce the required amount of initiator, further VDF polymerizations using chain transfer agents (CTAs) to control molecular weights were carried out in homogeneous phase with supercritical carbon dioxide (scCO₂) at 120 °C and 1500 bar. Using perfluorinated hexyl iodide as CTA, polymers of low polydispersity ranging from 1.5 to 1.2 at the highest iodide concentration of 0.25 mol·L-1 were obtained. Electrospray ionization- mass spectroscopy (ESI-MS) indicates the absence of initiator derived end groups, supporting livingness of the system. The “livingness” is based on the labile C-I bond. However, due to the weakness of the C-I bond perfluorinated hexyl iodide also contributes to initiation. To allow for kinetic analyses of VDF polymerizations the CTA should not contribute to initiation. Therefore, additional CTAs were applied: BrCCl3, C6F13Br and C6F13H. It was found that C6F13H does not contribute to initiation. At 120°C and 1500 bar kp/kt0.5~ 0.64 (L·mol−1·s−1)0.5 was derived. The chain transfer constant (CT) at 120°C has been determined to be 8·10−1, 9·10−2 and 2·10−4 for C6F13I, C6F13Br and C6F13H, respectively. These CT values are associated with the bond energy of the C-X bond. Moreover, the labile C-I bond allows for functionalization of the polymer to triazole end groups applying click reactions. After substitution of the iodide end group by an azide group 1,3 dipolar cycloadditions with alkynes yield polymers with 1,2,3 triazole end groups. Using symmetrical alkynes the reactions may be carried out in the absence of any catalyst. This end-functionalized poly (vinylidene fluoride) (PVDF) has higher thermal stability as compared to the normal PVDF. PVDF samples from homogeneous phase polymerizations in supercritical CO₂ and subsequent expansion to ambient conditions were analyzed with respect to polymer end groups, crystallinity, type of polymorphs and morphology. Upon expansion the polymer was obtained as white powder. Scanning electron microscopy (SEM) showed that DTBP derived polymer end groups led to stack-type particles whereas sponge- or rose-type particles were obtained in case of CTA fragments as end groups. Fourier-Transform Infrared spectroscopy and wide angle X-ray diffraction indicated that the type of polymorph, α or β crystal phase was significantly affected by the type of end group. The content of β-phase material, which is responsible for piezoelectricity of PVDF, is the highest for polymer with DTBP-derived end groups. In addition, the crystallinity of the material, as determined via differential scanning calorimetry is affected by the end groups and polymer molecular weights. For example, crystallinity ranges from around 26 % for DTBP-derived end groups to a maximum of 62 % for end groups originating from perfluorinated hexyl iodide for polymers with Mn ~2200 g·mol–1. Expansion of the homogeneous polymerization mixture results in particle formation by a non-optimized RESS (Rapid Expansion from Supercritical Solution) process. Thus, it was tested how polymer end groups affect the particles size distribution obtained from RESS process under controlled conditions (T = 50°C and P = 200 bar). In all RESS experiments, small primary PVDF with diameters less than 100 nm without the use of liquid solvents, surfactants, or other additives were produced. A strong correlation between particle size and particle size distribution with polymer end groups and molecular weight of the original material was observed. The smallest particles were found for RESS of PVDF with Mn~ 4000 g·mol–1 and PFHI (C6F13I) - derived end groups. N2 - Erstmalig gelang es, stabilisatorfreie Vinylidenfluorid (VDF)-Polymerisationen in homogener Phase mit überkritischem CO₂ (scCO₂) bis zu vollständigem Monomerumsatz durchzuführen. Die Homogenität während der Polymerisation wurde durch in-line Fourier-Transform Nahinfrarot Spektroskopie beobachtet. Für Polymerisationen bei 140 °C und 1500 bar wurde Di-tert-butylperoxid (DTBP) als Initiator verwendet. Es wurden Polymere mit einem Zahlenmittel der Molmasse kleiner 104 g·mol–1 und Polydispersitäten zwischen 3.1 und 5.7. erhalten. Um isotherme Reaktionen zu ermöglichen, wurden CO₂-Gehalte zwischen 61 und 83 wt.% verwendet. Die für die homogene Reaktionsführung erforderlichen hohen Drücke und Temperaturen haben keinen Einfluss auf die Mikrostruktur des Polymers. Zur Verringerung der Initiatorkonzentration wurden weitere Polymerisationen unter Verwendung von Kettentransferreagenzien (CTA) bei 120 °C und 1500 bar in homogener Phase mit scCO₂ durchgeführt. Perfluoriertes Hexyliodid als CTA ermöglicht kontrollierte radikalische Polymerisationen, wobei Polymere mit geringer Polydispersität zwischen 1.5 und 1.2 erhalten wurden. Endgruppenanalyse mit Elektronenspray-Ionisations-Massen¬spektro¬metrie (ESI-MS) zeigte, dass keine Initiatorendgruppen im Polymer enthalten sind. Diese Beobachtung unterstützt den lebenden Charakter der Polymerisationen und basiert auf einer labilen C-I-Bindung im Polymer. Aufgrund der schwachen C-I-Bindung trägt das perfluorierte Hexyliodid (C6F13I) auch zur Initiierung bei. Polymerisationen in Gegenwart von BrCCl3, C6F13Br und C6F13H zeigten, dass nur C6F13H keinen Beitrag zur Initiierung leistet. Bei 120 °C und 1500 bar wurde ein kp/kt0.5 von ~ 0.64 (L·mol−1·s−1)0.5 bestimmt, wobei kp der Wachstums- und kt der Terminierungsgeschwindigkeitskoeffizient sind. Die Kettentransfer¬konstanten (CT) bei 120°C betragen 8·10−1, 9·10−2 und 2·10−4 für C6F13I, C6F13Br und C6F13H. Die Änderung der CT-Werte lässt sich mit der zunehmenden Bindungsenergie in der Reihe C-I, C-Br und C-H erklären. Die labile C-I-Bindung ermöglicht eine Funktionalisierung des Polymers durch Click-Reaktionen. Nach Substitution der Iodid-Endgruppe durch eine Azidgruppe erfolgte eine katalysatorfreie 1,3-dipolare Cyclaoaddition mit Alkinen zu Polymeren mit 1,2,3-Triazol-Endgruppen. Dieses endfunktionalisierte PVDF besitzt im Vergleich zu konventionellem PVDF eine höhere thermische Stabilität. Nach der Expansion der Polymerisationsmischung mit scCO₂ auf Umgebungsbedingungen lag das Polymer als weißes Pulver vor, das im Hinblick auf z.B. Polymerendgruppen, Kristallinität, Gestalt und Größe der Partikel untersucht wurde. Rasterelektronenmikroskopie zeigte, dass Polymere mit DTBP-Endgruppen zu stapelförmigen Partikeln führen, während bei CTA-Fragmenten als Endgruppen schwamm- oder rosenartige Partikel erhalten wurden. Ergebnisse der FT-IR Spektroskopie und Weitwinkelröntgenbeugung zeigten, dass der höchste Gehalt an β-phasigem Material, der für die Piezoelektrizität des PVDF verantwortlich ist, für PVDF mit Initiatorendgruppen erhalten wurde. DSC (Differential Scanning Calorimetry) Messungen ergaben zudem, dass der Kristallinitätsgrad durch Endgruppen und Polymermasse beeinflusst wird. Die Expansion der homogenen Polymermischung kann als nicht-optimierter RESS-Prozess (Rapid Expanison from Supercritical Solution,) angesehen werden. Aus RESS Experimenten unter kontrollierten Bedingungen wurden jeweils nanoskalige primäre PVDF-Partikel ohne Verwendung von Lösungsmitteln, Tensiden oder anderen Additiven erhalten. Es besteht ein enger Zusammenhang zwischen einerseits der Partikelgröße und der Partikelgrößenverteilung und andererseits der Polymerkonzentration in scCO₂ vor der Expansion, bestimmt durch Polymerendgruppen und Molmassen der eingesetzten Materialien. KW - Synthese KW - Fluorpolymere KW - überkritisches Kohlendioxid (scCO₂) KW - Synthesis KW - fluorinated polymers KW - supercritical carbon dioxide (scCO₂) Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-19868 ER -