TY - THES A1 - Gostkowska-Lekner, Natalia Katarzyna T1 - Organic-inorganic hybrids based on P3HT and mesoporous silicon for thermoelectric applications T1 - Organisch-anorganische Hybride basierend auf P3HT und porösem Silizium für thermoelektrische Anwendungen N2 - This thesis presents a comprehensive study on synthesis, structure and thermoelectric transport properties of organic-inorganic hybrids based on P3HT and porous silicon. The effect of embedding polymer in silicon pores on the electrical and thermal transport is studied. Morphological studies confirm successful polymer infiltration and diffusion doping with roughly 50% of the pore space occupied by conjugated polymer. Synchrotron diffraction experiments reveal no specific ordering of the polymer inside the pores. P3HT-pSi hybrids show improved electrical transport by five orders of magnitude compared to porous silicon and power factor values comparable or exceeding other P3HT-inorganic hybrids. The analysis suggests different transport mechanisms in both materials. In pSi, the transport mechanism relates to a Meyer-Neldel compansation rule. The analysis of hybrids' data using the power law in Kang-Snyder model suggests that a doped polymer mainly provides charge carriers to the pSi matrix, similar to the behavior of a doped semiconductor. Heavily suppressed thermal transport in porous silicon is treated with a modified Landauer/Lundstrom model and effective medium theories, which reveal that pSi agrees well with the Kirkpatrick model with a 68% percolation threshold. Thermal conductivities of hybrids show an increase compared to the empty pSi but the overall thermoelectric figure of merit ZT of P3HT-pSi hybrid exceeds both pSi and P3HT as well as bulk Si. N2 - Diese Arbeit präsentiert eine umfassende Studie über Synthese, Struktur und thermoelektrische Transporteigenschaften von organisch-anorganischen Hybriden basierend auf P3HT und porösem Silizium. Es wird die Auswirkung der Einbettung von Polymerin Siliziumporen auf den elektrischen und thermischen Transport untersucht. Morphologische Studien bestätigen eine erfolgreiche Polymerinfiltration und Diffusionsdotierung, wobei etwa 50% des Porenraums mit konjugiertem Polymer gefüllt sind. Synchrotronexperimente zeigen keine spezifische Ordnung des Polymers innerhalb der Poren. P3HT-pSi-Hybride zeigen einen um fünf Größenordnungen verbesserten elektrischen Transport im Vergleich zu porösem Silizium und sogenannte Powerfaktoren, die mit anderen P3HT-anorganischen Hybriden vergleichbar sind oder diese übertreffen. Die Analyse lässt auf unterschiedliche Transportmechanismen in beiden Materialien schließen. In pSi bezieht sich der Transportmechanismus auf eine Meyer-Neldel-{Kompensa\-tionsregel}. Die Analyse der Hybriddaten unter Verwendung des Potenzgesetzes im Kang-Snyder-Modell legt nahe, dass ein dotiertes Polymer hauptsächlich Ladungsträger für die pSi-Matrix bereitstellt, ähnlich dem Verhalten eines {dotier\-ten} Halbleiters. Der stark unterdrückte Wärmetransport in porösem Silizium wird mit einem modifizierten Landauer/Lundstrom-Modell und Effektivmediumtheorien behandelt, die zeigen, dass pSi mit einem Perkolationsschwellenwert von 68% gut mit dem Kirkpatrick-Modell übereinstimmt. Die {Wärmeleitfähigkei\-ten} von Hybriden zeigen einen Anstieg im Vergleich zum leeren pSi, aber der gesamte thermoelektrische Gütefaktor ZT des P3HT-pSi-Hybrids übertrifft sowohl pSi und P3HT als auch den von Bulk-Si. KW - physics KW - energy KW - thermoelectricity KW - organic-inorganic hybrids KW - Energie KW - organisch-anorganische Hybride KW - Physik KW - Thermoelektrizität Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620475 ER - TY - THES A1 - Schäfer, Marjänn Helena T1 - Untersuchungen zur Evolution der 15-Lipoxygenase (ALOX15) bei Säugetieren und funktionelle Charakterisierung von Knock-in-Mäusen mit humanisierter Reaktionsspezifität der 15-Lipoxygenase-2 (Alox15b) T1 - Studies on the evolution of 15-lipoxygenase (ALOX15) in mammals and functional characterization of Knock-in mice with humanized reaction specificity of 15-lipoxygenase-2 (Alox15b) N2 - Arachidonsäurelipoxygenasen (ALOX-Isoformen) sind Lipid-peroxidierenden Enzyme, die bei der Zelldifferenzierung und bei der Pathogenese verschiedener Erkrankungen bedeutsam sind. Im menschlichen Genom gibt es sechs funktionelle ALOX-Gene, die als Einzelkopiegene vorliegen. Für jedes humane ALOX-Gen gibt es ein orthologes Mausgen. Obwohl sich die sechs humanen ALOX-Isoformen strukturell sehr ähnlich sind, unterscheiden sich ihre funktionellen Eigenschaften deutlich voneinander. In der vorliegenden Arbeit wurden vier unterschiedliche Fragestellungen zum Vorkommen, zur biologischen Rolle und zur Evolutionsabhängigkeit der enzymatischen Eigenschaften von Säugetier-ALOX-Isoformen untersucht: 1) Spitzhörnchen (Tupaiidae) sind evolutionär näher mit dem Menschen verwandt als Nagetiere und wurden deshalb als Alternativmodelle für die Untersuchung menschlicher Erkrankungen vorgeschlagen. In dieser Arbeit wurde erstmals der Arachidonsäurestoffwechsel von Spitzhörnchen untersucht. Dabei wurde festgestellt, dass im Genom von Tupaia belangeri vier unterschiedliche ALOX15-Gene vorkommen und die Enzyme sich hinsichtlich ihrer katalytischen Eigenschaften ähneln. Diese genomische Vielfalt, die weder beim Menschen noch bei Mäusen vorhanden ist, erschwert die funktionellen Untersuchungen zur biologischen Rolle des ALOX15-Weges. Damit scheint Tupaia belangeri kein geeigneteres Tiermodel für die Untersuchung des ALOX15-Weges des Menschen zu sein. 2) Entsprechend der Evolutionshypothese können Säugetier-ALOX15-Orthologe in Arachidonsäure-12-lipoxygenierende- und Arachidonsäure-15-lipoxygenierende Enzyme eingeteilt werden. Dabei exprimieren Säugetierspezies, die einen höheren Evolutionsgrad als Gibbons aufweisen, Arachidonsäure-15-lipoxygenierende ALOX15-Orthologe, während evolutionär weniger weit entwickelte Säugetiere Arachidonsäure-12 lipoxygenierende Enzyme besitzen. In dieser Arbeit wurden elf neue ALOX15-Orthologe als rekombinante Proteine exprimiert und funktionell charakterisiert. Die erhaltenen Ergebnisse fügen sich widerspruchsfrei in die Evolutionshypothese ein und verbreitern deren experimentelle Basis. Die experimentellen Daten bestätigen auch das Triadenkonzept. 3) Da humane und murine ALOX15B-Orthologe unterschiedliche funktionelle Eigenschaften aufweisen, können Ergebnisse aus murinen Krankheitsmodellen zur biologischen Rolle der ALOX15B nicht direkt auf den Menschen übertragen werden. Um die ALOX15B-Orthologen von Maus und Mensch funktionell einander anzugleichen, wurden im Rahmen der vorliegenden Arbeit Knock-in Mäuse durch die In vivo Mutagenese mittels CRISPR/Cas9-Technik hergestellt. Diese exprimieren eine humanisierte Mutante (Doppelmutation von Tyrosin603Asparaginsäure+Histidin604Valin) der murinen Alox15b. Diese Mäuse waren lebens- und fortpflanzungsfähig, zeigten aber geschlechtsspezifische Unterschiede zu ausgekreuzten Wildtyp-Kontrolltieren im Rahmen ihre Individualentwicklung. 4) In vorhergehenden Untersuchungen zur Rolle der ALOX15B in Rahmen der Entzündungsreaktion wurde eine antiinflammatorische Wirkung des Enzyms postuliert. In der vorliegenden Arbeit wurde untersucht, ob eine Humanisierung der murinen Alox15b die Entzündungsreaktion in zwei verschiedenen murinen Entzündungsmodellen beeinflusst. Eine Humanisierung der murinen Alox15b führte zu einer verstärkten Ausbildung von Entzündungssymptomen im induzierten Dextran-Natrium-Sulfat-Kolitismodell. Im Gegensatz dazu bewirkte die Humanisierung der Alox15b eine Abschwächung der Entzündungssymptome im Freund‘schen Adjuvans Pfotenödemmodell. Diese Daten deuten darauf hin, dass sich die Rolle der ALOX15B in verschiedenen Entzündungsmodellen unterscheidet. N2 - Arachidonic acid lipoxygenases (ALOX-isoforms) are lipid peroxidizing enzymes that have been implicated in cell differentiation and in the pathogenesis of different diseases. In the human genome six different ALOX genes have been identified and all of them occur as single copy genes. For each human ALOX gene an ortholog exists in the mouse genome. Although human and mouse ALOX orthologs share a high degree of structural similarity ALOX15 and ALOX15B orthologs exhibit distinct functional characteristics. In the present study addressed four different questions on the occurrence, the biological role and enzyme evolution of mammalian ALOX15 and ALOX15B orthologs. 1) Tupaiidae are more closely related to humans than rodents and therefore these mammals have frequently been suggested as better animal models than mice for investigations into patho-physiological basis of human diseases. This work explored for the first time the arachidonic acid metabolism of a Tupaiidae representative (Tupaia belangeri) and found that this mammal carries four distinct ALOX15 genes in its genome. The enzymes encoded by these four genes share a high degree of functional similarity but the observed genomic multiplicity, which is neither present in mice nor in humans, makes studies into the biological role of ALOX15 orthologs more complex. Thus, Tupaia belangeri is not more suitable than mice for investigations into the biological role of mammalian ALOX15 orthologs since loss-of-function studies on one ALOX15 ortholog may easily be compensated by upregulation of an orthologous gene. 2) According to the Evolutionary Hypothesis mammalian ALOX15 orthologs can be subdivided into arachidonic acid 12-lipoxygenating and arachidonic acid 15-lipoxygenating enzymes. Mammalian species, which are ranked above gibbons express arachidonic acid 15 lipoxygenating ALOX15 orthologs. In contrast mammals ranked below gibbons express arachidonic acid 12-lipoxygenating enzymes. In this study the ALOX15 orthologs of eleven different mammals expressed as recombinant proteins and characterized their functional properties. The results of these experiments were consistent with the Evolutionary Hypothesis and put this theory on a broader experimental basis. Moreover, the obtained in vitro mutagenesis data indicate that the novel enzymes follow Triad Concept. 3) Since human and mouse ALOX15B orthologs exhibit different functional properties, conclusion drawn in mouse models of human diseases may be misleading. To make human and mouse ALOX15B orthologs more like each other were generated Alox15b knock-in mice, which express the humanized Tyr603Asp+His604Val double mutant of mouse Alox15b instead of the endogenous wildtype enzyme employing the CRISPR/Cas9 in vivo mutagenesis strategy. These Alox15b-KI mice are viable, reproduce normally but exhibit gender-specific differences to outbred wildtype control animals when the bodyweight kinetics during adolescence and early adulthood were followed. 4) In previous studies an anti-inflammatory role of ALOX15B in the pathogenesis of inflammation has been suggested. Here we explored whether functional humanization of mouse Alox15b impacts the severity of inflammatory symptoms in two mouse inflammation models. In the dextran-sodium sulfate colitis model humanization of mouse Alox15b induced more severe inflammatory symptoms. In contrast, humanization of this enzyme protected mice in the Freund’s complete adjuvants induced paw edema model. Taken together, these data suggest that the patho-physiological roles of Alox15b may vary depending on the type of the animal inflammation model used. KW - Lipoxygenase KW - ALOX15B KW - Knock in Mäuse KW - enzymatische Reaktionsspezifität KW - Tupaia belangeri KW - DSS-Colitis KW - Pfotenödem Mausmodell KW - mammalian ALOX15 orthologs Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620340 ER - TY - THES A1 - Shaw, Vasundhara T1 - Cosmic-ray transport and signatures in their local environment N2 - The origin and structure of magnetic fields in the Galaxy are largely unknown. What is known is that they are essential for several astrophysical processes, in particular the propagation of cosmic rays. Our ability to describe the propagation of cosmic rays through the Galaxy is severely limited by the lack of observational data needed to probe the structure of the Galactic magnetic field on many different length scales. This is particularly true for modelling the propagation of cosmic rays into the Galactic halo, where our knowledge of the magnetic field is particularly poor. In the last decade, observations of the Galactic halo in different frequency regimes have revealed the existence of out-of-plane bubble emission in the Galactic halo. In gamma rays these bubbles have been termed Fermi bubbles with a radial extent of ≈ 3 kpc and an azimuthal height of ≈ 6 kpc. The radio counterparts of the Fermi bubbles were seen by both the S-PASS telescopes and the Planck satellite, and showed a clear spatial overlap. The X-ray counterparts of the Fermi bubbles were named eROSITA bubbles after the eROSITA satellite, with a radial width of ≈ 7 kpc and an azimuthal height of ≈ 14 kpc. Taken together, these observations suggest the presence of large extended Galactic Halo Bubbles (GHB) and have stimulated interest in exploring the less explored Galactic halo. In this thesis, a new toy model (GHB model) for the magnetic field and non-thermal electron distribution in the Galactic halo has been proposed. The new toy model has been used to produce polarised synchrotron emission sky maps. Chi-square analysis was used to compare the synthetic skymaps with the Planck 30 GHz polarised skymaps. The obtained constraints on the strength and azimuthal height were found to be in agreement with the S-PASS radio observations. The upper, lower and best-fit values obtained from the above chi-squared analysis were used to generate three separate toy models. These three models were used to propagate ultra-high energy cosmic rays. This study was carried out for two potential sources, Centaurus A and NGC 253, to produce magnification maps and arrival direction skymaps. The simulated arrival direction skymaps were found to be consistent with the hotspots of Centaurus A and NGC 253 as seen in the observed arrival direction skymaps provided by the Pierre Auger Observatory (PAO). The turbulent magnetic field component of the GHB model was also used to investigate the extragalactic dipole suppression seen by PAO. UHECRs with an extragalactic dipole were forward-tracked through the turbulent GHB model at different field strengths. The suppression in the dipole due to the varying diffusion coefficient from the simulations was noted. The results could also be compared with an analytical analogy of electrostatics. The simulations of the extragalactic dipole suppression were in agreement with similar studies carried out for galactic cosmic rays. N2 - Unsere Galaxie wird ständig von hochenergetischen geladenen Teilchen unterschiedlicher Energie bombardiert, die als kosmische Strahlung bezeichnet werden und deren Ursprung nicht bekannt ist. Satelliten- und erdgestützte Messungen haben bisher ergeben, dass es in unserer Galaxie Beschleuniger für kosmische Strahlung gibt, z. B. die Überreste explodierender Sterne (Supernova-Überreste), aber bei den höchsten kosmischen Strahlungsenergien bleiben die Quellen ein Rätsel. Fortschritte zu erzielen ist eine Herausforderung, auch weil die kosmische Strahlung durch Magnetfelder abgelenkt wird, was bedeutet, dass die beobachtete Richtung mit der Richtung der Quelle übereinstimmen kann oder auch nicht. Unsere Galaxie weist starke Magnetfelder auf, deren Beschaffenheit noch nicht gut verstanden ist, insbesondere in der Komponente außerhalb der Scheibe (dem galaktischen Halo). Darüber hinaus haben Beobachtungen in den letzten zehn Jahren blasenartige Strukturen im galaktischen Halo mit enormen Gesamtenergien aufgedeckt, die auch als galaktische Halo-Blasen bezeichnet werden. All dies motiviert uns, den galaktischen Halo zu untersuchen. In meiner Doktorarbeit schlagen wir ein neues, vereinfachtes Magnetfeldmodell für galaktische Halo-Blasen vor. Das Modell umfasst sowohl strukturierte als auch turbulente Komponenten des Magnetfelds. Das vereinfachte Modell wurde mit Beobachtungsdaten verglichen, um den am besten passenden Parametersatz zusammen mit den Unsicherheiten zu erhalten. Ich untersuchte die Propagation der ultrahochenergetischen kosmischen Strahlung durch das vereinfachte Modell und untersuchte dessen Auswirkungen auf die Ankunftsrichtungen der ultrahochenergetischen kosmischen Strahlung für zwei potenzielle Quellen, Centaurus~A und NGC~253. Außerdem habe ich sowohl numerisch als auch analytisch abgeschätzt, wie stark ein Dipol der extragalaktischen kosmischen Strahlung durch verschiedene Konfigurationen der turbulenten Magnetfelder des vereinfachten Modells unterdrückt wird. Die Ergebnisse all dieser Arbeiten werden in dieser Arbeit im Detail vorgestellt. KW - galactic magnetic fields KW - synchrotron radiation KW - non-thermal radiation KW - ultra-high energy cosmic rays KW - cosmic ray propagation KW - Ausbreitung der kosmischen Strahlung KW - galaktische Magnetfelder KW - nicht-thermische Strahlung KW - Synchrotronstrahlung KW - ultrahochenergetische kosmische Strahlung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620198 ER - TY - THES A1 - Kiss, Andrea T1 - Moss-associated bacterial and archaeal communities of northern peatlands: key taxa, environmental drivers and potential functions T1 - Moos-assoziierte bakterielle und archaelle Gemeinschaften nördlicher Moore: Schlüsselspezies, beeinflussende Umweltfaktoren und potentielle Funktionen N2 - Moss-microbe associations are often characterised by syntrophic interactions between the microorganisms and their hosts, but the structure of the microbial consortia and their role in peatland development remain unknown. In order to study microbial communities of dominant peatland mosses, Sphagnum and brown mosses, and the respective environmental drivers, four study sites representing different successional stages of natural northern peatlands were chosen on a large geographical scale: two brown moss-dominated, circumneutral peatlands from the Arctic and two Sphagnum-dominated, acidic peat bogs from subarctic and temperate zones. The family Acetobacteraceae represented the dominant bacterial taxon of Sphagnum mosses from various geographical origins and displayed an integral part of the moss core community. This core community was shared among all investigated bryophytes and consisted of few but highly abundant prokaryotes, of which many appear as endophytes of Sphagnum mosses. Moreover, brown mosses and Sphagnum mosses represent habitats for archaea which were not studied in association with peatland mosses so far. Euryarchaeota that are capable of methane production (methanogens) displayed the majority of the moss-associated archaeal communities. Moss-associated methanogenesis was detected for the first time, but it was mostly negligible under laboratory conditions. Contrarily, substantial moss-associated methane oxidation was measured on both, brown mosses and Sphagnum mosses, supporting that methanotrophic bacteria as part of the moss microbiome may contribute to the reduction of methane emissions from pristine and rewetted peatlands of the northern hemisphere. Among the investigated abiotic and biotic environmental parameters, the peatland type and the host moss taxon were identified to have a major impact on the structure of moss-associated bacterial communities, contrarily to archaeal communities whose structures were similar among the investigated bryophytes. For the first time it was shown that different bog development stages harbour distinct bacterial communities, while at the same time a small core community is shared among all investigated bryophytes independent of geography and peatland type. The present thesis displays the first large-scale, systematic assessment of bacterial and archaeal communities associated both with brown mosses and Sphagnum mosses. It suggests that some host-specific moss taxa have the potential to play a key role in host moss establishment and peatland development. N2 - Während die Beziehungen zwischen Moosen und den mit ihnen assoziierten Mikroorganismen oft durch syntrophische Wechselwirkungen charakterisiert sind, ist die Struktur der Moos-assoziierten mikrobiellen Gemeinschaften sowie deren Rolle bei der Entstehung von Mooren weitgehend unbekannt. Die vorliegende Arbeit befasst sich mit mikrobiellen Gemeinschaften, die mit Moosen nördlicher, naturnaher Moore assoziiert sind, sowie mit den Umweltfaktoren, die sie beeinflussen. Entlang eines groß angelegten geographischen Gradienten, der von der Hocharktis bis zur gemäßigten Klimazone reicht, wurden vier naturbelassene Moore als Probenstandorte ausgesucht, die stellvertretend für verschiedene Stadien der Moorentwicklung stehen: zwei Braunmoos-dominierte Niedermoore mit nahezu neutralem pH-Wert sowie zwei Sphagnum-dominierte Torfmoore mit saurem pH-Wert. Die Ergebnisse der vorliegenden Arbeit machen deutlich, dass die zu den Bakterien zählenden Acetobacteraceae das vorherrschende mikrobielle Taxon der Sphagnum-Moose gleich welchen geographischen Ursprungs darstellen und insbesondere innerhalb des Wirtsmoosgewebes dominieren. Gleichzeitig gehörten die Acetobacteraceae zum wesentlichen Bestandteil der mikrobiellen Kerngemeinschaft aller untersuchten Moose, die sich aus einigen wenigen Arten, dafür zahlreich vorkommenden Prokaryoten zusammensetzt. Die vorliegende Arbeit zeigt zudem erstmals, dass sowohl Braunmoose als auch Torfmoose ein Habitat für Archaeen darstellen. Die Mehrheit der Moos-assoziierten Archaeen gehörte dabei zu den methanbildenden Gruppen, wenngleich die metabolischen Aktivitätsraten unter Laborbedingungen meistens kaum messbar waren. Im Gegensatz hierzu konnte die Bakterien-vermittelte Methanoxidation sowohl an Braunmoosen als auch an Sphagnum-Moosen gemessen werden. Dies zeigt eindrucksvoll, dass Moos-assoziierte Bakterien potenziell zur Minderung von Methanemissionen aus nördlichen, aber auch wiedervernässten Mooren beitragen können. Ein weiteres wichtiges Resultat der vorliegenden Arbeit ist die Bedeutung des Moortyps (Niedermoor oder Torfmoor), aber auch der Wirtsmoosart selbst für die Struktur der Moos-assoziierten Bakteriengemeinschaften, während die archaeellen Gemeinschaftsstrukturen weder vom Moortyp noch von der Wirtsmoosart beeinflusst wurden und sich insgesamt deutlich ähnlicher waren als die der Bakterien. Darüber hinaus konnte erstmalig gezeigt werden, dass sich die bakteriellen Gemeinschaften innerhalb der unterschiedlichen Moorsukzessionsstadien zwar ganz erheblich voneinander unterscheiden, ein kleiner Teil der Bakterien dennoch Kerngemeinschaften bilden, die mit allen untersuchten Moosarten assoziiert waren. Bei der hier präsentierten Arbeit handelt es sich um die erste systematische Studie, die sich auf einer großen geographischen Skala mit den bakteriellen und archaeellen Gemeinschaften von Braunmoosen und Torfmoosen aus naturbelassenen nördlichen Mooren befasst. Die vorliegenden Ergebnisse machen deutlich, dass die untersuchten Moose ein ganz spezifisches mikrobielles Konsortium beherbergen, welches mutmaßlich eine Schlüsselrolle bei der Etablierung der Wirtspflanzen am Anfang der Moorentwicklung spielt und darüber hinaus das Potential hat, die charakteristischen Eigenschaften von Mooren sowie deren weitere Entwicklung zu prägen. KW - moss-microbe-interactions KW - moss-associated bacteria KW - moss-associated archaea KW - northern peatlands KW - peatland core microbiome KW - Acetobacteraceae KW - moss-associated methanotrophy KW - moss-associated methanogenesis KW - Sphagnum KW - Amblystegiaceae KW - endophytes KW - brown mosses KW - epiphytes KW - peatland development KW - bryophytes KW - host-specificity KW - large-scale study KW - methanotrophic bacteria KW - methanogenic archaea KW - Essigsäurebakterien KW - Amblystegiaceae KW - Torfmoose KW - Braunmoose KW - Bryophyten KW - Endophyten KW - Epiphyten KW - Wirtsspezifität KW - geographische Großstudie KW - methanproduzierende Archaeen KW - methanoxidierende Bakterien KW - Moos-assoziierte Methanproduktion KW - Moos-assoziierte Methanoxidation KW - Moos-Mikroben-Interaktion KW - nördliche Moore KW - mikrobielle Moor-Kerngemeinschaft KW - Moorsukzession Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-630641 ER - TY - THES A1 - Damseaux, Adrien T1 - Improving permafrost dynamics in land surface models: insights from dual sensitivity experiments T1 - Verbesserung der Permafrostdynamik in Landoberflächenmodellen: Erkenntnisse aus doppelten Sensitivitätsexperimenten N2 - The thawing of permafrost and the subsequent release of greenhouse gases constitute one of the most significant and uncertain positive feedback loops in the context of climate change, making predictions regarding changes in permafrost coverage of paramount importance. To address these critical questions, climate scientists have developed Land Surface Models (LSMs) that encompass a multitude of physical soil processes. This thesis is committed to advancing our understanding and refining precise representations of permafrost dynamics within LSMs, with a specific focus on the accurate modeling of heat fluxes, an essential component for simulating permafrost physics. The first research question overviews fundamental model prerequisites for the representation of permafrost soils within land surface modeling. It includes a first-of-its-kind comparison between LSMs in CMIP6 to reveal their differences and shortcomings in key permafrost physics parameters. Overall, each of these LSMs represents a unique approach to simulating soil processes and their interactions with the climate system. Choosing the most appropriate model for a particular application depends on factors such as the spatial and temporal scale of the simulation, the specific research question, and available computational resources. The second research question evaluates the performance of the state-of-the-art Community Land Model (CLM5) in simulating Arctic permafrost regions. Our approach overcomes traditional evaluation limitations by individually addressing depth, seasonality, and regional variations, providing a comprehensive assessment of permafrost and soil temperature dynamics. I compare CLM5's results with three extensive datasets: (1) soil temperatures from 295 borehole stations, (2) active layer thickness (ALT) data from the Circumpolar Active Layer Monitoring Network (CALM), and (3) soil temperatures, ALT, and permafrost extent from the ESA Climate Change Initiative (ESA-CCI). The results show that CLM5 aligns well with ESA-CCI and CALM for permafrost extent and ALT but reveals a significant global cold temperature bias, notably over Siberia. These results echo a persistent challenge identified in numerous studies: the existence of a systematic 'cold bias' in soil temperature over permafrost regions. To address this challenge, the following research questions propose dual sensitivity experiments. The third research question represents the first study to apply a Plant Functional Type (PFT)-based approach to derive soil texture and soil organic matter (SOM), departing from the conventional use of coarse-resolution global data in LSMs. This novel method results in a more uniform distribution of soil organic matter density (OMD) across the domain, characterized by reduced OMD values in most regions. However, changes in soil texture exhibit a more intricate spatial pattern. Comparing the results to observations reveals a significant reduction in the cold bias observed in the control run. This method shows noticeable improvements in permafrost extent, but at the cost of an overestimation in ALT. These findings emphasize the model's high sensitivity to variations in soil texture and SOM content, highlighting the crucial role of soil composition in governing heat transfer processes and shaping the seasonal variation of soil temperatures in permafrost regions. Expanding upon a site experiment conducted in Trail Valley Creek by \citet{dutch_impact_2022}, the fourth research question extends the application of the snow scheme proposed by \citet{sturm_thermal_1997} to cover the entire Arctic domain. By employing a snow scheme better suited to the snow density profile observed over permafrost regions, this thesis seeks to assess its influence on simulated soil temperatures. Comparing this method to observational datasets reveals a significant reduction in the cold bias that was present in the control run. In most regions, the Sturm run exhibits a substantial decrease in the cold bias. However, there is a distinctive overshoot with a warm bias observed in mountainous areas. The Sturm experiment effectively addressed the overestimation of permafrost extent in the control run, albeit resulting in a substantial reduction in permafrost extent over mountainous areas. ALT results remain relatively consistent compared to the control run. These outcomes align with our initial hypothesis, which anticipated that the reduced snow insulation in the Sturm run would lead to higher winter soil temperatures and a more accurate representation of permafrost physics. In summary, this thesis demonstrates significant advancements in understanding permafrost dynamics and its integration into LSMs. It has meticulously unraveled the intricacies involved in the interplay between heat transfer, soil properties, and snow dynamics in permafrost regions. These insights offer novel perspectives on model representation and performance. N2 - Das Auftauen von Permafrost und die anschließende Freisetzung von Treibhausgasen stellen eine der bedeutendsten und unsichersten positiven Rückkopplungsschleifen im Kontext des Klimawandels dar, was Vorhersagen über Veränderungen der Permafrostverbreitung von größter Bedeutung macht. Um diese kritischen Fragen zu adressieren, haben Klimawissenschaftler Landoberflächenmodelle (LSMs) entwickelt, die eine Vielzahl physikalischer Bodenprozesse umfassen. Diese Dissertation widmet sich der Vertiefung unseres Verständnisses und der Verfeinerung präziser Darstellungen der Permafrostdynamik innerhalb von LSMs, mit einem besonderen Fokus auf die genaue Modellierung von Wärmeflüssen, einem wesentlichen Bestandteil der Simulation von Permafrostphysik. Die erste Forschungsfrage gibt einen Überblick über grundlegende Modellanforderungen für die Darstellung von Permafrostböden innerhalb der Landoberflächenmodellierung. Sie beinhaltet einen erstmaligen Vergleich zwischen LSMs im Rahmen von CMIP6, um deren Unterschiede und Schwächen in den Schlüsselparametern der Permafrostphysik aufzuzeigen. Insgesamt repräsentiert jedes dieser LSMs einen einzigartigen Ansatz zur Simulation von Bodenprozessen und deren Wechselwirkungen mit dem Klimasystem. Die Wahl des am besten geeigneten Modells für eine bestimmte Anwendung hängt von Faktoren wie dem räumlichen und zeitlichen Maßstab der Simulation, der spezifischen Forschungsfrage und den verfügbaren Rechenressourcen ab. Die zweite Forschungsfrage bewertet die Leistungsfähigkeit des hochmodernen Community Land Model (CLM5) bei der Simulation arktischer Permafrostregionen. Unser Ansatz überwindet traditionelle Evaluationsbeschränkungen, indem er Tiefe, Saisonalität und regionale Variationen einzeln berücksichtigt und eine umfassende Bewertung der Permafrost- und Bodentemperaturdynamik liefert. Ich vergleiche die Ergebnisse von CLM5 mit drei umfangreichen Datensätzen: (1) Bodentemperaturen von 295 Bohrlochstationen, (2) Daten zur aktiven Schichtdicke (ALT) aus dem Circumpolar Active Layer Monitoring Network (CALM) und (3) Bodentemperaturen, ALT und Permafrostausdehnung aus der ESA Climate Change Initiative (ESA-CCI). Die Ergebnisse zeigen, dass CLM5 gut mit ESA-CCI und CALM für Permafrostausdehnung und ALT übereinstimmt, jedoch eine signifikante globale kalte Temperaturabweichung aufweist, insbesondere über Sibirien. Diese Ergebnisse spiegeln eine anhaltende Herausforderung wider, die in zahlreichen Studien identifiziert wurde: das Vorhandensein einer systematischen "kalten Abweichung" bei Bodentemperaturen in Permafrostregionen. Um diese Herausforderung anzugehen, schlagen die folgenden Forschungsfragen duale Sensitivitätsexperimente vor. Die dritte Forschungsfrage stellt die erste Studie dar, die einen pflanzenfunktionstypbasierten Ansatz (PFT) zur Ableitung von Bodentextur und organischer Bodensubstanz (SOM) anwendet und sich von der herkömmlichen Verwendung grob aufgelöster globaler Daten in LSMs abwendet. Diese neuartige Methode führt zu einer gleichmäßigeren Verteilung der Dichte organischer Bodensubstanz (OMD) im gesamten Bereich, gekennzeichnet durch geringere OMD-Werte in den meisten Regionen. Veränderungen in der Bodentextur zeigen jedoch ein komplexeres räumliches Muster. Der Vergleich der Ergebnisse mit Beobachtungen zeigt eine signifikante Reduzierung der kalten Abweichung, die im Kontrolllauf beobachtet wurde. Diese Methode zeigt bemerkenswerte Verbesserungen in der Permafrostausdehnung, jedoch auf Kosten einer Überschätzung der ALT. Diese Ergebnisse unterstreichen die hohe Empfindlichkeit des Modells gegenüber Variationen in der Bodentextur und dem SOM-Gehalt und heben die entscheidende Rolle der Bodenbeschaffenheit bei der Steuerung der Wärmeübertragungsprozesse und der saisonalen Variation der Bodentemperaturen in Permafrostregionen hervor. Aufbauend auf einem Standortexperiment im Trail Valley Creek von Dutch et al. (2022) erweitert die vierte Forschungsfrage die Anwendung des von Sturm et al. (1997) vorgeschlagenen Schneeschemas auf das gesamte arktische Gebiet. Durch die Anwendung eines Schneeschemas, das besser zu dem in Permafrostregionen beobachteten Schneedichteprofil passt, versucht diese Dissertation, dessen Einfluss auf die simulierten Bodentemperaturen zu bewerten. Der Vergleich dieser Methode mit Beobachtungsdatensätzen zeigt eine signifikante Reduzierung der kalten Abweichung, die im Kontrolllauf vorhanden war. In den meisten Regionen weist der Sturm-Lauf eine erhebliche Verringerung der kalten Abweichung auf. Es gibt jedoch eine deutliche Überschreitung mit einer warmen Abweichung in Bergregionen. Das Sturm-Experiment hat die Überschätzung der Permafrostausdehnung im Kontrolllauf wirksam angegangen, was jedoch zu einer erheblichen Reduzierung der Permafrostausdehnung in Bergregionen führte. Die ALT-Ergebnisse bleiben im Vergleich zum Kontrolllauf relativ konsistent. Diese Ergebnisse entsprechen unserer ursprünglichen Hypothese, die erwartete, dass die reduzierte Schneedecke im Sturm-Lauf zu höheren Winterbodentemperaturen und einer genaueren Darstellung der Permafrostphysik führen würde. Zusammenfassend zeigt diese Dissertation bedeutende Fortschritte im Verständnis der Permafrostdynamik und deren Integration in LSMs. Sie hat die Komplexität der Wechselwirkungen zwischen Wärmeübertragung, Bodeneigenschaften und Schneedynamik in Permafrostregionen sorgfältig entschlüsselt. Diese Erkenntnisse bieten neue Perspektiven auf die Modellierung und Leistung von Modellen. KW - snow thermal conductivity KW - soil organic matter KW - model validation KW - Modellvalidierung KW - Wärmeleitfähigkeit von Schnee KW - organische Bodensubstanz Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-639450 ER - TY - THES A1 - Schmitz, Seán T1 - Using low-cost sensors to gather high resolution measurements of air quality in urban environments and inform mobility policy N2 - Air pollution has been a persistent global problem in the past several hundred years. While some industrialized nations have shown improvements in their air quality through stricter regulation, others have experienced declines as they rapidly industrialize. The WHO’s 2021 update of their recommended air pollution limit values reflects the substantial impacts on human health of pollutants such as NO2 and O3, as recent epidemiological evidence suggests substantial long-term health impacts of air pollution even at low concentrations. Alongside developments in our understanding of air pollution's health impacts, the new technology of low-cost sensors (LCS) has been taken up by both academia and industry as a new method for measuring air pollution. Due primarily to their lower cost and smaller size, they can be used in a variety of different applications, including in the development of higher resolution measurement networks, in source identification, and in measurements of air pollution exposure. While significant efforts have been made to accurately calibrate LCS with reference instrumentation and various statistical models, accuracy and precision remain limited by variable sensor sensitivity. Furthermore, standard procedures for calibration still do not exist and most proprietary calibration algorithms are black-box, inaccessible to the public. This work seeks to expand the knowledge base on LCS in several different ways: 1) by developing an open-source calibration methodology; 2) by deploying LCS at high spatial resolution in urban environments to test their capability in measuring microscale changes in urban air pollution; 3) by connecting LCS deployments with the implementation of local mobility policies to provide policy advice on resultant changes in air quality. In a first step, it was found that LCS can be consistently calibrated with good performance against reference instrumentation using seven general steps: 1) assessing raw data distribution, 2) cleaning data, 3) flagging data, 4) model selection and tuning, 5) model validation, 6) exporting final predictions, and 7) calculating associated uncertainty. By emphasizing the need for consistent reporting of details at each step, most crucially on model selection, validation, and performance, this work pushed forward with the effort towards standardization of calibration methodologies. In addition, with the open-source publication of code and data for the seven-step methodology, advances were made towards reforming the largely black-box nature of LCS calibrations. With a transparent and reliable calibration methodology established, LCS were then deployed in various street canyons between 2017 and 2020. Using two types of LCS, metal oxide (MOS) and electrochemical (EC), their performance in capturing expected patterns of urban NO2 and O3 pollution was evaluated. Results showed that calibrated concentrations from MOS and EC sensors matched general diurnal patterns in NO2 and O3 pollution measured using reference instruments. While MOS proved to be unreliable for discerning differences among measured locations within the urban environment, the concentrations measured with calibrated EC sensors matched expectations from modelling studies on NO2 and O3 pollution distribution in street canyons. As such, it was concluded that LCS are appropriate for measuring urban air quality, including for assisting urban-scale air pollution model development, and can reveal new insights into air pollution in urban environments. To achieve the last goal of this work, two measurement campaigns were conducted in connection with the implementation of three mobility policies in Berlin. The first involved the construction of a pop-up bike lane on Kottbusser Damm in response to the COVID-19 pandemic, the second surrounded the temporary implementation of a community space on Böckhstrasse, and the last was focused on the closure of a portion of Friedrichstrasse to all motorized traffic. In all cases, measurements of NO2 were collected before and after the measure was implemented to assess changes in air quality resultant from these policies. Results from the Kottbusser Damm experiment showed that the bike-lane reduced NO2 concentrations that cyclists were exposed to by 22 ± 19%. On Friedrichstrasse, the street closure reduced NO2 concentrations to the level of the urban background without worsening the air quality on side streets. These valuable results were communicated swiftly to partners in the city administration responsible for evaluating the policies’ success and future, highlighting the ability of LCS to provide policy-relevant results. As a new technology, much is still to be learned about LCS and their value to academic research in the atmospheric sciences. Nevertheless, this work has advanced the state of the art in several ways. First, it contributed a novel open-source calibration methodology that can be used by a LCS end-users for various air pollutants. Second, it strengthened the evidence base on the reliability of LCS for measuring urban air quality, finding through novel deployments in street canyons that LCS can be used at high spatial resolution to understand microscale air pollution dynamics. Last, it is the first of its kind to connect LCS measurements directly with mobility policies to understand their influences on local air quality, resulting in policy-relevant findings valuable for decisionmakers. It serves as an example of the potential for LCS to expand our understanding of air pollution at various scales, as well as their ability to serve as valuable tools in transdisciplinary research. N2 - Luftverschmutzung ist seit hundert Jahren ein anhaltendes globales Problem. Während sich die Luftqualität in einigen Industrieländern durch strengere Vorschriften verbessert hat, hat sie sich in anderen Ländern im Zuge der schnell fortschreitenden Industrialisierung verschlechtert. Die Aktualisierung der von der WHO für das Jahr 2021 empfohlenen Grenzwerte für die Luftverschmutzung spiegelt die erheblichen Aus-wirkungen von Schadstoffen wie Stickstoffdioxid (NO2) und Ozon (O3) auf die menschliche Gesundheit wider, da neuere epidemiologische Erkenntnisse darauf hindeuten, dass Luft-verschmutzung selbst bei niedrigen Konzentrationen erhebliche langfristige gesundheitliche Auswirkungen hat. Parallel zu den Entwicklungen in unserem Verständnis der gesundheitlichen Auswirkungen von Luftverschmutzung wurde die neue Technologie der Low-Cost-Sensoren (LCS) sowohl von der Wissenschaft als auch von der Industrie als neue Methode zur Messung der Luftverschmutzung aufgegriffen. Vor allem aufgrund ihrer geringeren Kosten und kleineren Größe können sie in einer Vielzahl von Anwendungen eingesetzt werden, u. a. bei der Entwicklung von Messnetzen mit höherer räumlicher Auf-lösung, bei der Identifizierung von Quellen und bei der Messung der Luftverschmutzung. Es wurden zwar erhebliche Anstrengungen unternommen, um LCS mit Hilfe von Referenzinstrumenten und verschiedenen statistischen Modellen genau zu kalibrieren, aber die Genauigkeit und Präzision bleiben durch die variable Sensorempfindlichkeit begrenzt. Darüber hinaus gibt es immer noch keine Standardverfahren für die Kalibrierung, und die meisten proprietären Kalibrierungsalgorithmen sind Blackboxen, die für die Öffentlichkeit nicht zugänglich sind. Mit dieser Arbeit soll die Wissensbasis über LCS auf verschiedene Weise erweitert werden: 1) durch die Entwicklung einer Open-Source-Kalibrierungsmethodik; 2) durch den Einsatz von LCS mit hoher räumlicher Auflösung in städtischen Umgebungen, um ihre Fähigkeit zur Messung kleinräumlicher Veränderungen der städtischen Luftverschmutzung zu testen; 3) durch die Verknüpfung von LCS-Einsätzen mit der Umsetzung lokaler Verkehrsmaßnahmen, um politische Empfehlungen zu den daraus resultierenden Veränderungen der Luftqualität geben zu können. In einem ersten Schritt wurde festgestellt, dass LCS mit Hilfe von sieben allgemeinen Schritten konsistent und mit guter Leistung gegenüber Referenzinstrumenten kalibriert werden können: 1) Bewertung der Rohdatenverteilung, 2) Datenbereinigung, 3) Kenn-zeichnung von Daten, 4) Modellauswahl und -abstimmung, 5) Modellvalidierung, 6) Export der endgültigen Vorhersagen und 7) Berechnung der damit verbundenen Unsicherheit. Durch die Betonung der Notwendigkeit einer konsistenten Berichterstattung über Details bei jedem Schritt, insbesondere bei der Modellauswahl, -validierung und -leistung, hat diese Arbeit die Bemühungen um eine Standardisierung der Kalibrierungs-methoden vorangetrieben. Darüber hinaus wurden mit der Open-Source-Veröffentlichung von Code und Daten für die siebenstufige Methodik Fortschritte bei der Reformierung der weitgehenden Blackbox-Natur von LCS-Kalibrierungen erzielt. Nach der Einführung einer transparenten und zuverlässigen Kalibrierungsmethode wurden die LCS zwischen 2017 und 2020 an verschiedenen Straßen eingesetzt. Unter Ver-wendung von zwei Arten von LCS, Metalloxid (MOS) und elektrochemisch (EC), wurde ihre Leistung bei der Erfassung der erwarteten Muster der NO2- und O3-Belastung in Städten bewertet. Die Ergebnisse zeigten, dass die kalibrierten Konzentrationen der MOS- und EC-Sensoren mit den allgemeinen Tagesmustern der NO2- und O3-Belastung überein-stimmten, die mit Referenzgeräten gemessen wurden. Während sich MOS als unzuverlässig erwies, wenn es darum ging, Unterschiede zwischen den gemessenen Orten inner-halb der städtischen Umgebung zu erkennen, entsprachen die mit kalibrierten EC-Sensoren gemessenen Konzentrationen den Erwartungen aus Modellierungsstudien zur Verteilung der NO2- und O3-Belastung in Straßenschluchten. Daraus wurde der Schluss gezogen, dass LCS für die Messung der Luftqualität in Städten geeignet sind, auch zur Unterstützung der Entwicklung von Luftverschmutzungsmodellen auf städtischer Ebene, und dass sie neue Erkenntnisse über die Luftverschmutzung in städtischen Umgebungen liefern können. Um das letzte Ziel dieser Arbeit zu erreichen, wurden zwei Messkampagnen im Zusammenhang mit der Umsetzung von drei verkehrspolitischen Maßnahmen in Berlin durchgeführt. Bei der ersten handelte es sich um den Bau einer Pop-up-Radweg auf dem Kottbusser Damm als Reaktion auf die COVID-19-Pandemie, bei der zweiten um die vorübergehende Einrichtung eines Gemeinschaftsraums in der Böckhstraße und bei der letzten um die Sperrung eines Teils der Friedrichstraße für den gesamten motorisierten Verkehr. In allen Fällen wurden NO2-Messungen vor und nach der Durchführung der Maßnahme durchgeführt, um die Veränderungen der Luftqualität infolge dieser Maßnahmen zu bewerten. Die Ergebnisse des Experiments am Kottbusser Damm zeigten, dass die NO2-Konzentrationen, denen die Radfahrer ausgesetzt waren, durch den Radweg um 22 ± 19 % gesenkt wurden. In der Friedrichstraße sank die NO2-Konzentration durch die Straßensperrung auf das Niveau des städtischen Hintergrunds, ohne dass sich die Luft-qualität in den Seitenstraßen verschlechterte. Diese wertvollen Ergebnisse wurden den verantwortlichen Ansprechpersonen in der Stadtverwaltung, die für die Bewertung des Erfolgs und der Zukunft der Maßnahmen verantwortlich sind, schnell mitgeteilt, was die Fähigkeit von LCS unterstreicht, politisch relevante Ergebnisse zu liefern. Da es sich um eine neue Technologie handelt, muss noch viel über LCS und ihren Wert für die akademische Forschung im Bereich der Atmosphärenwissenschaften gelernt werden. Dennoch hat diese Arbeit den Stand der Technik in mehrfacher Hinsicht verbessert. Erstens wurde eine neuartige Open-Source-Kalibrierungsmethode entwickelt, die von LCS-Anwender*innen für verschiedene Luftschadstoffe verwendet werden kann. Zweitens wurde die Beweisgrundlage für die Zuverlässigkeit von LCS zur Messung der Luftqualität in Städten gestärkt, indem durch neuartige Einsätze in Straßenschluchten festgestellt wurde, dass LCS mit hoher räumlicher Auflösung zum Verständnis der Dynamik der Luftverschmutzung auf kleinräumlicher Ebene eingesetzt werden kann. Schließlich ist es die erste Studie dieser Art, die LCS-Messungen direkt mit verkehrspolitischen Maßnahmen verknüpft, um deren Einfluss auf die lokale Luftqualität zu verstehen, was zu politisch relevanten Erkenntnissen führt, die für Entscheidungsträger*innen wertvoll sind. Die Studie ist ein Beispiel für das Potenzial von LCS, unser Verständnis von Luftverschmutzung in verschiedenen Maßstäben zu erweitern, sowie für ihre Fähigkeit, als wert-volle Werkzeuge in der transdisziplinären Forschung zu dienen. T2 - Verwendung kostengünstiger Sensoren zur Erfassung hochauflösender Messungen der Luftqualität in städtischen Umgebungen und zur Information über die Mobilitätspolitik KW - air pollution KW - urban KW - low-cost sensor KW - transdisciplinary KW - sustainability KW - mobility KW - policy KW - Luftverschmutzung KW - Mobilität KW - Politik KW - Nachhaltigkeit KW - Transdisziplinarität KW - Städte Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-601053 ER - TY - THES A1 - Kunkel, Stefanie T1 - Green industry through industry 4.0? Expected and observed effects of digitalisation in industry for environmental sustainability T1 - Grüne Industrie durch Industrie 4.0? Erwartete und beobachtete Auswirkungen der Digitalisierung in der Industrie auf ökologische Nachhaltigkeit N2 - Digitalisation in industry – also called “Industry 4.0” – is seen by numerous actors as an opportunity to reduce the environmental impact of the industrial sector. The scientific assessments of the effects of digitalisation in industry on environmental sustainability, however, are ambivalent. This cumulative dissertation uses three empirical studies to examine the expected and observed effects of digitalisation in industry on environmental sustainability. The aim of this dissertation is to identify opportunities and risks of digitalisation at different system levels and to derive options for action in politics and industry for a more sustainable design of digitalisation in industry. I use an interdisciplinary, socio-technical approach and look at selected countries of the Global South (Study 1) and the example of China (all studies). In the first study (section 2, joint work with Marcel Matthess), I use qualitative content analysis to examine digital and industrial policies from seven different countries in Africa and Asia for expectations regarding the impact of digitalisation on sustainability and compare these with the potentials of digitalisation for sustainability in the respective country contexts. The analysis reveals that the documents express a wide range of vague expectations that relate more to positive indirect impacts of information and communication technology (ICT) use, such as improved energy efficiency and resource management, and less to negative direct impacts of ICT, such as electricity consumption through ICT. In the second study (section 3, joint work with Marcel Matthess, Grischa Beier and Bing Xue), I conduct and analyse interviews with 18 industry representatives of the electronics industry from Europe, Japan and China on digitalisation measures in supply chains using qualitative content analysis. I find that while there are positive expectations regarding the effects of digital technologies on supply chain sustainability, their actual use and observable effects are still limited. Interview partners can only provide few examples from their own companies which show that sustainability goals have already been pursued through digitalisation of the supply chain or where sustainability effects, such as resource savings, have been demonstrably achieved. In the third study (section 4, joint work with Peter Neuhäusler, Melissa Dachrodt and Marcel Matthess), I conduct an econometric panel data analysis. I examine the relationship between the degree of Industry 4.0, energy consumption and energy intensity in ten manufacturing sectors in China between 2006 and 2019. The results suggest that overall, there is no significant relationship between the degree of Industry 4.0 and energy consumption or energy intensity in manufacturing sectors in China. However, differences can be found in subgroups of sectors. I find a negative correlation of Industry 4.0 and energy intensity in highly digitalised sectors, indicating an efficiency-enhancing effect of Industry 4.0 in these sectors. On the other hand, there is a positive correlation of Industry 4.0 and energy consumption for sectors with low energy consumption, which could be explained by the fact that digitalisation, such as the automation of previously mainly labour-intensive sectors, requires energy and also induces growth effects. In the discussion section (section 6) of this dissertation, I use the classification scheme of the three levels macro, meso and micro, as well as of direct and indirect environmental effects to classify the empirical observations into opportunities and risks, for example, with regard to the probability of rebound effects of digitalisation at the three levels. I link the investigated actor perspectives (policy makers, industry representatives), statistical data and additional literature across the system levels and consider political economy aspects to suggest fields of action for more sustainable (digitalised) industries. The dissertation thus makes two overarching contributions to the academic and societal discourse. First, my three empirical studies expand the limited state of research at the interface between digitalisation in industry and sustainability, especially by considering selected countries in the Global South and the example of China. Secondly, exploring the topic through data and methods from different disciplinary contexts and taking a socio-technical point of view, enables an analysis of (path) dependencies, uncertainties, and interactions in the socio-technical system across different system levels, which have often not been sufficiently considered in previous studies. The dissertation thus aims to create a scientifically and practically relevant knowledge basis for a value-guided, sustainability-oriented design of digitalisation in industry. N2 - Die Digitalisierung der Industrie, auch „Industrie 4.0“ genannt, wird von zahlreichen Akteuren als Chance zur Reduktion der Umweltauswirkungen des industriellen Sektors betrachtet. Die wissenschaftlichen Bewertungen der Effekte der Digitalisierung der Industrie auf ökologische Nachhaltigkeit sind hingegen ambivalent. Diese kumulative Dissertation untersucht anhand von drei empirischen Studien die erwarteten und beobachteten Auswirkungen der Digitalisierung der Industrie auf ökologische Nachhaltigkeit. Ziel der Dissertation ist es, Chancen und Risiken der Digitalisierung auf verschiedenen System-Ebenen zu identifizieren und Handlungsoptionen in Politik und Industrie für eine nachhaltigere Gestaltung der Digitalisierung der Industrie abzuleiten. Ich nutze einen interdisziplinären, soziotechnischen Zugang und betrachte ausgewählte Länder des Globalen Südens (Studie 1) und das Beispiel Chinas (alle Studien). In der ersten Studie (Kapitel 2, gemeinsame Arbeit mit Marcel Matthess) untersuche ich mittels qualitativer Inhaltsanalyse Digital- und Industriestrategien aus sieben verschiedenen Ländern in Afrika und Asien auf politische Erwartungen hinsichtlich der Auswirkungen von Digitalisierung auf Nachhaltigkeit und vergleiche diese mit den erwartbaren Potenzialen der Digitalisierung für Nachhaltigkeit in den jeweiligen Länderkontexten. Die Analyse ergibt, dass die Dokumente ein breites Spektrum vager Erwartungen zum Ausdruck bringen, die sich eher auf positive indirekte Auswirkungen der Nutzung von Informations- und Kommunikationstechnologie (IKT), wie etwa auf höhere Energieeffizienz und ein verbessertes Ressourcenmanagement, und weniger auf negative direkte Auswirkungen der IKT, wie etwa auf den Stromverbrauch durch IKT, beziehen. In der zweiten Studie (Kapitel 3, gemeinsame Arbeit mit Marcel Matthess, Grischa Beier und Bing Xue) führe und analysiere ich mittels qualitativer Inhaltsanalyse Interviews mit 18 Industrie-Vertreter*innen der Elektronikindustrie aus Europa, Japan und China zu Maßnahmen der Digitalisierung in Lieferketten. Wir stellen fest, dass zwar positive Erwartungen hinsichtlich der Effekte digitaler Technologien für Nachhaltigkeit der Lieferkette bestehen, deren tatsächlicher Einsatz und beobachtete Effekte jedoch noch begrenzt sind. Interviewpartner*innen können nur wenige Beispiele aus den eigenen Unternehmen nennen, die zeigen, dass durch die Digitalisierung der Lieferkette bereits Nachhaltigkeitsziele verfolgt oder Nachhaltigkeits-Effekte, wie Ressourceneinsparungen, nachweisbar erzielt wurden. In der dritten Studie (Kapitel 4, gemeinsame Arbeit mit Peter Neuhäusler, Marcel Matthess und Melissa Dachrodt) führe ich eine ökonometrische Panel-Daten-Analyse durch. Ich untersuche den Zusammenhang zwischen dem Grad von Industrie 4.0 und dem Energieverbrauch sowie der Energieintensität in zehn Fertigungssektoren in China im Zeitraum zwischen 2006 und 2019. Die Ergebnisse deuten darauf hin, dass es insgesamt keinen signifikanten Zusammenhang zwischen dem Grad von Industrie 4.0 und dem Energieverbrauch bzw. der Energieintensität in Fertigungs-Sektoren in China gibt. Es können jedoch Unterschiede in Sub-Gruppen von Sektoren festgestellt werden. Ich stelle eine negative Korrelation von Industrie 4.0 und Energieintensität in hoch digitalisierten Sektoren fest, was auf einen Effizienz-steigernden Effekt von Industrie 4.0 hindeutet. Andererseits besteht eine positive Korrelation von Industrie 4.0 und Energieverbrauch für Sektoren mit niedrigem Energieverbrauch, was dadurch erklärt werden könnte, dass Digitalisierung, etwa die Automatisierung zuvor hauptsächlich arbeitsintensiver Sektoren, Energie erfordert und außerdem Wachstumseffekte hervorruft. Im Diskussionsteil (Kapitel 6) dieser Dissertation nutze ich das Ordnungsschema der drei Ebenen Makro, Meso und Mikro, sowie von direkten und indirekten Umwelteffekten für die Einordnung der empirischen Beobachtungen in Chancen und Risiken, etwa hinsichtlich der Wahrscheinlichkeit von Rebound-Effekten der Digitalisierung auf Mikro-, Meso- und Makro-Ebene. Ich verknüpfe die untersuchten Akteurs-Perspektiven (Politiker*innen, Industrievertreter*innen), statistischen Daten und zusätzliche Literatur über die System-Ebenen hinweg und berücksichtige dabei auch Gedanken der politischen Ökonomik, um Handlungsfelder für nachhaltige(re) digitalisierte Industrien abzuleiten. Die Dissertation leistet damit zwei übergeordnete Beiträge zum wissenschaftlichen und gesellschaftlichen Diskurs. Erstens erweitern meine drei empirischen Studien den begrenzten Forschungsstand an der Schnittstelle zwischen Digitalisierung in der Industrie und Nachhaltigkeit, insbesondere durch Berücksichtigung ausgewählter Länder im Globalen Süden und des Beispiels Chinas. Zweitens ermöglicht die Erforschung des Themas durch Daten und Methoden aus unterschiedlichen disziplinären Kontexten und unter Einnahme eines soziotechnischen Standpunkts, eine Analyse von (Pfad-)Abhängigkeiten und Unsicherheiten im soziotechnischen System über verschiedene System-Ebenen hinweg, die in bisherigen Studien häufig nicht ausreichend berücksichtigt wurden. Die Dissertation soll so eine wissenschaftlich und praktisch relevante Wissensbasis für eine werte-gleitete, auf Nachhaltigkeit ausgerichtete Gestaltung der Digitalisierung der Industrie schaffen. KW - digitalization KW - sustainable industrial development KW - Industry 4.0 KW - information and communication technologies KW - sustainable supply chain management KW - Global Value Chains KW - environmental upgrading KW - Artificial Intelligence KW - Big Data Analytics KW - Digital Rebound KW - China KW - patent KW - robot KW - sustainability KW - Künstliche Intelligenz KW - Big Data Analytics KW - China KW - Digital Rebound KW - Globale Wertschöpfungsketten KW - Industrie 4.0 KW - Digitalisierung KW - ökologisches Upgrading KW - Informations- und Kommunikationstechnologien KW - Patent KW - Roboter KW - Nachhaltigkeit KW - nachhaltige industrielle Entwicklung KW - nachhaltiges Lieferkettenmanagement KW - Industrial Internet of Things KW - Industrielles Internet der Dinge Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-613954 ER - TY - THES A1 - Ilić Petković, Nikoleta T1 - Stars under influence: evidence of tidal interactions between stars and substellar companions T1 - Sterne unter Einfluss: Beweise für Gezeitenwechselwirkungen zwischen Sternen und substellaren Begleitern N2 - Tidal interactions occur between gravitationally bound astrophysical bodies. If their spatial separation is sufficiently small, the bodies can induce tides on each other, leading to angular momentum transfer and altering of evolutionary path the bodies would have followed if they were single objects. The tidal processes are well established in the Solar planet-moon systems and close stellar binary systems. However, how do stars behave if they are orbited by a substellar companion (e.g. a planet or a brown dwarf) on a tight orbit? Typically, a substellar companion inside the corotation radius of a star will migrate toward the star as it loses orbital angular momentum. On the other hand, the star will gain angular momentum which has the potential to increase its rotation rate. The effect should be more pronounced if the substellar companion is more massive. As the stellar rotation rate and the magnetic activity level are coupled, the star should appear more magnetically active under the tidal influence of the orbiting substellar companion. However, the difficulty in proving that a star has a higher magnetic activity level due to tidal interactions lies in the fact that (I) substellar companions around active stars are easier to detect if they are more massive, leading to a bias toward massive companions around active stars and mimicking the tidal interaction effect, and that (II) the age of a main-sequence star cannot be easily determined, leaving the possibility that a star is more active due to its young age. In our work, we overcome these issues by employing wide stellar binary systems where one star hosts a substellar companion, and where the other star provides the magnetic activity baseline for the host star, assuming they have coevolved, and thereby provides the host's activity level if tidal interactions have no effect on it. Firstly, we find that extrasolar planets can noticeably increase the host star's X-ray luminosity and that the effect is more pronounced if the exoplanet is at least Jupiter-like in mass and close to the star. Further, we find that a brown dwarf will have an even stronger effect, as expected, and that the X-ray surface flux difference between the host star and the wide stellar companion is a significant outlier when compared to a large sample of similar wide binary systems without any known substellar companions. This result proves that substellar hosting wide binary systems can be good tools to reveal the tidal effect on host stars, and also show that the typical stellar age indicators as activity or rotation cannot be used for these stars. Finally, knowing that the activity difference is a good tracer of the substellar companion's tidal impact, we develop an analytical method to calculate the modified tidal quality factor Q' of individual host stars, which defines the tidal dissipation efficiency in the convective envelope of a given main-sequence star. N2 - Gezeitenwechselwirkungen treten zwischen gravitativ gebundenen astrophysikalischen Körpern auf. Wenn ihr räumlicher Abstand hinreichend gering ist, können die Körper gegenseitig Gezeiten hervorrufen, die eine Drehimpulsübertragung bewirken und den Entwicklungsweg der Körper verändern, den sie als Einzelobjekte einschlagen würden. Die Gezeitenprozesse sind in den Planet-Mond-Systemen des Sonnensystems und in engen Doppelsternsystemen gut bekannt. Wie verhalten sich jedoch Sterne, die von einem substellaren Begleiter (z. B. einem Planeten oder einem Braunen Zwerg) auf einer engen Bahn umkreist werden? In der Regel wandert ein substellarer Begleiter innerhalb des Korotationsradius eines Sterns in Richtung des Sterns, da er an Bahndrehimpuls verliert. Auf der anderen Seite gewinnt der Stern an Drehimpuls, was seine Rotationsrate erhöhen kann. Dieser Effekt dürfte umso ausgeprägter sein, je massereicher der substellare Begleiter ist. Da die Rotationsrate des Sterns und das Niveau der magnetischen Aktivität gekoppelt sind, sollte der Stern unter dem Gezeiteneinfluss des ihn umkreisenden substellaren Begleiters magnetisch aktiver erscheinen. Die Schwierigkeit beim Nachweis, dass ein Stern aufgrund von Gezeitenwechselwirkungen eine höhere magnetische Aktivität aufweist, liegt jedoch darin, dass (I) substellare Begleiter um aktive Sterne leichter aufzuspüren sind, wenn sie massereicher sind, wodurch eine Tendenz zu massereichen Begleitern um aktive Sterne entsteht und der Effekt der Gezeitenwechselwirkung nachgeahmt wird, und dass (II) das Alter eines Hauptreihensterns nicht leicht bestimmt werden kann, so dass die Möglichkeit besteht, dass ein Stern aufgrund seines jungen Alters aktiver ist. In unserer Arbeit überwinden wir diese Hindernisse, indem wir weiträumige Doppelsternsysteme verwenden, in denen ein Stern einen substellaren Begleiter beherbergt und in denen der andere Stern den Referenzwert für die magnetische Aktivität des Wirtssterns liefert im Fall das Gezeitenwechselwirkungen keinen Einfluss auf ihn haben, wobei wir davon ausgehen, dass die Sterne sich gemeinsam entwickelt haben. Erstens stellen wir fest, dass extrasolare Planeten die Röntgenleuchtkraft des Wirtssterns merklich erhöhen können und dass der Effekt ausgeprägter ist, wenn der Exoplanet mindestens eine jupiterähnliche Masse hat und sich nahe am Stern befindet. Darüber hinaus stellen wir fest, dass ein Brauner Zwerg erwartungsgemäß einen noch stärkeren Einfluss hat und dass der Unterschied im Röntgenflächenfluss zwischen dem Wirtsstern und dem weiträumigen stellaren Begleiter ein signifikanter Ausreißer im Vergleich zu einer großen Stichprobe ähnlicher weiträumiger Doppelsternsysteme ohne bekannte substellare Begleiter ist. Dieses Ergebnis beweist, dass weiträumige Doppelsternsysteme mit substellaren Begleitern ein gutes Werkzeug sein können, um den Gezeiteneffekt auf Wirtssterne aufzudecken, und zeigt auch, dass die typischen stellaren Altersindikatoren wie Aktivität oder Rotation für diese Sterne nicht verwendet werden können. Mit dem Wissen, dass der Aktivitätsunterschied ein guter Indikator für den Gezeiteneinfluss des substellaren Begleiters ist, entwickeln wir schließlich eine analytische Methode zur Berechnung des modifizierten Gezeitenqualitätsfaktors Q' für einzelne Wirtssterne, der die Effizienz der Gezeitendissipation in der konvektiven Hülle eines gegebenen Hauptreihensterns definiert. KW - stellar evolution KW - tidal interactions KW - star-planet systems KW - star-brown dwarf systems KW - Stern-Brauner Zwerg Systeme KW - Stern-Planet Systeme KW - Sternentwicklung KW - Gezeitenwechselwirkungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-615972 ER - TY - THES A1 - Leins, Johannes A. T1 - Combining model detail with large scales T1 - Die Verbindung von Modelldetails und großen Skalen BT - a simulation framework for population viability analyses in changing and disturbed environments BT - ein Simulationswerkzeug zur Analyse der Überlebensfähigkeit von Populationen in einer sich verändernden und gestörten Umwelt N2 - The global climate crisis is significantly contributing to changing ecosystems, loss of biodiversity and is putting numerous species on the verge of extinction. In principle, many species are able to adapt to changing conditions or shift their habitats to more suitable regions. However, change is progressing faster than some species can adjust, or potential adaptation is blocked and disrupted by direct and indirect human action. Unsustainable anthropogenic land use in particular is one of the driving factors, besides global heating, for these ecologically critical developments. Precisely because land use is anthropogenic, it is also a factor that could be quickly and immediately corrected by human action. In this thesis, I therefore assess the impact of three climate change scenarios of increasing intensity in combination with differently scheduled mowing regimes on the long-term development and dispersal success of insects in Northwest German grasslands. The large marsh grasshopper (LMG, Stethophyma grossum, Linné 1758) is used as a species of reference for the analyses. It inhabits wet meadows and marshes and has a limited, yet fairly good ability to disperse. Mowing and climate conditions affect the development and mortality of the LMG differently depending on its life stage. The specifically developed simulation model HiLEG (High-resolution Large Environmental Gradient) serves as a tool for investigating and projecting viability and dispersal success under different climate conditions and land use scenarios. It is a spatially explicit, stage- and cohort-based model that can be individually configured to represent the life cycle and characteristics of terrestrial insect species, as well as high-resolution environmental data and the occurrence of external disturbances. HiLEG is a freely available and adjustable software that can be used to support conservation planning in cultivated grasslands. In the three case studies of this thesis, I explore various aspects related to the structure of simulation models per se, their importance in conservation planning in general, and insights regarding the LMG in particular. It became apparent that the detailed resolution of model processes and components is crucial to project the long-term effect of spatially and temporally confined events. Taking into account conservation measures at the regional level has further proven relevant, especially in light of the climate crisis. I found that the LMG is benefiting from global warming in principle, but continues to be constrained by harmful mowing regimes. Land use measures could, however, be adapted in such a way that they allow the expansion and establishment of the LMG without overly affecting agricultural yields. Overall, simulation models like HiLEG can make an important contribution and add value to conservation planning and policy-making. Properly used, simulation results shed light on aspects that might be overlooked by subjective judgment and the experience of individual stakeholders. Even though it is in the nature of models that they are subject to limitations and only represent fragments of reality, this should not keep stakeholders from using them, as long as these limitations are clearly communicated. Similar to HiLEG, models could further be designed in such a way that not only the parameterization can be adjusted as required, but also the implementation itself can be improved and changed as desired. This openness and flexibility should become more widespread in the development of simulation models. N2 - Die globale Klimakrise trägt maßgeblich dazu bei, dass sich Ökosysteme verändern, die Artenvielfalt sinkt und zahlreiche Spezies vom Aussterben bedroht sind. Viele Arten sind prinzipiell in der Lage, sich wandelnden Bedingungen anzugleichen oder ihre Habitate in geeignetere Regionen zu verlagern. Allerdings schreitet der Wandel schneller voran als sich einige Spezies anpassen können oder die mögliche Anpassung wird durch direkte und indirekte menschliche Eingriffe blockiert und gestört. Gerade die nicht-nachhaltige Landnutzung durch den Menschen ist neben der Klimaerhitzung einer der treibenden Faktoren für diese ökologisch kritischen Entwicklungen. Gleichzeitig ist sie durch ihre unmittelbare menschliche Ursache ein Faktor, der sich kurzfristig und schnell korrigieren ließe. Zu diesem Zweck untersuche ich in dieser Dissertation, wie sich drei Klimawandelszenarien ansteigender Intensität im Zusammenspiel mit unterschiedlich terminierten Mahdregimen im Nordwestdeutschen Grünland auf die langfristige Entwicklung und Ausbreitung von Insekten auswirken. In der Untersuchung fungiert die Sumpfschrecke (Stethophyma grossum, Linné 1758) als Bezugsspezies. Sie ist in Feucht- und Nasswiesen zu Hause und zu räumlicher Ausbreitung fähig, auch wenn sie nur eingeschränkt mobil ist. Mahd und Klimabedingungen wirken sich je nach Lebensstadium unterschiedlich stark auf die Entwicklung und Mortalität der Sumpfschrecke aus. Das eigens entwickelte Simulationsmodell HiLEG (High-resolution Large Environmental Gradient) dient als Werkzeug zur Untersuchung und Projektion der Überlebens- und Ausbreitungswahrscheinlichkeit unter verschiedenen Klima- und Landnutzungsszenarien. Es ist ein räumlich explizites, stadien- und kohortenbasiertes Modell, das individuell konfiguriert werden kann, um den Lebenszyklus und die Charakteristiken terrestrischer Insektenarten sowie hochaufgelöste Umweltdaten und das zeitlich variierende Auftreten externer Störfaktoren abzubilden. HiLEG ist eine frei verfügbare Software und kann zur Unterstützung bei der Planung von Umweltschutzmaßnahmen in kultiviertem Grünland verwendet werden. In den drei Fallstudien dieser Arbeit habe ich verschiedene Aspekte in Bezug auf die Struktur von Simulationsmodellen an sich, deren Bedeutung im Naturschutz im Allgemeinen und Erkenntnisse für die Sumpfschrecke im Speziellen untersucht. Es zeigte sich, dass die detaillierte Auflösung der Modellprozesse und -komponenten entscheidend ist, um den langfristigen Effekt räumlich und zeitlich begrenzter Ereignisse projizieren zu können. Insbesondere in Anbetracht der Klimakrise hat sich die gesteigerte Relevanz von Naturschutzmaßnahmen auf regionaler Ebene herausgestellt. Ich konnte außerdem bestätigen, dass die Sumpfschrecke zwar im Prinzip von der Klimaerwärmung profitiert, aber weiterhin durch ungeeignete Mahdregime beschränkt wird. Bewirtschaftungspläne könnten allerdings in dem Sinne angepasst werden, dass sie die Ausbreitung und Etablierung der Sumpfschrecke erlauben, ohne sich über die Maßen auf den Ertrag der Landwirtschaft auszuwirken. Insgesamt können Simulationsmodelle wie HiLEG einen wichtigen Beitrag und Mehrwert für die Planung von Naturschutzmaßnahmen und Politikinstrument leisten. Richtig eingesetzt beleuchten die Simulationsergebnisse Aspekte, die durch subjektive Bewertung und Erfahrung einzelner Akteure möglicherweise übersehen würden. Auch wenn es in der Natur von Modellen liegt, dass sie Einschränkungen unterworfen sind und nur Ausschnitte der Realität abbilden, sollte dies kein Hindernis für ihren Einsatz sein, solange diese Limitierungen klar kommuniziert werden. Analog zu HiLEG könnten Modelle so konzipiert werden, dass nicht nur ihre Parametrisierung nach Bedarf angepasst, sondern auch die Implementierung selbst beliebig verbessert und verändert werden kann. Diese Offenheit und Flexibilität sollte sich bei der Entwicklung von Simulationsmodelle stärker durchsetzen. KW - spatially explicit model KW - large marsh grasshopper KW - simulation framework KW - climate change KW - land use KW - Open Source KW - Open Access KW - dispersal KW - PVA (population viability analysis) KW - high resolution KW - scaling KW - grassland KW - disturbance timing KW - Klimawandel KW - Ausbreitung KW - Zeitpunkt von Störungen KW - Grünland KW - hohe Auflösung KW - Landnutzung KW - Sumpfschrecke KW - Open Access KW - Open Source KW - Populationsgefährdungsanalyse KW - Skalierung KW - Simulationsframework KW - räumlich explizites Modell KW - Stethophyma grossum Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-582837 ER - TY - THES A1 - Mester, Benedikt T1 - Modeling flood-induced human displacement risk under global change T1 - Modellierung des hochwasserbedingten Risikos der Vertreibung von Menschen unter globalen Veränderungen N2 - Extreme flooding displaces an average of 12 million people every year. Marginalized populations in low-income countries are in particular at high risk, but also industrialized countries are susceptible to displacement and its inherent societal impacts. The risk of being displaced results from a complex interaction of flood hazard, population exposed in the floodplains, and socio-economic vulnerability. Ongoing global warming changes the intensity, frequency, and duration of flood hazards, undermining existing protection measures. Meanwhile, settlements in attractive yet hazardous flood-prone areas have led to a higher degree of population exposure. Finally, the vulnerability to displacement is altered by demographic and social change, shifting economic power, urbanization, and technological development. These risk components have been investigated intensively in the context of loss of life and economic damage, however, only little is known about the risk of displacement under global change. This thesis aims to improve our understanding of flood-induced displacement risk under global climate change and socio-economic change. This objective is tackled by addressing the following three research questions. First, by focusing on the choice of input data, how well can a global flood modeling chain reproduce flood hazards of historic events that lead to displacement? Second, what are the socio-economic characteristics that shape the vulnerability to displacement? Finally, to what degree has climate change potentially contributed to recent flood-induced displacement events? To answer the first question, a global flood modeling chain is evaluated by comparing simulated flood extent with satellite-derived inundation information for eight major flood events. A focus is set on the sensitivity to different combinations of the underlying climate reanalysis datasets and global hydrological models which serve as an input for the global hydraulic model. An evaluation scheme of performance scores shows that simulated flood extent is mostly overestimated without the consideration of flood protection and only for a few events dependent on the choice of global hydrological models. Results are more sensitive to the underlying climate forcing, with two datasets differing substantially from a third one. In contrast, the incorporation of flood protection standards results in an underestimation of flood extent, pointing to potential deficiencies in the protection level estimates or the flood frequency distribution within the modeling chain. Following the analysis of a physical flood hazard model, the socio-economic drivers of vulnerability to displacement are investigated in the next step. For this purpose, a satellite- based, global collection of flood footprints is linked with two disaster inventories to match societal impacts with the corresponding flood hazard. For each event the number of affected population, assets, and critical infrastructure, as well as socio-economic indicators are computed. The resulting datasets are made publicly available and contain 335 displacement events and 695 mortality/damage events. Based on this new data product, event-specific displacement vulnerabilities are determined and multiple (national) dependencies with the socio-economic predictors are derived. The results suggest that economic prosperity only partially shapes vulnerability to displacement; urbanization, infant mortality rate, the share of elderly, population density and critical infrastructure exhibit a stronger functional relationship, suggesting that higher levels of development are generally associated with lower vulnerability. Besides examining the contextual drivers of vulnerability, the role of climate change in the context of human displacement is also being explored. An impact attribution approach is applied on the example of Cyclone Idai and associated extreme coastal flooding in Mozambique. A combination of coastal flood modeling and satellite imagery is used to construct factual and counterfactual flood events. This storyline-type attribution method allows investigating the isolated or combined effects of sea level rise and the intensification of cyclone wind speeds on coastal flooding. The results suggest that displacement risk has increased by 3.1 to 3.5% due to the total effects of climate change on coastal flooding, with the effects of increasing wind speed being the dominant factor. In conclusion, this thesis highlights the potentials and challenges of modeling flood- induced displacement risk. While this work explores the sensitivity of global flood modeling to the choice of input data, new questions arise on how to effectively improve the reproduction of flood return periods and the representation of protection levels. It is also demonstrated that disentangling displacement vulnerabilities is feasible, with the results providing useful information for risk assessments, effective humanitarian aid, and disaster relief. The impact attribution study is a first step in assessing the effects of global warming on displacement risk, leading to new research challenges, e.g., coupling fluvial and coastal flood models or the attribution of other hazard types and displacement events. This thesis is one of the first to address flood-induced displacement risk from a global perspective. The findings motivate for further development of the global flood modeling chain to improve our understanding of displacement vulnerability and the effects of global warming. N2 - Durch extreme Überschwemmungen werden jedes Jahr durchschnittlich 12 Millionen Menschen vertrieben. Vor allem marginalisierte Bevölkerungsgruppen in Ländern mit niedrigem Einkommen sind stark gefährdet, aber auch Industrieländer sind anfällig für Vertreibungen und die damit verbundenen gesellschaftlichen Auswirkungen. Das Risiko der Vertreibung ergibt sich aus einer komplexen Wechselwirkung zwischen der Hochwassergefahr, der Exposition der in den Überschwemmungsgebieten lebenden Bevölkerung und der sozioökonomischen Vulnerabilität. Die fortschreitende globale Erderwärmung verändert die Intensität, Häufigkeit und Dauer von Hochwassergefahren und untergräbt die bestehenden Schutzmaßnahmen. Gleichzeitig hat die Besiedlung attraktiver, aber gefährdeter Überschwemmungsgebiete zu einem höheren Maß an Exposition der Bevölkerung geführt. Schließlich wird die Vulnerabilität für Vertreibungen durch den demografischen und sozialen Wandel, die Verlagerung der Wirtschaftskräfte, die Urbanisierung und die technologische Entwicklung verändert. Diese Risikokomponenten wurden im Zusammenhang mit dem Verlust von Menschenleben und wirtschaftlichen Schäden intensiv untersucht, über das Risiko der Vertreibung im Rahmen des globalen Wandels ist jedoch nur wenig bekannt. Diese Arbeit zielt darauf ab, unser Verständnis des durch Überschwemmungen verursachten Vertreibungsrisikos unter dem Einfluss des globalen Klimawandels und des sozioökonomischen Wandels zu verbessern. Dieses Ziel wird durch die Beantwortung der folgenden drei Forschungsfragen erreicht. Erstens: Wie gut kann eine globale Hochwassermodellierungskette die Hochwassergefahren historischer Ereignisse, die zu Vertreibung geführt haben, reproduzieren, wobei ein Fokus auf die Wahl der Eingangsdaten gelegt wird? Zweitens: Welches sind die sozioökonomischen Merkmale, die die Vulnerabilität für Vertreibung beeinflussen? Und schließlich, inwieweit hat der Klimawandel möglicherweise zu den jüngsten hochwasserbedingten Vertreibungsereignissen beigetragen? Zur Beantwortung der ersten Frage wird eine globale Hochwassermodellierungskette durch den Vergleich der simulierten Überschwemmungsfläche mit satellitengestützten Überschwemmungsdaten für acht große Hochwasserereignisse überprüft. Der Schwerpunkt liegt dabei auf der Sensitivität gegenüber verschiedenen Kombinationen der zugrunde liegenden Klimareanalysedatensätzen und globalen hydrologischen Modellen, die als Input für das globale Hydraulikmodell dienen. Ein Bewertungsschema von Leistungsindikatoren zeigt, dass die simulierte Überschwemmungsfläche ohne Berücksichtigung des Hochwasserschutzes meist überschätzt wird und nur bei wenigen Ereignissen von der Wahl der globalen hydrologischen Modelle abhängt. Die Ergebnisse sind empfindlicher gegenüber dem zugrunde liegenden Climate Forcing, wobei sich zwei Datensätze erheblich von einem dritten unterscheiden. Im Gegensatz dazu führt die Einbeziehung von Hochwasserschutznormen zu einer Unterschätzung der Überschwemmungsfläche, was auf mögliche Mängel bei der Schätzung des Schutzniveaus oder der Hochwasserhäufigkeitsverteilung innerhalb der Modellierungskette hinweist. Nach der Analyse des physikalischen Hochwassergefahrenmodells werden in einem nächsten Schritt die sozioökonomischen Triebkräfte für die Vulnerabilität für Vertreibungen untersucht. Zu diesem Zweck wird eine satellitengestützte, globale Sammlung von Hochwasseüberschwemmungsflächen mit zwei Katastrophendatenbänken verknüpft, um die gesellschaftlichen Auswirkungen mit der entsprechenden Hochwassergefahr zusammenzuführen. Für jedes Ereignis werden die Anzahl der betroffenen Menschen, Vermögenswerte und kritischen Infrastrukturen sowie sozioökonomische Indikatoren berechnet. Die daraus resultierenden Datensätze werden öffentlich zugänglich gemacht und enthalten 335 Vertreibungsereignisse und 695 Todesopfer-/Schadensereignisse. Auf der Grundlage dieses neuen Datenprodukts werden ereignisspezifische Vertreibungsvulnerabilitäten bestimmt und vielfältige (nationale) Abhängigkeiten mit den sozioökonomischen Prädiktoren abgeleitet. Die Ergebnisse deuten darauf hin, dass wirtschaftlicher Wohlstand nur teilweise die Anfälligkeit für Vertreibungen beeinflusst; Urbanisierung, Kindersterblichkeitsrate, der Anteil älterer Menschen, Bevölkerungsdichte und kritische Infrastrukturen weisen eine stärkere funktionale Beziehung auf, was den Schluss zulässt, dass ein höheres Entwicklungsniveau im Allgemeinen mit einer geringeren Vulnerabilität verbunden ist. Neben der Untersuchung der kontextabhängigen Faktoren der Vulnerabilität wird auch die Rolle des Klimawandels im Zusammenhang mit der Vertreibung von Menschen untersucht. Am Beispiel des Zyklons Idai und den damit verbundenen extremen Küstenüberschwemmungen in Mosambik wird ein Ansatz zur Attribution der Auswirkungen angewandt. Eine Kombination aus Küstenüberflutungsmodellierung und Satellitenbildern wird verwendet, um faktische und kontrafaktische Überschwemmungsereignisse zu konstruieren. Diese Storyline-artige Attributionsmethode ermöglicht die Untersuchung der isolierten oder kombinierten Auswirkungen des Meeresspiegelanstiegs und der Intensivierung der Windgeschwindigkeiten von Zyklonen auf die Küstenüberflutung. Die Ergebnisse deuten darauf hin, dass das Vertreibungsrisiko durch die Gesamtwirkung des Klimawandels auf Küstenüberschwemmungen um 3,1 bis 3,5 % gestiegen ist, wobei die Auswirkungen der zunehmenden Windgeschwindigkeit der dominierende Faktor sind. Zusammenfassend zeigt diese Arbeit die Potentiale und Herausforderungen der Modellierung von hochwasserbedingten Vertreibungsrisiken auf. Während diese Arbeit die Sensitivität der globalen Hochwassermodellierung in Bezug auf die Wahl der Eingabedaten untersucht, ergeben sich neue Fragen, wie die Reproduktion von Wiederkehrintervallen und die Darstellung von Schutzniveaus effektiv verbessert werden kann. Die Ergebnisse liefern nützliche Informationen für Risikobewertungen, effektive humanitäre Hilfe und Katastrophenhilfe. Die Studie zur Auswirkungs-Attribution ist ein erster Schritt zur Bewertung der Effekte der globalen Erwärmung auf das Vertreibungsrisiko und führt zu neuen Forschungsherausforderungen, z. B. zur Kopplung von Fluss- und Küstenhochwassermodellen oder zur Untersuchung anderer Gefahrenarten. Diese Arbeit ist eine der ersten, die das durch Überschwemmungen verursachte Vertreibungsrisiko aus einer globalen Perspektive heraus betrachtet. Die Ergebnisse motivieren dazu, die globale Hochwassermodellierungskette weiterzuentwickeln, um unser Verständnis der Vertreibungsvulnerabilität und der Auswirkungen der globalen Erderwärmung zu vertiefen. KW - displacement KW - flooding KW - remote sensing KW - vulnerability KW - global flood model KW - Vertreibung KW - Überschwemmungen KW - Fernerkundung KW - Vulnerabilität KW - globales Überschwemmungsmodell Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-609293 ER - TY - THES A1 - Quiroga Carrasco, Rodrigo Adolfo T1 - Cenozoic style of deformation and spatiotemporal variations of the tectonic stress field in the southern central Andes T1 - Estudio del estilo de deformación y variación espacio T1 - Känozoischer Deformationsstil und raum-zeitliche Variationen des tektonischen Spannungsfeldes in den südlichen Zentralanden BT - temporal del campo de esfuerzos imperante durante el cenozoico a lo largo de la transecta Laguna del Negro Francisco-Santiago del estero (26°30-27°30´s), Andes centrales del sur BT - Laguna del Negro Francisco-Santiago del estero transect (27°30´s) BT - Laguna del Negro Francisco-Santiago del estero transect (27°30's) N2 - The central Andean plateau is the second largest orogenic plateau in the world and has formed in a non-collisional orogenic system. It extends from southern Peru (15°S) to northern Argentina and Chile (27°30'S) and reaches an average elevation of 4,000 m.a.s.l. South of 24°S, the Andean plateau is called Puna and it is characterized by a system of endorheic basins with thick sequences where clastic and evaporitic strata are preserved. Between 26° and 27°30'S, the Puna terminates in a structurally complex zone which coincides with the transition from a normal subduction zone to a flat subduction ("flat slab") zone, which extends to 33°S. This transition zone also coincides with important morphostructural provinces that, from west to east, correspond to i) the Cordillera Frontal, where the Maricunga Belt is located; ii) the Famatina system; and iv) the north-western, thick-skinned Sierras Pampeanas. Various structural, sedimentological, thermochronological and geochronological studies in this region have documented a complex history of deformation and uplift during successive Cenozoic deformation events. These processes caused the increase of crustal thickness, as well as episodes of diachronic uplift, which attained its present configuration during the late Miocene. Subsequently, the plateau experienced a change in deformation style from contraction to extension and transtension documented by ubiquitous normal faults, earthquakes, and magmatic rocks. However, at the southern edge of the Puna plateau and in the transition to the other morphostructural provinces, the variation of deformation processes and the changes in the tectonic stress field are not fully understood. This location is thus ideally located to evaluate how the tectonic stress field may have evolved and how it may have been affected by the presence/absence of an orogenic plateau, as well as by the existence of inherited structural anisotropies within the different tectonic provinces. This thesis investigates the relationship between shallow crustal deformation and the spatiotemporal evolution of the tectonic stress field in the southern sector of the Andean plateau, during pre-, syn- and post-uplift periods of this plateau. To carry out this research, multiple methodological approaches were chosen that include (U-Pb) radiometric dating; the analysis of mesoscopic faults to obtain stress tensors and the orientation of the principal stress axes; the determination of magnetic susceptibility anisotropy in sedimentary and volcanoclastic rocks to identify shortening directions or directions of sedimentary transport; kinematic modeling to infer deep crustal structures and deformation; and finally, a morphometric analysis to identify geomorphological indicators associated with Quaternary tectonism. Combining the obtained results with data from published studies, this study reveals a complex history of the tectonic stress field that has been characterized by changes in orientation and by vertical permutations of the principal stress axes during each deformation regime over the last ~24 Ma. The evolution of the tectonic stress field can be linked with three orogenic phases at this latitude of the Andean orogen: (1) a first phase with an E-W-oriented compression documented between Eocene and middle Miocene, which coincided with Andean crustal thickening, lateral growth, and topographic uplift; (2) a second phase characterized by a compressive transpressional stress regime, starting at ~11 Ma and ~5 Ma on the western and eastern edge of the Puna plateau, respectively, and a compressive stress regime in the Famatina system and the Sierras Pampeanas, which is interpreted to reflect a transition between Neogene orogenic construction and the maximum accumulation of deformation and topographic uplift of the Puna plateau; and (3) a third phase, when the tectonic regime caused a changeover to a tensional stress state that followed crustal thickening and the maximum uplift of the plateau between ~5-4 Ma; this is especially well expressed in the Puna, in its western border area with the Maricunga-Valle Ancho Belt, and along its eastern border in the transition with the Sierras Pampeanas. The results of the study thus document that the plateau rim experienced a shift from a compressional to a transtensional regime, which differs from the tensional state of stress of the Andean Plateau in the northern sectors for the same period. Similar stress changes have been documented during the construction of the Tibetan plateau, where a predominantly compressional stress regime changed to a transtensional regime, but which was superseded by a purely tensional regime, between 14 and 4 Ma. N2 - El plateau Andino es el segundo plateau orogénico más grande del mundo y se ubica en los Andes Centrales, desarrollado en un sistema orogénico no colisional. Se extiende desde el sur del Perú (15°S), hasta el norte de Argentina y Chile (27°30´S). A partir de los 24°S y prologándose hacia el sur, el plateau Andino se denomina Puna y está caracterizado por un sistema de cuencas endorreicas y salares delimitados por cordones montañosos. Entre los 26° y 27°30´S, la Puna encuentra su límite austral en una zona de transición entre una zona de subducción normal y una zona de subducción plana o “flat slab” que se prolonga hasta los 33°S. Diversos estudios documentan la ocurrencia de un aumento del espesor cortical, y levantamiento episódico y diacrónico del relieve, alcanzando su configuración actual durante el Mioceno tardío. Posteriormente, el plateau habría experimentado un cambio en el estilo de deformación dominado por procesos extensionales evidenciado por fallas y terremotos de cinemática normal. Sin embargo, en el borde sur del plateau de la Puna y en las áreas delimitadas con el resto del orógeno, la variación del campo de esfuerzo no está del todo comprendida, reflejando una excelente oportunidad para evaluar cómo el campo de esfuerzo puede evolucionar durante el desarrollo del orógeno y cómo puede verse afectado por la presencia/ausencia de un plateau orogénico, así como también por la existencia de anisotropías estructurales propias de cada unidad morfotectónica. Esta Tesis investiga la relación entre la deformación cortical somera y la evolución en tiempo y espacio del campo de esfuerzos en el sector sur del plateau Andino, durante el cenozoico tardío. Para realizar esta investigación, se utilizaron técnicas de obtención de edades radiométricas con el método Uranio-Plomo (U-Pb), análisis de fallas mesoscópicas para la obtención de tensores de esfuerzos y delimitación de la orientación de los ejes principales de esfuerzos, análisis de anisotropía de susceptibilidad magnética en rocas sedimentarias y volcanoclásticas para estimar direcciones de acortamiento o direcciones de transporte sedimentario, técnicas de modelado cinemático para llegar a una aproximación de las estructuras corticales profundas asociadas a la deformación allí registrada, y un análisis morfométrico para la identificación de indicadores geomorfológicos asociados a deformación producto de la actividad tectónica cuaternaria. Combinando estos resultados con los antecedentes previamente documentados, el estudio revela una compleja variación del campo de esfuerzo caracterizado por cambios en la orientación y permutaciones verticales de los ejes principales de esfuerzos, durante cada régimen de deformación, durante los últimos ~24 Ma. La evolución del campo de esfuerzos puede ser asociada temporalmente a tres fases orogénicas involucradas con la evolución de los Andes Centrales en esta latitud: (1) una primera fase con un régimen de esfuerzos compresivos de acortamiento E-O documentado desde el Eoceno, Oligoceno tardío hasta el Mioceno medio en el área, coincide con la fase de construcción andina, engrosamiento y crecimiento de la corteza y levantamiento topográfico; (2) una segunda fase caracterizada por un régimen de esfuerzos de transcurrencia, a partir de los ~11 Ma en el borde occidental y compresión y transcurrencia a los~5 Ma en el borde oriental del plateau de la Puna, y un régimen de esfuerzo compresivos en Famatina y las Sierras Pampeanas interpretado como una transición entre la construcción orogénica del Neógeno y la máxima acumulación de deformación y el alzamiento topográfico del plateau de la Puna, y (3) una tercera fase donde el régimen se caracteriza por la transcurrencia en la Puna y en su borde occidental y en su borde oriental con las Sierras Pampeanas, después de ~5-4 Ma, interpretado como un régimen de esfuerzos controlados por el engrosamiento cortical desarrollado a lo largo del borde sur del plateau Altiplano/Puna, previo a un colapso orogénico. Los resultados dejan en evidencia que el borde del plateau experimentó el paso desde un régimen compresivo hacia uno transcurrente, que se diferencia de la extensión documentada hacia el norte en el plateau Andino para el mismo período. Cambios en los esfuerzos similares han sido documentado durante la construcción del plateau Tibetano, en donde un régimen de esfuerzo predominantemente compresivo cambió a un régimen de transcurrente cuando el plateau habría alcanzado la mitad de su elevación actual, y que posteriormente derivó en un régimen extensional, entre 14 y 4 Ma, cuando la altitud del plateau fue superior al 80% respecto a su actitud actual, lo que podría estar indicando que los regímenes transcurrentes representan etapas transicionales entre las zonas externas del plateau bajo compresión y las zonas internas, en las que los regímenes extensionales son más viables de ocurrir. N2 - Die südlichen Zentralen Anden beherbergen das zweitgrößte orogene Plateau der Welt (Altiplano-Puna); im Gegensatz zu Tibet hat sich dieses Plateau in einem nicht-kollisionalen Gebirgsbildungssystem gebildet. Es erstreckt sich vom Süden Perus (15°S) bis zum Norden Argentiniens und Chiles (27°30'S) und erreicht eine durchschnittliche Höhe von 4.000 m.ü.d.M. Südlich von 24°S wird das Andenplateau Puna genannt und ist durch ein System von endorheischen Becken mit mächtigen sedimentären Abfolgen gekennzeichnet, in denen klastische und evaporitische Schichten erhalten sind. Zwischen 26° und 27°30'S endet die Puna in einer strukturell komplexen Zone, die mit dem Übergang von einer normalen Subduktionszone zu einer flachen Subduktionszone ("flat slab") zusammenfällt, die sich bis 33°S erstreckt. Diese Übergangszone fällt auch mit wichtigen morphostrukturellen Provinzen zusammen, die von Westen nach Osten i) der Cordillera Frontal, wo sich der Maricunga-Gürtel befindet, ii) dem Famatina-System und iv) den nordwestlichen Sierras Pampeanas entsprechen. Verschiedene strukturelle, sedimentologische, thermochronologische und geochronologische Studien in dieser Region haben eine komplexe Geschichte der Deformation und Hebung während aufeinanderfolgender känozoischer Deformationsereignisse dokumentiert. Diese Prozesse führten zu einer Zunahme der Krustendicke sowie Episoden diachroner Hebung, die im späten Miozän zur heutigen Form des Orogens führten. In der Folgezeit änderte sich der Deformationsstil des Plateaus von Kontraktion zu Extension und Transtension, was durch die allgegenwärtigen Abschiebungen, Erdbeben und magmatischen Gesteine dokumentiert wird. Am südlichen Rand des Puna-Plateaus und im Übergang zu den anderen morphostrukturellen Provinzen sind die Variation der Deformationsprozesse und die Veränderungen im tektonischen Spannungsfeld jedoch noch nicht vollständig verstanden. Diese Region des Orogens ist daher ideal, um zu untersuchen, wie sich das tektonische Spannungsfeld entwickelt hat und wie es durch das Vorhandensein bzw. das Fehlen eines orogenen Plateaus sowie durch strukturelle Anisotropien innerhalb der verschiedenen tektonischen Provinzen beeinflusst wurde. In dieser Arbeit wird die Beziehung zwischen der bruchhaften Krustendeformation und der räumlich-zeitlichen Entwicklung des tektonischen Spannungsfeldes im südlichen Sektor des Puna-Plateaus während der Prä-, Syn- und Post-Hebungs-Perioden untersucht. Zur Durchführung dieser Untersuchungen wurden mehrere methodische Ansätze gewählt, darunter radiometrische Datierungen (U-Pb), die Analyse mesoskopischer Verwerfungen zur Ermittlung von Spannungstensoren und der Ausrichtung der Hauptspannungsachsen, die Bestimmung der Anisotropie der magnetischen Suszeptibilität in sedimentären und vulkanoklastischen Gesteinen zur Identifizierung von Verkürzungsrichtungen oder Richtungen des Sedimenttransports, kinematische Modellierung zur Ableitung tiefer Krustenstrukturen und Deformation sowie schließlich eine morphometrische Analyse zur Identifizierung geomorphologischer Indikatoren im Zusammenhang mit der quartären Tektonik. Durch die Kombination der erzielten Ergebnisse mit Daten aus bereits veröffentlichten Studien dokumentiert diese Untersuchung eine komplexe Geschichte des tektonischen Spannungsfeldes, die durch Veränderungen in der Ausrichtung und durch vertikale Permutationen der Hauptspannungsachsen während jedes Deformationsregimes in den letzten 24 Millionen Jahren gekennzeichnet war. Die Entwicklung des tektonischen Spannungsfeldes in dieser Region kann mit drei orogenen Phasen des Anden-Orogens in Verbindung gebracht werden: (1) eine erste Phase mit einer E-W-orientierten Kompression, die zwischen dem Eozän und dem mittleren Miozän dokumentiert ist und mit einer Verdickung der Kruste des Orogens, einem lateralen Wachstum sowie einer topografischen Hebung einherging; (2) eine zweite Phase, die durch ein kompressives, transpressives Spannungsregime gekennzeichnet ist, das bei ~11 Ma bzw. ~5 Ma am westlichen bzw. östlichen Rand der Puna-Hochebene manifestiert ist, sowie durch ein kompressives Spannungsregime im benachbarten Famatina-System und in den Sierras Pampeanas, das als Übergang zwischen der neogenen Krustenverdickung und der maximalen Akkumulation von Deformation und topographischer Hebung der Puna-Hochebene interpretiert wird; und (3) eine dritte Phase, in der das tektonische Regime zu einem Spannungszustand überging, der auf eine Krustenverdickung und die maximale Hebung des Plateaus zwischen ~5-4 Ma folgte; dieses Stadium ist besonders gut in der Puna, in ihrem westlichen Grenzgebiet zum Maricunga-Valle Ancho-Gürtel und entlang ihrer östlichen Grenze im Übergang zu den Sierras Pampeanas zu erkennen und zeigt weiträumige Krustenextension. Die Ergebnisse der Studie belegen somit, dass der Plateaurand einen Wechsel von einem Kompressions- zu einem Transtensionsregime erlebte, das sich von dem Spannungszustand des Andenplateaus in den nördlichen Sektoren für denselben Zeitraum unterscheidet. Ähnliche Spannungsänderungen wurden während des Aufbaus des tibetischen Plateaus dokumentiert, wo ein vorwiegend kompressiver Spannungszustand in einen transtensionalen Zustand überging, der jedoch zwischen 14 und 4 Ma von einem rein tensionalen Spannungszustand abgelöst wurde. KW - Central Andes KW - Puna plateau KW - late cenozoic stress field KW - Andes Centrales KW - Puna plateau KW - campo de esfuerzo del Cenozoico tardío KW - Zentralanden KW - Andenplateau Puna KW - Spannungsfeld des späten Känozoikums Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-610387 ER - TY - THES A1 - Giuri, Chiara T1 - VERITAS Dark Matter search in dwarf spheroidal galaxies: an extended analysis T1 - VERITAS-Suche nach dunkler Materie in sphäroidischen Zwerggalaxien: eine erweiterte Analyse” N2 - In the last century, several astronomical measurements have supported that a significant percentage (about 22%) of the total mass of the Universe, on galactic and extragalactic scales, is composed of a mysterious ”dark” matter (DM). DM does not interact with the electromagnetic force; in other words it does not reflect, absorb or emit light. It is possible that DM particles are weakly interacting massive particles (WIMPs) that can annihilate (or decay) into Standard Model (SM) particles, and modern very- high-energy (VHE; > 100 GeV) instruments such as imaging atmospheric Cherenkov telescopes (IACTs) can play an important role in constraining the main properties of such DM particles, by detecting these products. One of the most privileged targets where to look for DM signal are dwarf spheroidal galaxies (dSphs), as they are expected to be high DM-dominated objects with a clean, gas-free environment. Some dSphs could be considered as extended sources, considering the angular resolution of IACTs; their angu- lar resolution is adequate to detect extended emission from dSphs. For this reason, we performed an extended-source analysis, by taking into account in the unbinned maximum likelihood estimation both the energy and the angular extension dependency of observed events. The goal was to set more constrained upper limits on the velocity-averaged cross-section annihilation of WIMPs with VERITAS data. VERITAS is an array of four IACTs, able to detect γ-ray photons ranging between 100 GeV and 30 TeV. The results of this extended analysis were compared against the traditional spectral analysis. We found that a 2D analysis may lead to more constrained results, depending on the DM mass, channel, and source. Moreover, in this thesis, the results of a multi-instrument project are presented too. Its goal was to combine already published 20 dSphs data from five different experiments, such as Fermi-LAT, MAGIC, H.E.S.S., VERITAS and HAWC, in order to set upper limits on the WIMP annihilation cross-section in the widest mass range ever reported. N2 - Im letzten Jahrhundert haben verschiedene mehrere astronomische Messungen gezeigt, dass ein erheblicher Prozentsatz (etwa 22 %) der Gesamtmasse des Universums auf galaktischer und extragalaktischer Ebene aus einer geheimnisvollen ”dunklen” Materie (DM) besteht. DM interagiert nicht mit der elektromagnetischen Kraft und reflektiert, absorbiert oder emittiert daher kein Licht. Es ist möglich, dass es sich bei DM-Teilchen um schwach wechselwirkende massive Teilchen (engl. weakly interacting massive particles, WIMPs) handelt, die in Teilchen des Standardmodells (SM) annihilieren (oder zerfallen) können. Indem sie diese Produkte nachweisen, können moderne Detektoren für sehr hoch energetische (engl. very-high-energy, VHE; 100 GeV) Gammastrahlung, wie zum Beispiel bildgebende atmosphärische Cherenkov-Teleskope (engl. imaging atmospheric Cherenkov telescopes, IACTs), eine wichtige Rolle bei der Bestimmung der Haupteigenschaften solcher DM-Teilchen spielen. Eines der am besten geeignetsten Ziele für die Suche nach DM-Signalen sind sphäroidische Zwerggalaxien (engl. dwarf spheroidal galaxies, dSphs), da diese stark DM-dominierte Objekte mit einer gasfreien Umgebung sind. Die Winkelauflösung von IACTs ist ausreichend, um ausgedehnte Emission von dSphs zu entdecken. Aus diesem Grund haben wir eine Analyse dieser Quellen durchgeführt, indem wir in der unbinned Maximum-Likelihood-Schätzung sowohl die Energie als auch die Abhängigkeit der Winkelausdehnung der beobachteten Gammastrahlung berücksichtigt haben. Das Ziel war es, mit Hilfe der VERITAS-Daten genauere Obergrenzen für den geschwindigkeitsgemittelten Annihilationsquerschnitt von WIMPs zu bestimmen. VERITAS ist eine Anordnung von vier IACTs, die Gammastrahlen im Bereich von 100 GeV bis 30 TeV detektieren können. Die Ergebnisse dieser erweiterten Analyse wurden mit der traditionellen Spektralanalyse verglichen. Es zeigte sich, dass je nach DM-Masse, Kanal und Quelle eine 2D-Analyse zu aussagekräftigeren Ergebnissen führen kann. Darüber hinaus werden in dieser Arbeit auch die Ergebnisse eines Multi-Instrumenten-Projekts vorgestellt. Das Ziel war es, die bereits veröffentlichte 20 dSphs-Datensätze von Fermi-LAT, MAGIC, H.E.S.S., VERITAS und HAWC zu kombinieren, um obere Grenzwerte für den WIMP-Annihilationsquerschnitt im breitesten jemals veröffentlichten Massenbereich zu bestimmen. KW - Dark Matter KW - data analysis KW - Cherenkov telescopes KW - dwarf spheroidal galaxies KW - Dunkle Materie KW - Datenanalyse KW - Cherenkov-Teleskope KW - sphäroidische Zwerggalaxien Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-575869 ER - TY - THES A1 - Braun, Tobias T1 - Recurrences in past climates T1 - Rekurrenzen in vergangenen Klimaperioden BT - novel concepts & tools for the study of Palaeoseasonality and beyond BT - neue Konzepte und Methoden zur Analyse von Paläosaisonalität und darüber hinaus N2 - Our ability to predict the state of a system relies on its tendency to recur to states it has visited before. Recurrence also pervades common intuitions about the systems we are most familiar with: daily routines, social rituals and the return of the seasons are just a few relatable examples. To this end, recurrence plots (RP) provide a systematic framework to quantify the recurrence of states. Despite their conceptual simplicity, they are a versatile tool in the study of observational data. The global climate is a complex system for which an understanding based on observational data is not only of academical relevance, but vital for the predurance of human societies within the planetary boundaries. Contextualizing current global climate change, however, requires observational data far beyond the instrumental period. The palaeoclimate record offers a valuable archive of proxy data but demands methodological approaches that adequately address its complexities. In this regard, the following dissertation aims at devising novel and further developing existing methods in the framework of recurrence analysis (RA). The proposed research questions focus on using RA to capture scale-dependent properties in nonlinear time series and tailoring recurrence quantification analysis (RQA) to characterize seasonal variability in palaeoclimate records (‘Palaeoseasonality’). In the first part of this thesis, we focus on the methodological development of novel approaches in RA. The predictability of nonlinear (palaeo)climate time series is limited by abrupt transitions between regimes that exhibit entirely different dynamical complexity (e.g. crossing of ‘tipping points’). These possibly depend on characteristic time scales. RPs are well-established for detecting transitions and capture scale-dependencies, yet few approaches have combined both aspects. We apply existing concepts from the study of self-similar textures to RPs to detect abrupt transitions, considering the most relevant time scales. This combination of methods further results in the definition of a novel recurrence based nonlinear dependence measure. Quantifying lagged interactions between multiple variables is a common problem, especially in the characterization of high-dimensional complex systems. The proposed ‘recurrence flow’ measure of nonlinear dependence offers an elegant way to characterize such couplings. For spatially extended complex systems, the coupled dynamics of local variables result in the emergence of spatial patterns. These patterns tend to recur in time. Based on this observation, we propose a novel method that entails dynamically distinct regimes of atmospheric circulation based on their recurrent spatial patterns. Bridging the two parts of this dissertation, we next turn to methodological advances of RA for the study of Palaeoseasonality. Observational series of palaeoclimate ‘proxy’ records involve inherent limitations, such as irregular temporal sampling. We reveal biases in the RQA of time series with a non-stationary sampling rate and propose a correction scheme. In the second part of this thesis, we proceed with applications in Palaeoseasonality. A review of common and promising time series analysis methods shows that numerous valuable tools exist, but their sound application requires adaptions to archive-specific limitations and consolidating transdisciplinary knowledge. Next, we study stalagmite proxy records from the Central Pacific as sensitive recorders of mid-Holocene El Niño-Southern Oscillation (ENSO) dynamics. The records’ remarkably high temporal resolution allows to draw links between ENSO and seasonal dynamics, quantified by RA. The final study presented here examines how seasonal predictability could play a role for the stability of agricultural societies. The Classic Maya underwent a period of sociopolitical disintegration that has been linked to drought events. Based on seasonally resolved stable isotope records from Yok Balum cave in Belize, we propose a measure of seasonal predictability. It unveils the potential role declining seasonal predictability could have played in destabilizing agricultural and sociopolitical systems of Classic Maya populations. The methodological approaches and applications presented in this work reveal multiple exciting future research avenues, both for RA and the study of Palaeoseasonality. N2 - Unsere Fähigkeit, den Zustand eines Systems vorherzusagen, hängt grundlegend von der Tendenz des Systems ab, zu früheren Zuständen zurückzukehren. Solche "Rekurrenzen" sind sogar Bestandteil unserer Intuition und alltäglichen Erfahrungswelt: regelmäßige Routinen, soziale Zusammentreffen and die Wiederkehr der Jahreszeiten sind hierfür nur vereinzelte Beispiele. Rekurrenzplots (RPs) stellen uns in diesem Kontext eine systematische Methode zur Verfügung, um die Wiederkehreigenschaften von Systemzuständen quantitativ zu untersuchen. Obwohl RPs konzeptionell vergleichsweise simpel sind, stellen sie eine vielseitige Methode zur Analyse von gemessenen Beobachtungsdaten dar. Das globale Klimasystem ist ein komplexes System, bei dem ein datenbasiertes Verständnis nicht lediglich von rein akademischen Wert ist – es ist viel mehr relevant für das Fortbestehen der Gesellschaft innerhalb der natürlichen planetaren Grenzen. Um die heute beobachteten Klimaveränderungen allerdings in einen langfristigen Kontext einzuordnen, benötigen wir empirische Daten, die weit über die Periode hinaus gehen, für die instrumentelle Daten verfügbar sind. Paläoklimatologische Datenreihen repräsentieren hier ein wertvolles Archiv, dessen Auswertung jedoch Analysemethoden erfordert, die an die Komplexitäten von paläoklimatologischen ‘Proxydaten’ angepasst sind. Um einen wissenschaftlichen Beitrag zu dieser Problemstellung zu leisten, befasst sich diese Doktorarbeit mit der Konzeptionierung neuer Methoden und der problemstellungsbezogenen Anpassung bewährter Methoden in der Rekurrenzanalyse (RA). Die hier formulierten zentralen Forschungsfragen konzentrieren sich auf den Nachweis zeitskalen-abhängiger Eigenschaften in nichtlinearen Zeitreihen und, insbesondere, der Anpassung von quantitativen Maßen in der RA, um paläosaisonale Proxydaten zu charakterisieren (‘Paläosaisonalität’). Im ersten Teil dieser Arbeit liegt der Schwerpunkt auf der Entwicklung neuer methodischer Ansätze in der RA. Die Vorhersagbarkeit nichtlinearer (paläo)klimatologischer Zeitreihen ist durch abrupte Übergänge zwischen dynamisch grundlegend verschiedenen Zuständen erschwert (so zum Beispiel das Übertreten sogenannter ‘Kipppunkte’). Solche Zustandsübergänge zeigen oft charakteristische Zeitskalen-Abhängigkeiten. RPs haben sich als Methode zum Nachweis von Zustandsübergängen bewährt und sind darüber hinaus geeignet, Skalenabhängigkeiten zu identifizieren. Dennoch wurden beide Aspekte bislang selten methodisch zusammengeführt. Wir kombinieren hier bestehende Konzepte aus der Analyse selbstähnlicher Strukturen und RPs, um abrupte Zustandsübergänge unter Einbezug der relevantesten Zeitskalen zu identifizieren. Diese Kombination von Konzepten führt uns ferner dazu, ein neues rekurrenzbasiertes, nichtlineares Abhängigkeitsmaß einzuführen. Die quantitative Untersuchung zeitversetzter Abhängigkeiten zwischen zahlreichen Variablen ist ein zentrales Problem, das insbesondere in der Analyse hochdimensionaler komplexer Systeme auftritt. Das hier definierte ‘Rekurrenzfluß’-Abhängigkeitsmaß ermöglicht es auf elegante Weise, derartige Abhängigkeiten zu charakterisieren. Bei räumlich ausgedehnten komplexen Systemen führen Interaktionen zwischen lokalen Variablen zu der Entstehung räumlicher Muster. Diese räumlichen Muster zeigen zeitliche Rekurrenzen. In einer auf dieser Beobachtung aufbauenden Publikation stellen wir eine neue Methode vor, mit deren Hilfe differenzierbare, makroskopische Zustände untersucht werden können, die zu zentralen, zeitlich wiederkehrenden räumlichen Mustern korrespondieren. Folgend leiten wir über zum zweiten Teil dieser Arbeit, indem wir uns Anpassungen von Methoden zur Untersuchung von Paläosaisonalität zuwenden. Messreihen paläoklimatologischer Proxydaten geben uns nur indirekt Informationen über die ihnen zugrunde liegenden Klimavariablen und weisen inhärente Limitationen auf, wie zum Beispiel unregelmäßige Zeitabstände zwischen Datenpunkten. Wir zeigen statistische Verzerrungseffekte auf, die in der quantitativen RA auftreten, wenn Signale mit nichtstationärer Abtastrate untersucht werden. Eine Methode zur Korrektur wird vorgestellt und anhand von Messdaten validiert. Der zweite Teil dieser Dissertation befasst sich mit angewandten Analysen von paläosaisonalen Zeitreihen. Eine Literaturauswertung verbreiteter und potentiell vielversprechender Zeitreihenanalysemethoden zeigt auf, dass es eine Vielzahl solcher Methoden gibt, deren adäquate Anwendung aber Anpassungen an Klimaarchiv-spezifische Grenzen und Probleme sowie eine Zusammenführung interdisziplinärer Fähigkeiten erfordert. Daraufhin untersuchen wir an einem Stalagmiten gemessene Proxydaten aus der zentralen Pazifikregion als ein natürliches Archiv für potentielle Veränderungen der El Niño-Southern Oscillation (ENSO) währen des mittleren Holozäns. Die bemerkenswert hohe zeitliche Auflösung der Proxy-Zeitreihen erlaubt es uns, Verbindungen zwischen der Ausprägung der ENSO und saisonalen Zyklen herzustellen, wobei wir erneut Gebrauch von der RA machen. Die letzte Publikation in dieser Arbeit untersucht, in wie fern die Vorhersagbarkeit saisonaler Veränderungen eine Rolle für die Stabilität von Gesellschaften spielen könnte, deren Nahrungsversorgung auf Landwirtschaft beruht. Die klassische Maya-Zivilisation erlitt zwischen 750-950 CE eine drastische Fragmentierung urbaner Zentren, die mit regionalen Dürren in Verbindung gebracht werden. Auf Grundlage von saisonal-aufgelösten Proxydaten aus der Yok Balum Höhle in Belize, definieren wir ein quantitatives Maß für saisonale Vorhersagbarkeit. Dies erlaubt Schlussfolgerungen über die potentielle Rolle, die ein Verlust saisonaler Vorhersagbarkeit für die sich destablisierenden agrarwirtschaftlichen und soziopolitischen Systeme der Maya gehabt haben könnte. Die methodischen Ansätze und Anwendungen in dieser Arbeit zeigen vielseitige, spannende Forschungsfragen für zukünftige Untersuchungen in der RA und Paläosaisonalität auf. KW - recurrence analysis KW - palaeoclimate KW - seasonality KW - nonlinear time series analysis KW - self-similarity KW - regime shifts KW - climate impact research KW - Klimafolgenforschung KW - nichtlineare Zeitreihenanalyse KW - Paläoklima KW - Rekurrenzanalyse KW - abrupte Übergänge KW - Selbstähnlichkeit Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586900 ER - TY - THES A1 - Khosravi, Sara T1 - The effect of new turbulence parameterizations for the stable surface layer on simulations of the Arctic climate T1 - Die Auswirkung neuer Turbulenzparametrisierungen auf die stabile Grenzschicht in Simulationen des arktischen Klimas N2 - Arctic climate change is marked by intensified warming compared to global trends and a significant reduction in Arctic sea ice which can intricately influence mid-latitude atmospheric circulation through tropo- and stratospheric pathways. Achieving accurate simulations of current and future climate demands a realistic representation of Arctic climate processes in numerical climate models, which remains challenging. Model deficiencies in replicating observed Arctic climate processes often arise due to inadequacies in representing turbulent boundary layer interactions that determine the interactions between the atmosphere, sea ice, and ocean. Many current climate models rely on parameterizations developed for mid-latitude conditions to handle Arctic turbulent boundary layer processes. This thesis focuses on modified representation of the Arctic atmospheric processes and understanding their resulting impact on large-scale mid-latitude atmospheric circulation within climate models. The improved turbulence parameterizations, recently developed based on Arctic measurements, were implemented in the global atmospheric circulation model ECHAM6. This involved modifying the stability functions over sea ice and ocean for stable stratification and changing the roughness length over sea ice for all stratification conditions. Comprehensive analyses are conducted to assess the impacts of these modifications on ECHAM6's simulations of the Arctic boundary layer, overall atmospheric circulation, and the dynamical pathways between the Arctic and mid-latitudes. Through a step-wise implementation of the mentioned parameterizations into ECHAM6, a series of sensitivity experiments revealed that the combined impacts of the reduced roughness length and the modified stability functions are non-linear. Nevertheless, it is evident that both modifications consistently lead to a general decrease in the heat transfer coefficient, being in close agreement with the observations. Additionally, compared to the reference observations, the ECHAM6 model falls short in accurately representing unstable and strongly stable conditions. The less frequent occurrence of strong stability restricts the influence of the modified stability functions by reducing the affected sample size. However, when focusing solely on the specific instances of a strongly stable atmosphere, the sensible heat flux approaches near-zero values, which is in line with the observations. Models employing commonly used surface turbulence parameterizations were shown to have difficulties replicating the near-zero sensible heat flux in strongly stable stratification. I also found that these limited changes in surface layer turbulence parameterizations have a statistically significant impact on the temperature and wind patterns across multiple pressure levels, including the stratosphere, in both the Arctic and mid-latitudes. These significant signals vary in strength, extent, and direction depending on the specific month or year, indicating a strong reliance on the background state. Furthermore, this research investigates how the modified surface turbulence parameterizations may influence the response of both stratospheric and tropospheric circulation to Arctic sea ice loss. The most suitable parameterizations for accurately representing Arctic boundary layer turbulence were identified from the sensitivity experiments. Subsequently, the model's response to sea ice loss is evaluated through extended ECHAM6 simulations with different prescribed sea ice conditions. The simulation with adjusted surface turbulence parameterizations better reproduced the observed Arctic tropospheric warming in vertical extent, demonstrating improved alignment with the reanalysis data. Additionally, unlike the control experiments, this simulation successfully reproduced specific circulation patterns linked to the stratospheric pathway for Arctic-mid-latitude linkages. Specifically, an increased occurrence of the Scandinavian-Ural blocking regime (negative phase of the North Atlantic Oscillation) in early (late) winter is observed. Overall, it can be inferred that improving turbulence parameterizations at the surface layer can improve the ECHAM6's response to sea ice loss. N2 - Der Klimawandel in der Arktis ist durch eine im Vergleich zum globalen Klimawandel verstärkte Erwärmung und einem damit verbundenen starken Rückgang des arktischen Meereises gekennzeichnet. Da dieser verstärkte Klimawandel in der Arktis die atmosphärische Zirkulation in den mittleren Breiten auf komplexe Weise über tropo- und stratosphärische Pfade beeinflussen kann, ist eine realistische Darstellung arktischer Prozesse in numerischen Klimamodellen für zuverlässige Simulationen gegenwärtiger und zukünftiger Klimaänderungen notwendig, stellt aber nach wie vor eine Herausforderung dar. Ein wesentlicher Grund für Modelldefizite bei der Reproduktion der beobachteten arktischen Klimaprozesse sind Unzulänglichkeiten bei der Darstellung von turbulenten Grenzschichtprozessen, die die Wechselwirkung zwischen Atmosphäre, Meereis und Ozean bestimmen. Gegenwärtige Klimamodelle verwenden für die Darstellung von turbulenten Grenzschichtprozessen in der Arktis häufig Parametrisierungen, die für Bedingungen in mittleren Breiten entwickelt wurden. Diese Arbeit zielt auf eine bessere Darstellung arktischer atmosphärischer Prozesse in Klimamodellen und ein besseres Verständnis der daraus resultierenden Auswirkungen auf die simulierte großskalige atmosphärische Zirkulation in mittleren Breiten ab. Aus diesem Grund wurde in dieser Arbeit eine Hierarchie von verbesserten Turbulenzparametrisierungen in das globale atmosphärische Zirkulationsmodell ECHAM6 implementiert, die basierend auf arktischen Messungen kürzlich entwickelt wurden. Dabei wurden die Stabilitätsfunktionen über Meereis und Ozean für stabile Schichtung sowie die Rauhigkeitslänge über dem Meereis für alle Schichtungsbedingungen modifiziert. Anschließend wurde eine umfassende Analyse der jeweiligen Sensitivitätsexperimente durchgeführt, um den Einfluss dieser Modifikationen auf die Simulationen der arktischen Grenzschicht, der großräumigen atmosphärischen Zirkulation und der dynamischen Verbindungswege zwischen der Arktis und den mittleren Breiten in ECHAM6 zu bewerten. Durch eine schrittweise Implementierung der Hierarchie von verbesserten Turbulenzparameterisierungen in ECHAM6 wurden in einer Reihe von Sensitivitätsexperimenten folgende Erkenntnisse gewonnen: Die kombinierte Auswirkung der reduzierten Rauhigkeitslänge und der modifizierten Stabilitätsfunktionen ist nichtlinear. Dennoch zeigt sich, dass beide Modifikationen zu einer besseren Darstellung arktischer Grenzschichtprozesse führen, insbesondere stimmt die Verringerung des Transferkoeffizienten für Wärme gut mit den Beobachtungen überein. Im Vergleich zu den Referenzbeobachtungen zeigt das ECHAM6-Modell jedoch eine unrealistische Darstellung des Auftretens labiler und stark stabiler Schichtungsbedingungen. Die geringere Häufigkeit von stark stabilen Bedingungen begrenzt den Einfluss der modifizierten Stabilitätsfunktionen. Wenn in den Modelldaten nur die Fälle mit stark stabiler Schichtung analysiert werden, führt die Verwendung der modifizierten Stabilitätsfunktionen zu sehr kleinen turbulenten sensiblen Wärmeflüssen in guter Übereinstimmung mit den Beobachtungen. Dieses Verhalten wurde in den Modellsimulationen mit der Standardturbulenzparametrisierung nicht reproduziert. Es wurde zudem festgestellt, dass die Änderungen in den Turbulenzparametrisierungen einen statistisch signifikanten Einfluss auf die großskaligen Temperatur- und Windfelder in verschiedenen Höhen bis in die Stratosphäre sowohl in der Arktis als auch in den mittleren Breiten haben. Diese signifikanten Signale variieren in ihrer Stärke und Lage je nach Monat und Jahr, was eine starke Abhängigkeit vom Hintergrundzustand anzeigt. Des Weiteren wird in dieser Arbeit untersucht, wie die modifizierten Turbulenzparametrisierungen die Reaktion der troposphärischen und stratosphärischen Zirkulation auf den Rückgang des arktischen Meereises beeinflussen. Dafür wurden die geeignetsten Parametrisierungen zur Darstellung der arktischen Grenzschichtturbulenz anhand der Sensitivitätsexperimente identifiziert. Anschließend wurde die Reaktion des Modells ECHAM6 auf den Meereisverlust durch weitere lange Simulationen mit unterschiedlichen vorgegebenen Meereisbedingungen bewertet. Dabei simuliert die ECHAM6 Modellversion mit verbesserter Turbulenzparametrisierung eine größere vertikale Ausdehnung der arktischen troposphärischen Erwärmung bei Meereisrückgang und zeigt somit eine verbesserte Übereinstimmung mit den Reanalyse-Daten. Darüber hinaus treten in dieser Simulation im Gegensatz zu den Kontrollexperimenten häufiger bevorzugte Zirkulationsmuster auf, die dafür bekannt sind, dass sie Änderungen in der Arktis dynamisch mit den mittleren Breiten verknüpfen. Insbesondere treten blockierende Hochdrucklagen über Skandinavien/Ural im Frühwinter und die negative Phase der Nordatlantischen Oszillation im Spätwinter häufiger auf. Daher lässt sich ableiten, dass durch eine Verbesserung der Turbulenzparametrisierung der Effekt von Meereisverlust in ECHAM6 realistischer dargestellt werden kann. KW - boundary layer KW - atmosphere KW - atmospheric modelling KW - turbulence parameterizations KW - Atmosphäre KW - Atmosphärenmodellierung KW - Grenzschicht KW - Turbulenzparametrisierungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-643520 ER - TY - THES A1 - Trautmann, Tina T1 - Understanding global water storage variations using model-data integration T1 - Verständnis der Variabilität globaler Wasserspeicher mittels Modell-Daten Integration N2 - Climate change is one of the greatest challenges to humanity in this century, and most noticeable consequences are expected to be impacts on the water cycle – in particular the distribution and availability of water, which is fundamental for all life on Earth. In this context, it is essential to better understand where and when water is available and what processes influence variations in water storages. While estimates of the overall terrestrial water storage (TWS) variations are available from the GRACE satellites, these represent the vertically integrated signal over all water stored in ice, snow, soil moisture, groundwater and surface water bodies. Therefore, complementary observational data and hydrological models are still required to determine the partitioning of the measured signal among different water storages and to understand the underlying processes. However, the application of large-scale observational data is limited by their specific uncertainties and the incapacity to measure certain water fluxes and storages. Hydrological models, on the other hand, vary widely in their structure and process-representation, and rarely incorporate additional observational data to minimize uncertainties that arise from their simplified representation of the complex hydrologic cycle. In this context, this thesis aims to contribute to improving the understanding of global water storage variability by combining simple hydrological models with a variety of complementary Earth observation-based data. To this end, a model-data integration approach is developed, in which the parameters of a parsimonious hydrological model are calibrated against several observational constraints, inducing GRACE TWS, simultaneously, while taking into account each data’s specific strengths and uncertainties. This approach is used to investigate 3 specific aspects that are relevant for modelling and understanding the composition of large-scale TWS variations. The first study focusses on Northern latitudes, where snow and cold-region processes define the hydrological cycle. While the study confirms previous findings that seasonal dynamics of TWS are dominated by the cyclic accumulation and melt of snow, it reveals that inter-annual TWS variations on the contrary, are determined by variations in liquid water storages. Additionally, it is found to be important to consider the impact of compensatory effects of spatially heterogeneous hydrological variables when aggregating the contribution of different storage components over large areas. Hence, the determinants of TWS variations are scale-dependent and underlying driving mechanism cannot be simply transferred between spatial and temporal scales. These findings are supported by the second study for the global land areas beyond the Northern latitudes as well. This second study further identifies the considerable impact of how vegetation is represented in hydrological models on the partitioning of TWS variations. Using spatio-temporal varying fields of Earth observation-based data to parameterize vegetation activity not only significantly improves model performance, but also reduces parameter equifinality and process uncertainties. Moreover, the representation of vegetation drastically changes the contribution of different water storages to overall TWS variability, emphasizing the key role of vegetation for water allocation, especially between sub-surface and delayed water storages. However, the study also identifies parameter equifinality regarding the decay of sub-surface and delayed water storages by either evapotranspiration or runoff, and thus emphasizes the need for further constraints hereof. The third study focuses on the role of river water storage, in particular whether it is necessary to include computationally expensive river routing for model calibration and validation against the integrated GRACE TWS. The results suggest that river routing is not required for model calibration in such a global model-data integration approach, due to the larger influence other observational constraints, and the determinability of certain model parameters and associated processes are identified as issues of greater relevance. In contrast to model calibration, considering river water storage derived from routing schemes can already significantly improve modelled TWS compared to GRACE observations, and thus should be considered for model evaluation against GRACE data. Beyond these specific findings that contribute to improved understanding and modelling of large-scale TWS variations, this thesis demonstrates the potential of combining simple modeling approaches with diverse Earth observational data to improve model simulations, overcome inconsistencies of different observational data sets, and identify areas that require further research. These findings encourage future efforts to take advantage of the increasing number of diverse global observational data. N2 - Der Klimawandel stellt mit Abstand eine der größten Herausforderungen für die Menschheit in diesem Jahrhundert da, und die spürbarsten Folgen werden voraussichtlich die Auswirkungen auf den Wasserkreislauf sein - insbesondere auf die Verteilung und Verfügbarkeit von Wasser, welches Grundlage allen Lebens dieser Erde ist. In diesem Zusammenhang ist es von entscheidender Bedeutung, besser zu verstehen, wo und wann Wasser verfügbar ist und welche Prozesse natürliche Schwankungen der Wasserspeicher beeinflussen. Obwohl Schätzungen der Gesamtschwankungen der terrestrischen Wasserspeicher (TWS) basierend auf Daten der GRACE-Satelliten vorliegen, stellen diese nur das vertikal integrierte Signal über alles in Eis, Schnee, Bodenfeuchtigkeit, Grundwasser und Oberflächengewässern gespeicherte Wasser dar. Daher sind ergänzende Beobachtungsdaten und hydrologische Modelle notwendig, um die Aufteilung des gemessenen Signals auf verschiedenen Wasserspeicher zu bestimmen und die zugrunde liegenden Prozesse zu verstehen. Die Verwendung von großmaßstäblichen Beobachtungsdaten ist jedoch durch ihre spezifischen Unsicherheiten und die Unfähigkeit, bestimmte Wasserflüsse und -speicher zu messen, eingeschränkt. Hydrologische Modelle hingegen unterscheiden sich stark in ihrer Struktur und Prozessdarstellung und beziehen nur selten zusätzliche Beobachtungsdaten ein, um Unsicherheiten zu minimieren, die sich aus ihrer vereinfachten Darstellung des komplexen Wasserkreislaufs ergeben. In diesem Zusammenhang gibt diese Arbeit einen Beitrag zum besseren Verständnis der Schwankungen globaler Wasserspeicher, indem einfache hydrologische Modelle mit einer Vielzahl sich ergänzender Erdbeobachtungsdaten kombiniert werden. Dafür wird ein Ansatz zur Integration von Modellen und Daten entwickelt, bei dem die Parameter eines einfachen hydrologischen Modells gleichzeitig gegen mehrere Beobachtungsdaten, inklusive GRACE TWS, kalibriert werden, wobei deren spezifischen Stärken und Unsicherheiten berücksichtigt werden. Dieser Ansatz wird genutzt, um drei spezifische Aspekte, die für die Modellierung und das Verständnis der Zusammensetzung großskaliger TWS-Schwankungen relevant sind, zu untersuchen. Die erste Studie konzentriert sich auf die nördlichen Breiten, wo Schnee und Prozesse kalter Regionen den hydrologischen Kreislauf bestimmen. Während die Studie frühere Erkenntnisse darin bestätigt, dass die saisonale Dynamik des TWS von der zyklischen Akkumulation und Schmelze von Schnee dominiert wird, zeigt sie, dass die zwischenjährlichen TWS-Schwankungen im Gegenteil durch Variationen der Flüssigwasserspeicher bestimmt werden. Darüber hinaus wird festgestellt, dass es wichtig ist, die Auswirkungen kompensatorischer Effekte räumlich heterogener hydrologischer Variablen zu berücksichtigen, wenn der Beitrag verschiedener Speicherkomponenten über große Gebiete aggregiert wird. Die Determinanten der TWS-Schwankungen sind skalenabhängig, und die zugrunde liegenden Antriebsmechanismen lassen sich nicht einfach zwischen räumlichen und zeitlichen Skalen übertragen. Diese Ergebnisse werden durch die zweite Studie auch auf globaler Skale bestätigt. Diese zweite Studie zeigt außerdem, dass die Art und Weise, wie Vegetation in hydrologischen Modellen dargestellt wird, einen erheblichen Einfluss auf die Aufteilung der TWS-Variationen hat. Die Verwendung von raum-zeitlich variierenden Erdbeobachtungsdaten zur Parametrisierung der Vegetationsaktivität verbessert nicht nur die Modellleistung erheblich, sondern verringert auch die Parameterequifinalität und somit die Prozessunsicherheiten. Darüber hinaus beeinflusst die Repräsentation der Vegetation drastisch den Einfluss verschiedener Wasserspeicher zur Gesamtvariabilität des TWS und unterstreicht damit die Schlüsselrolle der Vegetation für die Wasserverteilung, insbesondere zwischen unterirdischen und verzögerten Wasserspeichern. Die Studie zeigt jedoch auch, dass die Parameter für den Verringerung der unterirdischen und verzögerten Wasserspeichern, entweder via Evapotranspiration oder via Abfluss, äquivalent sind, und unterstreicht damit die Notwendigkeit weiterer Eingrenzung durch Beobachtungsdaten. Die dritte Studie befasst sich mit der Rolle der Wasserspeicherung in Flüssen, insbesondere mit der Frage, ob es notwendig ist, das rechenintensive Abfluss-Routing für die Kalibrierung und Validierung des Modells gegen GRACE TWS Daten zu berücksichtigen. Die Ergebnisse deuten darauf hin, dass das Abfluss-Routing für die Modellkalibrierung in einem solchen globalen Modell-Daten-Integrationsansatz nicht erforderlich ist, da andere Beobachtungsdaten einen größeren Einfluss haben und die Definierbarkeit bestimmter Modellparameter und damit zusammenhängender Prozesse relevantere Probleme darstellen. Im Gegensatz zur Modellkalibrierung kann die Berücksichtigung von Flusswasserspeichern jedoch den modellierten TWS im Vergleich zu GRACE-Beobachtungen bereits erheblich verbessern und sollte daher bei der Modellevaluierung gegen GRACE-Daten berücksichtigt werden. Über diese spezifischen Ergebnisse hinaus, die zum besseren Verständnis und Modellierung großskaliger TWS-Variationen beitragen, zeigt diese Arbeit das Potenzial der Kombination einfacher Modellierungsansätze mit verschiedenen Erdbeobachtungsdaten zur Verbesserung von Modellsimulationen, zur Überwindung von Inkonsistenzen zwischen verschiedenen Beobachtungsdatensätzen und zur Identifizierung von Themen, die weitere Forschung erfordern. Diese Ergebnisse ermutigen künftige Forschungen, die zunehmende Zahl unterschiedlicher globaler Beobachtungsdaten zu nutzen. KW - global hydrological modeling KW - model-data integration KW - terrestrial water storage variation KW - model calibration KW - globale hydrologische Modellierung KW - Modellkalibrierung KW - Model-Daten Integration KW - Variationen terrestrischer Wasserspeicher Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-565954 ER - TY - THES A1 - Brenner, Andri Caspar T1 - Sustainable urban growth T1 - Nachhaltige urbane Wachstumspfade BT - technology supply and agglomeration economies in the city BT - Angebote an Technologie und Agglomerationsexternalitäten in den Städten N2 - This dissertation explores the determinants for sustainable and socially optimalgrowth in a city. Two general equilibrium models establish the base for this evaluation, each adding its puzzle piece to the urban sustainability discourse and examining the role of non-market-based and market-based policies for balanced growth and welfare improvements in different theory settings. Sustainable urban growth either calls for policy actions or a green energy transition. Further, R&D market failures can pose severe challenges to the sustainability of urban growth and the social optimality of decentralized allocation decisions. Still, a careful (holistic) combination of policy instruments can achieve sustainable growth and even be first best. N2 - Diese Dissertation untersucht die Determinanten für ein nachhaltiges und sozial optimales Wachstum in den Städten. Zwei endogene Wachstumsmodelle untersuchen hierzu die Rolle von nichtmarktbasierten und marktbasierten Politikeingriffen. Jedes Modell fügt dabei dem städtischen Nachhaltigkeitsdiskurs sein eigenes Puzzleteil hinzu. Nachhaltiges städtisches Wachstum erfordert entweder politische Maßnahmen oder eine grüne Energiewende. Darüber hinaus können Verzerrungen im Forschungsmarkt ernsthafte Herausforderungen für die Nachhaltigkeit des städtischen Wachstums und für die soziale Optimalität dezentralisierter Allokationsentscheidungen darstellen. Dennoch kann eine sorgfältige (ganzheitliche) Kombination von Politikinstrumenten Erfolg haben und zu einem sozial optimalen Resultat führen. KW - urban growth KW - sustainable development KW - density effects KW - innovations in the city KW - Stadtwachstumsraten KW - nachhaltige Stadtentwicklung KW - Dichteeffekte KW - Innovationen in den Städten Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555223 ER - TY - THES A1 - Neuendorf, Claudia T1 - Leistungsstarke Schülerinnen und Schüler in Deutschland T1 - High-achieving students in Germany BT - Definition, Entwicklung, soziale Integration BT - definition, development, social integration N2 - Die vorliegende kumulative Promotionsarbeit beschäftigt sich mit leistungsstarken Schülerinnen und Schülern, die seit 2015 in der deutschen Bildungspolitik, zum Beispiel im Rahmen von Förderprogrammen wieder mehr Raum einnehmen, nachdem in Folge des „PISA-Schocks“ im Jahr 2000 zunächst der Fokus stärker auf den Risikogruppen lag. Während leistungsstärkere Schülerinnen und Schüler in der öffentlichen Wahrnehmung häufig mit „(Hoch-)Begabten“ identifiziert werden, geht die Arbeit über die traditionelle Begabungsforschung, die eine generelle Intelligenz als Grundlage für Leistungsfähigkeit von Schülerinnen und Schülern begreift und beforscht, hinaus. Stattdessen lässt sich eher in den Bereich der Talentforschung einordnen, die den Fokus weg von allgemeinen Begabungen auf spezifische Prädiktoren und Outcomes im individuellen Entwicklungsverlauf legt. Der Fokus der Arbeit liegt daher nicht auf Intelligenz als Potenzial, sondern auf der aktuellen schulischen Leistung, die als Ergebnis und Ausgangspunkt von Entwicklungsprozessen in einer Leistungsdomäne doppelte Bedeutung erhält. Die Arbeit erkennt die Vielgestaltigkeit des Leistungsbegriffs an und ist bestrebt, neue Anlässe zu schaffen, über den Leistungsbegriff und seine Operationalisierung in der Forschung zu diskutieren. Hierfür wird im ersten Teil ein systematisches Review zur Operationalisierung von Leistungsstärke durchgeführt (Artikel I). Es werden Faktoren herausgearbeitet, auf welchen sich die Operationalisierungen unterscheiden können. Weiterhin wird ein Überblick gegeben, wie Studien zu Leistungsstarken sich seit dem Jahr 2000 auf diesen Dimensionen verorten lassen. Es zeigt sich, dass eindeutige Konventionen zur Definition schulischer Leistungsstärke noch nicht existieren, woraus folgt, dass Ergebnisse aus Studien, die sich mit leistungsstarken Schülerinnen und Schülern beschäftigen, nur bedingt miteinander vergleichbar sind. Im zweiten Teil der Arbeit wird im Rahmen zwei weiterer Artikel, welche sich mit der Leistungsentwicklung (Artikel II) und der sozialen Einbindung (Artikel III) von leistungsstarken Schülerinnen und Schülern befassen, darauf aufbauend der Ansatz verfolgt, die Variabilität von Ergebnissen über verschiedene Operationalisierungen von Leistungsstärke deutlich zu machen. Damit wird unter anderem auch die künftige Vergleichbarkeit mit anderen Studien erleichtert. Genutzt wird dabei das Konzept der Multiversumsanalyse (Steegen et al., 2016), bei welcher viele parallele Spezifikationen, die zugleich sinnvolle Alternativen für die Operationalisierung darstellen, nebeneinandergestellt und in ihrem Effekt verglichen werden (Jansen et al., 2021). Die Multiversumsanalyse knüpft konzeptuell an das bereits vor längerem entwickelte Forschungsprogramm des kritischen Multiplismus an (Patry, 2013; Shadish, 1986, 1993), erhält aber als spezifische Methode aktuell im Rahmen der Replizierbarkeitskrise in der Psychologie eine besondere Bedeutung. Dabei stützt sich die vorliegende Arbeit auf die Sekundäranalyse großangelegter Schulleistungsstudien, welche den Vorteil besitzen, dass eine große Zahl an Datenpunkten (Variablen und Personen) zur Verfügung steht, um Effekte unterschiedlicher Operationalisierungen zu vergleichen. Inhaltlich greifen Artikel II und III Themen auf, die in der wissenschaftlichen und gesellschaftlichen Diskussion zu Leistungsstarken und ihrer Wahrnehmung in der Öffentlichkeit immer wieder aufscheinen: In Artikel II wird zunächst die Frage gestellt, ob Leistungsstarke bereits im aktuellen Regelunterricht einen kumulativen Vorteil gegenüber ihren weniger leistungsstarken Mitschülerinnen und Mitschülern haben (Matthäus-Effekt). Die Ergebnisse zeigen, dass an Gymnasien keineswegs von sich vergrößernden Unterschieden gesprochen werden kann. Im Gegenteil, es verringerte sich im Laufe der Sekundarstufe der Abstand zwischen den Gruppen, indem die Lernraten bei leistungsschwächeren Schülerinnen und Schülern höher waren. Artikel III hingegen betrifft die soziale Wahrnehmung von leistungsstarken Schülerinnen und Schülern. Auch hier hält sich in der öffentlichen Diskussion die Annahme, dass höhere Leistungen mit Nachteilen in der sozialen Integration einhergehen könnten, was sich auch in Studien widerspiegelt, die sich mit Geschlechterstereotypen Jugendlicher in Bezug auf Schulleistung beschäftigen. In Artikel III wird unter anderem erneut das Potenzial der Multiversumsanalyse genutzt, um die Variation des Zusammenhangs über Operationalisierungen von Leistungsstärke zu beschreiben. Es zeigt sich unter unterschiedlichen Operationalisierungen von Leistungsstärke und über verschiedene Facetten sozialer Integration hinweg, dass die Zusammenhänge zwischen Leistung und sozialer Integration insgesamt leicht positiv ausfallen. Annahmen, die auf differenzielle Effekte für Jungen und Mädchen oder für unterschiedliche Fächer abzielen, finden in diesen Analysen keine Bestätigung. Die Dissertation zeigt, dass der Vergleich unterschiedlicher Ansätze zur Operationalisierung von Leistungsstärke — eingesetzt im Rahmen eines kritischen Multiplismus — das Verständnis von Phänomenen vertiefen kann und auch das Potenzial hat, Theorieentwicklung voranzubringen. N2 - This cumulative doctoral thesis deals with high-achieving students. Since 2015, this group has regained attention in German education policy, which had focused more on at-risk groups in the wake of the German "PISA shock" in 2000. In public perception, high-achieving students are often equated with "(highly) gifted" individuals. However, this work goes beyond traditional giftedness research, which understands and researches general intelligence as the basis for students' performance. Instead, it can rather be placed in the field of talent research, which shifts the focus away from general giftedness to specific predictors and outcomes in individual developmental trajectories. Therefore, the work focuses not on intelligence as a potential but on current academic performance, which takes on a double meaning as the result and starting point of developmental processes in a performance domain. This work recognises the multifaceted nature of the concept of performance and strives to create new occasions to discuss the concept of performance and its operationalisation in research. To this end, a systematic review of the operationalisation of high achievement in studies since the year 2000 was conducted in the first part (Article I). First, we identified factors on which operationalisations can differ. Following that, studies were located on these dimensions. Results showed that clear conventions for defining academic achievement do not yet exist, which means that results from studies dealing with high-achieving students can only be compared to a limited extent. In the second part of the thesis, two further articles dealing with the development of performance (Article II) and the social integration (Article III) of high-achieving secondary school students built on the results of the first article and examined the variability of results by applying different operationalisations of achievement. Among other things, this facilitates future comparability with other studies. The concept of multiverse analysis (Steegen, Tuerlinckx, Gelman & Vanpaemel, 2016) was used for this purpose. In a multiverse analysis, many parallel specifications, which at the same time represent sensible alternatives for an operationalisation, are juxtaposed and compared in terms of their effect (Jansen, Neuendorf & Kocaj, 2021). Conceptually, multiverse analysis is linked to the research programme of Critical Multiplism, which was developed some time ago (Patry, 2013; Shadish, 1986, 1993). However, as a specific method, multiverse analysis is currently gaining special significance in the context of the replicability crisis in psychology. The present studies are based on the secondary analysis of large-scale school performance studies, which have the advantage that many data points (variables and persons) are available to compare the effects of different operationalisations. In terms of content, Articles II and III take up topics that repeatedly come up in the academic and public discussion on high achievers and their public perception: Article II begins by asking whether high-achievers already have a cumulative advantage over their lower-achieving classmates in the current regular classroom (Matthew effect). The results show that at grammar schools, one can by no means speak of widening differences. On the contrary, the gap between the groups narrowed in the course of secondary school, in that learning rates were higher among lower-performing students. Article III, on the other hand, concerns the social perception of high-achieving pupils. Here, the assumption persists in the public debate that higher performance might be associated with disadvantages in social integration, which is also reflected in studies dealing with gender stereotypes of young people in relation to school performance. In Article III, among other things, the potential of multiverse analysis was used to describe the variation in the relationship between achievement and social integration across operationalisations of achievement. Overall, across different facets of social integration and different operationalisations of achievement, the correlations between both were slightly positive. These analyses did not confirm assumptions aimed at differential effects for boys and girls or for different subjects. The dissertation shows that the comparison of different approaches to the operationalisation of achievement - used in the context of critical multiplism - can deepen the understanding of phenomena and also has the potential to advance theory development. KW - leistungsstarke Schüler KW - Begabung KW - Leistungsentwicklung KW - Integration KW - Operationalisierung KW - giftedness KW - integration KW - achievement trajectory KW - operationalisation; operationalization KW - high-achieving students; high-performing students; high-achievers Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-564702 ER - TY - THES A1 - Schemenz, Victoria T1 - Correlations between osteocyte lacuno-canalicular network and material characteristics in bone adaptation and regeneration T1 - Korrelationen zwischen dem lakuno-kanalikulären Netzwerk der Osteozyten und Materialeigenschaften bei der Knochenanpassung und -regeneration N2 - The complex hierarchical structure of bone undergoes a lifelong remodeling process, where it adapts to mechanical needs. Hereby, bone resorption by osteoclasts and bone formation by osteoblasts have to be balanced to sustain a healthy and stable organ. Osteocytes orchestrate this interplay by sensing mechanical strains and translating them into biochemical signals. The osteocytes are located in lacunae and are connected to one another and other bone cells via cell processes through small channels, the canaliculi. Lacunae and canaliculi form a network (LCN) of extracellular spaces that is able to transport ions and enables cell-to-cell communication. Osteocytes might also contribute to mineral homeostasis by direct interactions with the surrounding matrix. If the LCN is acting as a transport system, this should be reflected in the mineralization pattern. The central hypothesis of this thesis is that osteocytes are actively changing their material environment. Characterization methods of material science are used to achieve the aim of detecting traces of this interaction between osteocytes and the extracellular matrix. First, healthy murine bones were characterized. The properties analyzed were then compared with three murine model systems: 1) a loading model, where a bone of the mouse was loaded during its life time; 2) a healing model, where a bone of the mouse was cut to induce a healing response; and 3) a disease model, where the Fbn1 gene is dysfunctional causing defects in the formation of the extracellular tissue. The measurement strategy included routines that make it possible to analyze the organization of the LCN and the material components (i.e., the organic collagen matrix and the mineral particles) in the same bone volumes and compare the spatial distribution of different data sets. The three-dimensional network architecture of the LCN is visualized by confocal laser scanning microscopy (CLSM) after rhodamine staining and is then subsequently quantified. The calcium content is determined via quantitative backscattered electron imaging (qBEI), while small- and wide-angle X-ray scattering (SAXS and WAXS) are employed to determine the thickness and length of local mineral particles. First, tibiae cortices of healthy mice were characterized to investigate how changes in LCN architecture can be attributed to interactions of osteocytes with the surrounding bone matrix. The tibial mid-shaft cross-sections showed two main regions, consisting of a band with unordered LCN surrounded by a region with ordered LCN. The unordered region is a remnant of early bone formation and exhibited short and thin mineral particles. The surrounding, more aligned bone showed ordered and dense LCN as well as thicker and longer mineral particles. The calcium content was unchanged between the two regions. In the mouse loading model, the left tibia underwent two weeks of mechanical stimulation, which results in increased bone formation and decreased resorption in skeletally mature mice. Here the specific research question addressed was how do bone material characteristics change at (re)modeling sites? The new bone formed in response to mechanical stimulation showed similar properties in terms of the mineral particles, like the ordered calcium region but lower calcium content compared to the right, non-loaded control bone of the same mice. There was a clear, recognizable border between mature and newly formed bone. Nevertheless, some canaliculi went through this border connecting the LCN of mature and newly formed bone. Additionally, the question should be answered whether the LCN topology and the bone matrix material properties adapt to loading. Although, mechanically stimulated bones did not show differences in calcium content compared to controls, different correlations were found between the local LCN density and the local Ca content depending on whether the bone was loaded or not. These results suggest that the LCN may serve as a mineral reservoir. For the healing model, the femurs of mice underwent an osteotomy, stabilized with an external fixator and were allowed to heal for 21 days. Thus, the spatial variations in the LCN topology with mineral properties within different tissue types and their interfaces, namely calcified cartilage, bony callus and cortex, could be simultaneously visualized and compared in this model. All tissue types showed structural differences across multiple length scales. Calcium content increased and became more homogeneous from calcified cartilage to bony callus to lamellar cortical bone. The degree of LCN organization increased as well, while the lacunae became smaller, as did the lacunar density between these different tissue types that make up the callus. In the calcified cartilage, the mineral particles were short and thin. The newly formed callus exhibited thicker mineral particles, which still had a low degree of orientation. While most of the callus had a woven-like structure, it also served as a scaffold for more lamellar tissue at the edges. The lamelar bone callus showed thinner mineral particles, but a higher degree of alignment in both, mineral particles and the LCN. The cortex showed the highest values for mineral length, thickness and degree of orientation. At the same time, the lacunae number density was 34% lower and the lacunar volume 40% smaller compared to bony callus. The transition zone between cortical and callus regions showed a continuous convergence of bone mineral properties and lacunae shape. Although only a few canaliculi connected callus and the cortical region, this indicates that communication between osteocytes of both tissues should be possible. The presented correlations between LCN architecture and mineral properties across tissue types may suggest that osteocytes have an active role in mineralization processes of healing. A mouse model for the disease marfan syndrome, which includes a genetic defect in the fibrillin-1 gene, was investigated. In humans, Marfan syndrome is characterized by a range of clinical symptoms such as long bone overgrowth, loose joints, reduced bone mineral density, compromised bone microarchitecture, and increased fracture rates. Thus, fibrillin-1 seems to play a role in the skeletal homeostasis. Therefore, the present work studied how marfan syndrome alters LCN architecture and the surrounding bone matrix. The mice with marfan syndrome showed longer tibiae than their healthy littermates from an age of seven weeks onwards. In contrast, the cortical development appeared retarded, which was observed across all measured characteristics, i. e. lower endocortical bone formation, looser and less organized lacuno-canalicular network, less collagen orientation, thinner and shorter mineral particles. In each of the three model systems, this study found that changes in the LCN architecture spatially correlated with bone matrix material parameters. While not knowing the exact mechanism, these results provide indications that osteocytes can actively manipulate a mineral reservoir located around the canaliculi to make a quickly accessible contribution to mineral homeostasis. However, this interaction is most likely not one-sided, but could be understood as an interplay between osteocytes and extra-cellular matrix, since the bone matrix contains biochemical signaling molecules (e.g. non-collagenous proteins) that can change osteocyte behavior. Bone (re)modeling can therefore not only be understood as a method for removing defects or adapting to external mechanical stimuli, but also for increasing the efficiency of possible osteocyte-mineral interactions during bone homeostasis. With these findings, it seems reasonable to consider osteocytes as a target for drug development related to bone diseases that cause changes in bone composition and mechanical properties. It will most likely require the combined effort of materials scientists, cell biologists, and molecular biologists to gain a deeper understanding of how bone cells respond to their material environment. N2 - Knochen haben eine komplexe hierarchische Struktur, die einen lebenslangen Umbauprozess durchläuft, bei dem der Knochen sich seinen mechanischen Anforderungen anpasst. Um ein gesundes und stabiles Organ zu erhalten müssen Knochenresorption (durch Osteoklasten) und Knochenbildung (durch Osteoblasten) ausgewogen sein. Osteozyten lenken dieses Wechselspiel, indem sie mechanische Belastungen wahrnehmen und sie in biochemische Signale übersetzen. Die Osteozyten sitzen in Lakunen und sind durch Kanälchen untereinander und mit anderen Knochenzellen über ein Netzwerk (LCN) verbunden, das in der Lage ist, Ionen zu transportieren und eine Kommunikation von Zelle zu Zelle zu ermöglichen. Außerdem vermutet man, dass Osteozyten auch durch direkte Wechselwirkungen mit der umgebenden Matrix zur Mineralhomöostase beitragen könnten. Im Mittelpunkt dieser Arbeit steht die Frage, ob Osteozyten ihre materielle Umgebung aktiv verändern können. Um Spuren dieser Wechselwirkung zwischen Osteozyten und der extrazellulären Matrix nachzuweisen, werden materialwissenschaftliche Charakterisierungsmethoden eingesetzt. Zunächst wurden gesunde Mäuseknochen charakterisiert. Die erworbenen Ergebnisse wurden dann mit drei murinen Modellsystemen verglichen: 1) einem Belastungsmodell; 2) ein Heilungsmodell und 3) ein Krankheitsmodell, bei dem das Fbn1-Gen dysfunktional ist und Defekte in der Bildung des extrazellulären Gewebes verursacht werden. Die Messstrategie umfasste Routinen, die es ermöglichen, die Organisation des LCN und der Materialkomponenten (d.h. die organische Kollagenmatrix und die mineralischen Partikel) in denselben Knochenvolumina zu analysieren und die räumliche Verteilung der verschiedenen Datensätze zu vergleichen. Die dreidimensionale Netzwerkarchitektur des LCN wird durch konfokale Laser-Scanning-Mikroskopie nach Rhodamin-Färbung gemessen und anschließend quantifiziert. Der Kalziumgehalt wird mittels quantitativer Rückstreuelektronenbildgebung bestimmt, während Klein- und Weitwinkel-Röntgenstreuung verwendet werden, um die Dicke und Länge der Mineralpartikel zu bestimmen. Zunächst wurden Querschnitte der Unterschenkel von gesunden Mäusen charakterisiert, um zu untersuchen, ob Veränderungen in der LCN-Architektur auf Wechselwirkungen von Osteozyten mit der umgebenden Knochenmatrix zurückgeführt werden können. Die Kortizes zeigten zwei Hauptregionen, ein Band mit ungeordneter LCN-Architektur, umgeben von einer Region mit geordneter LCN. Die ungeordnete Region ist ein Überbleibsel der frühen Knochenbildung und wies kurze und dünne Mineralpartikel auf. Der umgebende, stärker ausgerichtete Knochen zeigte ein geordnetes und dichtes LCN, sowie dickere und längere Mineralpartikel. Der Kalziumgehalt blieb bei beiden Regionen unverändert. Im Mausbelastungsmodell wurde das linke Schienbein zwei Wochen lang mechanisch stimuliert, was zu einer erhöhten Knochenbildung führt. Hier sollte die Forschungsfrage beantwortet werden, wie sich Knochenmaterialeigenschaften an (Re-)Modellierungsstellen aufgrund von Belastung ändern. Der, als Reaktion auf die mechanische Stimulation, gebildete neue Knochen zeigte ähnliche Eigenschaften in Bezug auf die Mineralpartikel, wie die geordnete Kortexregion. Es gab eine klar erkennbare Grenze zwischen reifem und neu gebildetem Knochen. Trotzdem gingen einige Kanälchen durch diese Grenze, die die LCN aus reifem und neu gebildetem Knochen verband. Für das Heilungsmodell wurden die Oberschenkel von Mäusen einer Osteotomie unterzogen (einer Operation, bei der durch einen Schnitt in der Diaphyse ein Bruch erzeugt wird). Danach konnte die Fraktur 21 Tage heilen. Dadurch konnten in diesem Modell gleichzeitig verkalkter Knorpel, knöcherner Kallus und Kortex untersucht werden. Dafür wurde die räumliche Verteilung der LCN-Topologie sowie die Mineraleigenschaften der verschiedenen Gewebetypen und ihrer Grenzflächen visualisiert und verglichen. Alle Gewebetypen zeigten strukturelle Unterschiede über mehrere Längenskalen hinweg. Der Kalziumgehalt nahm von kalzifiziertem Knorpel zu knöchernem Kallus zu lamellarem kortikalem Knochen zu und wurde homogener. Der Grad der LCN-Organisation nahm ebenfalls zu, während die Lakunen vom Kallus zum Kortexgewebe kleiner wurden, ebenso wie die Lakunendichte. Im verkalkten Knorpel waren die Mineralpartikel kurz und dünn. Der größte Teil des Kallus wies eine Geflechtsknochenstruktur auf und diente als Gerüst für lamellares Gewebe, das dünnere Mineralpartikel, aber einen höheren Grad an Ausrichtung sowohl in den Mineralpartikeln als auch im LCN aufwies. Der Kortex zeigte die höchsten Werte für Minerallänge, Dicke und Orientierungsgrad. Obwohl nur wenige Kanälchen den Kallus und kortikale Regionen verbinden, weist dies darauf hin, dass eine Kommunikation zwischen Osteozyten beider Gewebe möglich sein sollte. Es wurde auch ein Mausmodell für das Marfan-Syndrom untersucht, das einen Gendefekt im Fibrillin-1-Gen beinhaltet. Beim Menschen ist das Marfan-Syndrom durch eine Reihe klinischer Symptome gekennzeichnet, wie z. B. übermäßiges Wachstum der Gliedmaßen, überstreckbare Gelenke, verringerte Knochenmineraldichte, beeinträchtigte Knochenmikroarchitektur und erhöhte Frakturraten. Somit scheint Fibrillin-1 eine Rolle in der Skeletthomöostase zu spielen. Deswegen untersuchte die vorliegende Arbeit, ob und wie das Marfan-Syndrom die LCN-Architektur und die umgebende Knochenmatrix verändert. Die Mäuse mit Marfan-Syndrom zeigten bereits ab einem Alter von sieben Wochen längere Schienbeine als ihre gesunden Wurfgeschwister. Im Gegensatz dazu erschien die kortikale Entwicklung verzögert, was über alle gemessenen Merkmale hinweg beobachtet wurde, d.h. niedrigere endokortikale Knochenbildung, lockereres und weniger organisiertes LCN, geringerer Grad an Kollagenorientierung sowie ein Trend zu dünneren und kürzeren Mineralpartikel. In jedem der drei Modellsysteme fand diese Studie, dass Änderungen in der LCN-Architektur räumlich mit Parametern des Knochenmatrixmaterials korrelierten. Obwohl der genaue Mechanismus nicht bekannt ist, liefern diese Ergebnisse Hinweise darauf, dass Osteozyten ein Mineralreservoir aktiv manipulieren können. Dieses Reservoir befindet sich um die Kanälchen herum und dieser Prozess würde es ermöglichen, einen schnell zugänglichen Beitrag zur Mineralhomöostase zu leisten. Diese Interaktion ist jedoch höchstwahrscheinlich nicht einseitig, sondern könnte als Wechselspiel zwischen Osteozyten und extrazellulärer Matrix verstanden werden, da die Knochenmatrix biochemische Signalmoleküle enthält, die das Verhalten von Osteozyten verändern können. Knochen(re)modellierung kann daher nicht nur als Methode zur Defektbeseitigung oder Anpassung an äußere mechanische Reize verstanden werden, sondern auch zur Effizienzsteigerung möglicher Osteozyten-Mineral-Interaktionen während der Knochenhomöostase. Angesichts dieser Ergebnisse erscheint es sinnvoll, Osteozyten als Ziel für die Arzneimittelentwicklung im Zusammenhang mit Knochenerkrankungen in Betracht zu ziehen, die Veränderungen der Knochenzusammensetzung und deren mechanischen Eigenschaften verursachen. KW - bone KW - lacunae KW - mineralization KW - SAXS KW - lacuno-canalicular network KW - µCT KW - CLSM KW - konfokales Laser-Scanning-Mikroskop KW - Kleinwinkelröntgenstreuung KW - Knochen KW - Lakunen KW - lakuno-kanaliculäres Netzwerk KW - Mineralisierung KW - µCT Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559593 ER - TY - THES A1 - Farkas, Marton Pal T1 - Hydraulic fracturing in hard rock – numerical studies from laboratory to reservoir scale T1 - Hydraulische Brüche in Hartgestein - Numerische Studien vom Labor- bis zum Reservoirmaßstab N2 - Hydraulic-driven fractures play a key role in subsurface energy technologies across several scales. By injecting fluid at high hydraulic pressure into rock with intrinsic low permeability, in-situ stress field and fracture development pattern can be characterised as well as rock permeability can be enhanced. Hydraulic fracturing is a commercial standard procedure for enhanced oil and gas production of rock reservoirs with low permeability in petroleum industry. However, in EGS utilization, a major geological concern is the unsolicited generation of earthquakes due to fault reactivation, referred to as induced seismicity, with a magnitude large enough to be felt on the surface or to damage facilities and buildings. Furthermore, reliable interpretation of hydraulic fracturing tests for stress measurement is a great challenge for the energy technologies. Therefore, in this cumulative doctoral thesis the following research questions are investigated. (1): How do hydraulic fractures grow in hard rock at various scales?; (2): Which parameters control hydraulic fracturing and hydro-mechanical coupling?; and (3): How can hydraulic fracturing in hard rock be modelled? In the laboratory scale study, several laboratory hydraulic fracturing experiments are investigated numerically using Irazu2D that were performed on intact cubic Pocheon granite samples from South Korea applying different injection protocols. The goal of the laboratory experiments is to test the concept of cyclic soft stimulation which may enable sustainable permeability enhancement (Publication 1). In the borehole scale study, hydraulic fracturing tests are reported that were performed in boreholes located in central Hungary to determine the in-situ stress for a geological site investigation. At depth of about 540 m, the recorded pressure versus time curves in mica schist with low dip angle foliation show atypical evolution. In order to provide explanation for this observation, a series of discrete element computations using Particle Flow Code 2D are performed (Publication 2). In the reservoir scale study, the hydro-mechanical behaviour of fractured crystalline rock due to one of the five hydraulic stimulations at the Pohang Enhanced Geothermal site in South Korea is studied. Fluid pressure perturbation at faults of several hundred-meter lengths during hydraulic stimulation is simulated using FracMan (Publication 3). The doctoral research shows that the resulting hydraulic fracturing geometry will depend “locally”, i.e. at the length scale of representative elementary volume (REV) and below that (sub-REV), on the geometry and strength of natural fractures, and “globally”, i.e. at super-REV domain volume, on far-field stresses. Regarding hydro-mechanical coupling, it is suggested to define separate coupling relationship for intact rock mass and natural fractures. Furthermore, the relative importance of parameters affecting the magnitude of formation breakdown pressure, a parameter characterising hydro-mechanical coupling, is defined. It can be also concluded that there is a clear gap between the capacity of the simulation software and the complexity of the studied problems. Therefore, the computational time of the simulation of complex hydraulic fracture geometries must be reduced while maintaining high fidelity simulation results. This can be achieved either by extending the computational resources via parallelization techniques or using time scaling techniques. The ongoing development of used numerical models focuses on tackling these methodological challenges. N2 - Hydraulische Risserzeugung (aus dem Englischen „Hydraulic Fracturing“; auch hydraulische Stimulation genannt) spielt eine Schlüsselrolle in unterirdischen Energietechnologien auf verschiedenen Skalen. Durch Injektion von Flüssigkeit mit hohem hydraulischem Druck im Gestein mit geringer Permeabilität können das Spannungsfeld und das Bruchentwicklungsmuster in-situ charakterisiert sowie die Gesteinspermeabilität erhöht werden. Hydraulic Fracturing ist ein kommerzielles Standardverfahren zur verbesserten Öl- und Gasförderung aus geringpermeablen Gesteinsformationen in der Erdölindustrie. Ein großes geologisches Problem bei der geothermischen Nutzung ist die ungewollte Erzeugung von Erdbeben aufgrund einer Verwerfungsreaktivierung, die als induzierte Seismizität bezeichnet wird und eine Größenordnung hat, die groß genug ist, dass sie an der Oberfläche zu spüren ist und sogar Gebäude beschädigen kann. Darüber hinaus ist die zuverlässige Interpretation von Hydraulic-Fracturing-Tests zur Spannungsmessung eine große Herausforderung für die Energietechnologien. Daher werden in dieser kumulativen Dissertation folgende Forschungsfragen untersucht: (1): Wie wachsen hydraulische Risse in Hartgestein in verschiedenen Skalen? (2): Welche Parameter steuern das hydraulische Versagen und die hydromechanische Kopplung? und (3): Wie kann hydraulische Risserzeugung in Hartgestein modelliert werden? In der Studie im Labormaßstab werden mehrere Hydrofracturing-Laborexperimente numerisch mit Irazu2D untersucht, die an intakten kubischen Pocheon-Granitproben aus Südkorea unter Anwendung verschiedener Injektionsprotokolle durchgeführt wurden. Das Ziel der Laborexperimente ist es, das Konzept der zyklischen sanften Stimulation zu testen, die eine nachhaltige Permeabilitätserhöhung ermöglichen kann (Veröffentlichung 1). Die Studie im Bohrlochmaßstab untersucht Hydraulic Fracturing Tests, die in Bohrlöchern in Mittel-Ungarn durchgeführt wurden, um das in-situ Spannungsfeld für eine geologische Standortuntersuchung zu bestimmen. In einer Tiefe von etwa 540 m zeigen die aufgezeichneten Druck-Zeit-Kurven im Glimmerschiefer mit einer Schieferung mit geringem Neigungswinkel eine atypische Entwicklung. Um diese Beobachtung zu erklären, wird eine Reihe von diskreten Elementberechnungen unter Verwendung von Particle Flow Code 2D durchgeführt (Veröffentlichung 2). In der Studie im Reservoirmaßstab wird das hydromechanische Verhalten des aufgebrochenen kristallinen Gesteins an einer der fünf hydraulischen Stimulationen am Pohang Enhanced Geothermal System (EGS) Standort in Südkorea untersucht. Mit FracMan wird die Fluiddruckstörung an Verwerfungen von mehreren hundert Metern Länge während der hydraulischen Stimulation simuliert (Veröffentlichung 3). Die Ergebnisse dieser Dissertation zeigen, dass die resultierende hydraulische Bruchgeometrie „lokal“, d. h. auf der Längenskala des repräsentativen Elementarvolumens (REV) und darunter (sub-REV) von der Geometrie und Stärke natürlicher Risse und „global“, d.h. bei Super-REV-Domänenvolumen, vom Spannungsfeld abhängt. In Bezug auf die hydromechanische Kopplung wird vorgeschlagen, separate Kopplungsbeziehungen für intakte Gesteinsmassen und natürliche Risse zu definieren. Darüber hinaus wird die relative Bedeutung von Parametern definiert, die die Größe des Formationsbruchdrucks beeinflussen, ein Parameter, der die hydromechanische Kopplung charakterisiert. Es kann auch festgestellt werden, dass es eine klare Lücke zwischen der Leistungsfähigkeit der Simulationssoftware und der Komplexität der untersuchten Probleme gibt. Daher muss die Rechenzeit der Simulation komplexer hydraulischer Rissgeometrien reduziert werden, währenddessen die Simulationsergebnisse mit hoher Genauigkeit beibehalten werden. Dies kann entweder durch Erweiterung der Rechenressourcen über Parallelisierungstechniken oder durch Verwendung von Zeitskalierungstechniken erreicht werden. Die Weiterentwicklung der verwendeten numerischen Modelle konzentriert sich auf die Bewältigung dieser methodischen Herausforderungen. KW - hydraulic fracturing KW - enhanced geothermal system KW - stress measurement KW - numerical modelling KW - hydraulische Risserzeugung KW - petrothermales System (EGS) KW - Spannungsmessung KW - numerische Modellierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-549343 ER - TY - THES A1 - Welsch, Maryna T1 - Investigation of the stress tolerance regulatory network integration of the NAC transcription factor JUNGBRUNNEN1 (JUB1) T1 - Untersuchung des Stresstoleranz-Regulationsnetzwerks des NAC-Transkriptionsfaktors JUNGBRUNNEN1 (JUB1) N2 - The NAC transcription factor (TF) JUNGBRUNNEN1 (JUB1) is an important negative regulator of plant senescence, as well as of gibberellic acid (GA) and brassinosteroid (BR) biosynthesis in Arabidopsis thaliana. Overexpression of JUB1 promotes longevity and enhances tolerance to drought and other abiotic stresses. A similar role of JUB1 has been observed in other plant species, including tomato and banana. Our data show that JUB1 overexpressors (JUB1-OXs) accumulate higher levels of proline than WT plants under control conditions, during the onset of drought stress, and thereafter. We identified that overexpression of JUB1 induces key proline biosynthesis and suppresses key proline degradation genes. Furthermore, bZIP63, the transcription factor involved in proline metabolism, was identified as a novel downstream target of JUB1 by Yeast One-Hybrid (Y1H) analysis and Chromatin immunoprecipitation (ChIP). However, based on Electrophoretic Mobility Shift Assay (EMSA), direct binding of JUB1 to bZIP63 could not be confirmed. Our data indicate that JUB1-OX plants exhibit reduced stomatal conductance under control conditions. However, selective overexpression of JUB1 in guard cells did not improve drought stress tolerance in Arabidopsis. Moreover, the drought-tolerant phenotype of JUB1 overexpressors does not solely depend on the transcriptional control of the DREB2A gene. Thus, our data suggest that JUB1 confers tolerance to drought stress by regulating multiple components. Until today, none of the previous studies on JUB1´s regulatory network focused on identifying protein-protein interactions. We, therefore, performed a yeast two-hybrid screen (Y2H) which identified several protein interactors of JUB1, two of which are the calcium-binding proteins CaM1 and CaM4. Both proteins interact with JUB1 in the nucleus of Arabidopsis protoplasts. Moreover, JUB1 is expressed with CaM1 and CaM4 under the same conditions. Since CaM1.1 and CaM4.1 encode proteins with identical amino acid sequences, all further experiments were performed with constructs involving the CaM4 coding sequence. Our data show that JUB1 harbors multiple CaM-binding sites, which are localized in both the N-terminal and C-terminal regions of the protein. One of the CaM-binding sites, localized in the DNA-binding domain of JUB1, was identified as a functional CaM-binding site since its mutation strongly reduced the binding of CaM4 to JUB1. Furthermore, JUB1 transactivates expression of the stress-related gene DREB2A in mesophyll cells; this effect is significantly reduced when the calcium-binding protein CaM4 is expressed as well. Overexpression of both genes in Arabidopsis results in early senescence observed through lower chlorophyll content and an enhanced expression of senescence-associated genes (SAGs) when compared with single JUB1 overexpressors. Our data also show that JUB1 and CaM4 proteins interact in senescent leaves, which have increased Ca2+ levels when compared to young leaves. Collectively, our data indicate that JUB1 activity towards its downstream targets is fine-tuned by calcium-binding proteins during leaf senescence. N2 - Der NAC Transkriptionsfaktor (TF) JUNGBRUNNEN1 (JUB1) ist ein wichtiger negativer Regulator der Pflanzenseneszenz, Gibberellinsäure- (GA) und Brassinosteroid- (BR) Biosynthese in Arabidopsis thaliana. Die Überexpression von JUB1 fördert die Langlebigkeit und erhöht die Toleranz gegenüber Trockenheit und anderen abiotischen Belastungen. Bei anderen Pflanzenarten, einschließlich Tomaten und Bananen, wurde eine ähnliche Rolle von JUB1 beobachtet. Unsere Daten zeigen, dass JUB1 Überexpressionslinien im Vergleich zu WT-Pflanzen sowohl unter Kontrollbedingungen, als auch zu Beginn und während späterer Stadien von Trockenstress größere Mengen an Prolin akkumulieren. Wir haben festgestellt, dass die Überexpression von JUB1 die Schlüsselbiosynthese von Prolin induziert und Schlüsselgene für den Abbau von Prolin unterdrückt. Darüber hinaus wurde bZIP63, ein am Prolinstoffwechsel beteiligter Transkriptionsfaktor, mittels Yeast One-Hybrid-System (Y1H) und Chromatin-Immunopräzipitation (ChIP) als neues nachgeschaltetes Ziel von JUB1 identifiziert. Basierend auf dem Electrophoretic Mobility Shift Assay (EMSA) konnte die direkte Bindung von JUB1 an bZIP63 jedoch nicht bestätigt werden. Unsere Daten zeigen, dass JUB1-OXs unter Kontrollbedingungen eine niedrigere stomatale Leitfähigkeit aufweisen. Allerdings verbessert eine selektive Überexpression von JUB1 in den Schließzellen die Trockenstresstoleranz bei Arabidopsis nicht. Darüber hinaus hängt der trockenheitstolerante Phänotyp von JUB1 nicht allein von der transkriptionellen Kontrolle des DREB2A-Gens ab. Unsere Daten legen daher nahe, dass JUB1 durch die Regulierung mehrerer Komponenten Toleranz gegenüber Trockenstress verleiht. Bis heute konzentrierte sich keine der bisherigen Studien zum regulatorischen Netzwerk von JUB1 auf die Identifizierung von Protein-Protein-Interaktionen. Wir führten deshalb einen Hefe-Zwei-Hybrid-Screen (Y2H) durch, der mehrere Protein-Interaktoren von JUB1 identifizierte, von denen zwei Calcium-bindende Proteine sind (CaM1 und CaM4). Beide Proteine interagieren mit JUB1 im Kern von Arabidopsis-Protoplasten. Darüber hinaus wird JUB1 mit den CaM1- und CaM4-Genen unter den gleichen Bedingungen exprimiert und kolokalisiert mit den Proteinen im Zellkern von Arabidopsis thaliana-Protoplasten. Unsere Daten zeigen, dass JUB1 mehrere CaM-Bindungsstellen aufweist, die sowohl in der N-terminalen, als auch in der C-terminalen Region des Proteins lokalisiert sind. Eine der CaM-Bindungsstellen, die in der DNA-Bindungsdomäne von JUB1 lokalisiert ist, wurde als funktionelle und aktive CaM-Bindungsstelle identifiziert, da ihre Mutation die Bindung von CaM4 an JUB1 stark reduzierte. Darüber hinaus transaktiviert JUB1 die Expression des stressbezogenen Gens DREB2A in Mesophyllzellen. Dieser Effekt wird deutlich reduziert, wenn auch das Calcium-bindende Protein CaM4 exprimiert wird. Die Überexpression beider Gene in Arabidopsis führt zum frühen Seneszenz-Phänotyp, der durch einen verminderten Chlorophyllgehalt und eine veränderte SAGs-Expression im Vergleich zu einzelnen JUB1-Überexpressoren beobachtet wird. Unsere Daten zeigen auch, dass JUB1- und CaM4-Proteine in den seneszenten Blättern, die im Vergleich zu jungen Blättern erhöhte Ca2+-spiegel aufweisen, interagieren. Zusammenfassend weisen unsere Daten darauf hin, dass während der Blattseneszenz die Aktivität von JUB1 gegenüber seinen nachgeschalteten Zielen durch die Calcium-bindenden Proteine fein abgestimmt wird. KW - transcription factor KW - senescence KW - calmodulin KW - JUB1 KW - CaM4 KW - drought stress KW - CaM4 KW - JUB1 KW - calmodulin KW - Trockenstress KW - Seneszenz KW - Transkriptionsfaktor Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-547310 ER - TY - THES A1 - Folikumah, Makafui Yao T1 - Stimuli-promoted in situ formation of hydrogels with thiol/thioester containing peptide precursors T1 - Stimuli-induzierte In-Situ-Bildung von Hydrogelen durch Peptid-Prekursor mit Thiol/Thioestergruppen N2 - Hydrogels are potential synthetic ECM-like substitutes since they provide functional and structural similarities compared to soft tissues. They can be prepared by crosslinking of macromolecules or by polymerizing suitable precursors. The crosslinks are not necessarily covalent bonds, but could also be formed by physical interactions such as π-π interactions, hydrophobic interactions, or H-bonding. On demand in situ forming hydrogels have garnered increased interest especially for biomedical applications over preformed gels due to the relative ease of in vivo delivery and filling of cavities. The thiol-Michael addition reaction provides a straightforward and robust strategy for in situ gel formation with its fast reaction kinetics and ability to proceed under physiological conditions. The incorporation of a trigger function into a crosslinking system becomes even more interesting since gelling can be controlled with stimulus of choice. The use of small molar mass crosslinker precursors with active groups orthogonal to thiol-Michael reaction type electrophile provides the opportunity to implement an on-demand in situ crosslinking without compromising the fast reaction kinetics. It was postulated that short peptide sequences due to the broad range structural-function relations available with the different constituent amino acids, can be exploited for the realisation of stimuli-promoted in situ covalent crosslinking and gelation applications. The advantages of this system over conventional polymer-polymer hydrogel systems are the ability tune and predict material property at the molecular level. The main aim of this work was to develop a simplified and biologically-friendly stimuli-promoted in situ crosslinking and hydrogelation system using peptide mimetics as latent crosslinkers. The approach aims at using a single thiodepsipeptide sequence to achieve separate pH- and enzyme-promoted gelation systems with little modification to the thiodepsipeptide sequence. The realization of this aim required the completion of three milestones. In the first place, after deciding on the thiol-Michael reaction as an effective in situ crosslinking strategy, a thiodepsipeptide, Ac-Pro-Leu-Gly-SLeu-Leu-Gly-NEtSH (TDP) with expected propensity towards pH-dependent thiol-thioester exchange (TTE) activation, was proposed as a suitable crosslinker precursor for pH-promoted gelation system. Prior to the synthesis of the proposed peptide-mimetic, knowledge of the thiol-Michael reactivity of the would-be activated thiol moiety SH-Leu, which is internally embedded in the thiodepsipeptide was required. In line with pKa requirements for a successful TTE, the reactivity of a more acidic thiol, SH-Phe was also investigated to aid the selection of the best thiol to be incorporated in the thioester bearing peptide based crosslinker precursor. Using ‘pseudo’ 2D-NMR investigations, it was found that only reactions involving SH-Leu yielded the expected thiol-Michael product, an observation that was attributed to the steric hindrance of the bulkier nature of SH-Phe. The fast reaction rates and complete acrylate/maleimide conversion obtained with SH-Leu at pH 7.2 and higher aided the direct elimination of SH-Phe as a potential thiol for the synthesis of the peptide mimetic. Based on the initial studies, for the pH-promoted gelation system, the proposed Ac-Pro-Leu-Gly-SLeu-Leu-Gly-NEtSH was kept unmodified. The subtle difference in pKa values between SH-Leu (thioester thiol) and the terminal cysteamine thiol from theoretical conditions should be enough to effect a ‘pseudo’ intramolecular TTE. In polar protic solvents and under basic aqueous conditions, TDP successfully undergoes a ‘pseudo’ intramolecular TTE reaction to yield an α,ω-dithiol tripeptide, HSLeu-Leu-Gly-NEtSH. The pH dependence of thiolate ion generation by the cysteamine thiol aided the incorporation of the needed stimulus (pH) for the overall success of TTE (activation step) – thiol-Michael addition (crosslinking) strategy. Secondly, with potential biomedical applications in focus, the susceptibility of TDP, like other thioesters, to intermolecular TTE reaction was probed with a group of thiols of varying thiol pKa values, since biological milieu characteristically contain peptide/protein thiols. L-cysteine, which is a biologically relevant thiol, and a small molecular weight thiol, methylthioglycolate both with relatively similar thiol pKa, values, led to an increase concentration of the dithiol crosslinker when reacted with TDP. In the presence of acidic thiols (p-NTP and 4MBA), a decrease in the dithiol concentration was observed, an observation that can be attributed to the inability of the TTE tetrahedral intermediate to dissociate into exchange products and is in line with pKa requirements for successful TTE reaction. These results additionally makes TDP more attractive and the potentially the first crosslinker precursor for applications in biologically relevant media. Finally, the ability of TDP to promote pH-sensitive in situ gel formation was probed with maleimide functionalized 4-arm polyethylene glycol polymers in tris-buffered media of varying pHs. When a 1:1 thiol: maleimide molar ratio was used, TDP-PEG4MAL hydrogels formed within 3, 12 and 24 hours at pH values of 8.5, 8.0 and 7.5 respectively. However, gelation times of 3, 5 and 30 mins were observed for the same pH trend when the thiol: maleimide molar was increased to 2:1. A direct correlation of thiol content with G’ of the gels at each pH could also be drawn by comparing gels with thiol: maleimide ratios of 1:1 to those with 2:1 thiol: maleimide mole ratios. This is supported by the fact that the storage modulus (G') is linearly dependent on the crosslinking density of the polymer. The values of initial G′ for all gels ranged between (200 – 5000 Pa), which falls in the range of elasticities of certain tissue microenvironments for example brain tissue 200 – 1000 Pa and adipose tissue (2500 – 3500 Pa). Knowledge so far gained from the study on the ability to design and tune the exchange reaction of thioester containing peptide mimetic will give those working in the field further insight into the development of new sequences tailored towards specific applications. TTE substrate design using peptide mimetic as presented in this work has revealed interesting new insights considering the state-of-the-art. Using the results obtained as reference, the strategy provides a possibility to extend the concept to the controlled delivery of active molecules needed for other robust and high yielding crosslinking reactions for biomedical applications. Application for this sequentially coupled functional system could be seen e.g. in the treatment of inflamed tissues associated with urinary tract like bladder infections for which pH levels above 7 were reported. By the inclusion of cell adhesion peptide motifs, the hydrogel network formed at this pH could act as a new support layer for the healing of damage epithelium as shown in interfacial gel formation experiments using TDP and PEG4MAL droplets. The versatility of the thiodepsipeptide sequence, Ac-Pro-Leu-Gly-SLeu-Leu-Gly-(TDPo) was extended for the design and synthesis of a MMP-sensitive 4-arm PEG-TDPo conjugate. The purported cleavage of TDPo at the Gly-SLeu bond yields active thiol units for subsequent reaction of orthogonal Michael acceptor moieties. One of the advantages of stimuli-promoted in situ crosslinking systems using short peptides should be the ease of design of required peptide molecules due to the predictability of peptide functions their sequence structure. Consequently the functionalisation of a 4-arm PEG core with the collagenase active TDPo sequence yielded an MMP-sensitive 4-arm thiodepsipeptide-PEG conjugate (PEG4TDPo) substrate. Cleavage studies using thiol flourometric assay in the presence of MMPs -2 and -9 confirmed the susceptibility of PEG4TDPo towards these enzymes. The resulting time-dependent increase in fluorescence intensity in the presence of thiol assay signifies the successful cleavage of TDPo at the Gly-SLeu bond as expected. It was observed that the cleavage studies with thiol flourometric assay introduces a sigmoid non-Michaelis-Menten type kinetic profile, hence making it difficult to accurately determine the enzyme cycling parameters, kcat and KM . Gelation studies with PEG4MAL at 10 % wt. concentrations revealed faster gelation with MMP-2 than MMP-9 with 28 and 40 min gelation times respectively. Possible contributions by hydrolytic cleavage of PEG4TDPo has resulted in the gelation of PEG4MAL blank samples but only after 60 minutes of reaction. From theoretical considerations, the simultaneous gelation reaction would be expected to more negatively impact the enzymatic than hydrolytic cleavage. The exact contributions from hydrolytic cleavage of PEG4TDPo would however require additional studies. In summary this new and simplified in situ crosslinking system using peptide-based crosslinker precursors with tuneable properties exhibited in situ crosslinking gelation kinetics on similar levels with already active dithiols reported. The advantageous on-demand functionality associated with its pH-sensitivity and physiological compatibility makes it a strong candidate worth further research as biomedical applications in general and on-demand material synthesis is concerned. Results from MMP-promoted gelation system unveils a simple but unexplored approach for in situ synthesis of covalently crosslinked soft materials, that could lead to the development of an alternative pathway in addressing cancer metastasis by making use of MMP overexpression as a trigger. This goal has so far not being reach with MMP inhibitors despite the extensive work this regard. N2 - Hydrogele sind synthetische, potenziell ECM-ähnliche Substituenten, die funktionelle und strukturelle Ähnlichkeiten mit Weichteilgeweben aufweisen. Sie können durch Vernetzung von Makromolekülen oder durch Polymerisation geeigneter Precursoren hergestellt werden. Die Vernetzungen müssen nicht unbedingt aus kovalenten Bindungen bestehen, sondern können auch durch physikalische Wechselwirkungen wie π-π-Wechselwirkungen, hydrophoben Wechselwirkungen oder Wasserstoff-Brückenbindungen entstehen. In-situ-Hydrogele, die on-demand gebildet werden, haben vor allem für biomedizinische Anwendungen gegenüber vorgefertigten Gelen zunehmend an Interesse gewonnen, da sie relativ einfach in-vivo eingebracht und somit Fehlstellen gefüllt werden können. Die Thiol-Michael-Additionsreaktion bietet mit ihrer schnellen Reaktionskinetik und ihrer Fähigkeit, unter physiologischen Bedingungen abzulaufen, eine unkomplizierte und robuste Strategie für die in-situ-Gelbildung. Der Einbau einer Triggerfunktion in ein Vernetzungssystem ist besonders interessant, da die Gelierung durch einen gewählten Stimulus gesteuert werden kann. Die Verwendung eines Precursors mit geringer Molmasse und aktiven Gruppen, die orthogonal zu den Elektrophilen des Thiol-Michael-Reaktionstyps sind, bietet die Möglichkeit, eine bedarfsgesteuerte in-situ-Vernetzung zu realisieren, ohne die schnelle Reaktionskinetik zu beeinträchtigen. Es wurde postuliert, dass kurze Peptidsequenzen aufgrund der weitreichenden Struktur-Funktions-Beziehungen, die mit den verschiedenen konstituierenden Aminosäuren zur Verfügung stehen, für die Realisierung von Stimulus-ausgelösten, in-situ kovalenten Vernetzungs- und Gelierungsanwendungen genutzt werden können. Die Vorteile dieses Systems gegenüber herkömmlichen Polymer-Polymer-Hydrogelsystemen liegen in der Möglichkeit, die Materialeigenschaften auf molekularer Ebene zu justieren und vorherzusagen. Das Hauptziel dieser Arbeit war die Entwicklung eines vereinfachten und biologisch-geeigneten, stimulierungsgeförderten in-situ-Vernetzungs- und Hydrogelierungssystems unter Verwendung von Peptidmimetika als latente Vernetzer. Der Ansatz zielt darauf ab, eine einzige Thiodepsipeptidsequenz zu verwenden, um getrennte pH- und enzymausgelöste Gelierungssysteme mit geringen Modifikationen der Thiodepsipeptidsequenz zu erreichen. Zur Verwirklichung dieses Ziels, mussten drei Meilensteine erreicht werden. Nach der Wahl der Thiol-Michael-Reaktion als in-situ-Vernetzungsstrategie, musste ein Thiodepsipeptid, Ac-Pro-Leu-Gly-SLeu-Leu-Gly-NEtSH (TDP) mit einer zu erwartenden Neigung zu einer pH-abhängigen Thiol-Thioester-Austausch-Aktivierung (TTE), als geeignetem Vernetzer-Precursor für das pH-unterstützte Gelierungssystem designt werden. Vor der Synthese dieses Peptid-Mimetikums war die Untersuchung der Thiol-Michael-Reaktivität der potenziell aktivierten Thiolkomponente SH-Leu erforderlich, die intern in das Thiodepsipeptid eingebettet ist. In Übereinstimmung mit den pKa-Anforderungen für eine erfolgreiche TTE wurde auch die Reaktivität eines saureren Thiols, SH-Phe, untersucht, um die Auswahl des besten Thiols zu ermöglichen, das in den Thioester-tragenden Peptid-basierten Vernetzer-Precursor eingebaut werden sollte. Pseudo-2D-NMR-Untersuchungen zeigten, dass nur Reaktionen mit SH-Leu das erwartete Thiol-Michael-Produkt ergaben, eine Beobachtung, die auf die sterische Hinderung durch die sperrige Natur von SH-Phe zurückzuführen ist. Wegen der schnellen Reaktionsgeschwindigkeiten und der vollständigen Acrylat/Maleimid-Umwandlung, die mit SH-Leu bei einem pH-Wert von 7,2 und höher erzielt wurde, kam SH-Phe als potenzielles Thiol für die Synthese des Peptidmimetikums nicht mehr infrage. Auf der Grundlage der ersten Studien wurde für das pH-basierte Gelierungssystem das vorgeschlagene Ac-Pro-Leu-Gly-SLeu-Leu-Gly-NEtSH unverändert beibehalten. Der geringe Unterschied in den pKa-Werten zwischen SH-Leu (Thioesterthiol) und dem terminalen Cysteaminthiol sollte ausreichen, um eine "pseudo"-intramolekulare TTE zu bewirken. In polaren protischen Lösungsmitteln und unter basischen wässrigen Bedingungen verläuft die "pseudo"-intramolekulare TTE-Reaktion bei TDP erfolgreich, bei der ein α,ω-Dithiol-Tripeptid, HSLeu-Leu-Gly-NEtSH, entsteht. Die pH-Abhängigkeit der Thiolat-Ionen-Generierung durch das Cysteamin-Thiol trug dazu bei, den notwendigen Stimulus (pH) für den Gesamterfolg der TTE (Aktivierungsschritt) - Thiol-Michael-Addition (Vernetzung) Strategie einzubauen. Zweitens wurde mit Blick auf potenzielle biomedizinische Anwendungen die Empfindlichkeit von TDP, wie auch anderer Thioester, für die intermolekulare TTE-Reaktion mit einer Gruppe von Thiolen mit unterschiedlichen Thiol-pKa-Werten untersucht, da biologische Milieus typischerweise Peptid-/Proteinthiole enthalten. L-Cystein, ein biologisch relevantes Thiol, und ein Thiol mit geringem Molekulargewicht, Methylthioglykolat, die beide relativ ähnliche Thiol-pKa-Werte besitzen, führten bei der Reaktion mit TDP zu einer erhöhten Konzentration des Dithiol-Vernetzers. In Gegenwart von sauren Thiolen (p-NTP und 4MBA) wurde eine Abnahme der Dithiolkonzentration beobachtet, eine Beobachtung, die auf die Unfähigkeit des tetraedrischen TTE-Zwischenprodukts in Austauschprodukte zu dissoziieren zurückgeführt werden kann und mit den pKa-Anforderungen für eine erfolgreiche TTE-Reaktion in Einklang steht. Diese Ergebnisse machen TDP noch attraktiver und zum potenziell ersten Vernetzer-Precursor für Anwendungen in biologisch relevanten Medien. Schließlich wurde die Fähigkeit von TDP, die pH-empfindliche in-situ-Gelbildung zu fördern, mit Maleimid-funktionalisierten 4-armigen Polyethylenglykolpolymeren in tris-gepufferten Medien mit unterschiedlichen pH-Werten untersucht. Bei einem Molverhältnis von 1:1 Thiol zu Maleimid bildeten sich TDP-PEG4MAL-Hydrogele innerhalb von 3, 12 und 24 Stunden bei pH-Werten von 8,5, 8,0 bzw. 7,5. Bei einer Erhöhung des Molverhältnisses von Thiol zu Maleimid auf 2:1 wurden jedoch Gelierzeiten von 3, 5 und 30 Minuten für denselben pH-Trend beobachtet. Ein direkter Zusammenhang zwischen dem Thiolgehalt und G' der Gele bei jedem pH-Wert konnte auch durch den Vergleich von Gelen mit einem Thiol/Maleimid-Molverhältnis von 1:1 mit solchen mit einem Thiol/Maleimid-Molverhältnis von 2:1 hergestellt werden. Dies wird durch die Tatsache unterstützt, dass der Speichermodulus (G') linear von der Vernetzungsdichte des Polymers abhängig ist. Die Werte des anfänglichen G′ für alle Gele lagen bei 200 - 5000 Pa, was in den Bereich der Elastizitäten bestimmter Gewebe-Mikroumgebungen fällt, z. B. Gehirngewebe (200 - 1000 Pa) und Fettgewebe (2500 - 3500 Pa). Die bisher aus der Studie gewonnenen Erkenntnisse über die Möglichkeit, die Austauschreaktion von Thioester-haltigen Peptidmimetika zu entwerfen und abzustimmen, geben weitere Einblicke in die Entwicklung neuer, auf spezifische Anwendungen zugeschnittener Sequenzen. Das Design von TTE-Substraten unter Verwendung von Peptidmimetika, wie es in dieser Arbeit vorgestellt wurde, hat interessante neue Erkenntnisse im Hinblick auf den Stand der Technik gebracht. Mit den erzielten Ergebnissen als Basis bietet die Strategie die Möglichkeit, das Konzept auf die kontrollierte Freisetzung aktiver Moleküle zu erweitern, die für andere robuste Vernetzungsreaktionen mit hohem Umsatz für biomedizinische Anwendungen benötigt werden. Dieses sequentiell gekoppelte funktionelle System könnte z. B. bei der Behandlung von entzündetem Gewebe im Zusammenhang mit Harnwegsinfektionen wie Blasenentzündungen eingesetzt werden, für die pH-Werte über 7 berichtet wurden. Durch die Einbeziehung von Zelladhäsionspeptidmotiven könnte das bei diesem pH-Wert gebildete Hydrogelnetz als neue Stützschicht für die Heilung von geschädigtem Epithel fungieren, wie in Experimenten zur Bildung von Grenzflächengelen mit TDP- und PEG4MAL-Tropfen gezeigt wurde. Die Vielseitigkeit der Thiodepsipeptidsequenz Ac-Pro-Leu-Gly-SLeu-Leu-Gly-(TDPo) wurde um Design und die Synthese eines MMP-empfindlichen 4-armigen PEG-TDPo-Konjugats erweitert. Die beabsichtigte Spaltung von TDPo an der Gly-SLeu-Bindung liefert aktive Thiol-Einheiten für die anschließende Reaktion orthogonaler Michael-Akzeptor-Einheiten. Einer der Vorteile stimulierungsgestützter in-situ-Vernetzungssysteme unter Verwendung kurzer Peptide dürfte darin liegen, dass sich die erforderlichen Peptidmoleküle aufgrund der Vorhersagbarkeit der Peptidfunktionen und ihrer Sequenzstruktur leicht entwerfen lassen. Die Funktionalisierung eines vierarmigen PEG-Kerns mit der kollagenaseaktiven TDPo-Sequenz führte zu einem MMP-empfindlichen vierarmigen Thiodepsipeptid-PEG-Konjugat (PEG4TDPo). Spaltungs-Studien unter Verwendung eines thiolfluorimetrischen Assays in Gegenwart der MMPs -2 und -9 bestätigten die Spaltbarkeit von PEG4TDPo durch diese Enzyme. Der daraus resultierende zeitabhängige Anstieg der Fluoreszenzintensität in Anwesenheit des Thiol-Assays deutet auf die erfolgreiche Spaltung von TDPo an der Gly-SLeu-Bindung hin. Es wurde festgestellt, dass die Spaltungsstudien mit dem thiol-fluorimetrischen Assay ein sigmoides, nicht-Michaelis-Menten-artiges kinetisches Profil ergeben, was eine genaue Bestimmung der Enzymzyklusparameter, kcat und KM, erschwert. Gelierungsstudien mit PEG4MAL in einer Konzentration von 10 Gew.-% ergaben eine schnellere Gelierung mit MMP-2 als mit MMP-9 mit Gelierungszeiten von 28 bzw. 40 Minuten. Eventuelle Beiträge durch hydrolytische Spaltung von PEG4TDPo an der Gelierung wurden an PEG4MAL-Blindproben untersucht und führten erst nach 60 Minuten Reaktionszeit zu einer Gelierung. Aus theoretischen Überlegungen heraus wäre zu erwarten, dass sich die gleichzeitige Gelierungsreaktion negativer auf die enzymatische als auf die hydrolytische Spaltung auswirkt. Genaues zum Beitrag der hydrolytischen Spaltung von PEG4TDPo bedürfte jedoch weiterer Untersuchungen. Zusammenfassend lässt sich sagen, dass dieses neue in-situ-Vernetzungssystem, bei dem Peptid-basierte Vernetzungs-Precursor mit einstellbaren Eigenschaften verwendet werden, eine in-situ-Vernetzungs-Gelierungskinetik auf ähnlichem Niveau wie bei bereits berichteten aktiven Dithiole aufweist. Die vorteilhafte On-Demand-Funktionalität in Verbindung mit ihrer pH-Sensitivität und physiologischen Verträglichkeit macht sie zu einem interessanten Kandidaten für weitere Forschungen im Bereich biomedizinischer Anwendungen im Allgemeinen und der On-Demand-Materialsynthese. Die Ergebnisse des MMP-geförderten Gelierungssystems weisen einen einfachen, aber unerforschten Ansatz für die in-situ-Synthese kovalent vernetzter weicher Materialien, der zur Entwicklung eines alternativen Weges zur Bekämpfung der Krebsmetastasierung führen könnte, indem er die MMP-Überexpression als Auslöser nutzt. Mit MMP-Inhibitoren wurde dieses Ziel trotz umfangreicher Arbeiten in dieser Hinsicht bisher nicht erreicht. KW - hydrogels KW - stimuli KW - peptide KW - thioester KW - crosslinker KW - Hydrogele KW - Vernetzer KW - Peptid KW - Thioester KW - Stimuli Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-569713 ER - TY - THES A1 - Rodriguez Piceda, Constanza T1 - Thermomechanical state of the southern Central Andes T1 - Thermomechanischer Zustand der südlichen Zentral Anden BT - implications for active deformation patterns in the transition from flat to steep subduction BT - Implikationen für aktive Deformationsmuster beim Übergang von flacher zu steiler Subduktion N2 - The Andes are a ~7000 km long N-S trending mountain range developed along the South American western continental margin. Driven by the subduction of the oceanic Nazca plate beneath the continental South American plate, the formation of the northern and central parts of the orogen is a type case for a non-collisional orogeny. In the southern Central Andes (SCA, 29°S-39°S), the oceanic plate changes the subduction angle between 33°S and 35°S from almost horizontal (< 5° dip) in the north to a steeper angle (~30° dip) in the south. This sector of the Andes also displays remarkable along- and across- strike variations of the tectonic deformation patterns. These include a systematic decrease of topographic elevation, of crustal shortening and foreland and orogenic width, as well as an alternation of the foreland deformation style between thick-skinned and thin-skinned recorded along- and across the strike of the subduction zone. Moreover, the SCA are a very seismically active region. The continental plate is characterized by a relatively shallow seismicity (< 30 km depth) which is mainly focussed at the transition from the orogen to the lowland areas of the foreland and the forearc; in contrast, deeper seismicity occurs below the interiors of the northern foreland. Additionally, frequent seismicity is also recorded in the shallow parts of the oceanic plate and in a sector of the flat slab segment between 31°S and 33°S. The observed spatial heterogeneity in tectonic and seismic deformation in the SCA has been attributed to multiple causes, including variations in sediment thickness, the presence of inherited structures and changes in the subduction angle of the oceanic slab. However, there is no study that inquired the relationship between the long-term rheological configuration of the SCA and the spatial deformation patterns. Moreover, the effects of the density and thickness configuration of the continental plate and of variations in the slab dip angle in the rheological state of the lithosphere have been not thoroughly investigated yet. Since rheology depends on composition, pressure and temperature, a detailed characterization of the compositional, structural and thermal fields of the lithosphere is needed. Therefore, by using multiple geophysical approaches and data sources, I constructed the following 3D models of the SCA lithosphere: (i) a seismically-constrained structural and density model that was tested against the gravity field; (ii) a thermal model integrating the conversion of mantle shear-wave velocities to temperature with steady-state conductive calculations in the uppermost lithosphere (< 50 km depth), validated by temperature and heat-flow measurements; and (iii) a rheological model of the long-term lithospheric strength using as input the previously-generated models. The results of this dissertation indicate that the present-day thermal and rheological fields of the SCA are controlled by different mechanisms at different depths. At shallow depths (< 50 km), the thermomechanical field is modulated by the heterogeneous composition of the continental lithosphere. The overprint of the oceanic slab is detectable where the oceanic plate is shallow (< 85 km depth) and the radiogenic crust is thin, resulting in overall lower temperatures and higher strength compared to regions where the slab is steep and the radiogenic crust is thick. At depths > 50 km, largest temperatures variations occur where the descending slab is detected, which implies that the deep thermal field is mainly affected by the slab dip geometry. The outcomes of this thesis suggests that long-term thermomechanical state of the lithosphere influences the spatial distribution of seismic deformation. Most of the seismicity within the continental plate occurs above the modelled transition from brittle to ductile conditions. Additionally, there is a spatial correlation between the location of these events and the transition from the mechanically strong domains of the forearc and foreland to the weak domain of the orogen. In contrast, seismicity within the oceanic plate is also detected where long-term ductile conditions are expected. I therefore analysed the possible influence of additional mechanisms triggering these earthquakes, including the compaction of sediments in the subduction interface and dehydration reactions in the slab. To that aim, I carried out a qualitative analysis of the state of hydration in the mantle using the ratio between compressional- and shear-wave velocity (vp/vs ratio) from a previous seismic tomography. The results from this analysis indicate that the majority of the seismicity spatially correlates with hydrated areas of the slab and overlying continental mantle, with the exception of the cluster within the flat slab segment. In this region, earthquakes are likely triggered by flexural processes where the slab changes from a flat to a steep subduction angle. First-order variations in the observed tectonic patterns also seem to be influenced by the thermomechanical configuration of the lithosphere. The mechanically strong domains of the forearc and foreland, due to their resistance to deformation, display smaller amounts of shortening than the relatively weak orogenic domain. In addition, the structural and thermomechanical characteristics modelled in this dissertation confirm previous analyses from geodynamic models pointing to the control of the observed heterogeneities in the orogen and foreland deformation style. These characteristics include the lithospheric and crustal thickness, the presence of weak sediments and the variations in gravitational potential energy. Specific conditions occur in the cold and strong northern foreland, which is characterized by active seismicity and thick-skinned structures, although the modelled crustal strength exceeds the typical values of externally-applied tectonic stresses. The additional mechanisms that could explain the strain localization in a region that should resist deformation are: (i) increased tectonic forces coming from the steepening of the slab and (ii) enhanced weakening along inherited structures from pre-Andean deformation events. Finally, the thermomechanical conditions of this sector of the foreland could be a key factor influencing the preservation of the flat subduction angle at these latitudes of the SCA. N2 - Die Anden sind eine ~7000 km lange N-S-verlaufende Hochgebirgskette, die entlang des westlichen südamerikanischen Kontinentalrandes entstanden ist. Aufgrund der Subduktion der ozeanischen Nazca-Platte unter die kontinentale südamerikanische Platte ist die Bildung des nördlichen und zentralen Teils des Gebirges typisch für eine nicht-kollisionale Orogenese. In den südlichen Zentralanden (SZA, 29-39° S) verändert sich der Subduktionswinkel der ozeanischen Platte zwischen 33 ° S und 35 ° S von fast horizontal (< 5° Einfallen) im Norden zu einem steileren Winkel (~ 30 ° Einfallen) im Süden. Begleitet wird dieser Trend von systematischen, Süd-gerichteten Abnahmen der topographischen Erhebung, der Krusteneinengung und der Vorland- und Orogenbreite, sowie von Variationen im Deformationsstil des Vorlandes, wo die Einengung des Deckgebirges in unterschiedlichem Maße von einer entsprechenden Deformation des Grundgebirges begleitet wird. . Darüber hinaus sind die SZA eine seismisch sehr aktive Region. Die Kontinentalplatte zeichnet sich durch eine relativ flache Seismizität (< 30 km Tiefe) aus, die sich hauptsächlich auf die Übergänge vom Orogen zu den Vorlandbereichen konzentriert; im Gegensatz dazu tritt tiefere Seismizität in den zentralen Bereichen des nördlichen Vorlandes auf. Darüber hinaus ist häufig auftretende Seismizität auch in den flachen Teilen der ozeanischen Platte und im Plattensegment mit flach einfallender Subduktion zwischen 31 ° S und 33 ° S festzustellen. Die beobachtete räumliche Heterogenität der tektonischen und seismischen Deformation in den SZA wurde auf mehrere Ursachen zurückgeführt, darunter Schwankungen der Sedimentmächtigkeit, das Vorhandensein vererbter Strukturen und Veränderungen des Subduktionswinkels der ozeanischen Platte. Es gibt jedoch bislang keine Studie, die den Zusammenhang zwischen der langfristigen rheologischen Konfiguration der SZA und den räumlichen Deformationsmustern untersucht hat. Darüber hinaus wurden die Auswirkungen der Dichte- und Mächtigkeitsvariationen in der kontinentalen Oberplatte und der verschiedenen Subduktionswinkel auf den rheologischen Zustand der Lithosphäre noch nicht grundlegend untersucht. Da die Rheologie von der Gesteinsart, dem Druck und der Temperatur abhängt, ist eine detaillierte Charakterisierung der Zusammensetzung, Struktur und des thermischen Feldes der Lithosphäre erforderlich. Daher habe ich unter Verwendung kombinierter Modellierungsansätze und geophysikalischer Daten die folgenden 3D Modelle für die Lithosphäre der SZA konstruiert: (i) ein auf seismischen Daten basierendes Struktur- und Dichtemodell, das anhand des beobachteten Schwerefeldes validiert wurde; (ii) ein thermisches Modell, das die Umwandlung von Mantelscherwellengeschwindigkeiten in Temperaturen mit Berechnungen des konduktiven Wärmetransports für stationäre Bedingungen in der obersten Lithosphäre (<50 km Tiefe) integriert und durch Temperatur- und Wärmeflussmessungen validiert wurde; und (iii) ein rheologisches Modell der langfristig bedingten Lithosphärenfestigkeit, das auf den zuvor erzeugten Modellen gründet. Die Ergebnisse dieser Dissertation zeigen, dass die thermischen und rheologischen Bedingungen in den heutigen SZA durch verschiedene Mechanismen in unterschiedlichen Tiefen gesteuert werden. In flachen Tiefen (< 50 km) wird das thermomechanische Feld durch die heterogene Zusammensetzung der kontinentalen Lithosphäre differenziert. Eine Überprägung durch die ozeanische Platte ist dort nachweisbar, wo die ozeanische Platte flach (< 85 km tief) und die radiogene Kruste dünn ist, was insgesamt zu niedrigeren Temperaturen und einer höheren Festigkeit im Vergleich zu Bereichen führt, in denen die Platte steil einfällt und die radiogene Kruste dick ist. In Tiefen > 50 km treten die größten Temperaturschwankungen dort auf, wo die subduzierten Platte nachgewiesen wurde, was bedeutet, dass das tiefe thermische Feld den Subduktionswinkel gesteuert wird. Die Ergebnisse dieser Doktorarbeit legen nahe, dass der langfristige thermomechanische Zustand der Lithosphäre die räumliche Verteilung rezenter Seismizität beeinflusst. Der größte Anteil innerhalb der Kontinentalplatte registrierter Erdbebentätigkeit tritt oberhalb des modellierten Übergangs von spröden zu duktilen Bedingungen auf. Außerdem besteht eine räumliche Korrelation zwischen Erdbebenclustern und den Übergängen von den mechanisch rigideren Vorlandbereichen (Forearc und Foreland) zum mechanisch schwächeren Orogen. Demgegenüber wird vermehrte Seismizität innerhalb der ozeanischen Platte auch dort nachgewiesen, wo entsprechend der Modellierung langfristig duktile Bedingungen erwartet werden. Ich habe daher den möglichen Einfluss zusätzlicher Mechanismen untersucht, die ein Auslösen dieser Erdbeben begünstigen könnten, darunter die Kompaktion von Sedimenten an der Subduktionsgrenzfläche und Dehydrationsreaktionen innerhalb der Platte. Dazu habe ich eine qualitative Analyse des Hydratationszustandes des Mantels unter Verwendung des Verhältnisses zwischen Kompressions- und Scherwellengeschwindigkeit (Vp/Vs-Verhältnis aus einemseismischen Tomographiemodell) durchgeführt. Die Ergebnisse dieser Analyse zeigen, dass der Großteil der Seismizität räumlich mit hydratisierten Bereichen in der subduzierten Platte und im darüber liegenden kontinentalen Mantel korreliert, mit Ausnahme eines Erdbebenclusters, das innerhalb des flachen Plattensegments auftritt. In diesem Bereich wechselt die subduzierte Platte von einem flachen in einen steilen Subduktionswinkel und Erdbeben werden wahrscheinlich durch Biegevorgänge in der Platte ausgelöst. Auch die wichtigsten Variationen in den beobachteten tektonischen Mustern scheinen durch die thermomechanische Konfiguration der Lithosphäre beeinflusst zu sein. Die mechanisch starken Bereiche von Forearc und Foreland zeigen aufgrund ihrer Verformungsbeständigkeit geringere Verkürzungsraten als der relativ schwache Bereich des Orogens. Darüber hinaus bestätigen die in dieser Dissertation modellierten strukturellen und thermomechanischen Eigenschaften der Lithosphäre auch frühere Analysen geodynamischer Simulationen, denen zufolge der Deformationsstil im Orogen- und Vorlandbereich jeweils von Variationen in der Lithosphären- und Krustendicke, im Vorhandensein schwacher Sedimente und in der gravitativen potentiellen Energie kontrolliert wird. Eine Sonderstellung nimmt der nordöstliche Vorlandbereich der SZA ein, wo eine verstärkte Seismizität und eine das Deck-und Grundgebirge erfassende Deformation zu beobachten sind, obwohl die modellierte Krustenfestigkeit dort Werte übersteigt, die für die in diesem Gebiet anzunehmenden tektonischen Spannungen typisch wären. . Mechanismen zur Lokalisierung verstärkter Deformation in einem Gebiet beitragen können, das nach den vorliegenden Modellen einer tektonischen Verformung widerstehen sollte, sind: (i) erhöhte tektonische Kräfte durch ein steileres Abtauchen der Platte und (ii) Schwächezonen in der Kruste, die auf prä-andine Deformationsereignisse zurückgehen. Schließlich könnten die thermomechanischen Bedingungen in diesem Teil des Vorlands einchlüsselfaktor für die Erhaltung des flachen Subduktionswinkels in diesen Breiten der SZA sein. KW - Andes KW - Anden KW - subduction KW - Subduktion KW - lithosphere KW - Lithosphäre KW - earthquakes KW - Erdbeben KW - modelling KW - Modellierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-549275 ER - TY - THES A1 - Niemz, Peter T1 - Imaging and modeling of hydraulic fractures in crystalline rock via induced seismic activity T1 - Charakterisierung und Modellierung hydraulischer Brüche in Kristallingestein mit Hilfe induzierter Seismizität N2 - Enhanced geothermal systems (EGS) are considered a cornerstone of future sustainable energy production. In such systems, high-pressure fluid injections break the rock to provide pathways for water to circulate in and heat up. This approach inherently induces small seismic events that, in rare cases, are felt or can even cause damage. Controlling and reducing the seismic impact of EGS is crucial for a broader public acceptance. To evaluate the applicability of hydraulic fracturing (HF) in EGS and to improve the understanding of fracturing processes and the hydromechanical relation to induced seismicity, six in-situ, meter-scale HF experiments with different injection schemes were performed under controlled conditions in crystalline rock in a depth of 410 m at the Äspö Hard Rock Laboratory (Sweden). I developed a semi-automated, full-waveform-based detection, classification, and location workflow to extract and characterize the acoustic emission (AE) activity from the continuous recordings of 11 piezoelectric AE sensors. Based on the resulting catalog of 20,000 AEs, with rupture sizes of cm to dm, I mapped and characterized the fracture growth in great detail. The injection using a novel cyclic injection scheme (HF3) had a lower seismic impact than the conventional injections. HF3 induced fewer AEs with a reduced maximum magnitude and significantly larger b-values, implying a decreased number of large events relative to the number of small ones. Furthermore, HF3 showed an increased fracture complexity with multiple fractures or a fracture network. In contrast, the conventional injections developed single, planar fracture zones (Publication 1). An independent, complementary approach based on a comparison of modeled and observed tilt exploits transient long-period signals recorded at the horizontal components of two broad-band seismometers a few tens of meters apart from the injections. It validated the efficient creation of hydraulic fractures and verified the AE-based fracture geometries. The innovative joint analysis of AEs and tilt signals revealed different phases of the fracturing process, including the (re-)opening, growth, and aftergrowth of fractures, and provided evidence for the reactivation of a preexisting fault in one of the experiments (Publication 2). A newly developed network-based waveform-similarity analysis applied to the massive AE activity supports the latter finding. To validate whether the reduction of the seismic impact as observed for the cyclic injection schemes during the Äspö mine-scale experiments is transferable to other scales, I additionally calculated energy budgets for injection experiments from previously conducted laboratory tests and from a field application. Across all three scales, the cyclic injections reduce the seismic impact, as depicted by smaller maximum magnitudes, larger b-values, and decreased injection efficiencies (Publication 3). N2 - Hydraulisch-stimulierte tiefengeothermale Systeme (Enhanced Geothermal systems, EGS) gelten als einer der Eckpfeiler für die nachhaltige Energieerzeugung der Zukunft. In diesen geothermalen Systemen wird heißes Tiefengestein durch Fluidinjektionen unter hohem Druck aufgebrochen, um Wegsamkeiten zur Erwärmung von Wasser oder anderen Fluiden zu schaffen. Beim Aufbrechen werden zwangsläufig kleine seismische Ereignisse ausgelöst (induzierte Seismizität), die in sehr seltenen Fällen an der Oberfläche spürbar sind, jedoch in extremen Fällen auch Schäden verursachen können. Die Kontrolle bzw. die Reduzierung der seismischen Aktivität in EGS ist daher ein entscheidender Punkt, damit diese Art der Energiegewinnung eine breite gesellschaftliche Akzeptanz findet. Grundlage dieser Dissertation ist eine Serie von kontrollierten, hydraulischen Bruchexperimenten mit Bruchdimensionen von einigen Metern. Die Experimente wurden in einer Tiefe von 410 m in kristallinem Gestein eines Versuchsbergwerks (Äspö Hard Rock Laboratory, Schweden) mit unterschiedlichen Injektionsstrategien durchgeführt. Die detaillierte Auswertung der Bruch-Experimente in dieser Dissertation zielt darauf ab, die Nutzbarkeit von hydraulischen Stimulationen (hydraulic fracturing, HF) in EGS zu untersuchen und das Verständnis von Bruchprozessen sowie der hydromechanischen Beziehung zur induzierten Seismizität zu verbessern. Um die Schallemissionsaktivität (acoustic emissions, AE), die durch 11 piezoelektrische AE-Sensoren kontinuierlich aufgezeichnet wurde, zu extrahieren und zu charakterisieren, wurde ein halbautomatischer, wellenformbasierter Detektions-, Klassifizierungs- und Lokalisierungsworkflow entwickelt. Mit Hilfe des resultierenden Katalogs von 20000 AEs wurde das Bruchwachstum detailliert kartiert und charakterisiert. Das Experiment mit der neuartigen, zyklischen Injektionsstrategie (HF3) weist einen geringeren seismischen Fußabdruck auf als die Standard-Injektionsstrategie. HF3 induzierte weniger AEs und eine kleinere Maximalmagnitude. Außerdem hatte das Experiment einen signifikant höheren b-Wert, was einer verringerten Anzahl von großen AEs relativ zur Anzahl der kleineren AEs entspricht. Darüber hinaus zeigte HF3 eine erhöhte Komplexität im Bruchmuster mit mehreren Brüchen bzw. einem Netzwerk von Brüchen. Im Gegensatz dazu entwickelten die Standard-Injektionen einzelne, ebene Bruchzonen (Publikation 1). Zusätzlich zu den induzierten AEs wurden transiente, langperiodische Signale auf den horizontalen Komponenten von zwei Breitband-Seismometern, die wenige Meter von den Brüchen installiert waren, ausgewertet. Diese Signale wurden als Neigungssignale interpretiert und mit modellierten Neigungssignalen verglichen. Der Vergleich zeigt unabhängig, dass hydraulische Brüche geöffnet wurden und bestätigt, dass die AE-basierte Analyse die Bruchgeometrie verlässlich kartieren kann. Die gemeinsame Betrachtung von AEs und Neigungssignalen offenbart verschiedene Phasen des Bruchprozesses: das (wiederholte) Öffnen des Bruches, das Bruchwachstum und das weitere Wachsen des Bruches nach dem Ende der Injektion. Außerdem liefert die Analyse Hinweise auf die Reaktivierung einer natürlichen Bruchzone in einem der Experimente (Publikation 2). Eine neuentwickelte und hier präsentierte Wellenform-Ähnlichkeitsanalyse, die Informationen des gesamten Sensornetzwerkes nutzt und zum ersten Mal auf einen umfangreichen AE-Katalog angewendet wurde, unterstützt diese Interpretation. Um zu validieren, ob die verringerte Seismizität während der zyklischen Injektion auf der Meter-Skala (Bergwerk) auf andere Maßstäbe übertragbar ist, wurden Energie-Budgets für Injektionsexperimente aus zuvor durchgeführten Laborversuchen und aus einem Tiefengeothermie-Projekt berechnet. Über alle drei Skalen hinweg zeigen die zyklischen Injektionen einen verringerten seismischen Fußabdruck mit kleineren Maximalmagnituden, größeren b-Werte und einem kleineren Verhältnis von seismisch-abgestrahlter zu injizierter Energie (Publikation 3). KW - induced seismicity KW - hydraulic fracturing KW - enhanced geothermal systems (EGS) KW - injection KW - deformation KW - acoustic emissions KW - fracture growth KW - injection scheme KW - basement rock KW - Schallemissionen KW - Grundgestein KW - Deformation KW - verbesserte geothermische Systeme KW - Bruchausbreitung KW - hydraulisches Aufbrechen KW - Induzierte Seismizität KW - Injektion KW - Injektionsschema Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-556593 ER - TY - THES A1 - Zeitz, Maria T1 - Modeling the future resilience of the Greenland Ice Sheet T1 - Numerische Modellierung der zukünftigen Resilienz des grönländischen Eisschildes BT - from the flow of ice to the interplay of feedbacks N2 - The Greenland Ice Sheet is the second-largest mass of ice on Earth. Being almost 2000 km long, more than 700 km wide, and more than 3 km thick at the summit, it holds enough ice to raise global sea levels by 7m if melted completely. Despite its massive size, it is particularly vulnerable to anthropogenic climate change: temperatures over the Greenland Ice Sheet have increased by more than 2.7◦C in the past 30 years, twice as much as the global mean temperature. Consequently, the ice sheet has been significantly losing mass since the 1980s and the rate of loss has increased sixfold since then. Moreover, it is one of the potential tipping elements of the Earth System, which might undergo irreversible change once a warming threshold is exceeded. This thesis aims at extending the understanding of the resilience of the Greenland Ice Sheet against global warming by analyzing processes and feedbacks relevant to its centennial to multi-millennial stability using ice sheet modeling. One of these feedbacks, the melt-elevation-feedback is driven by the temperature rise with decreasing altitudes: As the ice sheet melts, its thickness and surface elevation decrease, exposing the ice surface to warmer air and thus increasing the melt rates even further. The glacial isostatic adjustment (GIA) can partly mitigate this melt-elevation feedback as the bedrock lifts in response to an ice load decrease, forming the negative GIA feedback. In my thesis, I show that the interaction between these two competing feedbacks can lead to qualitatively different dynamical responses of the Greenland Ice Sheet to warming – from permanent loss to incomplete recovery, depending on the feedback parameters. My research shows that the interaction of those feedbacks can initiate self-sustained oscillations of the ice volume while the climate forcing remains constant. Furthermore, the increased surface melt changes the optical properties of the snow or ice surface, e.g. by lowering their albedo, which in turn enhances melt rates – a process known as the melt-albedo feedback. Process-based ice sheet models often neglect this melt-albedo feedback. To close this gap, I implemented a simplified version of the diurnal Energy Balance Model, a computationally efficient approach that can capture the first-order effects of the melt-albedo feedback, into the Parallel Ice Sheet Model (PISM). Using the coupled model, I show in warming experiments that the melt-albedo feedback almost doubles the ice loss until the year 2300 under the low greenhouse gas emission scenario RCP2.6, compared to simulations where the melt-albedo feedback is neglected, and adds up to 58% additional ice loss under the high emission scenario RCP8.5. Moreover, I find that the melt-albedo feedback dominates the ice loss until 2300, compared to the melt-elevation feedback. Another process that could influence the resilience of the Greenland Ice Sheet is the warming induced softening of the ice and the resulting increase in flow. In my thesis, I show with PISM how the uncertainty in Glen’s flow law impacts the simulated response to warming. In a flow line setup at fixed climatic mass balance, the uncertainty in flow parameters leads to a range of ice loss comparable to the range caused by different warming levels. While I focus on fundamental processes, feedbacks, and their interactions in the first three projects of my thesis, I also explore the impact of specific climate scenarios on the sea level rise contribution of the Greenland Ice Sheet. To increase the carbon budget flexibility, some warming scenarios – while still staying within the limits of the Paris Agreement – include a temporal overshoot of global warming. I show that an overshoot by 0.4◦C increases the short-term and long-term ice loss from Greenland by several centimeters. The long-term increase is driven by the warming at high latitudes, which persists even when global warming is reversed. This leads to a substantial long-term commitment of the sea level rise contribution from the Greenland Ice Sheet. Overall, in my thesis I show that the melt-albedo feedback is most relevant for the ice loss of the Greenland Ice Sheet on centennial timescales. In contrast, the melt-elevation feedback and its interplay with the GIA feedback become increasingly relevant on millennial timescales. All of these influence the resilience of the Greenland Ice Sheet against global warming, in the near future and on the long term. N2 - Das grönländische Eisschild ist die zweitgrößte Eismasse der Erde. Es fasst genug Eis, um den globalen Meeresspiegel um 7m anzuheben, wenn er vollständig schmilzt. Trotz seiner Größe ist es durch den vom Menschen verursachten Klimawandel immens gefährdet: Die Temperaturen über Grönland sind in den letzten 30 Jahren um mehr als 2,7◦C gestiegen, doppelt so stark wie im globalen Mittel. Daher verliert das Eisschild seit den 1980er Jahren an Masse und die Verlustrate hat sich seitdem versechsfacht. Zudem ist das grönländische Eisschild ein Kippelement des Erdsystems, es könnte sich unwiederbringlich verändern, wenn die globale Erwärmung einen Schwellwert überschreiten sollte. Ziel dieser Arbeit ist es, das Verständnis für die Resilienz des grönländischen Eisschildes zu erweitern, indem relevante Rückkopplungen und Prozesse analysiert werden. Eine dieser Rückkopplungen, die positive Schmelz-Höhen-Rückkopplung wird durch den Temperaturanstieg bei abnehmender Höhe angetrieben: Wenn der Eisschild schmilzt, nehmen seine Dicke und die Oberflächenhöhe ab, wodurch die Eisoberfläche wärmerer Luft ausgesetzt wird und die Schmelzraten noch weiter ansteigen. Die glaziale isostatische Anpassung (GIA) kann die Schmelz-Höhen-Rückkopplung teilweise abschwächen, da sich der Erdmantel als Reaktion auf die abnehmende Eislast hebt und so die negative GIA-Rückkopplung bildet. Ich zeige, dass die Interaktion zwischen diesen beiden konkurrierenden Rückkopplungen zu qualitativ unterschiedlichem dynamischen Verhalten des grönländischen Eisschildes bei Erwärmung führen kann - von permanentem Verlust bis hin zu unvollständiger Erholung. Das Zusammenspiel dieser Rückkopplungen kann zudem Oszillationen des Eisvolumens in einem konstanten Klima auslösen. Die verstärkte Oberflächenschmelze ändert die optischen Eigenschaften von Schnee und Eis und verringert deren Albedo, was wiederum die Schmelzraten erhöht – die sogenannte Schmelz-Albedo Rückkopplung. Da viele Eisschildmodelle diese vernachlässigen, habe ich eine vereinfachte Version des tageszeitlichen Energiebilanzmodells, welches die Effekte der Schmelz-Albedo-Rückkopplung erster Ordnung erfassen kann, in das Eisschildmodell PISM implementiert. Mithilfe des gekoppelten Modells zeige ich, dass die Schmelz-Albedo-Rückkopplung den Eisverlust bis zum Jahr 2300 im moderaten Klimaszenario RCP2.6 fast verdoppelt und im RCP8.5-Szenario, welches von starken Emissionen ausgeht, bis zu 58% zusätzlichen Eisverlust verursacht, im Vergleich zu Simulationen in denen die Schmelz-Albedo-Rückkopplung vernachlässigt wird. Bis zum Jahr 2300 trägt die Schmelz-Albedo-Rückkopplung mehr zum Eisverlust bei als die Schmelz-Höhen-Rückkopplung. Ein weiterer Prozess, der die Widerstandsfähigkeit des grönländischen Eisschilds beeinflussen könnte, ist die Erweichung des Eises bei steigenden Temperaturen, sowie die daraus resultierende Zunahme des Eisflusses. In meiner Dissertation zeige ich, wie sich die parametrische Unsicherheit in dem Flussgesetz auf die Ergebnisse von PISM Simulationen bei Erwärmung auswirkt. In einem idealisierten, zweidimensionalen Experiment mit fester klimatischer Massenbilanz führt die Unsicherheit in den Strömungsparametern zu einer Bandbreite des Eisverlustes, die mit der Bandbreite durch unterschiedliche Erwärmungen vergleichbar ist. Neben den grundsätzlichen Prozessen und Rückkopplungen untersuchte ich auch die Auswirkungen konkreter Klimaszenarien auf den Eisverlust von Grönland. Um die Flexibilität des Kohlenstoffbudgets zu erhöhen sehen einige Erwärmungsszenarien eine temporäre Überschreitung der globalen Temperaturen über das Ziel von 1,5◦C vor. Ich zeige, dass eine solche Temperaturerhöhung den kurz- und langfristigen Eisverlust von Grönland um mehrere Zentimeter erhöht. Der langfristige Meeresspiegelanstieg ist auf die anhaltende Temperaturerhöhung in hohen Breitengraden zurückzuführen. Solche Prozesse führen zu einem langfristigen und bereits festgelegtem Meeresspiegelanstieg, selbst wenn die Temperaturen nicht weiter steigen. Insgesamt zeige ich in meiner Arbeit, dass die Schmelz-Albedo-Rückkopplung für den Eisverlust des grönländischen Eisschilds in den nächsten Jahrhunderten am wichtigsten ist. Im Gegensatz dazu werden die Schmelz-Höhen-Rückkopplung und ihr Zusammenspiel mit der GIA-Rückkopplung auf längeren Zeiträumen immer relevanter. KW - Greenland Ice Sheet KW - ice-flow modeling KW - sea-level rise KW - Grönländisches Eisschild KW - Computersimulation KW - Meeresspiegelanstieg Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-568839 ER - TY - THES A1 - Forster, Florian T1 - Continuous microgravity monitoring of the Þeistareykir geothermal field (North Iceland) N2 - In my doctoral thesis, I examine continuous gravity measurements for monitoring of the geothermal site at Þeistareykir in North Iceland. With the help of high-precision superconducting gravity meters (iGravs), I investigate underground mass changes that are caused by operation of the geothermal power plant (i.e. by extraction of hot water and reinjection of cold water). The overall goal of this research project is to make a statement about the sustainable use of the geothermal reservoir, from which also the Icelandic energy supplier and power plant operator Landsvirkjun should benefit. As a first step, for investigating the performance and measurement stability of the gravity meters, in summer 2017, I performed comparative measurements at the gravimetric observatory J9 in Strasbourg. From the three-month gravity time series, I examined calibration, noise and drift behaviour of the iGravs in comparison to stable long-term time series of the observatory superconducting gravity meters. After preparatory work in Iceland (setup of gravity stations, additional measuring equipment and infrastructure, discussions with Landsvirkjun and meetings with the Icelandic partner institute ISOR), gravity monitoring at Þeistareykir was started in December 2017. With the help of the iGrav records of the initial 18 months after start of measurements, I carried out the same investigations (on calibration, noise and drift behaviour) as in J9 to understand how the transport of the superconducting gravity meters to Iceland may influence instrumental parameters. In the further course of this work, I focus on modelling and reduction of local gravity contributions at Þeistareykir. These comprise additional mass changes due to rain, snowfall and vertical surface displacements that superimpose onto the geothermal signal of the gravity measurements. For this purpose, I used data sets from additional monitoring sensors that are installed at each gravity station and adapted scripts for hydro-gravitational modelling. The third part of my thesis targets geothermal signals in the gravity measurements. Together with my PhD colleague Nolwenn Portier from France, I carried out additional gravity measurements with a Scintrex CG5 gravity meter at 26 measuring points within the geothermal field in the summers of 2017, 2018 and 2019. These annual time-lapse gravity measurements are intended to increase the spatial coverage of gravity data from the three continuous monitoring stations to the entire geothermal field. The combination of CG5 and iGrav observations, as well as annual reference measurements with an FG5 absolute gravity meter represent the hybrid gravimetric monitoring method for Þeistareykir. Comparison of the gravimetric data to local borehole measurements (of groundwater levels, geothermal extraction and injection rates) is used to relate the observed gravity changes to the actually extracted (and reinjected) geothermal fluids. An approach to explain the observed gravity signals by means of forward modelling of the geothermal production rate is presented at the end of the third (hybrid gravimetric) study. Further modelling with the help of the processed gravity data is planned by Landsvirkjun. In addition, the experience from time-lapse and continuous gravity monitoring will be used for future gravity measurements at the Krafla geothermal field 22 km south-east of Þeistareykir. N2 - In meiner Doktorarbeit beschäftige ich mich mit kontinuierlichen Schweremessungen zum Monitoring des geothermisch genutzten Standorts Þeistareykir in Nordisland. Unter Verwendung von hochpräzisen Supraleitgravimetern (iGravs) untersuche ich unterirdische Massenveränderungen, die durch den Betrieb des isländischen Erdwärmekraftwerks (d.h. durch die Entnahme von Heißwasser und Rückinjektion von Kaltwasser) hervorgerufen werden. Als übergeordnetes Ziel des Forschungsprojektes soll eine Aussage zur nachhaltigen Nutzung des geothermischen Reservoirs gemacht werden, von der auch der isländische Energieversorger und Kraftwerksbetreiber Landsvirkjun profitieren soll. Als ersten Schritt, zur Untersuchung der Leistungsfähigkeit und Messstabilität der Gravimeter, begleitete ich im Sommer 2017 Vergleichsmessungen in dem gravimetrischen Observatorium J9 in Straßburg. Aus den dreimonatigen Messzeitreihen untersuchte ich Kalibration, Rausch- und Driftverhalten der iGravs im Vergleich zu den betriebssicher laufenden Observatoriums-Supraleitgravimetern. Nach vorbereitender Arbeit in Island (Aufbau der Gravimeter-Stationen und zusätzlicher Messeinrichtung, Einrichtung der Infrastruktur, Gespräche mit Landsvirkjun und Treffen mit isländischen Partnerinstitut ISOR) startete ich mit meinen Kollegen im Dezember 2017 das Gravimeter-Monitoring in Þeistareykir. Anhand der iGrav-Aufzeichnungen der ersten 18 Monaten nach Messbeginn führte ich die gleichen Untersuchungen (zu Kalibration, Rausch- und Driftverhalten) wie in J9 durch, um zu verstehen inwieweit der Transport der Supraleitgravimeter nach Island die Geräteeigenschaften beeinflusst hat. Im weiteren Verlauf der vorliegenden Arbeit beschäftige ich mich verstärkt mit der Modellierung und Korrektur von oberflächennahen Schwereeffekten in Þeistareykir. Dies umfasst zusätzliche Massenbewegungen durch Regen, Schneefall oder vulkanisch-tektonische Bodenbewegungen, die das geothermische Signal in den Gravimeter-Messungen überlagern. Als Hilfsmittel verwende ich die Datensätze der zusätzlich an jeder Gravimeter-Station eingerichteten Messsensorik und von mir angepasste Modellierungsskripte meiner Gravimetrie-Kollegen. Als dritten Punkt meiner Dissertation untersuche ich die geothermischen Signale in den Gravimeter-Messungen. Gemeinsam mit meiner PhD-Kollegin Nolwenn Portier aus Frankreich führte ich in den Sommern 2017, 2018 und 2019 zusätzliche Schweremessungen mit einem Scintrex CG5 Gravimeter an 26 im Geothermie-Feld verteilten Messpunkten durch. Diese jährlich begrenzten Schweredaten dienen der Verbesserung der räumlichen Auflösung unserer kontinuierlichen iGrav-Messungen. Die kombinierten Ergebnisse beider Messmethoden (der CG5 und iGrav Gravimeter), sowie jährlich im Messgebiet durchgeführter Referenz-Messungen mit einem FG5 Absolut-Gravimeter, komplettieren das hybridgravimetrische Monitoring am Messstandort Þeistareykir. Die abschließende Gegenüberstellung der gravimetrischen Daten mit lokalen Bohrlochmessungen (von Grundwasserpegeln, geothermischen Extraktions- und Injektions-Raten) des Kraftwerksbetreibers, ermöglicht einen direkten Vergleich der beobachteten Schwereveränderungen mit den tatsächlich geförderten geothermischen Fluiden. Ein Ansatz zur Erklärung des beobachteten Schweresignals mittels Vorwärtsmodellierung der geförderten geothermischen Förderrate wird im Abschluss der dritten (hybridgravimetrischen) Studie vorgestellt. Weitere Modellierungen unter Verwendung der aufbereiteten gravimetrischen Messdaten sind durch den Kraftwerksbetreibers von Þeistareykir geplant. Außerdem sollen die gesammelten Erfahrungen des gravimetrischen Messnetzes und Monitorings in Þeistareykir zur Durchführung weiterer gravimetrischer Messungen an dem 22 km südöstlich gelegenem Geothermiefeld Krafla genutzt werden. T2 - Kontinuierliche Schweremessungen zum Monitoring des Geothermalfeldes Þeistareykir (Nordisland) KW - Superconducting gravimetry KW - Geothermal monitoring KW - Time series analysis KW - Þeistareykir Iceland KW - Geothermisches Monitoring KW - Supraleit-Gravimetrie KW - Zeitreihenanalyse KW - Þeistareykir Island Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-548517 ER - TY - THES A1 - Münch, Steffen T1 - The relevance of the aeolian transport path for the spread of antibiotic-resistant bacteria on arable fields T1 - Die Bedeutung des äolischen Transportpfads für die Ausbreitung antibiotikaresistenter Bakterien von Ackerböden N2 - The spread of antibiotic-resistant bacteria poses a globally increasing threat to public health care. The excessive use of antibiotics in animal husbandry can develop resistances in the stables. Transmission through direct contact with animals and contamination of food has already been proven. The excrements of the animals combined with a binding material enable a further potential path of spread into the environment, if they are used as organic manure in agricultural landscapes. As most of the airborne bacteria are attached to particulate matter, the focus of the work will be the atmospheric dispersal via the dust fraction. Field measurements on arable lands in Brandenburg, Germany and wind erosion studies in a wind tunnel were conducted to investigate the risk of a potential atmospheric dust-associated spread of antibiotic-resistant bacteria from poultry manure fertilized agricultural soils. The focus was to (i) characterize the conditions for aerosolization and (ii) qualify and quantify dust emissions during agricultural operations and wind erosion. PM10 (PM, particulate matter with an aerodynamic diameter smaller than 10 µm) emission factors and bacterial fluxes for poultry manure application and incorporation have not been previously reported before. The contribution to dust emissions depends on the water content of the manure, which is affected by the manure pretreatment (fresh, composted, stored, dried), as well as by the intensity of manure spreading from the manure spreader. During poultry manure application, PM10 emission ranged between 0.05 kg ha-1 and 8.37 kg ha-1. For comparison, the subsequent land preparation contributes to 0.35 – 1.15 kg ha-1 of PM10 emissions. Manure particles were still part of dust emissions but they were accounted to be less than 1% of total PM10 emissions due to the dilution of poultry manure in the soil after manure incorporation. Bacterial emissions of fecal origin were more relevant during manure application than during the subsequent manure incorporation, although PM10 emissions of manure incorporation were larger than PM10 emissions of manure application for the non-dried manure variants. Wind erosion leads to preferred detachment of manure particles from sandy soils, when poultry manure has been recently incorporated. Sorting effects were determined between the low-density organic particles of manure origin and the soil particles of mineral origin close above the threshold of 7 m s-1. In dependence to the wind speed, potential erosion rates between 101 and 854 kg ha-1 were identified, if 6 t ha-1 of poultry manure were applied. Microbial investigation showed that manure bacteria got detached more easily from the soil surface during wind erosion, due to their attachment on manure particles. Although antibiotic-resistant bacteria (ESBL-producing E. coli) were still found in the poultry barns, no further contamination could be detected with them in the manure, fertilized soils or in the dust generated by manure application, land preparation or wind erosion. Parallel studies of this project showed that storage of poultry manure for a few days (36 – 72 h) is sufficient to inactivate ESBL-producing E. coli. Further antibiotic-resistant bacteria, i.e. MRSA and VRE, were only found sporadically in the stables and not at all in the dust. Therefore, based on the results of this work, the risk of a potential infection by dust-associated antibiotic-resistant bacteria can be considered as low. N2 - Die Ausbreitung antibiotikaresistenter Bakterien stellt eine global zunehmende Gefahr für die öffentliche Gesundheitsfürsorge dar. Über den unsachgemäßen Einsatz von Antibiotika in der Tierhaltung können sich in den Ställen Resistenzen entwickeln. Übertragungen über den direkten Kontakt mit Tieren und der Kontaminierung von Lebensmitteln wurden bisher schon nachgewiesen. Die Exkremente der Tiere in Verbindung mit einem Bindemedium ermöglichen einen weiteren potentiellen Ausbreitungspfad in die Umwelt, wenn sie als organische Wirtschaftsdünger in Agrarlandschaften verwendet werden. Im Rahmen dieser Arbeit wurden Feld- und Windkanalmessungen durchgeführt, um dem von den Ackerflächen ausgehenden potentiellen Risiko einer partikulären Ausbreitung antibiotikaresistenter Bakterien nachzugehen. Kern der Arbeit ist zum einen die Bedingungen zu charakterisieren, die zu Staubemissionen während der Prozesskette (Düngerausbringung mit Geflügelmist, nachfolgende Feldbearbeitungen, Winderosion) führen, zum anderen Staubemissionen dieser Prozesskette zu klassifizieren und quantifizieren. Flächenbezogene Emissionen für PM10 als ein Teil des Schwebstaubs (sogenannte PM10 Emissionsfaktoren) wurden zum ersten Mal für die Düngerausbringung mit Geflügelmist bestimmt. Sie lagen zwischen 0,05 und 8,37 kg ha-1 PM10 und waren abhängig vom Wassergehalt des Materials, der durch die Vorbehandlungen (frisch, kompostiert, gelagert, getrocknet) der Düngervarianten bestimmt war. Im Vergleich dazu wurden für die nachfolgenden Bodenbearbeitungen zwischen 0,35 kg ha-1 und 1,15 kg ha-1 PM10 freigesetzt. Zwar waren Mistpartikel weiterhin Bestanteil der Staubemissionen während der Bodenbearbeitung, jedoch sank ihr Anteil durch die Verdünnung des Düngers im Boden nach der Düngereinarbeitung auf unter 1 % ab. Ähnliche Tendenzen ergaben sich bei der mikrobiellen Betrachtung der freigesetzten Bakterien während der Ausbringung und Einarbeitung des Geflügelmists. Trotz eines höheren PM10 Austrags während der Düngereinarbeitung, verglichen mit der Ausbringung des Düngers, waren die Bakterienemissionen während der Düngerausbringung relevanter als bei der Düngereinarbeitung. Winderosion sorgt für eine bevorzugte Verfrachtung des Geflügelmists auf sandigen Böden, nachdem der Dünger frisch eingearbeitet wurde. Da vor allem organische Bestandteile im Boden durch ihre geringe Dichte von der Auswehung betroffen sind, führt Winderosion auch bei mit Geflügelmist gedüngten Böden bereits kurz nach Erreichen der Schwellenwindgeschwindigkeit von 7 m s-1 zu einer Entmischung der eingebrachten organischen Mistpartikel und der mineralischen Bestandteile des Bodens. Diese Effekte treten vor allem dann auf, wenn in trockenen Böden der Gefügezustand zwischen mineralischen und organischen Partikeln kaum oder nicht vorhanden ist. In Abhängigkeit der Windgeschwindigkeit konnten potentielle Austräge zwischen 101 und 854 kg ha-1 bei einer eingebrachten Düngermenge von 6 t ha-1 bestimmt werden. Der bevorzugte Austrag von Mistpartikeln bedingt auch einen bevorzugten Austrag von Bakterien fäkalen Ursprungs, da diese nach der Einarbeitung an den Mistpartikeln mit geringerer Dichte anhaften. Obwohl in den Geflügelställen antibiotikaresistente Bakterien in Form von ESBL bildenden Escherichia Coli (E. coli) in hohen Keimzahlen gefunden wurden, konnten keine weiteren Kontaminationen mit resistenten E.coli im Mist, in gedüngten Böden oder im Staub nachgewiesen werden. Parallelstudien aus dem Projekt zeigten, dass eine mehrtägige Lagerung von Hühnerstreu ausreichend ist (36 – 72 h), die Mehrzahl resistenter E.coli zu reduzieren, sodass sie sich nach der Düngerausbringung nicht mehr über Agrarflächen ausbreiten konnten. Weitere antibiotikaresistente Bakterien (MRSA, VRE) wurden nur vereinzelt in den Ställen und überhaupt nicht im Staub nachgewiesen. Aus unseren Versuchen kann daher das Risiko einer möglichen Infektion durch staubassoziierte antibiotikaresistente Bakterien als gering eingeschätzt werden. KW - wind erosion KW - dust emission KW - PM10 KW - manure application KW - tillage KW - sandy soils KW - poultry manure KW - antibiotic resistance KW - airborne bacteria KW - agricultural KW - fecal contamination KW - fertilization KW - PM10 KW - landwirtschaftlich KW - luftgetragene Bakterien KW - Antibiotikaresistenz KW - Staubemission KW - fäkale Kontamination KW - Düngung KW - Mistausbringung KW - Geflügelmist KW - sandige Böden KW - Bodenbearbeitung KW - Winderosion Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536089 ER - TY - THES A1 - Canil, Laura T1 - Tuning Interfacial Properties in Perovskite Solar Cells through Defined Molecular Assemblies T1 - Anpassung von Grenzflächeneigenschaften von Perowskit-Solarzellen durch den Einsatz von molekularen Schichten N2 - In the frame of a world fighting a dramatic global warming caused by human-related activities, research towards the development of renewable energies plays a crucial role. Solar energy is one of the most important clean energy sources and its role in the satisfaction of the global energy demand is set to increase. In this context, a particular class of materials captured the attention of the scientific community for its attractive properties: halide perovskites. Devices with perovskite as light-absorber saw an impressive development within the last decade, reaching nowadays efficiencies comparable to mature photovoltaic technologies like silicon solar cells. Yet, there are still several roadblocks to overcome before a wide-spread commercialization of this kind of devices is enabled. One of the critical points lies at the interfaces: perovskite solar cells (PSCs) are made of several layers with different chemical and physical features. In order for the device to function properly, these properties have to be well-matched. This dissertation deals with some of the challenges related to interfaces in PSCs, with a focus on the interface between the perovskite material itself and the subsequent charge transport layer. In particular, molecular assemblies with specific properties are deposited on the perovskite surface to functionalize it. The functionalization results in energy level alignment adjustment, interfacial losses reduction, and stability improvement. First, a strategy to tune the perovskite’s energy levels is introduced: self-assembled monolayers of dipolar molecules are used to functionalize the surface, obtaining simultaneously a shift in the vacuum level position and a saturation of the dangling bonds at the surface. A shift in the vacuum level corresponds to an equal change in work function, ionization energy, and electron affinity. The direction of the shift depends on the direction of the collective interfacial dipole. The magnitude of the shift can be tailored by controlling the deposition parameters, such as the concentration of the solution used for the deposition. The shift for different molecules is characterized by several non-invasive techniques, including in particular Kelvin probe. Overall, it is shown that it is possible to shift the perovskite energy levels in both directions by several hundreds of meV. Moreover, interesting insights on the molecules deposition dynamics are revealed. Secondly, the application of this strategy in perovskite solar cells is explored. Devices with different perovskite compositions (“triple cation perovskite” and MAPbBr3) are prepared. The two resulting model systems present different energetic offsets at the perovskite/hole-transport layer interface. Upon tailored perovskite surface functionalization, the devices show a stabilized open circuit voltage (Voc) enhancement of approximately 60 meV on average for devices with MAPbBr3, while the impact is limited on triple-cation solar cells. This suggests that the proposed energy level tuning method is valid, but its effectiveness depends on factors such as the significance of the energetic offset compared to the other losses in the devices. Finally, the above presented method is further developed by incorporating the ability to interact with the perovskite surface directly into a novel hole-transport material (HTM), named PFI. The HTM can anchor to the perovskite halide ions via halogen bonding (XB). Its behaviour is compared to that of another HTM (PF) with same chemical structure and properties, except for the ability of forming XB. The interaction of perovskite with PFI and PF is characterized through UV-Vis, atomic force microscopy and Kelvin probe measurements combined with simulations. Compared to PF, PFI exhibits enhanced resilience against solvent exposure and improved energy level alignment with the perovskite layer. As a consequence, devices comprising PFI show enhanced Voc and operational stability during maximum-power-point tracking, in addition to hysteresis reduction. XB promotes the formation of a high-quality interface by anchoring to the halide ions and forming a stable and ordered interfacial layer, showing to be a particularly interesting candidate for the development of tailored charge transport materials in PSCs. Overall, the results exposed in this dissertation introduce and discuss a versatile tool to functionalize the perovskite surface and tune its energy levels. The application of this method in devices is explored and insights on its challenges and advantages are given. Within this frame, the results shed light on XB as ideal interaction for enhancing stability and efficiency in perovskite-based devices. N2 - Im Kampf gegen den menschengemachten Klimawandel spielt die Forschung und Entwicklung von erneuerbaren Energien eine tragende Rolle. Solarenergie ist eine der wichtigsten grünen Energiequellen und von steigender Bedeutung für die Deckung des globalen Energiebedarfs. In diesem Kontext hat eine bestimme Materialklasse aufgrund ihrer attraktiven Eigenschaften die Aufmerksamkeit der Wissenschaft erregt: Halogenid-Perowskit. Perowskit-Solarzellen haben im letzten Jahrzehnt eine beeindruckende Entwicklung durchgemacht und erreichen heutzutage Effizienzen, die mit weit entwickelten Photovoltaik-Technologien wie Silizium-Solarzellen vergleichbar sind. Jedoch existieren immer noch mehrere Hürden, die einer marktweiten Kommerzialisierung dieser jungen Technologie im Wege stehen. Eines der kritischen Probleme befindet sich an den Grenzflächen. Perowskit-Solarzellen bestehen aus mehreren Schichten mit unterschiedlichen chemischen und physikalischen Eigenschaften. Damit die Solarzelle bestmöglich funktioniert, müssen diese Eigenschaften aufeinander abgestimmt sein. Diese Dissertation beschäftigt sich mit einigen Herausforderungen im Zusammenhang mit Grenzflächen in Perowskit-Solarzellen, dabei liegt der Fokus auf der Grenzfläche zwischen Perowskit-Absorber und der angrenzenden Ladungstransportschicht. Insbesondere werden organische Moleküle mit spezifischen Eigenschaften verwendet um die Oberfläche des Perowskiten zu funktionalisieren. Dadurch wird eine Bandanpassung erreicht, Grenzflächenverluste reduziert und die Stabilität der Solarzellen erhöht. Zunächst wird eine Strategie zum Anpassen der Bandenergien vorgestellt: Selbst-organisierende Monoschichten dipolarer Moleküle werden auf die Perowskit-Oberfläche abgeschieden, um diese zu funktionalisieren. Dadurch wird eine Anpassung des Energie-Levels im Perowskiten und die Sättigung von ungebundenen Elektronenbindungen (engl. dangling bonds) an der Oberfläche erreicht. Die Richtung der Energielevel-Verschiebung hängt von der Richtung des kollektiven Grenzflächen-Dipols ab. Der Betrag der Energielevel-Verschiebung kann über die Depositionsparameter während der Schichtherstellung eingestellt werden. Die Energielevel-Verschiebung bei der Verwendung verschiedener Moleküle wird mit Hilfe verschiedener non-invasiver Charakterisierungsmethoden untersucht, insbesondere mit der Hilfe von Kelvin-Sonde Messungen. Diese Messungen ermöglichen interessante Erkenntnisse über die Dynamik der Deposition der Moleküle. Es ist möglich die Energielevel in beide Richtungen um mehrere hundert meV zu verschieben. Als Zweites wird die Anwendung dieser Stategie in Perowskit-Solarzellen erforscht. Solarzellen mit Perowskit-Absorbern unterschiedlicher Zusammensetzung (“Dreifach-Kationen-Perowskit” und MAPbBr3) werden präpariert; die beiden Modellsysteme besitzen dann unterschiedliche energetische Offsets an der Perowskit-Lochleiter Grenzfläche. Mit einer maßgeschneiderter Funktionalisierung der Perowskit-Oberfläche zeigen die MAPbBr3 Solarzellen eine permanente Verbesserung der offene-Klemmen-Spannung (engl. open circuit voltage, Voc) um durchschnittlich 60 meV, während der Einfluss auf die Solarzellen mit Dreifach-Kationen-Perowskit gering ist. Dies zeigt, dass die vorgestellte Methode zur Bandanpassung funktioniert, aber ihre Effektivität zudem von weiteren Faktoren abhängt: Die Relevanz des energetischen Offsets im Vergleich zu anderen Verlustmechanismen beeinflusst unter anderem die Effektivität der Funktionalisierung. Abschließend wird beschrieben, wie die präsentierte Methode zur Bandanpassung weiterentwickelt wird, indem das Vermögen, mit der Perowskit-Oberfläche zu interagieren, direkt in einen neuartigen Lochleiter („PFI“) integriert wird. Der Lochleiter kann sich über Halogenbindungen an den Perowskiten anlagern. Das Verhalten von PFI wird verglichen mit dem eines anderen Lochleiters („PF“), welcher die fast gleiche chemische Struktur und sehr ähnliche Eigenschaften aufweist, ausgenommen der Fähigkeit eine Halogenbindung zu formen. Die PFI-Perowskit und PF-Perowskit Interaktion wird durch UV-Vis Spektroskopie, Rasterkraftmikroskopie und Kelvin-Sonde Messungen, kombiniert mit Simulationen, charakterisiert. Beim direkten Vergleich von PFI und PF zeigt sich die Bildung der Halogenbindung in einer bei PFI verbesserten Widerstandskraft gegen Lösungsmittel und Bandanpassung zum Perowskiten. Beim Folgerichtig zeigen Solarzellen mit PFI zusätzlich zu einer verringerten Hysterese einen höheren Voc und eine erhöhte Stabilität während des Betriebs unter Maximum-Power-Point Tracking Zusammenfassend stellt diese Dissertation somit ein vielseitiges Werkzeug zur Funktionalisierung von Perowskit-Oberflächen und der dadurch erreichten Bandanpassung vor. Die Anwendung dieses Werkzeugs an Solarzellen wird erprobt und Einsichten in seine Vorteile und Nachteile erlangt. Die Halogenbindung wird als spezifische Interaktion identifiziert, die sich ideal zur Steigerung von Effizienz und Stabilität von Perowskit-basierten optoelektronischen Bauteilen erweisen könnte. KW - photovoltaic KW - perovskite solar cells KW - interfaces KW - energy levels KW - halogen bonding KW - Grenzflächen KW - Perowskit Solarzellen KW - Photovoltaik KW - Bandenenergien KW - Halogenbindung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546333 ER - TY - THES A1 - Kolk, Jens T1 - The long-term legacy of historical land cover changes T1 - Die Langzeitfolgen historischer Landbedeckungsveränderungen BT - patterns and dynamics in herb-layer species richness in deciduous forests of the Prignitz region (NE Germany) BT - Muster und Dynamik der Artenvielfalt von Waldpflanzengemeinschaften in Laubwäldern der Prignitz (Nordostdeutschland) N2 - Over the last years there is an increasing awareness that historical land cover changes and associated land use legacies may be important drivers for present-day species richness and biodiversity due to time-delayed extinctions or colonizations in response to historical environmental changes. Historically altered habitat patches may therefore exhibit an extinction debt or colonization credit and can be expected to lose or gain species in the future. However, extinction debts and colonization credits are difficult to detect and their actual magnitudes or payments have rarely been quantified because species richness patterns and dynamics are also shaped by recent environmental conditions and recent environmental changes. In this thesis we aimed to determine patterns of herb-layer species richness and recent species richness dynamics of forest herb layer plants and link those patterns and dynamics to historical land cover changes and associated land use legacies. The study was conducted in the Prignitz, NE-Germany, where the forest distribution remained stable for the last ca. 100 years but where a) the deciduous forest area had declined by more than 90 per cent (leaving only remnants of "ancient forests"), b) small new forests had been established on former agricultural land ("post-agricultural forests"). Here, we analyzed the relative importance of land use history and associated historical land cover changes for herb layer species richness compared to recent environmental factors and determined magnitudes of extinction debt and colonization credit and their payment in ancient and post-agricultural forests, respectively. We showed that present-day species richness patterns were still shaped by historical land cover changes that ranged back to more than a century. Although recent environmental conditions were largely comparable we found significantly more forest specialists, species with short-distance dispersal capabilities and clonals in ancient forests than in post-agricultural forests. Those species richness differences were largely contingent to a colonization credit in post-agricultural forests that ranged up to 9 species (average 4.7), while the extinction debt in ancient forests had almost completely been paid. Environmental legacies from historical agricultural land use played a minor role for species richness differences. Instead, patch connectivity was most important. Species richness in ancient forests was still dependent on historical connectivity, indicating a last glimpse of an extinction debt, and the colonization credit was highest in isolated post-agricultural forests. In post-agricultural forests that were better connected or directly adjacent to ancient forest patches the colonization credit was way smaller and we were able to verify a gradual payment of the colonization credit from 2.7 species to 1.5 species over the last six decades. N2 - In den vergangenen Jahren reift immer mehr die Erkenntnis, dass historische Landnutzungsveränderungen und deren Folgewirkungen einen wichtigen Einfluss auf die heutige Artenvielfalt und Biodiversität haben können. In Habitaten, deren Landnutzung und Fläche sich in historischer Zeit verändert hat kann aufgrund von verzögerten Aussterbe- und Einwanderungsprozessen eine erhöhte oder verringerte Artenvielfalt vorliegen, die nicht den heutigen Umweltbedingungen entspricht. Es liegen Aussterbeschulden oder Einwanderungs- bzw. Kolonisierungskredite vor, welcher über die Zeit mit Artverlusten oder Zugewinnen von Arten bezahlt werden. Aussterbeschulden oder Einwanderungskredite und deren Bezahlung sind schwierig zu ermitteln, da einerseits Informationen zu historischen Landnutzungsveränderungen oft fehlen und andererseits auch heutige Umweltfaktoren einen wichtigen Einfluss auf die Artenvielfalt haben. Das Ziel dieser Arbeit war es die heutigen Muster der Artenvielfalt von Waldbodenpflanzen in Laub- und Mischwäldern und deren Veränderungen über die letzten 60 Jahre zu ermitteln und diese Muster im Hinblick auf historische Landnutzungsveränderungen zu untersuchen. Das Studiengebiet umfasst große Teile der Prignitz (Brandenburg und angrenzende Teile von Sachsen-Anhalt), ein Gebiet, dessen Waldanteil sich in den letzten 100 Jahren kaum verändert hat, in dem sich jedoch seit dem Ende des 19ten Jahrhunderts der Anteil historisch alter Wälder (ohne historische nachgewiesene agrarliche Nutzung) um mehr als 90% reduziert hat, während an anderer Stelle wenige neue Wälder auf vorigen Agrarflächen etabliert wurden. Im Rahmen dieser Studie wurde zunächst die Artenvielfalt und deren aktuelle Veränderung in historisch-alten Wäldern und neu etablierten Wäldern untersucht und verglichen. Um den Einfluss von historischen Landnutzungsveränderungen auf die Artenvielfalt zu ermittlen, wurde die historische und heutige Vernetzung der Waldflächen analysiert, die Umweltbedingungen in historisch-alten Wäldern und neu etablierten Wäldern verglichen und der Umfang und die Bezahlung der Aussterbeschulden und der Kolonisierungskredite ermittelt. Die Arbeit zeigt, dass historische Landnutzungsveränderungen die heutige Artenvielfalt noch immer beeinflussen. Obwohl die heutigen Umweltbedingungen in historisch-alten und neu etablierten Wäldern vergleichbar waren, war die Gesamtartenzahl in historisch-alten Wäldern signifikant höher und in diesen Wäldern wurden insbesondere mehr Waldspezialisten und sich nur über kurze Enfernung ausbreitende Pflanzenarten gefunden. Die Unterschiede in den Artenzahlen sind vor allem auf einen Kolonisierungskredit in neu etablierten Wäldern zurückzuführen, während die Aussterbeschulden in historisch-alten Wäldern weitgehend bezahlt wurden. Der Kolonisierungskredits war am höchsten in isoliert gelegenen Waldflächen und belief sich auf bis zu 9 Arten (im Mittel 4,7). Der Kolonisierungskredit in besser vernetzten und in direkt an historisch-alten Wäldern angrenzenden Flächen war deutlich geringer. In diesen Wäldern konnte eine Verringerung des Kolonisierungskredites von im Mittel 2,7 zu 1,5 Arten über die letzten sechs Jahrzehnte nachgewiesen werden. KW - ecology KW - plant science KW - extinction debt KW - colonization credit KW - species richness KW - land use history KW - Ökologie KW - Pflanzenwissenschaften KW - Botanik KW - Aussterbeschuld KW - Einwanderungskredit KW - Biodiversität KW - Landnutzungshistorie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439398 ER - TY - THES A1 - Behm, Laura Vera Johanna T1 - Thermoresponsive Zellkultursubstrate für zeitlich-räumlich gesteuertes Auswachsen neuronaler Zellen T1 - Thermoresponsive cell culture substrates for spatio-temporal controlled outgrowth of neuronal cells N2 - Ein wichtiges Ziel der Neurowissenschaften ist das Verständnis der komplexen und zugleich faszinierenden, hochgeordneten Vernetzung der Neurone im Gehirn, welche neuronalen Prozessen, wie zum Beispiel dem Wahrnehmen oder Lernen wie auch Neuropathologien zu Grunde liegt. Für verbesserte neuronale Zellkulturmodelle zur detaillierten Untersuchung dieser Prozesse ist daher die Rekonstruktion von geordneten neuronalen Verbindungen dringend erforderlich. Mit Oberflächenstrukturen aus zellattraktiven und zellabweisenden Beschichtungen können neuronale Zellen und ihre Neuriten in vitro strukturiert werden. Zur Kontrolle der neuronalen Verbindungsrichtung muss das Auswachsen der Axone zu benachbarten Zellen dynamisch gesteuert werden, zum Beispiel über eine veränderliche Zugänglichkeit der Oberfläche. In dieser Arbeit wurde untersucht, ob mit thermoresponsiven Polymeren (TRP) beschichtete Zellkultursubstrate für eine dynamische Kontrolle des Auswachsens neuronaler Zellen geeignet sind. TRP können über die Temperatur von einem zellabweisenden in einen zellattraktiven Zustand geschaltet werden, womit die Zugänglichkeit der Oberfläche für Zellen dynamisch gesteuert werden kann. Die TRP-Beschichtung wurde mikrostrukturiert, um einzelne oder wenige neuronale Zellen zunächst auf der Oberfläche anzuordnen und das Auswachsen der Zellen und Neuriten über definierte TRP-Bereiche in Abhängigkeit der Temperatur zeitlich und räumlich zu kontrollieren. Das Protokoll wurde mit der neuronalen Zelllinie SH-SY5Y etabliert und auf humane induzierte Neurone übertragen. Die Anordnung der Zellen konnte bei Kultivierung im zellabweisenden Zustand des TRPs für bis zu 7 Tage aufrecht erhalten werden. Durch Schalten des TRPs in den zellattraktiven Zustand konnte das Auswachsen der Neuriten und Zellen zeitlich und räumlich induziert werden. Immunozytochemische Färbungen und Patch-Clamp-Ableitungen der Neurone demonstrierten die einfache Anwendbarkeit und Zellkompatibilität der TRP-Substrate. Eine präzisere räumliche Kontrolle des Auswachsens der Zellen sollte durch lokales Schalten der TRP-Beschichtung erreicht werden. Dafür wurden Mikroheizchips mit Mikroelektroden zur lokalen Jouleschen Erwärmung der Substratoberfläche entwickelt. Zur Evaluierung der generierten Temperaturprofile wurde eine Temperaturmessmethode entwickelt und die erhobenen Messwerte mit numerisch simulierten Werten abgeglichen. Die Temperaturmessmethode basiert auf einfach zu applizierenden Sol-Gel-Schichten, die den temperatursensitiven Fluoreszenzfarbstoff Rhodamin B enthalten. Sie ermöglicht oberflächennahe Temperaturmessungen in trockener und wässriger Umgebung mit hoher Orts- und Temperaturauflösung. Numerische Simulationen der Temperaturprofile korrelierten gut mit den experimentellen Daten. Auf dieser Basis konnten Geometrie und Material der Mikroelektroden hinsichtlich einer lokal stark begrenzten Temperierung optimiert werden. Ferner wurden für die Kultvierung der Zellen auf den Mikroheizchips eine Zellkulturkammer und Kontaktboard für die elektrische Kontaktierung der Mikroelektroden geschaffen. Die vorgestellten Ergebnisse demonstrieren erstmalig das enorme Potential thermoresponsiver Zellkultursubstrate für die zeitlich und räumlich gesteuerte Formation geordneter neuronaler Verbindungen in vitro. Zukünftig könnte dies detaillierte Studien zur neuronalen Informationsverarbeitung oder zu Neuropathologien an relevanten, humanen Zellmodellen ermöglichen. N2 - An important goal of neurosciences is to understand the fascinating, complex and highly ordered neuronal circuits of the brain that are underlying important neuronal processes such as learning and memory, as well as neuropathologies. For detailed studies of these processes improved neuronal cell culture models that allow a reconstruction of ordered neuronal connections are crucial. Neuronal cells can be patterned in vitro with structured surface coatings of cell repellent and cell attractive substances. For controlling also the direction of neuronal cell connections the outgrowth of the axons towards neighbouring cells needs to be dynamically controlled, which can be achieved for example by surface structures that can be changed due to switchable surface properties. The main goal of this work was to explore if cell culture substrates with coatings of thermoresponsive polymer (TRP) are suitable for dynamically controlling the outgrowth of neuronal cells. TRPs can be switched via temperature between a cell repellent and a cell attractive state, which enables a dynamic change of surface properties. The TRP coating was microstructured in order to pattern neuronal cells and to spatio-temporally control the outgrowth of cells and neurites across defined TRP-coated areas in dependence of the temperature. The protocol was established with the neuronal cell line SH-SY5Y and transferred to human induced neuronal cells. The cell patterns could be maintained for up to 7 days of cultivation when the TRP was kept in the cell repellent state. By switching the TRP to the cell attractive state the outgrowth of neurites and cells was induced at defined time points and areas. Immunocytochemical staining and patch-clamp recordings of the neurons demonstrated the cell compatibility and easy applicability of these TRP-substrates. A more precise spatial control of the outgrowth of cells should be further achieved by local switching of the TRP-coating. Therefore, microheaters comprising microelectrodes were developed for locally heating the substrate surface. For evaluation of the generated temperature profiles a thermometry method was developed and the values obtained were correlated with numerically simulated data. The thermometry method is based on easily applicable sol-gel-films containing the temperature-sensitive fluorophore Rhodamine B. It allows temperature measurements close to the surface under both dry and liquid conditions with high resolution regarding space (lower µm-range) and temperature (≤ 1°C). Numerical simulations of the temperature profiles correlated well with experimental data. On this basis geometry and material of the microelectrodes were optimized with regard to locally restricted temperature changes. Furthermore, a chip environment for cultivating the cells on the microheater chips was developed comprising a cell culture chamber and a contact board for electrically contacting the microelectrodes. The results presented in this work demonstrate for the first time the great potential of thermoresponsive cell culture substrates for a spatio-temporally controlled formation of neuronal connections in vitro. In future this could facilitate detailed studies of information processing in neuronal networks or of neuropathologies using relevant human neuronal cell models. KW - neuronale Netzwerke KW - Mikrostrukturierung KW - Neuritenwachstum KW - thermoresponsive Polymere KW - Lab-on-a-chip KW - Rhodamin B KW - Thermometrie KW - Mikroheizung KW - Oberflächentemperatur KW - Sol-Gel KW - Zelladhäsionskontrolle KW - neuronal networks KW - microstructures KW - neurite outgrowth KW - thermoresponsive polymers KW - lab-on-a-chip KW - Rhodamine B KW - thermometry KW - microheating KW - surface temperature KW - sol-gel KW - cell adhesion control Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436196 ER - TY - THES A1 - Hoffmann, Mathias T1 - Improving measurement and modelling approaches of the closed chamber method to better assess dynamics and drivers of carbon based greenhouse gas emissions N2 - The trace gases CO2 and CH4 pertain to the most relevant greenhouse gases and are important exchange fluxes of the global carbon (C) cycle. Their atmospheric quantity increased significantly as a result of the intensification of anthropogenic activities, such as especially land-use and land-use change, since the mid of the 18th century. To mitigate global climate change and ensure food security, land-use systems need to be developed, which favor reduced trace gas emissions and a sustainable soil carbon management. This requires the accurate and precise quantification of the influence of land-use and land-use change on CO2 and CH4 emissions. A common method to determine the trace gas dynamics and C sink or source function of a particular ecosystem is the closed chamber method. This method is often used assuming that accuracy and precision are high enough to determine differences in C gas emissions for e.g., treatment comparisons or different ecosystem components. However, the broad range of different chamber designs, related operational procedures and data-processing strategies which are described in the scientific literature contribute to the overall uncertainty of closed chamber-based emission estimates. Hence, the outcomes of meta-analyses are limited, since these methodical differences hamper the comparability between studies. Thus, a standardization of closed chamber data acquisition and processing is much-needed. Within this thesis, a set of case studies were performed to: (I) develop standardized routines for an unbiased data acquisition and processing, with the aim of providing traceable, reproducible and comparable closed chamber based C emission estimates; (II) validate those routines by comparing C emissions derived using closed chambers with independent C emission estimates; and (III) reveal processes driving the spatio-temporal dynamics of C emissions by developing (data processing based) flux separation approaches. The case studies showed: (I) the importance to test chamber designs under field conditions for an appropriate sealing integrity and to ensure an unbiased flux measurement. Compared to the sealing integrity, the use of a pressure vent and fan was of minor importance, affecting mainly measurement precision; (II) that the developed standardized data processing routines proved to be a powerful and flexible tool to estimate C gas emissions and that this tool can be successfully applied on a broad range of flux data sets from very different ecosystem; (III) that automatic chamber measurements display temporal dynamics of CO2 and CH4 fluxes very well and most importantly, that they accurately detect small-scale spatial differences in the development of soil C when validated against repeated soil inventories; and (IV) that a simple algorithm to separate CH4 fluxes into ebullition and diffusion improves the identification of environmental drivers, which allows for an accurate gap-filling of measured CH4 fluxes. Overall, the proposed standardized data acquisition and processing routines strongly improved the detection accuracy and precision of source/sink patterns of gaseous C emissions. Hence, future studies, which consider the recommended improvements, will deliver valuable new data and insights to broaden our understanding of spatio-temporal C gas dynamics, their particular environmental drivers and underlying processes. N2 - Die Spurengase CO2 und CH4 gehören zu den wichtigsten atmosphärischen Treibhausgasen und sind zugleich wichtige Austauschflüsse im globalen Kohlenstoff-(C)-Kreislauf. Als Ergebnis zunehmender anthropogener Aktivitäten insbesondere auch im Bereich der Landnutzung und des Landnutzungswandel stiegen seit Mitte des 18 Jahrhunderts die atmosphärischen CO2 und CH4 Konzentrationen deutlich an. Um die zu erwartenden Auswirkungen des globalen Klimawandels abzuschwächen aber auch um die weltweite Ernährungssicherheit zu gewährleisten, bedarf es der Entwicklung neuer Landnutzungssysteme welche sich durch verminderte Treibhausgasemissionen und ein nachhaltiges Management der Bodenkohlenstoffvorrate auszeichnen. Dies erfordert die akkurate und präzise Quantifizierung des Einflusses von Landnutzung und Landnutzungswandel auf die CO2 und CH4 Emissionen. Eine gängige Methode zur Bestimmung von Spurengasemissionen und darauf aufbauend der C Senken bzw. Quellenfunktion verschiedenster Ökosysteme stellen Haubenmessungen dar. Unterschiedliche Haubendesigns, Messprozeduren und Strategien bei der Datenaufbereitung führen jedoch mitunter zu erheblichen Unsicherheiten bei den gemessenen C Emissionen. Dies kann die Aussagekraft von Metastudien maßgeblich beeinträchtigen, da die Vergleichbarkeit mittels geschlossener Hauben durchgeführter Untersuchungen nicht gewährleistet werden kann. Daher ist eine Standardisierung der Erfassung und Auswertung von Haubenmessungen dringend erforderlich. Im Rahmen dieser Arbeit wurden deshalb eine Reihe von Fallstudien durchgeführt um: (I) standardisierte Routinen zu entwickeln welche eine fehlerfreiere Datenerfassung und Bearbeitung von Haubenmessungen erlauben und so nachvollziehbare, reproduzierbare und vergleichbare C Emissionen liefern; (II) erarbeitete Routinen zu validieren indem auf geschlossenen Haubenmessungen basierende C Emissionen mit unabhängigen Daten verglichen werden; und (III) mittels entwickelter Separationsverfahren Teilflüsse präzise zu quantifizieren um Beziehungen zwischen CO2 und CH4 Flüssen und ihren Treibern besser analysieren zu können. Die durchgeführten Fallstudien zeigen: (I) die Notwendigkeit eingesetzte Hauben unter möglichst realistischen (Feld)-Bedingungen hinsichtlich ihrer Dichtigkeit (insbesondere an der Abdichtung zwischen Rahmen und Haube) zu überprüfen, da nur so fehlerfreie Messungen sichergestellt werden können; (II) das die entwickelten Routinen zur standardisierten Datenbearbeitung ein geeignetes flexibles Werkzeug darstellen um eine verlässliche Abschatzung gasförmige C Emissionen vorzunehmen; (III) das die zeitliche Dynamik von CO2 und CH4 Flüssen sowie kleinräumige Unterschiede in der Entwicklung von Bodenkohlenstoffvorraten gut mittels automatischer Haubenmesssysteme erfasst werden können (Validierung der Ergebnisse mittels wiederholter Bodeninventarisierung); und (IV) das ein einfacher Algorithmus zur Separation von CH4 in seine Flusskompartimente (blasenförmiger Massenfluss vs. Diffusion) die Identifizierung von Treibern verbessert und so ein akkurateres Füllen von Messlücken ermöglicht. Die in der Arbeit vorgestellten Routinen zur standardisierten Datenerfassung und Bearbeitung finden gegenwärtig national wie international Anwendung und helfen somit bei der Generierung vergleichbarer, akkurater und präziser Abschätzungen von standort-/ökosystemspezifischen C Emissionen. N2 - Следовые газы CO2 и CH4 относятся к наиболее значимым парниковым газам и являются важнейшими компонентами глобального углеродного (С) цикла. С середины XVIII столетия их атмосферная концентрация значительно увеличилась, в результате возросшей антропогенной деятельности, в особенности за счет такой сферы как землепользование и изменение землепользования. С целью смягчения последствий глобального изменения климата и обеспечения продовольственной безопасности, необходима разработка систем землепользования, которые будет способствовать сокращению эмиссии следовых газов и обеспечат устойчивое управление углеродными запасами почв. В свою очередь, это требует проведения аккуратной и точной количественной оценки воздействия землепользования и изменения землепользования на эмиссии CO2 и CH4. Стандартным способом для оценки динамики следовых газов и определения функции накопления или потери углерода экосистемой является метод закрытых камер. Данный метод часто используется с учетом предположения, что аккуратность и точность полученных результатов достаточно высоки, чтобы оценить разность между потоками углеродсодержащих газов. Например, при сравнении способов воздействия на экосистему либо для оценки углеродных потоков от ее компонентов. В научной литературе описано множество различных вариантов конструкций закрытых камер, связанных с ними операционных процедур и стратегий обработки данных. Это широкое разнообразие вносит свой вклад в общую неопределенность при оценке эмиссии парниковых газов методом закрытых камер. В результате, полученные на основе мета-анализа выводы обладают определенными ограничениями, т.к. методологические различия между разными исследованиями затрудняют сравнение их результатов. В связи с этим, необходимо проведение стандартизации сбора и обработки данных для методики закрытых камер. В рамках данных тезисов, был выполнен ряд тематических исследований с целью:(1) разработать для методики закрытых камер стандартизированные процедуры несмещенного сбора и обработки данных, которые позволят получить явно отслеживаемые, воспроизводимые и сопоставимые оценки углеродных потоков; (2) провести валидацию этих процедур, путем сравнения оценок потоков углерода, полученных методом закрытых камер с результатами оценки других независимых методов; (3) разработать, на основе анализа данных, способы для разделения углеродных потоков и установить процессы, регулирующие их пространственно-временную динамику. Результаты тематических исследований показали: (1) Важно проводить испытания конструкции камер на герметичность в полевых условиях и удостовериться, что измерения потоков углерода несмещенные. В сравнении с влиянием герметичности камеры, использование клапанов для выравнивания давления и вентиляторов имело несущественное значение и влияло только на точность измерений; (2) Было подтверждено, что разработанные стандартизированные методы обработки данных являются мощным и гибким инструментом оценки эмиссии углерода. На сегодняшний день эти методы успешно применяются на широком спектре разнообразных наборов данных углеродных потоков для различных типов экосистем; (3) Измерения, выполненные автоматическими закрытыми камерами, отчетливо демонстрируют временную динамику потоков CO2 и CH4 и, что наиболее важно, они хорошо выявляют мелкомасштабные пространственные различия в накоплении почвенного углерода, что было подтверждено с помощью повторяемой инвентаризации почвенных запасов углерода; (4) Простой алгоритм разделения эмиссии CH4 на потоки выбросов в виде диффузии газа и выделения в виде пузырей улучшает идентификацию экологических факторов, которые их регулируют, что позволяет более точно оценить эмиссии CH4 в периоды между измерениями. В целом предложенные стандартизированные методы сбора и обработки данных значительно увеличивают точность моделей выделения-поглощения газообразных углеродных эмиссий. Таким образом, будущие исследования, проведенные с учетом рекомендуемых усовершенствований, позволят получить новые ценные данные и гипотезы для расширения нашего понимания пространственно-временной динамики потоков углеродсодержащих газов, экологических факторов их регулирования и лежащих в их основе процессов. N2 - Le dioxyde de carbone (CO2) et le méthane (CH4) font partie des gaz à effet de serre les plus importants et sont également des éléments majeurs du cycle global du carbone. Depuis le milieu du XVIIIe siècle, leur quantité dans l’atmosphère a considérablement augmenté en raison de l'intensification des activités anthropiques, notamment l'exploitation des terres et la modification de l'utilisation de ces dernières. Afin d’atténuer les effets du changement climatique et d’assurer la sécurité alimentaire, il faut mettre au point des systèmes d’utilisation des terres qui favorisent la réduction des émissions de gaz à effet de serre ainsi qu’une gestion durable des stocks de carbone dans les sols. Cela exige une quantification exacte et précise de l'influence de l'utilisation des terres et de la modification de l'utilisation des sols sur les émissions de CO2 et de CH4. La méthode à chambre fermée est une méthode courante pour déterminer l’évolution des gaz présents à faible concentration atmosphérique et du puits de carbone, ou pour analyser la fonction primaire d'un écosystème singulier. Cette méthode est souvent utilisée en supposant que l’exactitude et la précision sont suffisamment élevées pour déterminer les différences dans les émissions de gaz à effet de serre, par exemple pour comparer les traitements ou les différentes composantes de l’écosystème. Toutefois, la vaste gamme de conceptions de chambres différentes, les procédures de mesure et les stratégies de traitement des données décrites dans la documentation scientifique contribuent à l’incertitude générale quant à l’analyse des émissions récoltées en chambre fermée. Par conséquent, les résultats des méta-analyses sont limités, car ces différences méthodologiques entravent la comparabilité des études. La standardisation de l’acquisition et du traitement des données en chambre fermée est donc indispensable. Dans le cadre de cette thèse, une série d'études de cas ont été réalisées pour: (I) élaborer des routines standardisées pour l'acquisition et le traitement de données impartiales, dans le but de fournir des estimations des émissions de carbone en chambre fermée traçables, reproductibles et comparables; (II) valider ces routines en comparant les émissions de carbone obtenues par la méthode des chambres fermées avec des estimations indépendantes des émissions de carbone; et (III) révéler les processus qui déterminent la dynamique spatio-temporelle des émissions de carbone en développant un processus de traitement de données basé sur l’approche de la séparation des flux. Les études de cas montrent: (I) l'importance de tester la conception des chambres dans des conditions de terrain pour une étanchéité appropriée et pour assurer une mesure impartiale des flux. Comparé à l'intégrité de l'étanchéité, l'utilisation d'une soupape de compensation de pression et d'un ventilateur était d'une importance mineure, affectant principalement la précision des mesures; (II) que les routines de traitement des données standardisées développées se sont avérées être un outil puissant et flexible pour estimer les émissions de carbone. L'outil est maintenant appliqué avec succès sur un large éventail de séries de données de flux provenant d'écosystèmes très différents; (III) que les mesures faites à l’aide de chambres automatiques montrent très bien la dynamique temporelle des flux CO2 et de CH4 et, surtout, qu'elles détectent avec précision les différences spatiales à petite échelle dans le développement des réserves de carbone dans le sol lorsqu'elles sont validées par des inventaires périodiques du sol; et (IV) qu’un algorithme simple pour séparer les flux de CH4 en ébullition et en diffusion améliore l'identification de facteurs environnementaux, ce qui permet de combler avec précision les données manquantes des flux de CH4 mesurés. Dans l'ensemble, les routines standardisées proposées pour l'acquisition et le traitement des données ont grandement amélioré l'exactitude de la détection des profils source/évier des émissions de carbone gazeux. Par conséquent, les études futures, qui tiennent compte des améliorations recommandées, fourniront de nouvelles données et de nouvelles perspectives précieuses pour élargir notre compréhension de la dynamique spatio-temporelle du gaz carbone, de ses moteurs environnementaux spécifiques et des processus sous-jacents. N2 - Los gases traza CO2 y CH4 pertenecen a los gases de efecto invernadero más importantes del ciclo global del carbono (C). Su concentración en la atmósfera se ha incrementado significativamente desde mediados del siglo XVIII como resultado de la intensificación de las actividades antropogénicas, como el uso del suelo y el cambio en los usos de la tierra. Para mitigar el cambio climático global y garantizar la seguridad alimentaria es necesario desarrollar sistemas de uso del suelo que favorezcan la reducción de emisiones de gases de efecto invernadero y una gestión sostenible del carbono en el suelo. Esto requiere un cálculo exacto y preciso de la influencia del uso del suelo y de los cambios en el uso del suelo en las emisiones de CO2 y CH4. Un método común para determinar las dinámicas del gas traza y la función de fuente o sumidero de C de un ecosistema es el método de las cámaras cerradas. Este método se utiliza comúnmente asumiendo que la exactitud y precisión son lo suficientemente elevadas para determinar las diferencias en la emisiones de gases C, por ejemplo, comparaciones de tratamientos o de los diferentes componentes del ecosistema. Sin embargo, la amplia gama de diseños de cámaras, los procedimientos operativos relacionados y las estrategias de procesamiento de datos descritas en la literatura científica contribuyen a la incertidumbre general de las estimaciones de emisiones basadas en cámaras cerradas. Además, los resultados de los metanálisis son limitados, ya que estas diferencias metodológicas dificultan la comparabilidad entre los estudios. Por lo tanto, la estandarización en la obtención y procesamiento de datos en el método de la cámara cerrada es muy necesaria. En esta tesis se desarrollan un conjunto de casos de estudio para: (I) Desarrollar rutinas estandarizadas para una obtención y procesamiento de datos imparcial, con el objetivo de proporcionar estimaciones de emisiones de C basadas en cámaras cerradas trazables, reproducibles y comparables; (II) Validar esas rutinas comparando las emisiones de C derivadas del método de las cámaras cerradas con estimaciones independientes de emisiones de C; y (III) revelar procesos que impulsan la dinámica espacio temporal de las emisiones de C, a través del desarrollo de un proceso de tratamiento de datos basado en el enfoque de la separación de flujos. Los casos de estudio muestran: (I) La importancia de someter a prueba el diseño de las cámaras a las condiciones de campo para una apropiada integridad del sellado y para garantizar una medición de flujo imparcial. Comparado con la integridad del sellado, el uso de la ventilación a presión y del ventilador resultó de menor importancia, afectando principalmente a la precisión de las mediciones. (II) que las rutinas estandarizadas desarrolladas para el procesamiento de datos demostraron ser una herramienta poderosa y flexible para estimar las emisiones de gases de C. La herramienta ahora se aplica con éxito en una amplia gama de conjuntos de datos de flujo de ecosistemas muy diferentes; (III) que las mediciones con cámaras automáticas muestran claramente la dinámica temporal de las emisiones de CO2 y lo más importante, que detectan con precisión diferencias espaciales a pequeña escala en el desarrollo del C en el suelo cuando se validan con inventarios periódicos del suelo ; y (IV) que un simple algoritmo para separar flujos de CH4 entre ebullición y difusión mejora la identificación de los impulsores ambientales, lo cual permite un procedimiento más exacto para el relleno del vacío de datos de las mediciones de los flujos de CH4. En términos generales puede decirse que los algoritmos de obtención y procesamiento de datos estandarizados propuestos mejoraron en gran medida la precisión de detección de los patrones fuente / sumidero de emisiones de C gaseoso. Por lo tanto, los futuros estudios, que consideren las mejoras recomendadas, ofrecerán nuevos datos y conocimientos útiles para ampliar nuestra comprensión de la dinámica espacio-temporal del C de los gases, sus impulsores ambientales específicos y los procesos subyacentes. T2 - Verbesserung von Mess- und Modellierungsansätzen der geschlossenen Haubenmessmethode zur besseren Erfassung von raumzeitlichen Veränderungen und potentiellen Treibern kohlenstoffbasierter Treibhausgasemissionen KW - greenhouse gases KW - closed chamber method KW - carbon dioxide KW - methane KW - Kohlenstoffdioxid KW - geschlossene Haubenmessmethode KW - Treibhausgase KW - Methan Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421302 ER - TY - THES A1 - López García, Patricia T1 - Coiled coils as mechanical building blocks T1 - Coiled Coils als mechanische Bausteine N2 - The natural abundance of Coiled Coil (CC) motifs in cytoskeleton and extracellular matrix proteins suggests that CCs play an important role as passive (structural) and active (regulatory) mechanical building blocks. CCs are self-assembled superhelical structures consisting of 2-7 α-helices. Self-assembly is driven by hydrophobic and ionic interactions, while the helix propensity of the individual helices contributes additional stability to the structure. As a direct result of this simple sequence-structure relationship, CCs serve as templates for protein design and sequences with a pre-defined thermodynamic stability have been synthesized de novo. Despite this quickly increasing knowledge and the vast number of possible CC applications, the mechanical function of CCs has been largely overlooked and little is known about how different CC design parameters determine the mechanical stability of CCs. Once available, this knowledge will open up new applications for CCs as nanomechanical building blocks, e.g. in biomaterials and nanobiotechnology. With the goal of shedding light on the sequence-structure-mechanics relationship of CCs, a well-characterized heterodimeric CC was utilized as a model system. The sequence of this model system was systematically modified to investigate how different design parameters affect the CC response when the force is applied to opposing termini in a shear geometry or separated in a zipper-like fashion from the same termini (unzip geometry). The force was applied using an atomic force microscope set-up and dynamic single-molecule force spectroscopy was performed to determine the rupture forces and energy landscape properties of the CC heterodimers under study. Using force as a denaturant, CC chain separation is initiated by helix uncoiling from the force application points. In the shear geometry, this allows uncoiling-assisted sliding parallel to the force vector or dissociation perpendicular to the force vector. Both competing processes involve the opening of stabilizing hydrophobic (and ionic) interactions. Also in the unzip geometry, helix uncoiling precedes the rupture of hydrophobic contacts. In a first series of experiments, the focus was placed on canonical modifications in the hydrophobic core and the helix propensity. Using the shear geometry, it was shown that both a reduced core packing and helix propensity lower the thermodynamic and mechanical stability of the CC; however, with different effects on the energy landscape of the system. A less tightly packed hydrophobic core increases the distance to the transition state, with only a small effect on the barrier height. This originates from a more dynamic and less tightly packed core, which provides more degrees of freedom to respond to the applied force in the direction of the force vector. In contrast, a reduced helix propensity decreases both the distance to the transition state and the barrier height. The helices are ‘easier’ to unfold and the remaining structure is less thermodynamically stable so that dissociation perpendicular to the force axis can occur at smaller deformations. Having elucidated how canonical sequence modifications influence CC mechanics, the pulling geometry was investigated in the next step. Using one and the same sequence, the force application points were exchanged and two different shear and one unzipping geometry were compared. It was shown that the pulling geometry determines the mechanical stability of the CC. Different rupture forces were observed in the different shear as well as in the unzipping geometries, suggesting that chain separation follows different pathways on the energy landscape. Whereas the difference between CC shearing and unzipping was anticipated and has also been observed for other biological structures, the observed difference for the two shear geometries was less expected. It can be explained with the structural asymmetry of the CC heterodimer. It is proposed that the direction of the α-helices, the different local helix propensities and the position of a polar asparagine in the hydrophobic core are responsible for the observed difference in the chain separation pathways. In combination, these factors are considered to influence the interplay between processes parallel and perpendicular to the force axis. To obtain more detailed insights into the role of helix stability, helical turns were reinforced locally using artificial constraints in the form of covalent and dynamic ‘staples’. A covalent staple bridges to adjacent helical turns, thus protecting them against uncoiling. The staple was inserted directly at the point of force application in one helix or in the same terminus of the other helix, which did not experience the force directly. It was shown that preventing helix uncoiling at the point of force application reduces the distance to the transition state while slightly increasing the barrier height. This confirms that helix uncoiling is critically important for CC chain separation. When inserted into the second helix, this stabilizing effect is transferred across the hydrophobic core and protects the force-loaded turns against uncoiling. If both helices were stapled, no additional increase in mechanical stability was observed. When replacing the covalent staple with a dynamic metal-coordination bond, a smaller decrease in the distance to the transition was observed, suggesting that the staple opens up while the CC is under load. Using fluorinated amino acids as another type of non-natural modification, it was investigated how the enhanced hydrophobicity and the altered packing at the interface influences CC mechanics. The fluorinated amino acid was inserted into one central heptad of one or both α-helices. It was shown that this substitution destabilized the CC thermodynamically and mechanically. Specifically, the barrier height was decreased and the distance to the transition state increased. This suggests that a possible stabilizing effect of the increased hydrophobicity is overruled by a disturbed packing, which originates from a bad fit of the fluorinated amino acid into the local environment. This in turn increases the flexibility at the interface, as also observed for the hydrophobic core substitution described above. In combination, this confirms that the arrangement of the hydrophobic side chains is an additional crucial factor determining the mechanical stability of CCs. In conclusion, this work shows that knowledge of the thermodynamic stability alone is not sufficient to predict the mechanical stability of CCs. It is the interplay between helix propensity and hydrophobic core packing that defines the sequence-structure-mechanics relationship. In combination, both parameters determine the relative contribution of processes parallel and perpendicular to the force axis, i.e. helix uncoiling and uncoiling-assisted sliding as well as dissociation. This new mechanistic knowledge provides insight into the mechanical function of CCs in tissues and opens up the road for designing CCs with pre-defined mechanical properties. The library of mechanically characterized CCs developed in this work is a powerful starting point for a wide spectrum of applications, ranging from molecular force sensors to mechanosensitive crosslinks in protein nanostructures and synthetic extracellular matrix mimics. N2 - Das „Coiled Coil“ (CC) Faltungsmotiv ist Bestandteil vieler Proteine im Zytoskelett und der extrazellulären Matrix. Es kann daher davon ausgegangen werden, dass CCs essentielle mechanische Bausteine darstellen, die sowohl passive (strukturelle) als auch aktive (regulatorische) Aufgaben erfüllen. CCs bestehen aus 2-7 α-helikalen Untereinheiten, die eine superhelikale Struktur formen. Die Faltung und Stabilität der Superhelix wird durch hydrophobe und ionische Wechselwirkungen bestimmt, sowie durch die Helixpropensität der einzelnen Aminosäuren. Auf der Grundlage dieser gut verstandenen Struktur-Funktionsbeziehungen werden CCs häufig als Vorlage für das de novo Proteindesign genutzt. Trotz stetig wachsender wissenschaftlicher Erkenntnisse und der mannigfaltigen Anwendungsmöglichkeiten von CCs, ist ihre mechanische Funktion noch weitestgehend unerforscht. Insbesondere ist der Zusammenhang zwischen der Aminosäuresequenz und der mechanischen Stabilität kaum bekannt. Dieses Wissen ist jedoch essentiell für die Anwendung von CCs als nanomechanische Bausteine. Um die mechanischen Struktur-Funktionsbeziehungen von CCs zu beleuchten, wurde ein gut charakterisiertes CC-Heterodimer als Modellsystem genutzt. Dessen Sequenz wurde systematisch modifiziert, um den Einfluss verschiedener Strukturparameter auf die mechanische Stabilität des CCs zu untersuchen. Mittels Rasterkraftmikroskop-basierter Einzelmolekülkraftspektroskopie wurden die Kraftangriffspunkte so platziert, dass das CC entweder geschert oder wie ein Reißverschluss geöffnet wurde („Unzip“-Geometrie). Dabei wurde die Kraft bestimmt, die zur Separation der beiden Helices benötigt wird. Diese sogenannte Abrisskraft wurde bei verschiedenen Ladungsraten gemessen, um Rückschlüsse auf die Energielandschaft der CCs zu ziehen. Die anliegende Kraft führt zunächst zur Entfaltung der Helix-Enden an den Kraftangriffspunkten. Diese partielle Entfaltung ermöglicht in der Scher-Geometrie zwei Mechanismen, die letztlich zur Separation der Helices führen: die Verschiebung der Helices entlang des Kraftvektors und die Dissoziation senkrecht zur angelegten Kraft. Auch in der „Unzip“-Geometrie geht die teilweise Entfaltung der Dissoziation voraus. Zunächst wurde der Einfluss von hydrophoben Wechselwirkungen im Kern des CCs sowie der Helixpropensität systematisch untersucht. In der verwendeten Scher-Geometrie führten entsprechende Aminosäuremodifikationen zu einer Änderung der Abrisskraft des CCs, wobei spezifische Unterschiede in der Energielandschaft festzustellen sind. Weniger dicht gepackte hydrophobe Wechselwirkungen verlängern hauptsächlich den Abstand zum Übergangszustand, da sie die Freiheitsgrade des Entfaltungspfades erhöhen. Eine verringerte Helixpropensität verringert sowohl die Aktivierungsenergie als auch den Abstand zum Übergangszustand. Die niedrige thermodynamische Stabilität dieser Modifikation führt dazu, dass weniger Kraft angewandt werden muss, um die Dissoziation der Helices senkrecht zum Kraftvektor zu erreichen. Mit diesem Wissen über den Einfluss der Helixpropensität und der hydrophoben Wechselwirkungen, wurde anschließend die mechanische Entfaltung in zwei verschiedenen Scher-Geometrien, sowie der „Unzip“-Geometrie untersucht. Dazu wurde jeweils die gleiche Sequenz verwendet, wobei nur die Kraftangriffspunkte modifiziert wurden. Die Ergebnisse zeigen, dass die Positionierung der Kraftangriffspunkte essentiell für die gemessene mechanische Stabilität des CC ist. Wie auch in anderen biologischen Strukturen zu beobachten, besteht ein Unterschied zwischen Scher- und „Unzip“-Geometrie. Jedoch weist das CC auch in den beiden Scher-Geometrien Unterschiede in der Stabilität auf. Dies ist auf eine Asymmetrie der ansonsten hochrepetitiven Sequenz zurückzuführen. Die Rolle der Helixstabilität wurde durch die lokale Stabilisierung von Helixwindungen mit kovalenten und dynamischen molekularen Klammern genauer erforscht. Die Klammern verknüpfen zwei benachbarte Windungen und stabilisieren diese so gegen die mechanische Entfaltung. Die kovalente Klammer wurde entweder direkt am Kraftangriffspunkt eingefügt oder in der Partnerhelix, an der die Kraft nicht direkt angreift. Es wurde gezeigt, dass die Klammern die mechanische Stabilität des CCs erhöhen. Dem liegen eine Verringerung des Abstands zum Übergangszustand und eine leichte Erhöhung der Energiebarriere zu Grunde. Helix-stabilisierende Effekte können durch die hydrophoben Wechselwirkungen auf die Partnerhelix übertragen werden. Das Klammern beider Helices führte nicht zu einer weiteren Erhöhung der mechanischen Stabilität. Bei Einfügen einer dynamischen Klammer direkt am Kraftangriffspunkt fällt die Verringerung des Abstands zum Übergangszustand kleiner aus. Dies ist auf das Öffnen der reversiblen Klammer bei Krafteinwirkung zurückzuführen. Auch die Rolle der hydrophoben Wechselwirkungen wurde unter Verwendung einer nicht-natürlichen Modifikation detaillierter untersucht. Dazu wurde eine fluorinierte Aminosäure im zentralen Teil des CCs eingebaut. Die fluorinierte Aminosäure ist hydrophober als die Ursprüngliche und verändert die Packung der Seitenketten im hydrophoben Kern. Die Anwesenheit der fluorinierten Aminosäure in einer der beiden Helices führte zu einer Erniedrigung der Aktivierungsenergie sowie zu einer gleichzeitigen Erhöhung des Abstandes zum Übergangszustand. Dies zeigt, dass die fluorinierte Aminosäure in erster Linie die Packung der hydrophoben Aminosäuren stört, während der Einfluss des hydrophoben Effekts ehr gering ist. Die fluorinierte Aminosäure kann nicht gut in die lokale Umgebung der anderen Aminosäuren integriert werden und zeigt so, dass die Anordnung und Wechselwirkung der hydrophoben Aminosäuren im Kern essentiell für die mechanische Stabilität von CCs ist. Zusammenfassend zeigt diese Arbeit, dass allein auf Grundlage der thermodynamischen Stabilität nicht auf die mechanische Stabilität von CCs geschlossen werden kann. Das Zusammenspiel zwischen Helixstabilität und hydrophoben Wechselwirkungen ist maßgebend um die Zusammenhänge zwischen Sequenz, Struktur und mechanischer Stabilität von CCs zu verstehen. Beide Faktoren tragen zu den Entfaltungsmechanismen parallel und senkrecht zur Kraftrichtung bei. Diese neuen mechanistischen Einblicke in die sequenzabhängige mechanische Stabilität von CCs ermöglichen die Entwicklung von CCs mit maßgeschneiderten mechanischen Eigenschaften. Die hier charakterisierte CC-Bibliothek ist ein hervorragender Ausgangspunkt für ein breites Spektrum an potentiellen Anwendungen, von molekularen Kraftsensoren bis zu mechanosensitiven Bausteinen für Proteinnanostrukturen und künstlichen extrazellulären Matrices. KW - biochemistry KW - peptides KW - coiled coils KW - mechanics KW - single-molecule force spectroscopy KW - Biochemie KW - Peptide KW - Coiled coils KW - mechanische Stabilität KW - Einzelmolekülkraftspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429568 ER - TY - THES A1 - Kegelmann, Lukas T1 - Advancing charge selective contacts for efficient monolithic perovskite-silicon tandem solar cells T1 - Entwicklung Ladungsselektiver Kontakte für Effiziente Monolithische Perowskit-Silizium Tandem-Solarzellen N2 - Hybrid organic-inorganic perovskites are one of the most promising material classes for photovoltaic energy conversion. In solar cells, the perovskite absorber is sandwiched between n- and p-type contact layers which selectively transport electrons and holes to the cell’s cathode and anode, respectively. This thesis aims to advance contact layers in perovskite solar cells and unravel the impact of interface and contact properties on the device performance. Further, the contact materials are applied in monolithic perovskite-silicon heterojunction (SHJ) tandem solar cells, which can overcome the single junction efficiency limits and attract increasing attention. Therefore, all contact layers must be highly transparent to foster light harvesting in the tandem solar cell design. Besides, the SHJ device restricts processing temperatures for the selective contacts to below 200°C. A comparative study of various electron selective contact materials, all processed below 180°C, in n-i-p type perovskite solar cells highlights that selective contacts and their interfaces to the absorber govern the overall device performance. Combining fullerenes and metal-oxides in a TiO2/PC60BM (phenyl-C60-butyric acid methyl ester) double-layer contact allows to merge good charge extraction with minimized interface recombination. The layer sequence thereby achieved high stabilized solar cell performances up to 18.0% and negligible current-voltage hysteresis, an otherwise pronounced phenomenon in this device design. Double-layer structures are therefore emphasized as a general concept to establish efficient and highly selective contacts. Based on this success, the concept to combine desired properties of different materials is transferred to the p-type contact. Here, a mixture of the small molecule Spiro-OMeTAD [2,2’,7,7’-tetrakis(N,N-di-p-methoxyphenylamine)-9,9’-spirobifluoren] and the doped polymer PEDOT [poly(3,4-ethylenedioxythiophene)] is presented as a novel hole selective contact. PEDOT thereby remarkably suppresses charge recombination at the perovskite surface, allowing an increase of quasi-Fermi level splitting in the absorber. Further, the addition of Spiro-OMeTAD into the PEDOT layer is shown to enhance charge extraction at the interface and allow high efficiencies up to 16.8%. Finally, the knowledge on contact properties is applied to monolithic perovskite-SHJ tandem solar cells. The main goal is to optimize the top contact stack of doped Spiro-OMeTAD/molybdenum oxide(MoOx)/ITO towards higher transparency by two different routes. First, fine-tuning of the ITO deposition to mitigate chemical reduction of MoOx and increase the transmittance of MoOx/ITO stacks by 25%. Second, replacing Spiro-OMeTAD with the alternative hole transport materials PEDOT/Spiro-OMeTAD mixtures, CuSCN or PTAA [poly(triaryl amine)]. Experimental results determine layer thickness constrains and validate optical simulations, which subsequently allow to realistically estimate the respective tandem device performances. As a result, PTAA represents the most promising replacement for Spiro-OMeTAD, with a projected increase of the optimum tandem device efficiency for the herein used architecture by 2.9% relative to 26.5% absolute. The results also reveal general guidelines for further performance gains of the technology. N2 - Hybride, organisch-anorganische Perowskite gelten als eine der vielversprechendsten Materialklassen für die photovoltaische Energieumwandlung. Dazu werden Perowskit-Absorber in Solarzellen zwischen n- und p-Typ Kontaktschichten angeordnet, die Elektronen oder Löcher selektiv zur Kathode bzw. Anode der Zelle transportieren. Ziel dieser Arbeit ist es, die ladungsselektiven Transportschichten in Perowskit-Solarzellen zu verbessern und Einflüsse der Grenzflächen- und Kontakteigenschaften auf die Zelleffizienz herauszustellen. Darüber hinaus werden die selektiven Schichten in monolithischen Perowskit-Silizium-Heterokontakt (SHK) Tandem-Solarzellen eingesetzt. Diese können höhere Wirkungsgrade als Einfachsolarzellen erzielen und erfahren zunehmende Aufmerksamkeit aus der Forschung. Hierfür müssen alle Kontaktschichten hochtransparent sein, um eine möglichst effiziente Lichtausnutzung im Tandem-Solarzellen-Design zu erzielen. Des Weiteren limitiert die SHK-Solarzelle die höchst mögliche Temperatur zur Abscheidung der selektiven Kontakte auf 200°C. In einer Vergleichsstudie werden deshalb zunächst verschiedene elektronenselektive Kontaktmaterialien, die alle unter 180°C prozessiert werden, in n-i-p-Typ Perowskit-Solarzellen eingesetzt. Es zeigt sich hierbei, wie wesentlich die selektiven Kontakte und ihre Grenzflächen zum Absorber die Effizienz der Solarzellen bestimmen. Eine Kombination aus Fulleren und Metalloxid in einem TiO2/PC60BM (Phenyl-C60-Buttersäuremethylester) Doppelschichtkontakt ermöglicht dabei eine besonders gute Ladungsextraktion und stark reduzierte Grenzflächenrekombination. Die Materialzusammenstellung erreicht in der Studie hohe stabilisierte Solarzellenwirkungsgrade bis zu 18,0% und eine vernachlässigbare Strom-Spannungs-Hysterese, ein üblicherweise ausgeprägtes Phänomen in diesem Zellaufbau. Das Ergebnis stellt Doppelschicht-Strukturen als generelles Konzept zur Herstellung effizienter und hochselektiver Kontakte heraus. Basierend auf diesem Erfolg wird das Konzept, Eigenschaften verschiedener Materialien miteinander zu kombinieren, anschließend auf den p-Typ Kontakt übertragen. Dazu wird ein neuartiger lochselektiver Kontakt vorgestellt, bestehend aus einer Mischung des kleinen Moleküls Spiro-OMeTAD [2,2‘7,7‘-tetrakis(N,N-di-p-methoxyphenylamin)-9,9‘-spirobifluoren] und dem dotierten Polymer PEDOT [poly(3,4-ethylendioxythiophen)]. PEDOT unterdrückt dabei bemerkenswerter Weiße die Ladungsträgerrekombination an der Perowskit-Grenzfläche, wodurch eine Erhöhung der Quasi-Fermi-Niveau-Aufspaltung im Absorber erzielt wird. Weiterhin wird gezeigt, dass die Zugabe von Spiro-OMeTAD in die PEDOT-Schicht die Lochextraktion an der Grenzfläche verbessert und folglich hohe Solarzellenwirkungsgrade von bis zu 16,8% ermöglicht. Schließlich wird das gewonnene Wissen über die Bedeutung der Kontakt- und Grenzflächeneigenschaften auf monolithische Perowskit-SHK-Tandemsolarzellen angewandt. Das Hauptziel dabei ist die Optimierung des oberen Kontaktstapels, bestehend aus dotiertem Spiro-OMeTAD/Molybdän Oxid (MoOx)/ITO, hin zu verbesserter Transparenz. Zwei verschiedene Ansätze werden hierzu verfolgt. Erstens, durch Feinanpassung der ITO-Abscheidung kann eine chemische Reduktion von MoOx verringert und die Transmission von MoOx/ITO-Schichtstapeln um 25% erhöht werden. Zweitens: Durch Ersetzen des Spiro-OMeTAD mit alternativen, transparenteren Lochtransportmaterialien sollen parasitäre Absorptionsverluste vermieden werden. Als potentielle Lochkontakte werden dabei PEDOT/Spiro-OMeTAD-Mischungen, CuSCN und PTAA [Poly(triarylamin)] analysiert. Experimentelle Untersuchungen liefern optimierte Dicken der Lochkontakt und MoOx Schichten und dienen der Validierung optischer Simulationen der Schichtstapel. Dies erlaubt im Folgenden eine realistische Abschätzung der maximal erreichbaren Tandemsolarzelleneffizienzen. Dabei stellt PTAA den vielversprechendsten Ersatz für Spiro-OMeTAD dar, mit einer prognostizierten Erhöhung des erreichbaren Tandem-Solarzellenwirkungsgrad um 2,9% relativ auf 26,5% absolut. Die Ergebnisse stellen zudem einen Leitfaden zur weiteren Effizienzsteigerung der Tandemsolarzellen-Technologie dar. KW - perovskite KW - silicon KW - tandem solar cell KW - interface engineering KW - contact layers KW - Perowskit KW - Silizium KW - Tandem-Solarzelle KW - Interface-Engineering KW - Kontaktschichten Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426428 ER - TY - THES A1 - Paganini, Claudio Francesco T1 - The role of trapping in black hole spacetimes T1 - Über die Rolle gefangener lichtartiger Kurven in Raumzeiten mit Schwarzen Löchern N2 - In the here presented work we discuss a series of results that are all in one way or another connected to the phenomenon of trapping in black hole spacetimes. First we present a comprehensive review of the Kerr-Newman-Taub-NUT-de-Sitter family of black hole spacetimes and their most important properties. From there we go into a detailed analysis of the bahaviour of null geodesics in the exterior region of a sub-extremal Kerr spacetime. We show that most well known fundamental properties of null geodesics can be represented in one plot. In particular, one can see immediately that the ergoregion and trapping are separated in phase space. We then consider the sets of future/past trapped null geodesics in the exterior region of a sub-extremal Kerr-Newman-Taub-NUT spacetime. We show that from the point of view of any timelike observer outside of such a black hole, trapping can be understood as two smooth sets of spacelike directions on the celestial sphere of the observer. Therefore the topological structure of the trapped set on the celestial sphere of any observer is identical to that in Schwarzschild. We discuss how this is relevant to the black hole stability problem. In a further development of these observations we introduce the notion of what it means for the shadow of two observers to be degenerate. We show that, away from the axis of symmetry, no continuous degeneration exists between the shadows of observers at any point in the exterior region of any Kerr-Newman black hole spacetime of unit mass. Therefore, except possibly for discrete changes, an observer can, by measuring the black holes shadow, determine the angular momentum and the charge of the black hole under observation, as well as the observer's radial position and angle of elevation above the equatorial plane. Furthermore, his/her relative velocity compared to a standard observer can also be measured. On the other hand, the black hole shadow does not allow for a full parameter resolution in the case of a Kerr-Newman-Taub-NUT black hole, as a continuous degeneration relating specific angular momentum, electric charge, NUT charge and elevation angle exists in this case. We then use the celestial sphere to show that trapping is a generic feature of any black hole spacetime. In the last chapter we then prove a generalization of the mode stability result of Whiting (1989) for the Teukolsky equation for the case of real frequencies. The main result of the last chapter states that a separated solution of the Teukolsky equation governing massless test fields on the Kerr spacetime, which is purely outgoing at infinity, and purely ingoing at the horizon, must vanish. This has the consequence, that for real frequencies, there are linearly independent fundamental solutions of the radial Teukolsky equation which are purely ingoing at the horizon, and purely outgoing at infinity, respectively. This fact yields a representation formula for solutions of the inhomogenous Teukolsky equation, and was recently used by Shlapentokh-Rothman (2015) for the scalar wave equation. N2 - In Newtons Gravitationstheorie bewegt sich Licht auf geraden Linien durch den Raum. Entsprechend beeinflussen Massen den Verlauf von Lichtstrahlen nicht. In Einsteins Allgemeiner Relativitätstheorie führt die Präsenz von Massen dazu, dass sich die Raumzeit, sprich das Koordinatensystem für alle physikalischen Vorgänge, verkrümmt. Da das Licht immer den kürzesten Weg nimmt, wird es nun auch abgelenkt wenn es nahe an einem Körper mit grosser Masse vorbeikommt. Der Nachweis der Lichtablenkung durch die Masse der Sonne bei einer Sonnenfinsternis durch Eddington 1919 war der erste direkte Nachweis, dass Einstein mit seiner Allgemeinen Relativitätstheorie richtig liegt. Eine der erstaunlichsten Vorhersagen aus Einsteins Relativitätstheorie ist die Existenz von Schwarzen Löchern. Es wird gemeinhin angenommen, dass Schwarzen Löcher die dichtesten Objekte sind, welche im Universum existieren können. Ein Schwarzes Loch ist eine Raumzeit, die so stark verkrümmt ist, dass ein Bereich existiert aus welchem nicht einmal mehr Licht entfliehen kann. Die Grenze dieses Bereiches bezeichnet man als Ereignishorizont. Beobachter, welche den Ereignishorizont überqueren, können danach nicht mehr mit Beobachtern ausserhalb kommunizieren. Die Krümmung der Raumzeit in der Nähe des Ereignishorizontes ist so stark, dass sehr gewisse Lichtstrahlen, ähnlich der Planeten im Sonnensystem, auf Kreisbahnen bewegen. Das heisst, dass das Licht weder ins Schwarze Loch fällt, noch ins unendliche davon läuft. Die Bahn solcher Lichtstrahlen bezeichnet man als gefangene lichtartige Kurven. Solche Kurven existieren nur in einem beschränkten Bereich in der Nähe des Ereignishorizontes. Allerdings ist es an jedem Ort der Raumzeit möglich, lichtartige Kurven durch diesen Punkt zu finden, welche sich in der Zukunft einer gefangenen lichtartigen Kurve beliebig annähern und weder ins Schwarze Loch fallen noch ins unendliche davon laufen. Die Gesamtheit aller möglichen Lichtstrahlen durch einen Punkt kann durch eine Kugel, der Himmelssphäre des Beobachters, bestehend aus allen möglichen Raumrichtungen beschrieben werden. In unserer Arbeit zeigen wir, dass die Strahlen, welche sich in der Zukunft einer gefangenen lichtartigen Kurve annähern, die Himmelssphäre in zwei Bereiche unterteilt. Der eine Teil besteht aus jenen Richtungen, in welche der Lichtstrahl im Schwarzen Loch endet, der andere Teil aus jenen Richtungen in welche der Lichtstrahl ins unendliche davon läuft. Die Richtungen in welcher sich die Lichtstrahlen in der Zukunft einer gefangenen lichtartigen Kurve annähern bilden eine geschlossene Kurve auf der Himmelssphäre. Diese Kurve, zusammen mit den Richtungen unter welchen das Licht im Schwarzen Loch endet, bilden den Schatten des Schwarzen Loches auf der Himmelssphäre des Beobachters. Wir konnten zeigen, dass die Form dieses Schattens Rückschlüsse auf die physikalischen Parameter, wie Ladung und Drehmoment des Schwarzen Loches, sowie die Distanz zwischen Beobachter und Schwarzem Loch zulässt. Ausserdem haben wir gezeigt, dass für masselose Felder (Skalarfelder, elektromagnetische Felder, linearisierte Gravitation) auf Raumzeiten mit einem rotierenden Schwarzen Loch, die sogenannte Modenstabillität gilt. Modenlösungen für partielle Differentialgleichungen sind Lösungen, welche ein Produkt von Lösungen in einzelner Koordinatenrichtungen sind. Modenstäbilität bedeutet nun, dass es zu diesen Feldgleichungen, auf diesen Raumzeiten keine Modenlösungen mit realen Frequenzen gibt, welche nur Energie aus der Raumzeit hinaustragen. KW - black hole KW - trapping KW - black hole shadows KW - Teukolsky master equation KW - mode stability KW - Schwarzes Loch KW - gefangene lichtartige Kurven KW - Schatten eines Schwarzen Lochs KW - Teukolsky Gleichung KW - Moden Stabilität Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-414686 ER - TY - THES A1 - Wendi, Dadiyorto T1 - Recurrence Plots and Quantification Analysis of Flood Runoff Dynamics T1 - Rekurrenzplot und quantitativen Analyse von Hochwasserabflüssen Dynamik N2 - This paper introduces a novel measure to assess similarity between event hydrographs. It is based on Cross Recurrence Plots and Recurrence Quantification Analysis which have recently gained attention in a range of disciplines when dealing with complex systems. The method attempts to quantify the event runoff dynamics and is based on the time delay embedded phase space representation of discharge hydrographs. A phase space trajectory is reconstructed from the event hydrograph, and pairs of hydrographs are compared to each other based on the distance of their phase space trajectories. Time delay embedding allows considering the multi-dimensional relationships between different points in time within the event. Hence, the temporal succession of discharge values is taken into account, such as the impact of the initial conditions on the runoff event. We provide an introduction to Cross Recurrence Plots and discuss their parameterization. An application example based on flood time series demonstrates how the method can be used to measure the similarity or dissimilarity of events, and how it can be used to detect events with rare runoff dynamics. It is argued that this methods provides a more comprehensive approach to quantify hydrograph similarity compared to conventional hydrological signatures. N2 - Ziel dieser Arbeit ist es, eine Methode und einen umfassenden Index, die die Quantifizierung von Veränderungen in Hochwasserabflüssen über die Zeit ermöglichen, zu entwickeln. Als Proxydaten zur Detektion von Veränderungen dienen Abflusszeitreihen, da diese räumlich-zeitliche Änderungen von Prozessen im Einzugsgebiet integrieren. Einhergehend mit Veränderungen in den Rahmenbedingungen hydrologischer Systeme, beispielsweise Klimaänderungen, Veränderungen im Flussnetzwerk oder der Bodenbedeckung, sind Veränderungen in der Abflussdynamik zu erwarten. Urbanisierung, Klimawandel und veränderte wasserwirtschaftliche Nutzung können erheblichen Einfluss auf Hochwassercharakteristika haben, sodass die auf die abflussverursachenden Prozesse bezogene Hochwassertypologie obsolet wird. Außerdem kann es zur Überlagerung verschiedener Prozesse und der Bildung präzedenzloser Hochwasserdynamiken kommen. Üblicherweise wird seltenen Hochwasserereignissen eine über einen langen Zeitraum bestimmte Wiederkehrwahrscheinlichkeit zugewiesen. Allerdings wird die assoziierte Wiederkehrdauer häufig nur auf der Grundlage des Höchstwasserstandes ermittelt und ist nicht umfassend genug, um die unterschiedlichen Prozesstypen zu erfassen. Um umfassendere Abflussmerkmale in die Hochwassercharakterisierung aufzunehmen, wird die Charakterisierung der Abflussdynamik mittels der kontinuierlichen Gestalt des Hydrographen und als Kurve im Phasenraum empfohlen. Durch die Berücksichtigung des Taken‘schen Satzes zur Einbettung der Zeitverzögerung können ereignisbasierte Hydrographen weiter unterschieden werden. Dieser Ansatz nutzt die zeitliche Abfolge gemessener Abflusswerte, sodass der Einfluss der anfänglichen Werte auf das Hochwasserereignis als charakteristischer Vektor im multidimensionalen Phasenraum interpretiert werden kann. Im Rahmen dieser Arbeit wurden, erstmals im Bereich der Hydrologie, ‚Recurrence Plot‘ (RP) und ‚Recurrence Quantification Analysis‘ RQA eingesetzt, um die Seltenheit bzw. Ähnlichkeit von Abflussdynamiken zu visualisieren und identifizieren. Ebenso werden Anwendungsbeispiele im Bereich der Hydrologie, die das Konzept der Charakterisierung von Abflussdynamiken und den Nutzen des eingeführten Ähnlichkeitsindex verdeutlichen, vorgestellt. Außerdem wurde die Methodik weiterentwickelt und zeichnet sich nun durch erhöhte Robustheit gegenüber Störeinflüssen und eine bessere Anpassung an Abflussmessungen aus. Ein abschließendes Anwendungsbeispiel untersucht den in Dresden gemessenen Abfluss des ostdeutschen Elbe-Einzugsgebietes im Zeitraum von 1901 bis 2010. In dieser Studie werden Beispiele seltener und saisonunabhängiger Hochwasserereignisse, die durch ihre ungewöhnliche Abflussdynamik herausstechen, gezeigt und mit zugrundeliegenden abflussbildenden Prozessen in Verbindung gebracht. KW - Hydrograph Analysis KW - Time Embedded Phase Space KW - Rare and Unseasonal Flood KW - Non-stationary Flood Risk KW - Chaos Theory KW - Recurrence Plots KW - Flood Risk Big Data Mining KW - Flood Change KW - Non-linear Geoscience KW - Chaostheorie KW - Änderungen des Hochwassers KW - Big data mining zu Hochwasserrisiken KW - Analyse von Abflussganglinien KW - nichtlineare Geowissenschaften KW - nichtstationäres Hochwasserrisiko KW - seltenes und saisonunübliches Hochwasser KW - Rekurrenzplot KW - Phasenraum des Time Delay Embedding Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431915 ER - TY - THES A1 - Rözer, Viktor T1 - Pluvial flood loss to private households T1 - Schäden durch urbane Sturzfluten in Privathaushalten N2 - Today, more than half of the world’s population lives in urban areas. With a high density of population and assets, urban areas are not only the economic, cultural and social hubs of every society, they are also highly susceptible to natural disasters. As a consequence of rising sea levels and an expected increase in extreme weather events caused by a changing climate in combination with growing cities, flooding is an increasing threat to many urban agglomerations around the globe. To mitigate the destructive consequences of flooding, appropriate risk management and adaptation strategies are required. So far, flood risk management in urban areas is almost exclusively focused on managing river and coastal flooding. Often overlooked is the risk from small-scale rainfall-triggered flooding, where the rainfall intensity of rainstorms exceeds the capacity of urban drainage systems, leading to immediate flooding. Referred to as pluvial flooding, this flood type exclusive to urban areas has caused severe losses in cities around the world. Without further intervention, losses from pluvial flooding are expected to increase in many urban areas due to an increase of impervious surfaces compounded with an aging drainage infrastructure and a projected increase in heavy precipitation events. While this requires the integration of pluvial flood risk into risk management plans, so far little is known about the adverse consequences of pluvial flooding due to a lack of both detailed data sets and studies on pluvial flood impacts. As a consequence, methods for reliably estimating pluvial flood losses, needed for pluvial flood risk assessment, are still missing. Therefore, this thesis investigates how pluvial flood losses to private households can be reliably estimated, based on an improved understanding of the drivers of pluvial flood loss. For this purpose, detailed data from pluvial flood-affected households was collected through structured telephone- and web-surveys following pluvial flood events in Germany and the Netherlands. Pluvial flood losses to households are the result of complex interactions between impact characteristics such as the water depth and a household’s resistance as determined by its risk awareness, preparedness, emergency response, building properties and other influencing factors. Both exploratory analysis and machine-learning approaches were used to analyze differences in resistance and impacts between households and their effects on the resulting losses. The comparison of case studies showed that the awareness around pluvial flooding among private households is quite low. Low awareness not only challenges the effective dissemination of early warnings, but was also found to influence the implementation of private precautionary measures. The latter were predominately implemented by households with previous experience of pluvial flooding. Even cases where previous flood events affected a different part of the same city did not lead to an increase in preparedness of the surveyed households, highlighting the need to account for small-scale variability in both impact and resistance parameters when assessing pluvial flood risk. While it was concluded that the combination of low awareness, ineffective early warning and the fact that only a minority of buildings were adapted to pluvial flooding impaired the coping capacities of private households, the often low water levels still enabled households to mitigate or even prevent losses through a timely and effective emergency response. These findings were confirmed by the detection of loss-influencing variables, showing that cases in which households were able to prevent any loss to the building structure are predominately explained by resistance variables such as the household’s risk awareness, while the degree of loss is mainly explained by impact variables. Based on the important loss-influencing variables detected, different flood loss models were developed. Similar to flood loss models for river floods, the empirical data from the preceding data collection was used to train flood loss models describing the relationship between impact and resistance parameters and the resulting loss to building structures. Different approaches were adapted from river flood loss models using both models with the water depth as only predictor for building structure loss and models incorporating additional variables from the preceding variable detection routine. The high predictive errors of all compared models showed that point predictions are not suitable for estimating losses on the building level, as they severely impair the reliability of the estimates. For that reason, a new probabilistic framework based on Bayesian inference was introduced that is able to provide predictive distributions instead of single loss estimates. These distributions not only give a range of probable losses, they also provide information on how likely a specific loss value is, representing the uncertainty in the loss estimate. Using probabilistic loss models, it was found that the certainty and reliability of a loss estimate on the building level is not only determined by the use of additional predictors as shown in previous studies, but also by the choice of response distribution defining the shape of the predictive distribution. Here, a mix between a beta and a Bernoulli distribution to account for households that are able to prevent losses to their building’s structure was found to provide significantly more certain and reliable estimates than previous approaches using Gaussian or non-parametric response distributions. The successful model transfer and post-event application to estimate building structure loss in Houston, TX, caused by pluvial flooding during Hurricane Harvey confirmed previous findings, and demonstrated the potential of the newly developed multi-variable beta model for future risk assessments. The highly detailed input data set constructed from openly available data sources containing over 304,000 affected buildings in Harris County further showed the potential of data-driven, building-level loss models for pluvial flood risk assessment. In conclusion, pluvial flood losses to private households are the result of complex interactions between impact and resistance variables, which should be represented in loss models. The local occurrence of pluvial floods requires loss estimates on high spatial resolutions, i.e. on the building level, where losses are variable and uncertainties are high. Therefore, probabilistic loss estimates describing the uncertainty of the estimate should be used instead of point predictions. While the performance of probabilistic models on the building level are mainly driven by the choice of response distribution, multi-variable models are recommended for two reasons: First, additional resistance variables improve the detection of cases in which households were able to prevent structural losses. Second, the added variability of additional predictors provides a better representation of the uncertainties when loss estimates from multiple buildings are aggregated. This leads to the conclusion that data-driven probabilistic loss models on the building level allow for a reliable loss estimation at an unprecedented level of detail, with a consistent quantification of uncertainties on all aggregation levels. This makes the presented approach suitable for a wide range of applications, from decision support in spatial planning to impact- based early warning systems. N2 - Über die Hälfte der Weltbevölkerung lebt heute in Städten. Mit einer hohen Dichte an Menschen, Gütern und Gebäuden sind Städte nicht nur die wirtschaftlichen, politischen und kulturellen Zentren einer Gesellschaft, sondern auch besonders anfällig gegenüber Naturkatastrophen. Insbesondere Hochwasser und Überflutungen stellen in Folge von steigenden Meeresspiegeln und einer erwarteten Zunahme von Extremwettereignissen eine wachsende Bedrohung in vielen Regionen dar. Um die möglichen Folgen dieser Entwicklung zu vermeiden bzw. zu reduzieren, ist es notwendig sich der steigenden Gefahr durch geeignete Maßnahmen anzupassen. Bisher ist der Hochwasserschutz in Städten beinahe ausschließlich auf Überflutungen durch Flusshochwasser oder Sturmfluten fokussiert. Dabei werden sogenannte urbane Sturzfluten, die in den letzten Jahren vermehrt zu hohen Schäden in Städten geführt haben, nicht berücksichtigt. Bei urbanen Sturzfluten führen lokale Starkniederschläge mit hohen Regenmengen zu einer Überlastung des städtischen Abwassersystems und damit zu einer direkten, oft kleinräumigen Überflutung innerhalb eines bebauten Gebiets. Mit einer prognostizierten Zunahme von Starkniederschlägen, sowie einer baulichen Verdichtung und damit einhergehender Flächenversiegelung in vielen Städten, ist mit einer Zunahme von urbanen Sturzfluten zu rechnen. Dies verlangt die Einbindung des Risikos durch urbane Sturzfluten in bestehende Hochwasserschutzkonzepte. Bisher fehlen allerdings sowohl detaillierte Daten als auch Methoden um das Risiko durch urbane Sturzfluten und die dadurch verursachten Schäden, etwa an Wohngebäuden, zuverlässig abzuschätzen. Aus diesem Grund beschäftigt sich diese Arbeit hauptsächlich mit der Entwicklung von Verfahren und Modellen zur Abschätzung von Schäden an Privathaushalten durch urbane Sturzfluten. Dazu wurden detaillierte Daten durch Telefon- und Online-Umfragen nach urbanen Sturzflutereignissen in Deutschland und in den Niederlanden erhoben und ausgewertet. Die Erkenntnisse aus den detaillierten Analysen zu Vorsorge, Notmaßnahmen und Wiederherstellung, vor, während und nach urbanen Sturzflutereignissen, wurden genutzt um eine neue Methode zur Schätzung von Schäden an Wohngebäuden zu entwickeln. Dabei werden neben Angaben wie Dauer und Höhe der Überflutung, auch Eigenschaften von Haushalten, wie etwa deren Risikobewusstsein, in die Schätzung miteinbezogen. Nach lokaler Validierung wurde die neuentwickelte Methode beispielhaft zur Schätzung von Wohngebäudeschäden nach einem urbanen Sturzflutereignis im Großraum Houston (Texas, USA) erfolgreich angewendet. Anders als bei bisherigen Ansätzen wird der geschätzte Schaden eines Wohngebäudes nicht als einzelner Wert angegeben, sondern als Verteilung, welche die Bandbreite möglicher Schäden und deren Wahrscheinlichkeit angibt. Damit konnte die Zuverlässigkeit von Schadensschätzungen im Vergleich zu bisherigen Verfahren erheblich verbessert werden. Durch die erfolgreiche Anwendung sowohl auf der Ebene einzelner Gebäude als auch für gesamte Städte, ergibt sich ein breites Spektrum an Nutzungsmöglichkeiten, etwa als Entscheidungsunterstützung in der Stadtplanung oder für eine verbesserte Frühwarnung vor urbanen Sturzfluten. KW - Schadensmodellierung KW - Unsicherheiten KW - Starkregen KW - Privathaushalte KW - damage modeling KW - economic impacts KW - uncertainty KW - private households KW - probabilistic KW - pluvial flooding Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429910 ER - TY - THES A1 - Angermann, Lisa T1 - Hillslope-stream connectivity across scales T1 - Mehrskalige Untersuchung der Hang-Bach Konnektivität N2 - The concept of hydrologic connectivity summarizes all flow processes that link separate regions of a landscape. As such, it is a central theme in the field of catchment hydrology, with influence on neighboring disciplines such as ecology and geomorphology. It is widely acknowledged to be an important key in understanding the response behavior of a catchment and has at the same time inspired research on internal processes over a broad range of scales. From this process-hydrological point of view, hydrological connectivity is the conceptual framework to link local observations across space and scales. This is the context in which the four studies this thesis comprises of were conducted. The focus was on structures and their spatial organization as important control on preferential subsurface flow. Each experiment covered a part of the conceptualized flow path from hillslopes to the stream: soil profile, hillslope, riparian zone, and stream. For each study site, the most characteristic structures of the investigated domain and scale, such as slope deposits and peat layers were identified based on preliminary or previous investigations or literature reviews. Additionally, further structural data was collected and topographical analyses were carried out. Flow processes were observed either based on response observations (soil moisture changes or discharge patterns) or direct measurement (advective heat transport). Based on these data, the flow-relevance of the characteristic structures was evaluated, especially with regard to hillslope to stream connectivity. Results of the four studies revealed a clear relationship between characteristic spatial structures and the hydrological behavior of the catchment. Especially the spatial distribution of structures throughout the study domain and their interconnectedness were crucial for the establishment of preferential flow paths and their relevance for large-scale processes. Plot and hillslope-scale irrigation experiments showed that the macropores of a heterogeneous, skeletal soil enabled preferential flow paths at the scale of centimeters through the otherwise unsaturated soil. These flow paths connected throughout the soil column and across the hillslope and facilitated substantial amounts of vertical and lateral flow through periglacial slope deposits. In the riparian zone of the same headwater catchment, the connectivity between hillslopes and stream was controlled by topography and the dualism between characteristic subsurface structures and the geomorphological heterogeneity of the stream channel. At the small scale (1 m to 10 m) highest gains always occurred at steps along the longitudinal streambed profile, which also controlled discharge patterns at the large scale (100 m) during base flow conditions (number of steps per section). During medium and high flow conditions, however, the impact of topography and parafluvial flow through riparian zone structures prevailed and dominated the large-scale response patterns. In the streambed of a lowland river, low permeability peat layers affected the connectivity between surface water and groundwater, but also between surface water and the hyporheic zone. The crucial factor was not the permeability of the streambed itself, but rather the spatial arrangement of flow-impeding peat layers, causing increased vertical flow through narrow “windows” in contrast to predominantly lateral flow in extended areas of high hydraulic conductivity sediments. These results show that the spatial organization of structures was an important control for hydrological processes at all scales and study areas. In a final step, the observations from different scales and catchment elements were put in relation and compared. The main focus was on the theoretical analysis of the scale hierarchies of structures and processes and the direction of causal dependencies in this context. Based on the resulting hierarchical structure, a conceptual framework was developed which is capable of representing the system’s complexity while allowing for adequate simplifications. The resulting concept of the parabolic scale series is based on the insight that flow processes in the terrestrial part of the catchment (soil and hillslopes) converge. This means that small-scale processes assemble and form large-scale processes and responses. Processes in the riparian zone and the streambed, however, are not well represented by the idea of convergence. Here, the large-scale catchment signal arrives and is modified by structures in the riparian zone, stream morphology, and the small-scale interactions between surface water and groundwater. Flow paths diverge and processes can better be represented by proceeding from large scales to smaller ones. The catchment-scale representation of processes and structures is thus the conceptual link between terrestrial hillslope processes and processes in the riparian corridor. N2 - Das Konzept der hydrologischen Konnektivität umfasst alle Fließprozesse, welche verschiedene Bereiche einer Landschaft verbinden. Als solches ist es ein zentrales Thema in dem Forschungsbereich der Einzugsgebietshydrologie und beeinflusst auch benachbarte Disziplinen wie die Ökologie oder die Geomorphologie. Es ist allgemein akzeptiert, dass das Konzept der Konnektivität ein wichtiger Schlüssel zum Verständnis von Einzugsgebietsdynamiken ist, gleichzeitig inspiriert es die Erforschung interner Prozesse auf verschiedenen Skalen. Von dieser prozesshydrologischen Perspektive gesehen, bietet Konnektivität einen konzeptionellen Rahmen, um lokale Beobachtungen über Raum und Skalen miteinander in Verbindung zu setzen. In diesem Kontext stehen die vier Studien dieser Doktorarbeit. Der Fokus lag dabei auf räumlichen Strukturen als wichtigem Kontrollfaktor für präferentielle Fließpfade als spezieller Form unterirdischer Fließprozesse. Die Experimente deckten dabei je einen Abschnitt des konzeptionellen Fließweges vom Hang zum Bach exemplarisch ab: Bodenprofil und Hang, Hang und Auenbreich, und Bachbett. Für alle vier Studien wurden zunächst charakteristische Strukturen des Untersuchungsgebietes wie Schuttablagerungen am Hang oder Torfschichten im Flussbett auf Basis vorausgehender Untersuchungen und Literaturrecherchen identifiziert. Zusätzlich wurden weitere strukturelle Daten erfasst und digitale Geländemodelle ausgewertet. Anschließend wurde die Prozessrelevanz dieser Strukturen, vor allem im Hinblick auf die Hang-Bach-Konnektivität, untersucht. Die Ergebnisse der einzelnen Studien zeigten eine deutliche Verbindung zwischen den charakteristischen räumlichen Strukturen und dem hydrologischen Verhalten des untersuchten Gebietes. Insbesondere die räumliche Anordnung von Strukturen, d.h. die räumliche Verteilung und der Grad der Konnektivität der Strukturen, war ausschlaggebend für die Ausbildung präferenzieller Fließpfade und deren Relevanz für größerskalige Prozesse. Die räumliche Organisation von Strukturen war in allen Untersuchungsgebieten ein wichtiger Kontrollfaktor für hydrologische Prozesse. Die Beobachtungen auf verschiedenen Skalen und verschiedener Fließpfadabschnitte wurden miteinander in Verbindung gesetzt und verglichen. Besonderes Augenmerk lag dabei auf der theoretischen Analyse der Skalenhierarchie von Strukturen und Prozessen und der Richtung der Kausalität in diesem Zusammenhang. Auf dieser Grundlage wurde als Synthese der einzelnen Studien ein Konzept entwickelt, welches in der Lage ist, die Komplexität eines Einzugsgebietes abzubilden und gleichzeitig adequate Vereinfachungen zuzulassen. Diese Konzept der parabelförmigen Skalenabfolge beruht auf der Erkenntnis, dass Fließprozesse im terrestrischen Bereich eines Einzugsgebietes, also im Boden und den Hängen, vorwiegend konvergieren und sich von der kleinen Skala zur größeren hin zusammenfügen. Die Prozesse in der Aue und dem Bachbett werden von diesem Prinzip der Konvergenz allerding nicht abgebildet. Die in den Böden und an den Hängen erzeugten Fließmuster des Einzugsgebiets werden von den Strukturen in der Aue, der Morphologie des Baches und den kleinskaligen Wechselwirkungen zwischen Fließgewässer und Sediment überprägt. Die Fließprozesse divergieren, und eine Beschreibung von der großen Skala hin zur kleineren ist hier besser geeignet. Die räumlich diskrete oder konzeptionelle Darstellung von Prozessen auf der Einzugsgebietsskala bietet so die Verbindung zwischen terrestrischer Hanghydrologie und der bachseitigen Auenhydrologie. KW - catchment hydrology KW - hillslope hydrology KW - riparian zone KW - hyporheic zone KW - Einzugsgebietshydrologie KW - Hanghydrologie KW - Auenbereich KW - hyporheische Zone Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-424542 ER - TY - THES A1 - Mbaya Mani, Christian T1 - Functional nanoporous carbon-based materials derived from oxocarbon-metal coordination complexes T1 - Funktionale nanoporöse Kohlenstoffmaterialien auf Basis von Oxokohlenstoff-Metal Koordinationskomplexe N2 - Nanoporous carbon based materials are of particular interest for both science and industry due to their exceptional properties such as a large surface area, high pore volume, high electroconductivity as well as high chemical and thermal stability. Benefiting from these advantageous properties, nanoporous carbons proved to be useful in various energy and environment related applications including energy storage and conversion, catalysis, gas sorption and separation technologies. The synthesis of nanoporous carbons classically involves thermal carbonization of the carbon precursors (e.g. phenolic resins, polyacrylonitrile, poly(vinyl alcohol) etc.) followed by an activation step and/or it makes use of classical hard or soft templates to obtain well-defined porous structures. However, these synthesis strategies are complicated and costly; and make use of hazardous chemicals, hindering their application for large-scale production. Furthermore, control over the carbon materials properties is challenging owing to the relatively unpredictable processes at the high carbonization temperatures. In the present thesis, nanoporous carbon based materials are prepared by the direct heat treatment of crystalline precursor materials with pre-defined properties. This synthesis strategy does not require any additional carbon sources or classical hard- or soft templates. The highly stable and porous crystalline precursors are based on coordination compounds of the squarate and croconate ions with various divalent metal ions including Zn2+, Cu2+, Ni2+, and Co2+, respectively. Here, the structural properties of the crystals can be controlled by the choice of appropriate synthesis conditions such as the crystal aging temperature, the ligand/metal molar ratio, the metal ion, and the organic ligand system. In this context, the coordination of the squarate ions to Zn2+ yields porous 3D cube crystalline particles. The morphology of the cubes can be tuned from densely packed cubes with a smooth surface to cubes with intriguing micrometer-sized openings and voids which evolve on the centers of the low index faces as the crystal aging temperature is raised. By varying the molar ratio, the particle shape can be changed from truncated cubes to perfect cubes with right-angled edges. These crystalline precursors can be easily transformed into the respective carbon based materials by heat treatment at elevated temperatures in a nitrogen atmosphere followed by a facile washing step. The resulting carbons are obtained in good yields and possess a hierarchical pore structure with well-organized and interconnected micro-, meso- and macropores. Moreover, high surface areas and large pore volumes of up to 1957 m2 g-1 and 2.31 cm3 g-1 are achieved, respectively, whereby the macroscopic structure of the precursors is preserved throughout the whole synthesis procedure. Owing to these advantageous properties, the resulting carbon based materials represent promising supercapacitor electrode materials for energy storage applications. This is exemplarily demonstrated by employing the 3D hierarchical porous carbon cubes derived from squarate-zinc coordination compounds as electrode material showing a specific capacitance of 133 F g-1 in H2SO4 at a scan rate of 5 mV s-1 and retaining 67% of this specific capacitance when the scan rate is increased to 200 mV s-1. In a further application, the porous carbon cubes derived from squarate-zinc coordination compounds are used as high surface area support material and decorated with nickel nanoparticles via an incipient wetness impregnation. The resulting composite material combines a high surface area, a hierarchical pore structure with high functionality and well-accessible pores. Moreover, owing to their regular micro-cube shape, they allow for a good packing of a fixed-bed flow reactor along with high column efficiency and a minimized pressure drop throughout the packed reactor. Therefore, the composite is employed as heterogeneous catalyst in the selective hydrogenation of 5-hydroxymethylfurfural to 2,5-dimethylfuran showing good catalytic performance and overcoming the conventional problem of column blocking. Thinking about the rational design of 3D carbon geometries, the functions and properties of the resulting carbon-based materials can be further expanded by the rational introduction of heteroatoms (e.g. N, B, S, P, etc.) into the carbon structures in order to alter properties such as wettability, surface polarity as well as the electrochemical landscape. In this context, the use of crystalline materials based on oxocarbon-metal ion complexes can open a platform of highly functional materials for all processes that involve surface processes. N2 - Nanoporöse Kohlenstoffmaterialien zeichnen sich u. a. durch ihre außergewöhnlichen Eigenschaften aus wie z. B. hohe Oberfläche, hohes Porenvolumen, hohe elektrische Leitfähigkeit und auch hohe chemische und thermische Stabilität. Aufgrund dessen finden sie Anwendung in den unterschiedlichsten Bereichen von der Speicherung elektrischer Energie bis hin zur Katalyse und Gasspeicherung. Die klassische Synthese von porösen Kohlenstoffmaterialien basiert u. a. auf der Nutzung von sogenannten anorganischen bzw. organischen Templaten und/oder chemischen Aktivierungsagenzien. Allerdings gelten diese Methoden eher als kompliziert, kostspielig und umweltschädlich. Außerdem wird eine gezielte Kontrolle der Produkteigenschaften durch die zahlreichen Prozesse erschwert, die sich bei den hohen Karbonisierungstemperaturen abspielen und folglich die Materialeigenschaften unvorhersehbar verändern können. In der vorliegenden Arbeit wird ein alternatives Konzept für die Synthese von nanoporösen Kohlenstoffmaterialien mit gezielt einstellbaren Eigenschaften vorgestellt. Diese basiert auf der Nutzung von kristallinen Vorläufermaterialien, die aus der Koordination von den Anionen der Quadratsäure bzw. der Krokonsäure mit verschiedenen Metallionen (Zn2+, Cu2+, Ni2+ und Co2+) resultieren. Diese haben den Vorteil, dass Eigenschaften wie z. B. die Partikelmorphologie und Porosität gezielt durch die Wahl geeigneter Syntheseparameter (z. B. Temperatur, molares Verhältnis, Metallion und Ligand) eingestellt werden können. Beispielsweise führen Koordinationskomplexe von der Quadratsäure mit Zn2+ in Wasser zu porösen 3D würfelförmigen Mikrokristallen, die durch einfache thermische Behandlung unter Schutzgasatmosphäre zu den entsprechenden Kompositen umgewandelt werden. Ein anschließender Waschschritt führt zu den entsprechenden Kohlenstoffmaterialien unter Erhalt der makroskopischen Struktur der kristallinen Vorläufermaterialien. In diesem Zusammenhang weisen die resultierenden Kohlenstoffe ebenfalls eine 3D Würfelform mit einer hierarchischen Porenstruktur bestehend aus vernetzten Mikro-, Meso- und Makroporen auf. Ferner besitzen die Kohlenstoffe hohe Oberflächen und Porenvolumen von bis zu 1.957 m2 g-1 bzw. 2,31 cm3 g-1. Um die Vorteile dieser Eigenschaften zu demonstrieren, werden sie als Elektrodenmaterial für Superkondensatoren getestet und zeigen dabei vielversprechende Kapazitäten. Außerdem, werden sie auch als Trägermaterial für die Immobilisierung von Nickel-Nanopartikel verwendet und als heterogene Katalysatoren in der selektiven Hydrierung von 5-hydroxymethylfurfural zu 2,5-dimethylfuran in einem Festbettreaktor eingesetzt. Dabei wird eine gute Katalysatorleistung (Produktivität) bei minimalem Druckabfall in der Reaktorsäule erreicht. KW - squaric acid KW - Quadratsäure KW - mesocrystals KW - Mesokristalle KW - nanoporöser Kohlenstoffpartikel KW - nanoporous carbon particles KW - Nanopartikel KW - nanoparticles KW - Koordinationskomplexe KW - coordination complexes KW - oxocarbon KW - Oxo-Kohlenstoff Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407866 ER - TY - THES A1 - Golly, Antonius T1 - Formation and evolution of channel steps and their role for sediment dynamics in a steep mountain stream T1 - Formation und Evolution von Bachstufen und ihr Einfluss auf die Sedimentdynamik eines steilen Gebirgseinzugsgebietes N2 - Steep mountain channels are an important component of the fluvial system. On geological timescales, they shape mountain belts and counteract tectonic uplift by erosion. Their channels are strongly coupled to hillslopes and they are often the main source of sediment transported downstream to low-gradient rivers and to alluvial fans, where commonly settlements in mountainous areas are located. Hence, mountain streams are the cause for one of the main natural hazards in these regions. Due to climate change and a pronounced populating of mountainous regions the attention given to this threat is even growing. Although quantitative studies on sediment transport have significantly advanced our knowledge on measuring and calibration techniques we still lack studies of the processes within mountain catchments. Studies examining the mechanisms of energy and mass exchange on small temporal and spatial scales in steep streams remain sparse in comparison to low-gradient alluvial channels. In the beginning of this doctoral project, a vast amount of experience and knowledge of a steep stream in the Swiss Prealps had to be consolidated in order to shape the principal aim of this research effort. It became obvious, that observations from within the catchment are underrepresented in comparison to experiments performed at the catchment’s outlet measuring fluxes and the effects of the transported material. To counteract this imbalance, an examination of mass fluxes within the catchment on the process scale was intended. Hence, this thesis is heavily based on direct field observations, which are generally rare in these environments in quantity and quality. The first objective was to investigate the coupling of the channel with surrounding hillslopes, the major sources of sediment. This research, which involved the monitoring of the channel and adjacent hillslopes, revealed that alluvial channel steps play a key role in coupling of channel and hillslopes. The observations showed that hillslope stability is strongly associated with the step presence and an understanding of step morphology and stability is therefore crucial in understanding sediment mobilization. This finding refined the way we think about the sediment dynamics in steep channels and motivated continued research of the step dynamics. However, soon it became obvious that the technological basis for developing field tests and analyzing the high resolution geometry measured in the field was not available. Moreover, for many geometrical quantities in mountain channels definitions and a clear scientific standard was not available. For example, these streams are characterized by a high spatial variability of the channel banks, preventing straightforward calculations of the channel width without a defined reference. Thus, the second and inevitable part of this thesis became the development and evaluation of scientific tools in order to investigate the geometrical content of the study reach thoroughly. The developed framework allowed the derivation of various metrics of step and channel geometry which facilitated research on the a large data set of observations of channel steps. In the third part, innovative, physically-based metrics have been developed and compared to current knowledge on step formation, suggested in the literature. With this analyses it could be demonstrated that the formation of channel steps follow a wide range of hydraulic controls. Due to the wide range of tested parameters channel steps observed in a natural stream were attributed to different mechanisms of step formation, including those based on jamming and those based on key-stones. This study extended our knowledge on step formation in a steep stream and harmonized different, often time seen as competing, processes of step formation. This study was based on observations collected at one point in time. In the fourth part of this project, the findings of the snap-shot observations were extended in the temporal dimension and the derived concepts have been utilized to investigate reach-scale step patterns in response to large, exceptional flood events. The preliminary results of this work based on the long-term analyses of 7 years of long profile surveys showed that the previously observed channel-hillslope mechanism is the responsible for the short-term response of step formation. The findings of the long-term analyses of step patterns drew a bow to the initial observations of a channel-hillslope system which allowed to join the dots in the dynamics of steep stream. Thus, in this thesis a broad approach has been chosen to gain insights into the complex system of steep mountain rivers. The effort includes in situ field observations (article I), the development of quantitative scientific tools (article II), the reach-scale analyses of step-pool morphology (article III) and its temporal evolution (article IV). With this work our view on the processes within the catchment has been advanced towards a better mechanistic understanding of these fluvial system relevant to improve applied scientific work. N2 - Gebirgsbäche sind stark gekoppelt mit angrenzenden Hängen, welche eine Hauptquelle von Sediment darstellen. Dieses Sediment wird durch erosive Prozesse weiter im fluvialen System stromabwärts transportiert, häufig auch in Bereiche alpiner Besiedlung. Das transportierte Sediment kann dort verheerende Schäden an Gebäuden und Infrastruktur anrichten. Daher stellen Gebirgsbäche eine Hauptursache für Naturgefahren in steilen Regionen dar, welche durch den Wandel des Klimas und die fortschreitende Besiedlung durch den Menschen noch verstärkt werden. Wenngleich quantitative Studien unser Wissen über Mess- und Kalibrierungstechniken zur Erfassung von Sedimenttransport erweitert haben, so sind doch viele Prozesse innerhalb der Einzugsgebiete in Hinblick auf Erosion und Sedimentverfügbarkeit weitgehend unerforscht. So stellen Beobachtungen von Mechanismen von Energie- und Massenaustausch auf kleinen räumlichen und zeitlichen Skalen innerhalb steiler Gebirgseinzugsgebiete eine Ausname dar. Diese Doktorarbeit basiert auf hoch-qualitativen Feldbeobachtungen in einem schweizer Gebirgsbach um Forschungsfragen in Hinblick auf die Sediementdyanmik zu behandeln. Das erste Ziel war es, die Gerinne-Hang-Kopplung zu erforschen und zu verstehen, um mögliche Sedimentquellen zu identifizieren, sowie die Mechanismen und Prozesse der Sedimentgenerierung in den Kontext der allgemeinen Dynamik von Gebirgsbächen zu bringen. Die erste Studie, welche auf visuellen Beobachtungen basiert, offenbarte eine Schlüsselrolle von Bachstufen in der Gerinne-Hang-Kopplung. Auf dieser Grundlage wurde ein konzeptuelles Modell entwickelt (Artikel I): durch die Erosion von Bachstufen werden angrenzende Hänge destabilisiert und ermöglichen anhaltenden Sedimenteintrag. Diese Forschung regte eine genauere Beobachtung der räumlichen und zeitlichen Evolution von Bachstufen an. Die weitere Forschung erforderte jedoch neue technologische Werkzeuge und Methoden welche zunächst in dieser Doktorarbeit eigens entwickelt wurden (Artikel II). Mit diesen Werkzeugen wurde dann ein Datensatz eingemessener Bachstufen in Hinblick auf den Formationsprozess analysiert (Artikel III). Mit dieser Analyse konnten verschiedene Stufenbildungstheorien überprüft und und zwei dominante Mechanismen verifiziert werden: Bachstufen formen sich in engen und verengenden Bachabchnitten durch Verklemmung, sowie in breiten und breiter werdenden Abschnitten durch die Ablagerung von Schlüsselsteinen. Durch diese Beobachtung wurde unser Wissen über Stufenbildung erweitert indem verschiedene hypothetisierte Mechanismen in einem Gebirgsbach harmonisiert wurden. Zu guter Letzt wurde diese Punktbeobachtung schließlich in den zeitlichen Kontext gesetzt, indem die Muster von Bachstufen über 7 Jahre nach einem hydrologischen Großereignis in 2010 untersucht wurden (Artikel IV). Die vorläufigen Ergebnisse zeigen, dass Großereignisse einen erheblichen Einfluss auf die Gerinnebreite haben: sowohl die räumlich gemittelte Gerinnebreite, als auch die mittlere Gerinnebreite an Bachstufen ist unmittelbar nach dem Großereignis deutlich erhöht. Weiterhin ist die relative Anzahl der Bachstufen welche durch Schlüsselsteine erzeugt werden größer nach dem Großereignis. Dies deutet darauf hin, dass der zuerst beobachtete Mechanismus der Gerinne-Hang-Kopplung (Artikel I) verantwortlich ist für die zeitliche Evolution der Bachstufen nach Großereignissen (Artikel IV). KW - Geomorphologie KW - geomorphology KW - Naturgefahren KW - natural hazards KW - Gebirgsbäche KW - mountain rivers KW - Geschiebetransport KW - bedload transport KW - Bachstufen KW - channel steps KW - Gerinne-Hang-Kopplung KW - channel-hillslope coupling Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411728 ER -