TY - THES A1 - Giuri, Chiara T1 - VERITAS Dark Matter search in dwarf spheroidal galaxies: an extended analysis T1 - VERITAS-Suche nach dunkler Materie in sphäroidischen Zwerggalaxien: eine erweiterte Analyse” N2 - In the last century, several astronomical measurements have supported that a significant percentage (about 22%) of the total mass of the Universe, on galactic and extragalactic scales, is composed of a mysterious ”dark” matter (DM). DM does not interact with the electromagnetic force; in other words it does not reflect, absorb or emit light. It is possible that DM particles are weakly interacting massive particles (WIMPs) that can annihilate (or decay) into Standard Model (SM) particles, and modern very- high-energy (VHE; > 100 GeV) instruments such as imaging atmospheric Cherenkov telescopes (IACTs) can play an important role in constraining the main properties of such DM particles, by detecting these products. One of the most privileged targets where to look for DM signal are dwarf spheroidal galaxies (dSphs), as they are expected to be high DM-dominated objects with a clean, gas-free environment. Some dSphs could be considered as extended sources, considering the angular resolution of IACTs; their angu- lar resolution is adequate to detect extended emission from dSphs. For this reason, we performed an extended-source analysis, by taking into account in the unbinned maximum likelihood estimation both the energy and the angular extension dependency of observed events. The goal was to set more constrained upper limits on the velocity-averaged cross-section annihilation of WIMPs with VERITAS data. VERITAS is an array of four IACTs, able to detect γ-ray photons ranging between 100 GeV and 30 TeV. The results of this extended analysis were compared against the traditional spectral analysis. We found that a 2D analysis may lead to more constrained results, depending on the DM mass, channel, and source. Moreover, in this thesis, the results of a multi-instrument project are presented too. Its goal was to combine already published 20 dSphs data from five different experiments, such as Fermi-LAT, MAGIC, H.E.S.S., VERITAS and HAWC, in order to set upper limits on the WIMP annihilation cross-section in the widest mass range ever reported. N2 - Im letzten Jahrhundert haben verschiedene mehrere astronomische Messungen gezeigt, dass ein erheblicher Prozentsatz (etwa 22 %) der Gesamtmasse des Universums auf galaktischer und extragalaktischer Ebene aus einer geheimnisvollen ”dunklen” Materie (DM) besteht. DM interagiert nicht mit der elektromagnetischen Kraft und reflektiert, absorbiert oder emittiert daher kein Licht. Es ist möglich, dass es sich bei DM-Teilchen um schwach wechselwirkende massive Teilchen (engl. weakly interacting massive particles, WIMPs) handelt, die in Teilchen des Standardmodells (SM) annihilieren (oder zerfallen) können. Indem sie diese Produkte nachweisen, können moderne Detektoren für sehr hoch energetische (engl. very-high-energy, VHE; 100 GeV) Gammastrahlung, wie zum Beispiel bildgebende atmosphärische Cherenkov-Teleskope (engl. imaging atmospheric Cherenkov telescopes, IACTs), eine wichtige Rolle bei der Bestimmung der Haupteigenschaften solcher DM-Teilchen spielen. Eines der am besten geeignetsten Ziele für die Suche nach DM-Signalen sind sphäroidische Zwerggalaxien (engl. dwarf spheroidal galaxies, dSphs), da diese stark DM-dominierte Objekte mit einer gasfreien Umgebung sind. Die Winkelauflösung von IACTs ist ausreichend, um ausgedehnte Emission von dSphs zu entdecken. Aus diesem Grund haben wir eine Analyse dieser Quellen durchgeführt, indem wir in der unbinned Maximum-Likelihood-Schätzung sowohl die Energie als auch die Abhängigkeit der Winkelausdehnung der beobachteten Gammastrahlung berücksichtigt haben. Das Ziel war es, mit Hilfe der VERITAS-Daten genauere Obergrenzen für den geschwindigkeitsgemittelten Annihilationsquerschnitt von WIMPs zu bestimmen. VERITAS ist eine Anordnung von vier IACTs, die Gammastrahlen im Bereich von 100 GeV bis 30 TeV detektieren können. Die Ergebnisse dieser erweiterten Analyse wurden mit der traditionellen Spektralanalyse verglichen. Es zeigte sich, dass je nach DM-Masse, Kanal und Quelle eine 2D-Analyse zu aussagekräftigeren Ergebnissen führen kann. Darüber hinaus werden in dieser Arbeit auch die Ergebnisse eines Multi-Instrumenten-Projekts vorgestellt. Das Ziel war es, die bereits veröffentlichte 20 dSphs-Datensätze von Fermi-LAT, MAGIC, H.E.S.S., VERITAS und HAWC zu kombinieren, um obere Grenzwerte für den WIMP-Annihilationsquerschnitt im breitesten jemals veröffentlichten Massenbereich zu bestimmen. KW - Dark Matter KW - data analysis KW - Cherenkov telescopes KW - dwarf spheroidal galaxies KW - Dunkle Materie KW - Datenanalyse KW - Cherenkov-Teleskope KW - sphäroidische Zwerggalaxien Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-575869 ER - TY - THES A1 - Schmitz, Seán T1 - Using low-cost sensors to gather high resolution measurements of air quality in urban environments and inform mobility policy N2 - Air pollution has been a persistent global problem in the past several hundred years. While some industrialized nations have shown improvements in their air quality through stricter regulation, others have experienced declines as they rapidly industrialize. The WHO’s 2021 update of their recommended air pollution limit values reflects the substantial impacts on human health of pollutants such as NO2 and O3, as recent epidemiological evidence suggests substantial long-term health impacts of air pollution even at low concentrations. Alongside developments in our understanding of air pollution's health impacts, the new technology of low-cost sensors (LCS) has been taken up by both academia and industry as a new method for measuring air pollution. Due primarily to their lower cost and smaller size, they can be used in a variety of different applications, including in the development of higher resolution measurement networks, in source identification, and in measurements of air pollution exposure. While significant efforts have been made to accurately calibrate LCS with reference instrumentation and various statistical models, accuracy and precision remain limited by variable sensor sensitivity. Furthermore, standard procedures for calibration still do not exist and most proprietary calibration algorithms are black-box, inaccessible to the public. This work seeks to expand the knowledge base on LCS in several different ways: 1) by developing an open-source calibration methodology; 2) by deploying LCS at high spatial resolution in urban environments to test their capability in measuring microscale changes in urban air pollution; 3) by connecting LCS deployments with the implementation of local mobility policies to provide policy advice on resultant changes in air quality. In a first step, it was found that LCS can be consistently calibrated with good performance against reference instrumentation using seven general steps: 1) assessing raw data distribution, 2) cleaning data, 3) flagging data, 4) model selection and tuning, 5) model validation, 6) exporting final predictions, and 7) calculating associated uncertainty. By emphasizing the need for consistent reporting of details at each step, most crucially on model selection, validation, and performance, this work pushed forward with the effort towards standardization of calibration methodologies. In addition, with the open-source publication of code and data for the seven-step methodology, advances were made towards reforming the largely black-box nature of LCS calibrations. With a transparent and reliable calibration methodology established, LCS were then deployed in various street canyons between 2017 and 2020. Using two types of LCS, metal oxide (MOS) and electrochemical (EC), their performance in capturing expected patterns of urban NO2 and O3 pollution was evaluated. Results showed that calibrated concentrations from MOS and EC sensors matched general diurnal patterns in NO2 and O3 pollution measured using reference instruments. While MOS proved to be unreliable for discerning differences among measured locations within the urban environment, the concentrations measured with calibrated EC sensors matched expectations from modelling studies on NO2 and O3 pollution distribution in street canyons. As such, it was concluded that LCS are appropriate for measuring urban air quality, including for assisting urban-scale air pollution model development, and can reveal new insights into air pollution in urban environments. To achieve the last goal of this work, two measurement campaigns were conducted in connection with the implementation of three mobility policies in Berlin. The first involved the construction of a pop-up bike lane on Kottbusser Damm in response to the COVID-19 pandemic, the second surrounded the temporary implementation of a community space on Böckhstrasse, and the last was focused on the closure of a portion of Friedrichstrasse to all motorized traffic. In all cases, measurements of NO2 were collected before and after the measure was implemented to assess changes in air quality resultant from these policies. Results from the Kottbusser Damm experiment showed that the bike-lane reduced NO2 concentrations that cyclists were exposed to by 22 ± 19%. On Friedrichstrasse, the street closure reduced NO2 concentrations to the level of the urban background without worsening the air quality on side streets. These valuable results were communicated swiftly to partners in the city administration responsible for evaluating the policies’ success and future, highlighting the ability of LCS to provide policy-relevant results. As a new technology, much is still to be learned about LCS and their value to academic research in the atmospheric sciences. Nevertheless, this work has advanced the state of the art in several ways. First, it contributed a novel open-source calibration methodology that can be used by a LCS end-users for various air pollutants. Second, it strengthened the evidence base on the reliability of LCS for measuring urban air quality, finding through novel deployments in street canyons that LCS can be used at high spatial resolution to understand microscale air pollution dynamics. Last, it is the first of its kind to connect LCS measurements directly with mobility policies to understand their influences on local air quality, resulting in policy-relevant findings valuable for decisionmakers. It serves as an example of the potential for LCS to expand our understanding of air pollution at various scales, as well as their ability to serve as valuable tools in transdisciplinary research. N2 - Luftverschmutzung ist seit hundert Jahren ein anhaltendes globales Problem. Während sich die Luftqualität in einigen Industrieländern durch strengere Vorschriften verbessert hat, hat sie sich in anderen Ländern im Zuge der schnell fortschreitenden Industrialisierung verschlechtert. Die Aktualisierung der von der WHO für das Jahr 2021 empfohlenen Grenzwerte für die Luftverschmutzung spiegelt die erheblichen Aus-wirkungen von Schadstoffen wie Stickstoffdioxid (NO2) und Ozon (O3) auf die menschliche Gesundheit wider, da neuere epidemiologische Erkenntnisse darauf hindeuten, dass Luft-verschmutzung selbst bei niedrigen Konzentrationen erhebliche langfristige gesundheitliche Auswirkungen hat. Parallel zu den Entwicklungen in unserem Verständnis der gesundheitlichen Auswirkungen von Luftverschmutzung wurde die neue Technologie der Low-Cost-Sensoren (LCS) sowohl von der Wissenschaft als auch von der Industrie als neue Methode zur Messung der Luftverschmutzung aufgegriffen. Vor allem aufgrund ihrer geringeren Kosten und kleineren Größe können sie in einer Vielzahl von Anwendungen eingesetzt werden, u. a. bei der Entwicklung von Messnetzen mit höherer räumlicher Auf-lösung, bei der Identifizierung von Quellen und bei der Messung der Luftverschmutzung. Es wurden zwar erhebliche Anstrengungen unternommen, um LCS mit Hilfe von Referenzinstrumenten und verschiedenen statistischen Modellen genau zu kalibrieren, aber die Genauigkeit und Präzision bleiben durch die variable Sensorempfindlichkeit begrenzt. Darüber hinaus gibt es immer noch keine Standardverfahren für die Kalibrierung, und die meisten proprietären Kalibrierungsalgorithmen sind Blackboxen, die für die Öffentlichkeit nicht zugänglich sind. Mit dieser Arbeit soll die Wissensbasis über LCS auf verschiedene Weise erweitert werden: 1) durch die Entwicklung einer Open-Source-Kalibrierungsmethodik; 2) durch den Einsatz von LCS mit hoher räumlicher Auflösung in städtischen Umgebungen, um ihre Fähigkeit zur Messung kleinräumlicher Veränderungen der städtischen Luftverschmutzung zu testen; 3) durch die Verknüpfung von LCS-Einsätzen mit der Umsetzung lokaler Verkehrsmaßnahmen, um politische Empfehlungen zu den daraus resultierenden Veränderungen der Luftqualität geben zu können. In einem ersten Schritt wurde festgestellt, dass LCS mit Hilfe von sieben allgemeinen Schritten konsistent und mit guter Leistung gegenüber Referenzinstrumenten kalibriert werden können: 1) Bewertung der Rohdatenverteilung, 2) Datenbereinigung, 3) Kenn-zeichnung von Daten, 4) Modellauswahl und -abstimmung, 5) Modellvalidierung, 6) Export der endgültigen Vorhersagen und 7) Berechnung der damit verbundenen Unsicherheit. Durch die Betonung der Notwendigkeit einer konsistenten Berichterstattung über Details bei jedem Schritt, insbesondere bei der Modellauswahl, -validierung und -leistung, hat diese Arbeit die Bemühungen um eine Standardisierung der Kalibrierungs-methoden vorangetrieben. Darüber hinaus wurden mit der Open-Source-Veröffentlichung von Code und Daten für die siebenstufige Methodik Fortschritte bei der Reformierung der weitgehenden Blackbox-Natur von LCS-Kalibrierungen erzielt. Nach der Einführung einer transparenten und zuverlässigen Kalibrierungsmethode wurden die LCS zwischen 2017 und 2020 an verschiedenen Straßen eingesetzt. Unter Ver-wendung von zwei Arten von LCS, Metalloxid (MOS) und elektrochemisch (EC), wurde ihre Leistung bei der Erfassung der erwarteten Muster der NO2- und O3-Belastung in Städten bewertet. Die Ergebnisse zeigten, dass die kalibrierten Konzentrationen der MOS- und EC-Sensoren mit den allgemeinen Tagesmustern der NO2- und O3-Belastung überein-stimmten, die mit Referenzgeräten gemessen wurden. Während sich MOS als unzuverlässig erwies, wenn es darum ging, Unterschiede zwischen den gemessenen Orten inner-halb der städtischen Umgebung zu erkennen, entsprachen die mit kalibrierten EC-Sensoren gemessenen Konzentrationen den Erwartungen aus Modellierungsstudien zur Verteilung der NO2- und O3-Belastung in Straßenschluchten. Daraus wurde der Schluss gezogen, dass LCS für die Messung der Luftqualität in Städten geeignet sind, auch zur Unterstützung der Entwicklung von Luftverschmutzungsmodellen auf städtischer Ebene, und dass sie neue Erkenntnisse über die Luftverschmutzung in städtischen Umgebungen liefern können. Um das letzte Ziel dieser Arbeit zu erreichen, wurden zwei Messkampagnen im Zusammenhang mit der Umsetzung von drei verkehrspolitischen Maßnahmen in Berlin durchgeführt. Bei der ersten handelte es sich um den Bau einer Pop-up-Radweg auf dem Kottbusser Damm als Reaktion auf die COVID-19-Pandemie, bei der zweiten um die vorübergehende Einrichtung eines Gemeinschaftsraums in der Böckhstraße und bei der letzten um die Sperrung eines Teils der Friedrichstraße für den gesamten motorisierten Verkehr. In allen Fällen wurden NO2-Messungen vor und nach der Durchführung der Maßnahme durchgeführt, um die Veränderungen der Luftqualität infolge dieser Maßnahmen zu bewerten. Die Ergebnisse des Experiments am Kottbusser Damm zeigten, dass die NO2-Konzentrationen, denen die Radfahrer ausgesetzt waren, durch den Radweg um 22 ± 19 % gesenkt wurden. In der Friedrichstraße sank die NO2-Konzentration durch die Straßensperrung auf das Niveau des städtischen Hintergrunds, ohne dass sich die Luft-qualität in den Seitenstraßen verschlechterte. Diese wertvollen Ergebnisse wurden den verantwortlichen Ansprechpersonen in der Stadtverwaltung, die für die Bewertung des Erfolgs und der Zukunft der Maßnahmen verantwortlich sind, schnell mitgeteilt, was die Fähigkeit von LCS unterstreicht, politisch relevante Ergebnisse zu liefern. Da es sich um eine neue Technologie handelt, muss noch viel über LCS und ihren Wert für die akademische Forschung im Bereich der Atmosphärenwissenschaften gelernt werden. Dennoch hat diese Arbeit den Stand der Technik in mehrfacher Hinsicht verbessert. Erstens wurde eine neuartige Open-Source-Kalibrierungsmethode entwickelt, die von LCS-Anwender*innen für verschiedene Luftschadstoffe verwendet werden kann. Zweitens wurde die Beweisgrundlage für die Zuverlässigkeit von LCS zur Messung der Luftqualität in Städten gestärkt, indem durch neuartige Einsätze in Straßenschluchten festgestellt wurde, dass LCS mit hoher räumlicher Auflösung zum Verständnis der Dynamik der Luftverschmutzung auf kleinräumlicher Ebene eingesetzt werden kann. Schließlich ist es die erste Studie dieser Art, die LCS-Messungen direkt mit verkehrspolitischen Maßnahmen verknüpft, um deren Einfluss auf die lokale Luftqualität zu verstehen, was zu politisch relevanten Erkenntnissen führt, die für Entscheidungsträger*innen wertvoll sind. Die Studie ist ein Beispiel für das Potenzial von LCS, unser Verständnis von Luftverschmutzung in verschiedenen Maßstäben zu erweitern, sowie für ihre Fähigkeit, als wert-volle Werkzeuge in der transdisziplinären Forschung zu dienen. T2 - Verwendung kostengünstiger Sensoren zur Erfassung hochauflösender Messungen der Luftqualität in städtischen Umgebungen und zur Information über die Mobilitätspolitik KW - air pollution KW - urban KW - low-cost sensor KW - transdisciplinary KW - sustainability KW - mobility KW - policy KW - Luftverschmutzung KW - Mobilität KW - Politik KW - Nachhaltigkeit KW - Transdisziplinarität KW - Städte Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-601053 ER - TY - THES A1 - Schäfer, Marjänn Helena T1 - Untersuchungen zur Evolution der 15-Lipoxygenase (ALOX15) bei Säugetieren und funktionelle Charakterisierung von Knock-in-Mäusen mit humanisierter Reaktionsspezifität der 15-Lipoxygenase-2 (Alox15b) T1 - Studies on the evolution of 15-lipoxygenase (ALOX15) in mammals and functional characterization of Knock-in mice with humanized reaction specificity of 15-lipoxygenase-2 (Alox15b) N2 - Arachidonsäurelipoxygenasen (ALOX-Isoformen) sind Lipid-peroxidierenden Enzyme, die bei der Zelldifferenzierung und bei der Pathogenese verschiedener Erkrankungen bedeutsam sind. Im menschlichen Genom gibt es sechs funktionelle ALOX-Gene, die als Einzelkopiegene vorliegen. Für jedes humane ALOX-Gen gibt es ein orthologes Mausgen. Obwohl sich die sechs humanen ALOX-Isoformen strukturell sehr ähnlich sind, unterscheiden sich ihre funktionellen Eigenschaften deutlich voneinander. In der vorliegenden Arbeit wurden vier unterschiedliche Fragestellungen zum Vorkommen, zur biologischen Rolle und zur Evolutionsabhängigkeit der enzymatischen Eigenschaften von Säugetier-ALOX-Isoformen untersucht: 1) Spitzhörnchen (Tupaiidae) sind evolutionär näher mit dem Menschen verwandt als Nagetiere und wurden deshalb als Alternativmodelle für die Untersuchung menschlicher Erkrankungen vorgeschlagen. In dieser Arbeit wurde erstmals der Arachidonsäurestoffwechsel von Spitzhörnchen untersucht. Dabei wurde festgestellt, dass im Genom von Tupaia belangeri vier unterschiedliche ALOX15-Gene vorkommen und die Enzyme sich hinsichtlich ihrer katalytischen Eigenschaften ähneln. Diese genomische Vielfalt, die weder beim Menschen noch bei Mäusen vorhanden ist, erschwert die funktionellen Untersuchungen zur biologischen Rolle des ALOX15-Weges. Damit scheint Tupaia belangeri kein geeigneteres Tiermodel für die Untersuchung des ALOX15-Weges des Menschen zu sein. 2) Entsprechend der Evolutionshypothese können Säugetier-ALOX15-Orthologe in Arachidonsäure-12-lipoxygenierende- und Arachidonsäure-15-lipoxygenierende Enzyme eingeteilt werden. Dabei exprimieren Säugetierspezies, die einen höheren Evolutionsgrad als Gibbons aufweisen, Arachidonsäure-15-lipoxygenierende ALOX15-Orthologe, während evolutionär weniger weit entwickelte Säugetiere Arachidonsäure-12 lipoxygenierende Enzyme besitzen. In dieser Arbeit wurden elf neue ALOX15-Orthologe als rekombinante Proteine exprimiert und funktionell charakterisiert. Die erhaltenen Ergebnisse fügen sich widerspruchsfrei in die Evolutionshypothese ein und verbreitern deren experimentelle Basis. Die experimentellen Daten bestätigen auch das Triadenkonzept. 3) Da humane und murine ALOX15B-Orthologe unterschiedliche funktionelle Eigenschaften aufweisen, können Ergebnisse aus murinen Krankheitsmodellen zur biologischen Rolle der ALOX15B nicht direkt auf den Menschen übertragen werden. Um die ALOX15B-Orthologen von Maus und Mensch funktionell einander anzugleichen, wurden im Rahmen der vorliegenden Arbeit Knock-in Mäuse durch die In vivo Mutagenese mittels CRISPR/Cas9-Technik hergestellt. Diese exprimieren eine humanisierte Mutante (Doppelmutation von Tyrosin603Asparaginsäure+Histidin604Valin) der murinen Alox15b. Diese Mäuse waren lebens- und fortpflanzungsfähig, zeigten aber geschlechtsspezifische Unterschiede zu ausgekreuzten Wildtyp-Kontrolltieren im Rahmen ihre Individualentwicklung. 4) In vorhergehenden Untersuchungen zur Rolle der ALOX15B in Rahmen der Entzündungsreaktion wurde eine antiinflammatorische Wirkung des Enzyms postuliert. In der vorliegenden Arbeit wurde untersucht, ob eine Humanisierung der murinen Alox15b die Entzündungsreaktion in zwei verschiedenen murinen Entzündungsmodellen beeinflusst. Eine Humanisierung der murinen Alox15b führte zu einer verstärkten Ausbildung von Entzündungssymptomen im induzierten Dextran-Natrium-Sulfat-Kolitismodell. Im Gegensatz dazu bewirkte die Humanisierung der Alox15b eine Abschwächung der Entzündungssymptome im Freund‘schen Adjuvans Pfotenödemmodell. Diese Daten deuten darauf hin, dass sich die Rolle der ALOX15B in verschiedenen Entzündungsmodellen unterscheidet. N2 - Arachidonic acid lipoxygenases (ALOX-isoforms) are lipid peroxidizing enzymes that have been implicated in cell differentiation and in the pathogenesis of different diseases. In the human genome six different ALOX genes have been identified and all of them occur as single copy genes. For each human ALOX gene an ortholog exists in the mouse genome. Although human and mouse ALOX orthologs share a high degree of structural similarity ALOX15 and ALOX15B orthologs exhibit distinct functional characteristics. In the present study addressed four different questions on the occurrence, the biological role and enzyme evolution of mammalian ALOX15 and ALOX15B orthologs. 1) Tupaiidae are more closely related to humans than rodents and therefore these mammals have frequently been suggested as better animal models than mice for investigations into patho-physiological basis of human diseases. This work explored for the first time the arachidonic acid metabolism of a Tupaiidae representative (Tupaia belangeri) and found that this mammal carries four distinct ALOX15 genes in its genome. The enzymes encoded by these four genes share a high degree of functional similarity but the observed genomic multiplicity, which is neither present in mice nor in humans, makes studies into the biological role of ALOX15 orthologs more complex. Thus, Tupaia belangeri is not more suitable than mice for investigations into the biological role of mammalian ALOX15 orthologs since loss-of-function studies on one ALOX15 ortholog may easily be compensated by upregulation of an orthologous gene. 2) According to the Evolutionary Hypothesis mammalian ALOX15 orthologs can be subdivided into arachidonic acid 12-lipoxygenating and arachidonic acid 15-lipoxygenating enzymes. Mammalian species, which are ranked above gibbons express arachidonic acid 15 lipoxygenating ALOX15 orthologs. In contrast mammals ranked below gibbons express arachidonic acid 12-lipoxygenating enzymes. In this study the ALOX15 orthologs of eleven different mammals expressed as recombinant proteins and characterized their functional properties. The results of these experiments were consistent with the Evolutionary Hypothesis and put this theory on a broader experimental basis. Moreover, the obtained in vitro mutagenesis data indicate that the novel enzymes follow Triad Concept. 3) Since human and mouse ALOX15B orthologs exhibit different functional properties, conclusion drawn in mouse models of human diseases may be misleading. To make human and mouse ALOX15B orthologs more like each other were generated Alox15b knock-in mice, which express the humanized Tyr603Asp+His604Val double mutant of mouse Alox15b instead of the endogenous wildtype enzyme employing the CRISPR/Cas9 in vivo mutagenesis strategy. These Alox15b-KI mice are viable, reproduce normally but exhibit gender-specific differences to outbred wildtype control animals when the bodyweight kinetics during adolescence and early adulthood were followed. 4) In previous studies an anti-inflammatory role of ALOX15B in the pathogenesis of inflammation has been suggested. Here we explored whether functional humanization of mouse Alox15b impacts the severity of inflammatory symptoms in two mouse inflammation models. In the dextran-sodium sulfate colitis model humanization of mouse Alox15b induced more severe inflammatory symptoms. In contrast, humanization of this enzyme protected mice in the Freund’s complete adjuvants induced paw edema model. Taken together, these data suggest that the patho-physiological roles of Alox15b may vary depending on the type of the animal inflammation model used. KW - Lipoxygenase KW - ALOX15B KW - Knock in Mäuse KW - enzymatische Reaktionsspezifität KW - Tupaia belangeri KW - DSS-Colitis KW - Pfotenödem Mausmodell KW - mammalian ALOX15 orthologs Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620340 ER - TY - THES A1 - Trautmann, Tina T1 - Understanding global water storage variations using model-data integration T1 - Verständnis der Variabilität globaler Wasserspeicher mittels Modell-Daten Integration N2 - Climate change is one of the greatest challenges to humanity in this century, and most noticeable consequences are expected to be impacts on the water cycle – in particular the distribution and availability of water, which is fundamental for all life on Earth. In this context, it is essential to better understand where and when water is available and what processes influence variations in water storages. While estimates of the overall terrestrial water storage (TWS) variations are available from the GRACE satellites, these represent the vertically integrated signal over all water stored in ice, snow, soil moisture, groundwater and surface water bodies. Therefore, complementary observational data and hydrological models are still required to determine the partitioning of the measured signal among different water storages and to understand the underlying processes. However, the application of large-scale observational data is limited by their specific uncertainties and the incapacity to measure certain water fluxes and storages. Hydrological models, on the other hand, vary widely in their structure and process-representation, and rarely incorporate additional observational data to minimize uncertainties that arise from their simplified representation of the complex hydrologic cycle. In this context, this thesis aims to contribute to improving the understanding of global water storage variability by combining simple hydrological models with a variety of complementary Earth observation-based data. To this end, a model-data integration approach is developed, in which the parameters of a parsimonious hydrological model are calibrated against several observational constraints, inducing GRACE TWS, simultaneously, while taking into account each data’s specific strengths and uncertainties. This approach is used to investigate 3 specific aspects that are relevant for modelling and understanding the composition of large-scale TWS variations. The first study focusses on Northern latitudes, where snow and cold-region processes define the hydrological cycle. While the study confirms previous findings that seasonal dynamics of TWS are dominated by the cyclic accumulation and melt of snow, it reveals that inter-annual TWS variations on the contrary, are determined by variations in liquid water storages. Additionally, it is found to be important to consider the impact of compensatory effects of spatially heterogeneous hydrological variables when aggregating the contribution of different storage components over large areas. Hence, the determinants of TWS variations are scale-dependent and underlying driving mechanism cannot be simply transferred between spatial and temporal scales. These findings are supported by the second study for the global land areas beyond the Northern latitudes as well. This second study further identifies the considerable impact of how vegetation is represented in hydrological models on the partitioning of TWS variations. Using spatio-temporal varying fields of Earth observation-based data to parameterize vegetation activity not only significantly improves model performance, but also reduces parameter equifinality and process uncertainties. Moreover, the representation of vegetation drastically changes the contribution of different water storages to overall TWS variability, emphasizing the key role of vegetation for water allocation, especially between sub-surface and delayed water storages. However, the study also identifies parameter equifinality regarding the decay of sub-surface and delayed water storages by either evapotranspiration or runoff, and thus emphasizes the need for further constraints hereof. The third study focuses on the role of river water storage, in particular whether it is necessary to include computationally expensive river routing for model calibration and validation against the integrated GRACE TWS. The results suggest that river routing is not required for model calibration in such a global model-data integration approach, due to the larger influence other observational constraints, and the determinability of certain model parameters and associated processes are identified as issues of greater relevance. In contrast to model calibration, considering river water storage derived from routing schemes can already significantly improve modelled TWS compared to GRACE observations, and thus should be considered for model evaluation against GRACE data. Beyond these specific findings that contribute to improved understanding and modelling of large-scale TWS variations, this thesis demonstrates the potential of combining simple modeling approaches with diverse Earth observational data to improve model simulations, overcome inconsistencies of different observational data sets, and identify areas that require further research. These findings encourage future efforts to take advantage of the increasing number of diverse global observational data. N2 - Der Klimawandel stellt mit Abstand eine der größten Herausforderungen für die Menschheit in diesem Jahrhundert da, und die spürbarsten Folgen werden voraussichtlich die Auswirkungen auf den Wasserkreislauf sein - insbesondere auf die Verteilung und Verfügbarkeit von Wasser, welches Grundlage allen Lebens dieser Erde ist. In diesem Zusammenhang ist es von entscheidender Bedeutung, besser zu verstehen, wo und wann Wasser verfügbar ist und welche Prozesse natürliche Schwankungen der Wasserspeicher beeinflussen. Obwohl Schätzungen der Gesamtschwankungen der terrestrischen Wasserspeicher (TWS) basierend auf Daten der GRACE-Satelliten vorliegen, stellen diese nur das vertikal integrierte Signal über alles in Eis, Schnee, Bodenfeuchtigkeit, Grundwasser und Oberflächengewässern gespeicherte Wasser dar. Daher sind ergänzende Beobachtungsdaten und hydrologische Modelle notwendig, um die Aufteilung des gemessenen Signals auf verschiedenen Wasserspeicher zu bestimmen und die zugrunde liegenden Prozesse zu verstehen. Die Verwendung von großmaßstäblichen Beobachtungsdaten ist jedoch durch ihre spezifischen Unsicherheiten und die Unfähigkeit, bestimmte Wasserflüsse und -speicher zu messen, eingeschränkt. Hydrologische Modelle hingegen unterscheiden sich stark in ihrer Struktur und Prozessdarstellung und beziehen nur selten zusätzliche Beobachtungsdaten ein, um Unsicherheiten zu minimieren, die sich aus ihrer vereinfachten Darstellung des komplexen Wasserkreislaufs ergeben. In diesem Zusammenhang gibt diese Arbeit einen Beitrag zum besseren Verständnis der Schwankungen globaler Wasserspeicher, indem einfache hydrologische Modelle mit einer Vielzahl sich ergänzender Erdbeobachtungsdaten kombiniert werden. Dafür wird ein Ansatz zur Integration von Modellen und Daten entwickelt, bei dem die Parameter eines einfachen hydrologischen Modells gleichzeitig gegen mehrere Beobachtungsdaten, inklusive GRACE TWS, kalibriert werden, wobei deren spezifischen Stärken und Unsicherheiten berücksichtigt werden. Dieser Ansatz wird genutzt, um drei spezifische Aspekte, die für die Modellierung und das Verständnis der Zusammensetzung großskaliger TWS-Schwankungen relevant sind, zu untersuchen. Die erste Studie konzentriert sich auf die nördlichen Breiten, wo Schnee und Prozesse kalter Regionen den hydrologischen Kreislauf bestimmen. Während die Studie frühere Erkenntnisse darin bestätigt, dass die saisonale Dynamik des TWS von der zyklischen Akkumulation und Schmelze von Schnee dominiert wird, zeigt sie, dass die zwischenjährlichen TWS-Schwankungen im Gegenteil durch Variationen der Flüssigwasserspeicher bestimmt werden. Darüber hinaus wird festgestellt, dass es wichtig ist, die Auswirkungen kompensatorischer Effekte räumlich heterogener hydrologischer Variablen zu berücksichtigen, wenn der Beitrag verschiedener Speicherkomponenten über große Gebiete aggregiert wird. Die Determinanten der TWS-Schwankungen sind skalenabhängig, und die zugrunde liegenden Antriebsmechanismen lassen sich nicht einfach zwischen räumlichen und zeitlichen Skalen übertragen. Diese Ergebnisse werden durch die zweite Studie auch auf globaler Skale bestätigt. Diese zweite Studie zeigt außerdem, dass die Art und Weise, wie Vegetation in hydrologischen Modellen dargestellt wird, einen erheblichen Einfluss auf die Aufteilung der TWS-Variationen hat. Die Verwendung von raum-zeitlich variierenden Erdbeobachtungsdaten zur Parametrisierung der Vegetationsaktivität verbessert nicht nur die Modellleistung erheblich, sondern verringert auch die Parameterequifinalität und somit die Prozessunsicherheiten. Darüber hinaus beeinflusst die Repräsentation der Vegetation drastisch den Einfluss verschiedener Wasserspeicher zur Gesamtvariabilität des TWS und unterstreicht damit die Schlüsselrolle der Vegetation für die Wasserverteilung, insbesondere zwischen unterirdischen und verzögerten Wasserspeichern. Die Studie zeigt jedoch auch, dass die Parameter für den Verringerung der unterirdischen und verzögerten Wasserspeichern, entweder via Evapotranspiration oder via Abfluss, äquivalent sind, und unterstreicht damit die Notwendigkeit weiterer Eingrenzung durch Beobachtungsdaten. Die dritte Studie befasst sich mit der Rolle der Wasserspeicherung in Flüssen, insbesondere mit der Frage, ob es notwendig ist, das rechenintensive Abfluss-Routing für die Kalibrierung und Validierung des Modells gegen GRACE TWS Daten zu berücksichtigen. Die Ergebnisse deuten darauf hin, dass das Abfluss-Routing für die Modellkalibrierung in einem solchen globalen Modell-Daten-Integrationsansatz nicht erforderlich ist, da andere Beobachtungsdaten einen größeren Einfluss haben und die Definierbarkeit bestimmter Modellparameter und damit zusammenhängender Prozesse relevantere Probleme darstellen. Im Gegensatz zur Modellkalibrierung kann die Berücksichtigung von Flusswasserspeichern jedoch den modellierten TWS im Vergleich zu GRACE-Beobachtungen bereits erheblich verbessern und sollte daher bei der Modellevaluierung gegen GRACE-Daten berücksichtigt werden. Über diese spezifischen Ergebnisse hinaus, die zum besseren Verständnis und Modellierung großskaliger TWS-Variationen beitragen, zeigt diese Arbeit das Potenzial der Kombination einfacher Modellierungsansätze mit verschiedenen Erdbeobachtungsdaten zur Verbesserung von Modellsimulationen, zur Überwindung von Inkonsistenzen zwischen verschiedenen Beobachtungsdatensätzen und zur Identifizierung von Themen, die weitere Forschung erfordern. Diese Ergebnisse ermutigen künftige Forschungen, die zunehmende Zahl unterschiedlicher globaler Beobachtungsdaten zu nutzen. KW - global hydrological modeling KW - model-data integration KW - terrestrial water storage variation KW - model calibration KW - globale hydrologische Modellierung KW - Modellkalibrierung KW - Model-Daten Integration KW - Variationen terrestrischer Wasserspeicher Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-565954 ER - TY - THES A1 - Canil, Laura T1 - Tuning Interfacial Properties in Perovskite Solar Cells through Defined Molecular Assemblies T1 - Anpassung von Grenzflächeneigenschaften von Perowskit-Solarzellen durch den Einsatz von molekularen Schichten N2 - In the frame of a world fighting a dramatic global warming caused by human-related activities, research towards the development of renewable energies plays a crucial role. Solar energy is one of the most important clean energy sources and its role in the satisfaction of the global energy demand is set to increase. In this context, a particular class of materials captured the attention of the scientific community for its attractive properties: halide perovskites. Devices with perovskite as light-absorber saw an impressive development within the last decade, reaching nowadays efficiencies comparable to mature photovoltaic technologies like silicon solar cells. Yet, there are still several roadblocks to overcome before a wide-spread commercialization of this kind of devices is enabled. One of the critical points lies at the interfaces: perovskite solar cells (PSCs) are made of several layers with different chemical and physical features. In order for the device to function properly, these properties have to be well-matched. This dissertation deals with some of the challenges related to interfaces in PSCs, with a focus on the interface between the perovskite material itself and the subsequent charge transport layer. In particular, molecular assemblies with specific properties are deposited on the perovskite surface to functionalize it. The functionalization results in energy level alignment adjustment, interfacial losses reduction, and stability improvement. First, a strategy to tune the perovskite’s energy levels is introduced: self-assembled monolayers of dipolar molecules are used to functionalize the surface, obtaining simultaneously a shift in the vacuum level position and a saturation of the dangling bonds at the surface. A shift in the vacuum level corresponds to an equal change in work function, ionization energy, and electron affinity. The direction of the shift depends on the direction of the collective interfacial dipole. The magnitude of the shift can be tailored by controlling the deposition parameters, such as the concentration of the solution used for the deposition. The shift for different molecules is characterized by several non-invasive techniques, including in particular Kelvin probe. Overall, it is shown that it is possible to shift the perovskite energy levels in both directions by several hundreds of meV. Moreover, interesting insights on the molecules deposition dynamics are revealed. Secondly, the application of this strategy in perovskite solar cells is explored. Devices with different perovskite compositions (“triple cation perovskite” and MAPbBr3) are prepared. The two resulting model systems present different energetic offsets at the perovskite/hole-transport layer interface. Upon tailored perovskite surface functionalization, the devices show a stabilized open circuit voltage (Voc) enhancement of approximately 60 meV on average for devices with MAPbBr3, while the impact is limited on triple-cation solar cells. This suggests that the proposed energy level tuning method is valid, but its effectiveness depends on factors such as the significance of the energetic offset compared to the other losses in the devices. Finally, the above presented method is further developed by incorporating the ability to interact with the perovskite surface directly into a novel hole-transport material (HTM), named PFI. The HTM can anchor to the perovskite halide ions via halogen bonding (XB). Its behaviour is compared to that of another HTM (PF) with same chemical structure and properties, except for the ability of forming XB. The interaction of perovskite with PFI and PF is characterized through UV-Vis, atomic force microscopy and Kelvin probe measurements combined with simulations. Compared to PF, PFI exhibits enhanced resilience against solvent exposure and improved energy level alignment with the perovskite layer. As a consequence, devices comprising PFI show enhanced Voc and operational stability during maximum-power-point tracking, in addition to hysteresis reduction. XB promotes the formation of a high-quality interface by anchoring to the halide ions and forming a stable and ordered interfacial layer, showing to be a particularly interesting candidate for the development of tailored charge transport materials in PSCs. Overall, the results exposed in this dissertation introduce and discuss a versatile tool to functionalize the perovskite surface and tune its energy levels. The application of this method in devices is explored and insights on its challenges and advantages are given. Within this frame, the results shed light on XB as ideal interaction for enhancing stability and efficiency in perovskite-based devices. N2 - Im Kampf gegen den menschengemachten Klimawandel spielt die Forschung und Entwicklung von erneuerbaren Energien eine tragende Rolle. Solarenergie ist eine der wichtigsten grünen Energiequellen und von steigender Bedeutung für die Deckung des globalen Energiebedarfs. In diesem Kontext hat eine bestimme Materialklasse aufgrund ihrer attraktiven Eigenschaften die Aufmerksamkeit der Wissenschaft erregt: Halogenid-Perowskit. Perowskit-Solarzellen haben im letzten Jahrzehnt eine beeindruckende Entwicklung durchgemacht und erreichen heutzutage Effizienzen, die mit weit entwickelten Photovoltaik-Technologien wie Silizium-Solarzellen vergleichbar sind. Jedoch existieren immer noch mehrere Hürden, die einer marktweiten Kommerzialisierung dieser jungen Technologie im Wege stehen. Eines der kritischen Probleme befindet sich an den Grenzflächen. Perowskit-Solarzellen bestehen aus mehreren Schichten mit unterschiedlichen chemischen und physikalischen Eigenschaften. Damit die Solarzelle bestmöglich funktioniert, müssen diese Eigenschaften aufeinander abgestimmt sein. Diese Dissertation beschäftigt sich mit einigen Herausforderungen im Zusammenhang mit Grenzflächen in Perowskit-Solarzellen, dabei liegt der Fokus auf der Grenzfläche zwischen Perowskit-Absorber und der angrenzenden Ladungstransportschicht. Insbesondere werden organische Moleküle mit spezifischen Eigenschaften verwendet um die Oberfläche des Perowskiten zu funktionalisieren. Dadurch wird eine Bandanpassung erreicht, Grenzflächenverluste reduziert und die Stabilität der Solarzellen erhöht. Zunächst wird eine Strategie zum Anpassen der Bandenergien vorgestellt: Selbst-organisierende Monoschichten dipolarer Moleküle werden auf die Perowskit-Oberfläche abgeschieden, um diese zu funktionalisieren. Dadurch wird eine Anpassung des Energie-Levels im Perowskiten und die Sättigung von ungebundenen Elektronenbindungen (engl. dangling bonds) an der Oberfläche erreicht. Die Richtung der Energielevel-Verschiebung hängt von der Richtung des kollektiven Grenzflächen-Dipols ab. Der Betrag der Energielevel-Verschiebung kann über die Depositionsparameter während der Schichtherstellung eingestellt werden. Die Energielevel-Verschiebung bei der Verwendung verschiedener Moleküle wird mit Hilfe verschiedener non-invasiver Charakterisierungsmethoden untersucht, insbesondere mit der Hilfe von Kelvin-Sonde Messungen. Diese Messungen ermöglichen interessante Erkenntnisse über die Dynamik der Deposition der Moleküle. Es ist möglich die Energielevel in beide Richtungen um mehrere hundert meV zu verschieben. Als Zweites wird die Anwendung dieser Stategie in Perowskit-Solarzellen erforscht. Solarzellen mit Perowskit-Absorbern unterschiedlicher Zusammensetzung (“Dreifach-Kationen-Perowskit” und MAPbBr3) werden präpariert; die beiden Modellsysteme besitzen dann unterschiedliche energetische Offsets an der Perowskit-Lochleiter Grenzfläche. Mit einer maßgeschneiderter Funktionalisierung der Perowskit-Oberfläche zeigen die MAPbBr3 Solarzellen eine permanente Verbesserung der offene-Klemmen-Spannung (engl. open circuit voltage, Voc) um durchschnittlich 60 meV, während der Einfluss auf die Solarzellen mit Dreifach-Kationen-Perowskit gering ist. Dies zeigt, dass die vorgestellte Methode zur Bandanpassung funktioniert, aber ihre Effektivität zudem von weiteren Faktoren abhängt: Die Relevanz des energetischen Offsets im Vergleich zu anderen Verlustmechanismen beeinflusst unter anderem die Effektivität der Funktionalisierung. Abschließend wird beschrieben, wie die präsentierte Methode zur Bandanpassung weiterentwickelt wird, indem das Vermögen, mit der Perowskit-Oberfläche zu interagieren, direkt in einen neuartigen Lochleiter („PFI“) integriert wird. Der Lochleiter kann sich über Halogenbindungen an den Perowskiten anlagern. Das Verhalten von PFI wird verglichen mit dem eines anderen Lochleiters („PF“), welcher die fast gleiche chemische Struktur und sehr ähnliche Eigenschaften aufweist, ausgenommen der Fähigkeit eine Halogenbindung zu formen. Die PFI-Perowskit und PF-Perowskit Interaktion wird durch UV-Vis Spektroskopie, Rasterkraftmikroskopie und Kelvin-Sonde Messungen, kombiniert mit Simulationen, charakterisiert. Beim direkten Vergleich von PFI und PF zeigt sich die Bildung der Halogenbindung in einer bei PFI verbesserten Widerstandskraft gegen Lösungsmittel und Bandanpassung zum Perowskiten. Beim Folgerichtig zeigen Solarzellen mit PFI zusätzlich zu einer verringerten Hysterese einen höheren Voc und eine erhöhte Stabilität während des Betriebs unter Maximum-Power-Point Tracking Zusammenfassend stellt diese Dissertation somit ein vielseitiges Werkzeug zur Funktionalisierung von Perowskit-Oberflächen und der dadurch erreichten Bandanpassung vor. Die Anwendung dieses Werkzeugs an Solarzellen wird erprobt und Einsichten in seine Vorteile und Nachteile erlangt. Die Halogenbindung wird als spezifische Interaktion identifiziert, die sich ideal zur Steigerung von Effizienz und Stabilität von Perowskit-basierten optoelektronischen Bauteilen erweisen könnte. KW - photovoltaic KW - perovskite solar cells KW - interfaces KW - energy levels KW - halogen bonding KW - Grenzflächen KW - Perowskit Solarzellen KW - Photovoltaik KW - Bandenenergien KW - Halogenbindung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546333 ER - TY - THES A1 - Behm, Laura Vera Johanna T1 - Thermoresponsive Zellkultursubstrate für zeitlich-räumlich gesteuertes Auswachsen neuronaler Zellen T1 - Thermoresponsive cell culture substrates for spatio-temporal controlled outgrowth of neuronal cells N2 - Ein wichtiges Ziel der Neurowissenschaften ist das Verständnis der komplexen und zugleich faszinierenden, hochgeordneten Vernetzung der Neurone im Gehirn, welche neuronalen Prozessen, wie zum Beispiel dem Wahrnehmen oder Lernen wie auch Neuropathologien zu Grunde liegt. Für verbesserte neuronale Zellkulturmodelle zur detaillierten Untersuchung dieser Prozesse ist daher die Rekonstruktion von geordneten neuronalen Verbindungen dringend erforderlich. Mit Oberflächenstrukturen aus zellattraktiven und zellabweisenden Beschichtungen können neuronale Zellen und ihre Neuriten in vitro strukturiert werden. Zur Kontrolle der neuronalen Verbindungsrichtung muss das Auswachsen der Axone zu benachbarten Zellen dynamisch gesteuert werden, zum Beispiel über eine veränderliche Zugänglichkeit der Oberfläche. In dieser Arbeit wurde untersucht, ob mit thermoresponsiven Polymeren (TRP) beschichtete Zellkultursubstrate für eine dynamische Kontrolle des Auswachsens neuronaler Zellen geeignet sind. TRP können über die Temperatur von einem zellabweisenden in einen zellattraktiven Zustand geschaltet werden, womit die Zugänglichkeit der Oberfläche für Zellen dynamisch gesteuert werden kann. Die TRP-Beschichtung wurde mikrostrukturiert, um einzelne oder wenige neuronale Zellen zunächst auf der Oberfläche anzuordnen und das Auswachsen der Zellen und Neuriten über definierte TRP-Bereiche in Abhängigkeit der Temperatur zeitlich und räumlich zu kontrollieren. Das Protokoll wurde mit der neuronalen Zelllinie SH-SY5Y etabliert und auf humane induzierte Neurone übertragen. Die Anordnung der Zellen konnte bei Kultivierung im zellabweisenden Zustand des TRPs für bis zu 7 Tage aufrecht erhalten werden. Durch Schalten des TRPs in den zellattraktiven Zustand konnte das Auswachsen der Neuriten und Zellen zeitlich und räumlich induziert werden. Immunozytochemische Färbungen und Patch-Clamp-Ableitungen der Neurone demonstrierten die einfache Anwendbarkeit und Zellkompatibilität der TRP-Substrate. Eine präzisere räumliche Kontrolle des Auswachsens der Zellen sollte durch lokales Schalten der TRP-Beschichtung erreicht werden. Dafür wurden Mikroheizchips mit Mikroelektroden zur lokalen Jouleschen Erwärmung der Substratoberfläche entwickelt. Zur Evaluierung der generierten Temperaturprofile wurde eine Temperaturmessmethode entwickelt und die erhobenen Messwerte mit numerisch simulierten Werten abgeglichen. Die Temperaturmessmethode basiert auf einfach zu applizierenden Sol-Gel-Schichten, die den temperatursensitiven Fluoreszenzfarbstoff Rhodamin B enthalten. Sie ermöglicht oberflächennahe Temperaturmessungen in trockener und wässriger Umgebung mit hoher Orts- und Temperaturauflösung. Numerische Simulationen der Temperaturprofile korrelierten gut mit den experimentellen Daten. Auf dieser Basis konnten Geometrie und Material der Mikroelektroden hinsichtlich einer lokal stark begrenzten Temperierung optimiert werden. Ferner wurden für die Kultvierung der Zellen auf den Mikroheizchips eine Zellkulturkammer und Kontaktboard für die elektrische Kontaktierung der Mikroelektroden geschaffen. Die vorgestellten Ergebnisse demonstrieren erstmalig das enorme Potential thermoresponsiver Zellkultursubstrate für die zeitlich und räumlich gesteuerte Formation geordneter neuronaler Verbindungen in vitro. Zukünftig könnte dies detaillierte Studien zur neuronalen Informationsverarbeitung oder zu Neuropathologien an relevanten, humanen Zellmodellen ermöglichen. N2 - An important goal of neurosciences is to understand the fascinating, complex and highly ordered neuronal circuits of the brain that are underlying important neuronal processes such as learning and memory, as well as neuropathologies. For detailed studies of these processes improved neuronal cell culture models that allow a reconstruction of ordered neuronal connections are crucial. Neuronal cells can be patterned in vitro with structured surface coatings of cell repellent and cell attractive substances. For controlling also the direction of neuronal cell connections the outgrowth of the axons towards neighbouring cells needs to be dynamically controlled, which can be achieved for example by surface structures that can be changed due to switchable surface properties. The main goal of this work was to explore if cell culture substrates with coatings of thermoresponsive polymer (TRP) are suitable for dynamically controlling the outgrowth of neuronal cells. TRPs can be switched via temperature between a cell repellent and a cell attractive state, which enables a dynamic change of surface properties. The TRP coating was microstructured in order to pattern neuronal cells and to spatio-temporally control the outgrowth of cells and neurites across defined TRP-coated areas in dependence of the temperature. The protocol was established with the neuronal cell line SH-SY5Y and transferred to human induced neuronal cells. The cell patterns could be maintained for up to 7 days of cultivation when the TRP was kept in the cell repellent state. By switching the TRP to the cell attractive state the outgrowth of neurites and cells was induced at defined time points and areas. Immunocytochemical staining and patch-clamp recordings of the neurons demonstrated the cell compatibility and easy applicability of these TRP-substrates. A more precise spatial control of the outgrowth of cells should be further achieved by local switching of the TRP-coating. Therefore, microheaters comprising microelectrodes were developed for locally heating the substrate surface. For evaluation of the generated temperature profiles a thermometry method was developed and the values obtained were correlated with numerically simulated data. The thermometry method is based on easily applicable sol-gel-films containing the temperature-sensitive fluorophore Rhodamine B. It allows temperature measurements close to the surface under both dry and liquid conditions with high resolution regarding space (lower µm-range) and temperature (≤ 1°C). Numerical simulations of the temperature profiles correlated well with experimental data. On this basis geometry and material of the microelectrodes were optimized with regard to locally restricted temperature changes. Furthermore, a chip environment for cultivating the cells on the microheater chips was developed comprising a cell culture chamber and a contact board for electrically contacting the microelectrodes. The results presented in this work demonstrate for the first time the great potential of thermoresponsive cell culture substrates for a spatio-temporally controlled formation of neuronal connections in vitro. In future this could facilitate detailed studies of information processing in neuronal networks or of neuropathologies using relevant human neuronal cell models. KW - neuronale Netzwerke KW - Mikrostrukturierung KW - Neuritenwachstum KW - thermoresponsive Polymere KW - Lab-on-a-chip KW - Rhodamin B KW - Thermometrie KW - Mikroheizung KW - Oberflächentemperatur KW - Sol-Gel KW - Zelladhäsionskontrolle KW - neuronal networks KW - microstructures KW - neurite outgrowth KW - thermoresponsive polymers KW - lab-on-a-chip KW - Rhodamine B KW - thermometry KW - microheating KW - surface temperature KW - sol-gel KW - cell adhesion control Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436196 ER - TY - THES A1 - Rodriguez Piceda, Constanza T1 - Thermomechanical state of the southern Central Andes T1 - Thermomechanischer Zustand der südlichen Zentral Anden BT - implications for active deformation patterns in the transition from flat to steep subduction BT - Implikationen für aktive Deformationsmuster beim Übergang von flacher zu steiler Subduktion N2 - The Andes are a ~7000 km long N-S trending mountain range developed along the South American western continental margin. Driven by the subduction of the oceanic Nazca plate beneath the continental South American plate, the formation of the northern and central parts of the orogen is a type case for a non-collisional orogeny. In the southern Central Andes (SCA, 29°S-39°S), the oceanic plate changes the subduction angle between 33°S and 35°S from almost horizontal (< 5° dip) in the north to a steeper angle (~30° dip) in the south. This sector of the Andes also displays remarkable along- and across- strike variations of the tectonic deformation patterns. These include a systematic decrease of topographic elevation, of crustal shortening and foreland and orogenic width, as well as an alternation of the foreland deformation style between thick-skinned and thin-skinned recorded along- and across the strike of the subduction zone. Moreover, the SCA are a very seismically active region. The continental plate is characterized by a relatively shallow seismicity (< 30 km depth) which is mainly focussed at the transition from the orogen to the lowland areas of the foreland and the forearc; in contrast, deeper seismicity occurs below the interiors of the northern foreland. Additionally, frequent seismicity is also recorded in the shallow parts of the oceanic plate and in a sector of the flat slab segment between 31°S and 33°S. The observed spatial heterogeneity in tectonic and seismic deformation in the SCA has been attributed to multiple causes, including variations in sediment thickness, the presence of inherited structures and changes in the subduction angle of the oceanic slab. However, there is no study that inquired the relationship between the long-term rheological configuration of the SCA and the spatial deformation patterns. Moreover, the effects of the density and thickness configuration of the continental plate and of variations in the slab dip angle in the rheological state of the lithosphere have been not thoroughly investigated yet. Since rheology depends on composition, pressure and temperature, a detailed characterization of the compositional, structural and thermal fields of the lithosphere is needed. Therefore, by using multiple geophysical approaches and data sources, I constructed the following 3D models of the SCA lithosphere: (i) a seismically-constrained structural and density model that was tested against the gravity field; (ii) a thermal model integrating the conversion of mantle shear-wave velocities to temperature with steady-state conductive calculations in the uppermost lithosphere (< 50 km depth), validated by temperature and heat-flow measurements; and (iii) a rheological model of the long-term lithospheric strength using as input the previously-generated models. The results of this dissertation indicate that the present-day thermal and rheological fields of the SCA are controlled by different mechanisms at different depths. At shallow depths (< 50 km), the thermomechanical field is modulated by the heterogeneous composition of the continental lithosphere. The overprint of the oceanic slab is detectable where the oceanic plate is shallow (< 85 km depth) and the radiogenic crust is thin, resulting in overall lower temperatures and higher strength compared to regions where the slab is steep and the radiogenic crust is thick. At depths > 50 km, largest temperatures variations occur where the descending slab is detected, which implies that the deep thermal field is mainly affected by the slab dip geometry. The outcomes of this thesis suggests that long-term thermomechanical state of the lithosphere influences the spatial distribution of seismic deformation. Most of the seismicity within the continental plate occurs above the modelled transition from brittle to ductile conditions. Additionally, there is a spatial correlation between the location of these events and the transition from the mechanically strong domains of the forearc and foreland to the weak domain of the orogen. In contrast, seismicity within the oceanic plate is also detected where long-term ductile conditions are expected. I therefore analysed the possible influence of additional mechanisms triggering these earthquakes, including the compaction of sediments in the subduction interface and dehydration reactions in the slab. To that aim, I carried out a qualitative analysis of the state of hydration in the mantle using the ratio between compressional- and shear-wave velocity (vp/vs ratio) from a previous seismic tomography. The results from this analysis indicate that the majority of the seismicity spatially correlates with hydrated areas of the slab and overlying continental mantle, with the exception of the cluster within the flat slab segment. In this region, earthquakes are likely triggered by flexural processes where the slab changes from a flat to a steep subduction angle. First-order variations in the observed tectonic patterns also seem to be influenced by the thermomechanical configuration of the lithosphere. The mechanically strong domains of the forearc and foreland, due to their resistance to deformation, display smaller amounts of shortening than the relatively weak orogenic domain. In addition, the structural and thermomechanical characteristics modelled in this dissertation confirm previous analyses from geodynamic models pointing to the control of the observed heterogeneities in the orogen and foreland deformation style. These characteristics include the lithospheric and crustal thickness, the presence of weak sediments and the variations in gravitational potential energy. Specific conditions occur in the cold and strong northern foreland, which is characterized by active seismicity and thick-skinned structures, although the modelled crustal strength exceeds the typical values of externally-applied tectonic stresses. The additional mechanisms that could explain the strain localization in a region that should resist deformation are: (i) increased tectonic forces coming from the steepening of the slab and (ii) enhanced weakening along inherited structures from pre-Andean deformation events. Finally, the thermomechanical conditions of this sector of the foreland could be a key factor influencing the preservation of the flat subduction angle at these latitudes of the SCA. N2 - Die Anden sind eine ~7000 km lange N-S-verlaufende Hochgebirgskette, die entlang des westlichen südamerikanischen Kontinentalrandes entstanden ist. Aufgrund der Subduktion der ozeanischen Nazca-Platte unter die kontinentale südamerikanische Platte ist die Bildung des nördlichen und zentralen Teils des Gebirges typisch für eine nicht-kollisionale Orogenese. In den südlichen Zentralanden (SZA, 29-39° S) verändert sich der Subduktionswinkel der ozeanischen Platte zwischen 33 ° S und 35 ° S von fast horizontal (< 5° Einfallen) im Norden zu einem steileren Winkel (~ 30 ° Einfallen) im Süden. Begleitet wird dieser Trend von systematischen, Süd-gerichteten Abnahmen der topographischen Erhebung, der Krusteneinengung und der Vorland- und Orogenbreite, sowie von Variationen im Deformationsstil des Vorlandes, wo die Einengung des Deckgebirges in unterschiedlichem Maße von einer entsprechenden Deformation des Grundgebirges begleitet wird. . Darüber hinaus sind die SZA eine seismisch sehr aktive Region. Die Kontinentalplatte zeichnet sich durch eine relativ flache Seismizität (< 30 km Tiefe) aus, die sich hauptsächlich auf die Übergänge vom Orogen zu den Vorlandbereichen konzentriert; im Gegensatz dazu tritt tiefere Seismizität in den zentralen Bereichen des nördlichen Vorlandes auf. Darüber hinaus ist häufig auftretende Seismizität auch in den flachen Teilen der ozeanischen Platte und im Plattensegment mit flach einfallender Subduktion zwischen 31 ° S und 33 ° S festzustellen. Die beobachtete räumliche Heterogenität der tektonischen und seismischen Deformation in den SZA wurde auf mehrere Ursachen zurückgeführt, darunter Schwankungen der Sedimentmächtigkeit, das Vorhandensein vererbter Strukturen und Veränderungen des Subduktionswinkels der ozeanischen Platte. Es gibt jedoch bislang keine Studie, die den Zusammenhang zwischen der langfristigen rheologischen Konfiguration der SZA und den räumlichen Deformationsmustern untersucht hat. Darüber hinaus wurden die Auswirkungen der Dichte- und Mächtigkeitsvariationen in der kontinentalen Oberplatte und der verschiedenen Subduktionswinkel auf den rheologischen Zustand der Lithosphäre noch nicht grundlegend untersucht. Da die Rheologie von der Gesteinsart, dem Druck und der Temperatur abhängt, ist eine detaillierte Charakterisierung der Zusammensetzung, Struktur und des thermischen Feldes der Lithosphäre erforderlich. Daher habe ich unter Verwendung kombinierter Modellierungsansätze und geophysikalischer Daten die folgenden 3D Modelle für die Lithosphäre der SZA konstruiert: (i) ein auf seismischen Daten basierendes Struktur- und Dichtemodell, das anhand des beobachteten Schwerefeldes validiert wurde; (ii) ein thermisches Modell, das die Umwandlung von Mantelscherwellengeschwindigkeiten in Temperaturen mit Berechnungen des konduktiven Wärmetransports für stationäre Bedingungen in der obersten Lithosphäre (<50 km Tiefe) integriert und durch Temperatur- und Wärmeflussmessungen validiert wurde; und (iii) ein rheologisches Modell der langfristig bedingten Lithosphärenfestigkeit, das auf den zuvor erzeugten Modellen gründet. Die Ergebnisse dieser Dissertation zeigen, dass die thermischen und rheologischen Bedingungen in den heutigen SZA durch verschiedene Mechanismen in unterschiedlichen Tiefen gesteuert werden. In flachen Tiefen (< 50 km) wird das thermomechanische Feld durch die heterogene Zusammensetzung der kontinentalen Lithosphäre differenziert. Eine Überprägung durch die ozeanische Platte ist dort nachweisbar, wo die ozeanische Platte flach (< 85 km tief) und die radiogene Kruste dünn ist, was insgesamt zu niedrigeren Temperaturen und einer höheren Festigkeit im Vergleich zu Bereichen führt, in denen die Platte steil einfällt und die radiogene Kruste dick ist. In Tiefen > 50 km treten die größten Temperaturschwankungen dort auf, wo die subduzierten Platte nachgewiesen wurde, was bedeutet, dass das tiefe thermische Feld den Subduktionswinkel gesteuert wird. Die Ergebnisse dieser Doktorarbeit legen nahe, dass der langfristige thermomechanische Zustand der Lithosphäre die räumliche Verteilung rezenter Seismizität beeinflusst. Der größte Anteil innerhalb der Kontinentalplatte registrierter Erdbebentätigkeit tritt oberhalb des modellierten Übergangs von spröden zu duktilen Bedingungen auf. Außerdem besteht eine räumliche Korrelation zwischen Erdbebenclustern und den Übergängen von den mechanisch rigideren Vorlandbereichen (Forearc und Foreland) zum mechanisch schwächeren Orogen. Demgegenüber wird vermehrte Seismizität innerhalb der ozeanischen Platte auch dort nachgewiesen, wo entsprechend der Modellierung langfristig duktile Bedingungen erwartet werden. Ich habe daher den möglichen Einfluss zusätzlicher Mechanismen untersucht, die ein Auslösen dieser Erdbeben begünstigen könnten, darunter die Kompaktion von Sedimenten an der Subduktionsgrenzfläche und Dehydrationsreaktionen innerhalb der Platte. Dazu habe ich eine qualitative Analyse des Hydratationszustandes des Mantels unter Verwendung des Verhältnisses zwischen Kompressions- und Scherwellengeschwindigkeit (Vp/Vs-Verhältnis aus einemseismischen Tomographiemodell) durchgeführt. Die Ergebnisse dieser Analyse zeigen, dass der Großteil der Seismizität räumlich mit hydratisierten Bereichen in der subduzierten Platte und im darüber liegenden kontinentalen Mantel korreliert, mit Ausnahme eines Erdbebenclusters, das innerhalb des flachen Plattensegments auftritt. In diesem Bereich wechselt die subduzierte Platte von einem flachen in einen steilen Subduktionswinkel und Erdbeben werden wahrscheinlich durch Biegevorgänge in der Platte ausgelöst. Auch die wichtigsten Variationen in den beobachteten tektonischen Mustern scheinen durch die thermomechanische Konfiguration der Lithosphäre beeinflusst zu sein. Die mechanisch starken Bereiche von Forearc und Foreland zeigen aufgrund ihrer Verformungsbeständigkeit geringere Verkürzungsraten als der relativ schwache Bereich des Orogens. Darüber hinaus bestätigen die in dieser Dissertation modellierten strukturellen und thermomechanischen Eigenschaften der Lithosphäre auch frühere Analysen geodynamischer Simulationen, denen zufolge der Deformationsstil im Orogen- und Vorlandbereich jeweils von Variationen in der Lithosphären- und Krustendicke, im Vorhandensein schwacher Sedimente und in der gravitativen potentiellen Energie kontrolliert wird. Eine Sonderstellung nimmt der nordöstliche Vorlandbereich der SZA ein, wo eine verstärkte Seismizität und eine das Deck-und Grundgebirge erfassende Deformation zu beobachten sind, obwohl die modellierte Krustenfestigkeit dort Werte übersteigt, die für die in diesem Gebiet anzunehmenden tektonischen Spannungen typisch wären. . Mechanismen zur Lokalisierung verstärkter Deformation in einem Gebiet beitragen können, das nach den vorliegenden Modellen einer tektonischen Verformung widerstehen sollte, sind: (i) erhöhte tektonische Kräfte durch ein steileres Abtauchen der Platte und (ii) Schwächezonen in der Kruste, die auf prä-andine Deformationsereignisse zurückgehen. Schließlich könnten die thermomechanischen Bedingungen in diesem Teil des Vorlands einchlüsselfaktor für die Erhaltung des flachen Subduktionswinkels in diesen Breiten der SZA sein. KW - Andes KW - Anden KW - subduction KW - Subduktion KW - lithosphere KW - Lithosphäre KW - earthquakes KW - Erdbeben KW - modelling KW - Modellierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-549275 ER - TY - THES A1 - Paganini, Claudio Francesco T1 - The role of trapping in black hole spacetimes T1 - Über die Rolle gefangener lichtartiger Kurven in Raumzeiten mit Schwarzen Löchern N2 - In the here presented work we discuss a series of results that are all in one way or another connected to the phenomenon of trapping in black hole spacetimes. First we present a comprehensive review of the Kerr-Newman-Taub-NUT-de-Sitter family of black hole spacetimes and their most important properties. From there we go into a detailed analysis of the bahaviour of null geodesics in the exterior region of a sub-extremal Kerr spacetime. We show that most well known fundamental properties of null geodesics can be represented in one plot. In particular, one can see immediately that the ergoregion and trapping are separated in phase space. We then consider the sets of future/past trapped null geodesics in the exterior region of a sub-extremal Kerr-Newman-Taub-NUT spacetime. We show that from the point of view of any timelike observer outside of such a black hole, trapping can be understood as two smooth sets of spacelike directions on the celestial sphere of the observer. Therefore the topological structure of the trapped set on the celestial sphere of any observer is identical to that in Schwarzschild. We discuss how this is relevant to the black hole stability problem. In a further development of these observations we introduce the notion of what it means for the shadow of two observers to be degenerate. We show that, away from the axis of symmetry, no continuous degeneration exists between the shadows of observers at any point in the exterior region of any Kerr-Newman black hole spacetime of unit mass. Therefore, except possibly for discrete changes, an observer can, by measuring the black holes shadow, determine the angular momentum and the charge of the black hole under observation, as well as the observer's radial position and angle of elevation above the equatorial plane. Furthermore, his/her relative velocity compared to a standard observer can also be measured. On the other hand, the black hole shadow does not allow for a full parameter resolution in the case of a Kerr-Newman-Taub-NUT black hole, as a continuous degeneration relating specific angular momentum, electric charge, NUT charge and elevation angle exists in this case. We then use the celestial sphere to show that trapping is a generic feature of any black hole spacetime. In the last chapter we then prove a generalization of the mode stability result of Whiting (1989) for the Teukolsky equation for the case of real frequencies. The main result of the last chapter states that a separated solution of the Teukolsky equation governing massless test fields on the Kerr spacetime, which is purely outgoing at infinity, and purely ingoing at the horizon, must vanish. This has the consequence, that for real frequencies, there are linearly independent fundamental solutions of the radial Teukolsky equation which are purely ingoing at the horizon, and purely outgoing at infinity, respectively. This fact yields a representation formula for solutions of the inhomogenous Teukolsky equation, and was recently used by Shlapentokh-Rothman (2015) for the scalar wave equation. N2 - In Newtons Gravitationstheorie bewegt sich Licht auf geraden Linien durch den Raum. Entsprechend beeinflussen Massen den Verlauf von Lichtstrahlen nicht. In Einsteins Allgemeiner Relativitätstheorie führt die Präsenz von Massen dazu, dass sich die Raumzeit, sprich das Koordinatensystem für alle physikalischen Vorgänge, verkrümmt. Da das Licht immer den kürzesten Weg nimmt, wird es nun auch abgelenkt wenn es nahe an einem Körper mit grosser Masse vorbeikommt. Der Nachweis der Lichtablenkung durch die Masse der Sonne bei einer Sonnenfinsternis durch Eddington 1919 war der erste direkte Nachweis, dass Einstein mit seiner Allgemeinen Relativitätstheorie richtig liegt. Eine der erstaunlichsten Vorhersagen aus Einsteins Relativitätstheorie ist die Existenz von Schwarzen Löchern. Es wird gemeinhin angenommen, dass Schwarzen Löcher die dichtesten Objekte sind, welche im Universum existieren können. Ein Schwarzes Loch ist eine Raumzeit, die so stark verkrümmt ist, dass ein Bereich existiert aus welchem nicht einmal mehr Licht entfliehen kann. Die Grenze dieses Bereiches bezeichnet man als Ereignishorizont. Beobachter, welche den Ereignishorizont überqueren, können danach nicht mehr mit Beobachtern ausserhalb kommunizieren. Die Krümmung der Raumzeit in der Nähe des Ereignishorizontes ist so stark, dass sehr gewisse Lichtstrahlen, ähnlich der Planeten im Sonnensystem, auf Kreisbahnen bewegen. Das heisst, dass das Licht weder ins Schwarze Loch fällt, noch ins unendliche davon läuft. Die Bahn solcher Lichtstrahlen bezeichnet man als gefangene lichtartige Kurven. Solche Kurven existieren nur in einem beschränkten Bereich in der Nähe des Ereignishorizontes. Allerdings ist es an jedem Ort der Raumzeit möglich, lichtartige Kurven durch diesen Punkt zu finden, welche sich in der Zukunft einer gefangenen lichtartigen Kurve beliebig annähern und weder ins Schwarze Loch fallen noch ins unendliche davon laufen. Die Gesamtheit aller möglichen Lichtstrahlen durch einen Punkt kann durch eine Kugel, der Himmelssphäre des Beobachters, bestehend aus allen möglichen Raumrichtungen beschrieben werden. In unserer Arbeit zeigen wir, dass die Strahlen, welche sich in der Zukunft einer gefangenen lichtartigen Kurve annähern, die Himmelssphäre in zwei Bereiche unterteilt. Der eine Teil besteht aus jenen Richtungen, in welche der Lichtstrahl im Schwarzen Loch endet, der andere Teil aus jenen Richtungen in welche der Lichtstrahl ins unendliche davon läuft. Die Richtungen in welcher sich die Lichtstrahlen in der Zukunft einer gefangenen lichtartigen Kurve annähern bilden eine geschlossene Kurve auf der Himmelssphäre. Diese Kurve, zusammen mit den Richtungen unter welchen das Licht im Schwarzen Loch endet, bilden den Schatten des Schwarzen Loches auf der Himmelssphäre des Beobachters. Wir konnten zeigen, dass die Form dieses Schattens Rückschlüsse auf die physikalischen Parameter, wie Ladung und Drehmoment des Schwarzen Loches, sowie die Distanz zwischen Beobachter und Schwarzem Loch zulässt. Ausserdem haben wir gezeigt, dass für masselose Felder (Skalarfelder, elektromagnetische Felder, linearisierte Gravitation) auf Raumzeiten mit einem rotierenden Schwarzen Loch, die sogenannte Modenstabillität gilt. Modenlösungen für partielle Differentialgleichungen sind Lösungen, welche ein Produkt von Lösungen in einzelner Koordinatenrichtungen sind. Modenstäbilität bedeutet nun, dass es zu diesen Feldgleichungen, auf diesen Raumzeiten keine Modenlösungen mit realen Frequenzen gibt, welche nur Energie aus der Raumzeit hinaustragen. KW - black hole KW - trapping KW - black hole shadows KW - Teukolsky master equation KW - mode stability KW - Schwarzes Loch KW - gefangene lichtartige Kurven KW - Schatten eines Schwarzen Lochs KW - Teukolsky Gleichung KW - Moden Stabilität Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-414686 ER - TY - THES A1 - Münch, Steffen T1 - The relevance of the aeolian transport path for the spread of antibiotic-resistant bacteria on arable fields T1 - Die Bedeutung des äolischen Transportpfads für die Ausbreitung antibiotikaresistenter Bakterien von Ackerböden N2 - The spread of antibiotic-resistant bacteria poses a globally increasing threat to public health care. The excessive use of antibiotics in animal husbandry can develop resistances in the stables. Transmission through direct contact with animals and contamination of food has already been proven. The excrements of the animals combined with a binding material enable a further potential path of spread into the environment, if they are used as organic manure in agricultural landscapes. As most of the airborne bacteria are attached to particulate matter, the focus of the work will be the atmospheric dispersal via the dust fraction. Field measurements on arable lands in Brandenburg, Germany and wind erosion studies in a wind tunnel were conducted to investigate the risk of a potential atmospheric dust-associated spread of antibiotic-resistant bacteria from poultry manure fertilized agricultural soils. The focus was to (i) characterize the conditions for aerosolization and (ii) qualify and quantify dust emissions during agricultural operations and wind erosion. PM10 (PM, particulate matter with an aerodynamic diameter smaller than 10 µm) emission factors and bacterial fluxes for poultry manure application and incorporation have not been previously reported before. The contribution to dust emissions depends on the water content of the manure, which is affected by the manure pretreatment (fresh, composted, stored, dried), as well as by the intensity of manure spreading from the manure spreader. During poultry manure application, PM10 emission ranged between 0.05 kg ha-1 and 8.37 kg ha-1. For comparison, the subsequent land preparation contributes to 0.35 – 1.15 kg ha-1 of PM10 emissions. Manure particles were still part of dust emissions but they were accounted to be less than 1% of total PM10 emissions due to the dilution of poultry manure in the soil after manure incorporation. Bacterial emissions of fecal origin were more relevant during manure application than during the subsequent manure incorporation, although PM10 emissions of manure incorporation were larger than PM10 emissions of manure application for the non-dried manure variants. Wind erosion leads to preferred detachment of manure particles from sandy soils, when poultry manure has been recently incorporated. Sorting effects were determined between the low-density organic particles of manure origin and the soil particles of mineral origin close above the threshold of 7 m s-1. In dependence to the wind speed, potential erosion rates between 101 and 854 kg ha-1 were identified, if 6 t ha-1 of poultry manure were applied. Microbial investigation showed that manure bacteria got detached more easily from the soil surface during wind erosion, due to their attachment on manure particles. Although antibiotic-resistant bacteria (ESBL-producing E. coli) were still found in the poultry barns, no further contamination could be detected with them in the manure, fertilized soils or in the dust generated by manure application, land preparation or wind erosion. Parallel studies of this project showed that storage of poultry manure for a few days (36 – 72 h) is sufficient to inactivate ESBL-producing E. coli. Further antibiotic-resistant bacteria, i.e. MRSA and VRE, were only found sporadically in the stables and not at all in the dust. Therefore, based on the results of this work, the risk of a potential infection by dust-associated antibiotic-resistant bacteria can be considered as low. N2 - Die Ausbreitung antibiotikaresistenter Bakterien stellt eine global zunehmende Gefahr für die öffentliche Gesundheitsfürsorge dar. Über den unsachgemäßen Einsatz von Antibiotika in der Tierhaltung können sich in den Ställen Resistenzen entwickeln. Übertragungen über den direkten Kontakt mit Tieren und der Kontaminierung von Lebensmitteln wurden bisher schon nachgewiesen. Die Exkremente der Tiere in Verbindung mit einem Bindemedium ermöglichen einen weiteren potentiellen Ausbreitungspfad in die Umwelt, wenn sie als organische Wirtschaftsdünger in Agrarlandschaften verwendet werden. Im Rahmen dieser Arbeit wurden Feld- und Windkanalmessungen durchgeführt, um dem von den Ackerflächen ausgehenden potentiellen Risiko einer partikulären Ausbreitung antibiotikaresistenter Bakterien nachzugehen. Kern der Arbeit ist zum einen die Bedingungen zu charakterisieren, die zu Staubemissionen während der Prozesskette (Düngerausbringung mit Geflügelmist, nachfolgende Feldbearbeitungen, Winderosion) führen, zum anderen Staubemissionen dieser Prozesskette zu klassifizieren und quantifizieren. Flächenbezogene Emissionen für PM10 als ein Teil des Schwebstaubs (sogenannte PM10 Emissionsfaktoren) wurden zum ersten Mal für die Düngerausbringung mit Geflügelmist bestimmt. Sie lagen zwischen 0,05 und 8,37 kg ha-1 PM10 und waren abhängig vom Wassergehalt des Materials, der durch die Vorbehandlungen (frisch, kompostiert, gelagert, getrocknet) der Düngervarianten bestimmt war. Im Vergleich dazu wurden für die nachfolgenden Bodenbearbeitungen zwischen 0,35 kg ha-1 und 1,15 kg ha-1 PM10 freigesetzt. Zwar waren Mistpartikel weiterhin Bestanteil der Staubemissionen während der Bodenbearbeitung, jedoch sank ihr Anteil durch die Verdünnung des Düngers im Boden nach der Düngereinarbeitung auf unter 1 % ab. Ähnliche Tendenzen ergaben sich bei der mikrobiellen Betrachtung der freigesetzten Bakterien während der Ausbringung und Einarbeitung des Geflügelmists. Trotz eines höheren PM10 Austrags während der Düngereinarbeitung, verglichen mit der Ausbringung des Düngers, waren die Bakterienemissionen während der Düngerausbringung relevanter als bei der Düngereinarbeitung. Winderosion sorgt für eine bevorzugte Verfrachtung des Geflügelmists auf sandigen Böden, nachdem der Dünger frisch eingearbeitet wurde. Da vor allem organische Bestandteile im Boden durch ihre geringe Dichte von der Auswehung betroffen sind, führt Winderosion auch bei mit Geflügelmist gedüngten Böden bereits kurz nach Erreichen der Schwellenwindgeschwindigkeit von 7 m s-1 zu einer Entmischung der eingebrachten organischen Mistpartikel und der mineralischen Bestandteile des Bodens. Diese Effekte treten vor allem dann auf, wenn in trockenen Böden der Gefügezustand zwischen mineralischen und organischen Partikeln kaum oder nicht vorhanden ist. In Abhängigkeit der Windgeschwindigkeit konnten potentielle Austräge zwischen 101 und 854 kg ha-1 bei einer eingebrachten Düngermenge von 6 t ha-1 bestimmt werden. Der bevorzugte Austrag von Mistpartikeln bedingt auch einen bevorzugten Austrag von Bakterien fäkalen Ursprungs, da diese nach der Einarbeitung an den Mistpartikeln mit geringerer Dichte anhaften. Obwohl in den Geflügelställen antibiotikaresistente Bakterien in Form von ESBL bildenden Escherichia Coli (E. coli) in hohen Keimzahlen gefunden wurden, konnten keine weiteren Kontaminationen mit resistenten E.coli im Mist, in gedüngten Böden oder im Staub nachgewiesen werden. Parallelstudien aus dem Projekt zeigten, dass eine mehrtägige Lagerung von Hühnerstreu ausreichend ist (36 – 72 h), die Mehrzahl resistenter E.coli zu reduzieren, sodass sie sich nach der Düngerausbringung nicht mehr über Agrarflächen ausbreiten konnten. Weitere antibiotikaresistente Bakterien (MRSA, VRE) wurden nur vereinzelt in den Ställen und überhaupt nicht im Staub nachgewiesen. Aus unseren Versuchen kann daher das Risiko einer möglichen Infektion durch staubassoziierte antibiotikaresistente Bakterien als gering eingeschätzt werden. KW - wind erosion KW - dust emission KW - PM10 KW - manure application KW - tillage KW - sandy soils KW - poultry manure KW - antibiotic resistance KW - airborne bacteria KW - agricultural KW - fecal contamination KW - fertilization KW - PM10 KW - landwirtschaftlich KW - luftgetragene Bakterien KW - Antibiotikaresistenz KW - Staubemission KW - fäkale Kontamination KW - Düngung KW - Mistausbringung KW - Geflügelmist KW - sandige Böden KW - Bodenbearbeitung KW - Winderosion Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536089 ER - TY - THES A1 - Kolk, Jens T1 - The long-term legacy of historical land cover changes T1 - Die Langzeitfolgen historischer Landbedeckungsveränderungen BT - patterns and dynamics in herb-layer species richness in deciduous forests of the Prignitz region (NE Germany) BT - Muster und Dynamik der Artenvielfalt von Waldpflanzengemeinschaften in Laubwäldern der Prignitz (Nordostdeutschland) N2 - Over the last years there is an increasing awareness that historical land cover changes and associated land use legacies may be important drivers for present-day species richness and biodiversity due to time-delayed extinctions or colonizations in response to historical environmental changes. Historically altered habitat patches may therefore exhibit an extinction debt or colonization credit and can be expected to lose or gain species in the future. However, extinction debts and colonization credits are difficult to detect and their actual magnitudes or payments have rarely been quantified because species richness patterns and dynamics are also shaped by recent environmental conditions and recent environmental changes. In this thesis we aimed to determine patterns of herb-layer species richness and recent species richness dynamics of forest herb layer plants and link those patterns and dynamics to historical land cover changes and associated land use legacies. The study was conducted in the Prignitz, NE-Germany, where the forest distribution remained stable for the last ca. 100 years but where a) the deciduous forest area had declined by more than 90 per cent (leaving only remnants of "ancient forests"), b) small new forests had been established on former agricultural land ("post-agricultural forests"). Here, we analyzed the relative importance of land use history and associated historical land cover changes for herb layer species richness compared to recent environmental factors and determined magnitudes of extinction debt and colonization credit and their payment in ancient and post-agricultural forests, respectively. We showed that present-day species richness patterns were still shaped by historical land cover changes that ranged back to more than a century. Although recent environmental conditions were largely comparable we found significantly more forest specialists, species with short-distance dispersal capabilities and clonals in ancient forests than in post-agricultural forests. Those species richness differences were largely contingent to a colonization credit in post-agricultural forests that ranged up to 9 species (average 4.7), while the extinction debt in ancient forests had almost completely been paid. Environmental legacies from historical agricultural land use played a minor role for species richness differences. Instead, patch connectivity was most important. Species richness in ancient forests was still dependent on historical connectivity, indicating a last glimpse of an extinction debt, and the colonization credit was highest in isolated post-agricultural forests. In post-agricultural forests that were better connected or directly adjacent to ancient forest patches the colonization credit was way smaller and we were able to verify a gradual payment of the colonization credit from 2.7 species to 1.5 species over the last six decades. N2 - In den vergangenen Jahren reift immer mehr die Erkenntnis, dass historische Landnutzungsveränderungen und deren Folgewirkungen einen wichtigen Einfluss auf die heutige Artenvielfalt und Biodiversität haben können. In Habitaten, deren Landnutzung und Fläche sich in historischer Zeit verändert hat kann aufgrund von verzögerten Aussterbe- und Einwanderungsprozessen eine erhöhte oder verringerte Artenvielfalt vorliegen, die nicht den heutigen Umweltbedingungen entspricht. Es liegen Aussterbeschulden oder Einwanderungs- bzw. Kolonisierungskredite vor, welcher über die Zeit mit Artverlusten oder Zugewinnen von Arten bezahlt werden. Aussterbeschulden oder Einwanderungskredite und deren Bezahlung sind schwierig zu ermitteln, da einerseits Informationen zu historischen Landnutzungsveränderungen oft fehlen und andererseits auch heutige Umweltfaktoren einen wichtigen Einfluss auf die Artenvielfalt haben. Das Ziel dieser Arbeit war es die heutigen Muster der Artenvielfalt von Waldbodenpflanzen in Laub- und Mischwäldern und deren Veränderungen über die letzten 60 Jahre zu ermitteln und diese Muster im Hinblick auf historische Landnutzungsveränderungen zu untersuchen. Das Studiengebiet umfasst große Teile der Prignitz (Brandenburg und angrenzende Teile von Sachsen-Anhalt), ein Gebiet, dessen Waldanteil sich in den letzten 100 Jahren kaum verändert hat, in dem sich jedoch seit dem Ende des 19ten Jahrhunderts der Anteil historisch alter Wälder (ohne historische nachgewiesene agrarliche Nutzung) um mehr als 90% reduziert hat, während an anderer Stelle wenige neue Wälder auf vorigen Agrarflächen etabliert wurden. Im Rahmen dieser Studie wurde zunächst die Artenvielfalt und deren aktuelle Veränderung in historisch-alten Wäldern und neu etablierten Wäldern untersucht und verglichen. Um den Einfluss von historischen Landnutzungsveränderungen auf die Artenvielfalt zu ermittlen, wurde die historische und heutige Vernetzung der Waldflächen analysiert, die Umweltbedingungen in historisch-alten Wäldern und neu etablierten Wäldern verglichen und der Umfang und die Bezahlung der Aussterbeschulden und der Kolonisierungskredite ermittelt. Die Arbeit zeigt, dass historische Landnutzungsveränderungen die heutige Artenvielfalt noch immer beeinflussen. Obwohl die heutigen Umweltbedingungen in historisch-alten und neu etablierten Wäldern vergleichbar waren, war die Gesamtartenzahl in historisch-alten Wäldern signifikant höher und in diesen Wäldern wurden insbesondere mehr Waldspezialisten und sich nur über kurze Enfernung ausbreitende Pflanzenarten gefunden. Die Unterschiede in den Artenzahlen sind vor allem auf einen Kolonisierungskredit in neu etablierten Wäldern zurückzuführen, während die Aussterbeschulden in historisch-alten Wäldern weitgehend bezahlt wurden. Der Kolonisierungskredits war am höchsten in isoliert gelegenen Waldflächen und belief sich auf bis zu 9 Arten (im Mittel 4,7). Der Kolonisierungskredit in besser vernetzten und in direkt an historisch-alten Wäldern angrenzenden Flächen war deutlich geringer. In diesen Wäldern konnte eine Verringerung des Kolonisierungskredites von im Mittel 2,7 zu 1,5 Arten über die letzten sechs Jahrzehnte nachgewiesen werden. KW - ecology KW - plant science KW - extinction debt KW - colonization credit KW - species richness KW - land use history KW - Ökologie KW - Pflanzenwissenschaften KW - Botanik KW - Aussterbeschuld KW - Einwanderungskredit KW - Biodiversität KW - Landnutzungshistorie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439398 ER - TY - THES A1 - Brenner, Andri Caspar T1 - Sustainable urban growth T1 - Nachhaltige urbane Wachstumspfade BT - technology supply and agglomeration economies in the city BT - Angebote an Technologie und Agglomerationsexternalitäten in den Städten N2 - This dissertation explores the determinants for sustainable and socially optimalgrowth in a city. Two general equilibrium models establish the base for this evaluation, each adding its puzzle piece to the urban sustainability discourse and examining the role of non-market-based and market-based policies for balanced growth and welfare improvements in different theory settings. Sustainable urban growth either calls for policy actions or a green energy transition. Further, R&D market failures can pose severe challenges to the sustainability of urban growth and the social optimality of decentralized allocation decisions. Still, a careful (holistic) combination of policy instruments can achieve sustainable growth and even be first best. N2 - Diese Dissertation untersucht die Determinanten für ein nachhaltiges und sozial optimales Wachstum in den Städten. Zwei endogene Wachstumsmodelle untersuchen hierzu die Rolle von nichtmarktbasierten und marktbasierten Politikeingriffen. Jedes Modell fügt dabei dem städtischen Nachhaltigkeitsdiskurs sein eigenes Puzzleteil hinzu. Nachhaltiges städtisches Wachstum erfordert entweder politische Maßnahmen oder eine grüne Energiewende. Darüber hinaus können Verzerrungen im Forschungsmarkt ernsthafte Herausforderungen für die Nachhaltigkeit des städtischen Wachstums und für die soziale Optimalität dezentralisierter Allokationsentscheidungen darstellen. Dennoch kann eine sorgfältige (ganzheitliche) Kombination von Politikinstrumenten Erfolg haben und zu einem sozial optimalen Resultat führen. KW - urban growth KW - sustainable development KW - density effects KW - innovations in the city KW - Stadtwachstumsraten KW - nachhaltige Stadtentwicklung KW - Dichteeffekte KW - Innovationen in den Städten Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555223 ER - TY - THES A1 - Folikumah, Makafui Yao T1 - Stimuli-promoted in situ formation of hydrogels with thiol/thioester containing peptide precursors T1 - Stimuli-induzierte In-Situ-Bildung von Hydrogelen durch Peptid-Prekursor mit Thiol/Thioestergruppen N2 - Hydrogels are potential synthetic ECM-like substitutes since they provide functional and structural similarities compared to soft tissues. They can be prepared by crosslinking of macromolecules or by polymerizing suitable precursors. The crosslinks are not necessarily covalent bonds, but could also be formed by physical interactions such as π-π interactions, hydrophobic interactions, or H-bonding. On demand in situ forming hydrogels have garnered increased interest especially for biomedical applications over preformed gels due to the relative ease of in vivo delivery and filling of cavities. The thiol-Michael addition reaction provides a straightforward and robust strategy for in situ gel formation with its fast reaction kinetics and ability to proceed under physiological conditions. The incorporation of a trigger function into a crosslinking system becomes even more interesting since gelling can be controlled with stimulus of choice. The use of small molar mass crosslinker precursors with active groups orthogonal to thiol-Michael reaction type electrophile provides the opportunity to implement an on-demand in situ crosslinking without compromising the fast reaction kinetics. It was postulated that short peptide sequences due to the broad range structural-function relations available with the different constituent amino acids, can be exploited for the realisation of stimuli-promoted in situ covalent crosslinking and gelation applications. The advantages of this system over conventional polymer-polymer hydrogel systems are the ability tune and predict material property at the molecular level. The main aim of this work was to develop a simplified and biologically-friendly stimuli-promoted in situ crosslinking and hydrogelation system using peptide mimetics as latent crosslinkers. The approach aims at using a single thiodepsipeptide sequence to achieve separate pH- and enzyme-promoted gelation systems with little modification to the thiodepsipeptide sequence. The realization of this aim required the completion of three milestones. In the first place, after deciding on the thiol-Michael reaction as an effective in situ crosslinking strategy, a thiodepsipeptide, Ac-Pro-Leu-Gly-SLeu-Leu-Gly-NEtSH (TDP) with expected propensity towards pH-dependent thiol-thioester exchange (TTE) activation, was proposed as a suitable crosslinker precursor for pH-promoted gelation system. Prior to the synthesis of the proposed peptide-mimetic, knowledge of the thiol-Michael reactivity of the would-be activated thiol moiety SH-Leu, which is internally embedded in the thiodepsipeptide was required. In line with pKa requirements for a successful TTE, the reactivity of a more acidic thiol, SH-Phe was also investigated to aid the selection of the best thiol to be incorporated in the thioester bearing peptide based crosslinker precursor. Using ‘pseudo’ 2D-NMR investigations, it was found that only reactions involving SH-Leu yielded the expected thiol-Michael product, an observation that was attributed to the steric hindrance of the bulkier nature of SH-Phe. The fast reaction rates and complete acrylate/maleimide conversion obtained with SH-Leu at pH 7.2 and higher aided the direct elimination of SH-Phe as a potential thiol for the synthesis of the peptide mimetic. Based on the initial studies, for the pH-promoted gelation system, the proposed Ac-Pro-Leu-Gly-SLeu-Leu-Gly-NEtSH was kept unmodified. The subtle difference in pKa values between SH-Leu (thioester thiol) and the terminal cysteamine thiol from theoretical conditions should be enough to effect a ‘pseudo’ intramolecular TTE. In polar protic solvents and under basic aqueous conditions, TDP successfully undergoes a ‘pseudo’ intramolecular TTE reaction to yield an α,ω-dithiol tripeptide, HSLeu-Leu-Gly-NEtSH. The pH dependence of thiolate ion generation by the cysteamine thiol aided the incorporation of the needed stimulus (pH) for the overall success of TTE (activation step) – thiol-Michael addition (crosslinking) strategy. Secondly, with potential biomedical applications in focus, the susceptibility of TDP, like other thioesters, to intermolecular TTE reaction was probed with a group of thiols of varying thiol pKa values, since biological milieu characteristically contain peptide/protein thiols. L-cysteine, which is a biologically relevant thiol, and a small molecular weight thiol, methylthioglycolate both with relatively similar thiol pKa, values, led to an increase concentration of the dithiol crosslinker when reacted with TDP. In the presence of acidic thiols (p-NTP and 4MBA), a decrease in the dithiol concentration was observed, an observation that can be attributed to the inability of the TTE tetrahedral intermediate to dissociate into exchange products and is in line with pKa requirements for successful TTE reaction. These results additionally makes TDP more attractive and the potentially the first crosslinker precursor for applications in biologically relevant media. Finally, the ability of TDP to promote pH-sensitive in situ gel formation was probed with maleimide functionalized 4-arm polyethylene glycol polymers in tris-buffered media of varying pHs. When a 1:1 thiol: maleimide molar ratio was used, TDP-PEG4MAL hydrogels formed within 3, 12 and 24 hours at pH values of 8.5, 8.0 and 7.5 respectively. However, gelation times of 3, 5 and 30 mins were observed for the same pH trend when the thiol: maleimide molar was increased to 2:1. A direct correlation of thiol content with G’ of the gels at each pH could also be drawn by comparing gels with thiol: maleimide ratios of 1:1 to those with 2:1 thiol: maleimide mole ratios. This is supported by the fact that the storage modulus (G') is linearly dependent on the crosslinking density of the polymer. The values of initial G′ for all gels ranged between (200 – 5000 Pa), which falls in the range of elasticities of certain tissue microenvironments for example brain tissue 200 – 1000 Pa and adipose tissue (2500 – 3500 Pa). Knowledge so far gained from the study on the ability to design and tune the exchange reaction of thioester containing peptide mimetic will give those working in the field further insight into the development of new sequences tailored towards specific applications. TTE substrate design using peptide mimetic as presented in this work has revealed interesting new insights considering the state-of-the-art. Using the results obtained as reference, the strategy provides a possibility to extend the concept to the controlled delivery of active molecules needed for other robust and high yielding crosslinking reactions for biomedical applications. Application for this sequentially coupled functional system could be seen e.g. in the treatment of inflamed tissues associated with urinary tract like bladder infections for which pH levels above 7 were reported. By the inclusion of cell adhesion peptide motifs, the hydrogel network formed at this pH could act as a new support layer for the healing of damage epithelium as shown in interfacial gel formation experiments using TDP and PEG4MAL droplets. The versatility of the thiodepsipeptide sequence, Ac-Pro-Leu-Gly-SLeu-Leu-Gly-(TDPo) was extended for the design and synthesis of a MMP-sensitive 4-arm PEG-TDPo conjugate. The purported cleavage of TDPo at the Gly-SLeu bond yields active thiol units for subsequent reaction of orthogonal Michael acceptor moieties. One of the advantages of stimuli-promoted in situ crosslinking systems using short peptides should be the ease of design of required peptide molecules due to the predictability of peptide functions their sequence structure. Consequently the functionalisation of a 4-arm PEG core with the collagenase active TDPo sequence yielded an MMP-sensitive 4-arm thiodepsipeptide-PEG conjugate (PEG4TDPo) substrate. Cleavage studies using thiol flourometric assay in the presence of MMPs -2 and -9 confirmed the susceptibility of PEG4TDPo towards these enzymes. The resulting time-dependent increase in fluorescence intensity in the presence of thiol assay signifies the successful cleavage of TDPo at the Gly-SLeu bond as expected. It was observed that the cleavage studies with thiol flourometric assay introduces a sigmoid non-Michaelis-Menten type kinetic profile, hence making it difficult to accurately determine the enzyme cycling parameters, kcat and KM . Gelation studies with PEG4MAL at 10 % wt. concentrations revealed faster gelation with MMP-2 than MMP-9 with 28 and 40 min gelation times respectively. Possible contributions by hydrolytic cleavage of PEG4TDPo has resulted in the gelation of PEG4MAL blank samples but only after 60 minutes of reaction. From theoretical considerations, the simultaneous gelation reaction would be expected to more negatively impact the enzymatic than hydrolytic cleavage. The exact contributions from hydrolytic cleavage of PEG4TDPo would however require additional studies. In summary this new and simplified in situ crosslinking system using peptide-based crosslinker precursors with tuneable properties exhibited in situ crosslinking gelation kinetics on similar levels with already active dithiols reported. The advantageous on-demand functionality associated with its pH-sensitivity and physiological compatibility makes it a strong candidate worth further research as biomedical applications in general and on-demand material synthesis is concerned. Results from MMP-promoted gelation system unveils a simple but unexplored approach for in situ synthesis of covalently crosslinked soft materials, that could lead to the development of an alternative pathway in addressing cancer metastasis by making use of MMP overexpression as a trigger. This goal has so far not being reach with MMP inhibitors despite the extensive work this regard. N2 - Hydrogele sind synthetische, potenziell ECM-ähnliche Substituenten, die funktionelle und strukturelle Ähnlichkeiten mit Weichteilgeweben aufweisen. Sie können durch Vernetzung von Makromolekülen oder durch Polymerisation geeigneter Precursoren hergestellt werden. Die Vernetzungen müssen nicht unbedingt aus kovalenten Bindungen bestehen, sondern können auch durch physikalische Wechselwirkungen wie π-π-Wechselwirkungen, hydrophoben Wechselwirkungen oder Wasserstoff-Brückenbindungen entstehen. In-situ-Hydrogele, die on-demand gebildet werden, haben vor allem für biomedizinische Anwendungen gegenüber vorgefertigten Gelen zunehmend an Interesse gewonnen, da sie relativ einfach in-vivo eingebracht und somit Fehlstellen gefüllt werden können. Die Thiol-Michael-Additionsreaktion bietet mit ihrer schnellen Reaktionskinetik und ihrer Fähigkeit, unter physiologischen Bedingungen abzulaufen, eine unkomplizierte und robuste Strategie für die in-situ-Gelbildung. Der Einbau einer Triggerfunktion in ein Vernetzungssystem ist besonders interessant, da die Gelierung durch einen gewählten Stimulus gesteuert werden kann. Die Verwendung eines Precursors mit geringer Molmasse und aktiven Gruppen, die orthogonal zu den Elektrophilen des Thiol-Michael-Reaktionstyps sind, bietet die Möglichkeit, eine bedarfsgesteuerte in-situ-Vernetzung zu realisieren, ohne die schnelle Reaktionskinetik zu beeinträchtigen. Es wurde postuliert, dass kurze Peptidsequenzen aufgrund der weitreichenden Struktur-Funktions-Beziehungen, die mit den verschiedenen konstituierenden Aminosäuren zur Verfügung stehen, für die Realisierung von Stimulus-ausgelösten, in-situ kovalenten Vernetzungs- und Gelierungsanwendungen genutzt werden können. Die Vorteile dieses Systems gegenüber herkömmlichen Polymer-Polymer-Hydrogelsystemen liegen in der Möglichkeit, die Materialeigenschaften auf molekularer Ebene zu justieren und vorherzusagen. Das Hauptziel dieser Arbeit war die Entwicklung eines vereinfachten und biologisch-geeigneten, stimulierungsgeförderten in-situ-Vernetzungs- und Hydrogelierungssystems unter Verwendung von Peptidmimetika als latente Vernetzer. Der Ansatz zielt darauf ab, eine einzige Thiodepsipeptidsequenz zu verwenden, um getrennte pH- und enzymausgelöste Gelierungssysteme mit geringen Modifikationen der Thiodepsipeptidsequenz zu erreichen. Zur Verwirklichung dieses Ziels, mussten drei Meilensteine erreicht werden. Nach der Wahl der Thiol-Michael-Reaktion als in-situ-Vernetzungsstrategie, musste ein Thiodepsipeptid, Ac-Pro-Leu-Gly-SLeu-Leu-Gly-NEtSH (TDP) mit einer zu erwartenden Neigung zu einer pH-abhängigen Thiol-Thioester-Austausch-Aktivierung (TTE), als geeignetem Vernetzer-Precursor für das pH-unterstützte Gelierungssystem designt werden. Vor der Synthese dieses Peptid-Mimetikums war die Untersuchung der Thiol-Michael-Reaktivität der potenziell aktivierten Thiolkomponente SH-Leu erforderlich, die intern in das Thiodepsipeptid eingebettet ist. In Übereinstimmung mit den pKa-Anforderungen für eine erfolgreiche TTE wurde auch die Reaktivität eines saureren Thiols, SH-Phe, untersucht, um die Auswahl des besten Thiols zu ermöglichen, das in den Thioester-tragenden Peptid-basierten Vernetzer-Precursor eingebaut werden sollte. Pseudo-2D-NMR-Untersuchungen zeigten, dass nur Reaktionen mit SH-Leu das erwartete Thiol-Michael-Produkt ergaben, eine Beobachtung, die auf die sterische Hinderung durch die sperrige Natur von SH-Phe zurückzuführen ist. Wegen der schnellen Reaktionsgeschwindigkeiten und der vollständigen Acrylat/Maleimid-Umwandlung, die mit SH-Leu bei einem pH-Wert von 7,2 und höher erzielt wurde, kam SH-Phe als potenzielles Thiol für die Synthese des Peptidmimetikums nicht mehr infrage. Auf der Grundlage der ersten Studien wurde für das pH-basierte Gelierungssystem das vorgeschlagene Ac-Pro-Leu-Gly-SLeu-Leu-Gly-NEtSH unverändert beibehalten. Der geringe Unterschied in den pKa-Werten zwischen SH-Leu (Thioesterthiol) und dem terminalen Cysteaminthiol sollte ausreichen, um eine "pseudo"-intramolekulare TTE zu bewirken. In polaren protischen Lösungsmitteln und unter basischen wässrigen Bedingungen verläuft die "pseudo"-intramolekulare TTE-Reaktion bei TDP erfolgreich, bei der ein α,ω-Dithiol-Tripeptid, HSLeu-Leu-Gly-NEtSH, entsteht. Die pH-Abhängigkeit der Thiolat-Ionen-Generierung durch das Cysteamin-Thiol trug dazu bei, den notwendigen Stimulus (pH) für den Gesamterfolg der TTE (Aktivierungsschritt) - Thiol-Michael-Addition (Vernetzung) Strategie einzubauen. Zweitens wurde mit Blick auf potenzielle biomedizinische Anwendungen die Empfindlichkeit von TDP, wie auch anderer Thioester, für die intermolekulare TTE-Reaktion mit einer Gruppe von Thiolen mit unterschiedlichen Thiol-pKa-Werten untersucht, da biologische Milieus typischerweise Peptid-/Proteinthiole enthalten. L-Cystein, ein biologisch relevantes Thiol, und ein Thiol mit geringem Molekulargewicht, Methylthioglykolat, die beide relativ ähnliche Thiol-pKa-Werte besitzen, führten bei der Reaktion mit TDP zu einer erhöhten Konzentration des Dithiol-Vernetzers. In Gegenwart von sauren Thiolen (p-NTP und 4MBA) wurde eine Abnahme der Dithiolkonzentration beobachtet, eine Beobachtung, die auf die Unfähigkeit des tetraedrischen TTE-Zwischenprodukts in Austauschprodukte zu dissoziieren zurückgeführt werden kann und mit den pKa-Anforderungen für eine erfolgreiche TTE-Reaktion in Einklang steht. Diese Ergebnisse machen TDP noch attraktiver und zum potenziell ersten Vernetzer-Precursor für Anwendungen in biologisch relevanten Medien. Schließlich wurde die Fähigkeit von TDP, die pH-empfindliche in-situ-Gelbildung zu fördern, mit Maleimid-funktionalisierten 4-armigen Polyethylenglykolpolymeren in tris-gepufferten Medien mit unterschiedlichen pH-Werten untersucht. Bei einem Molverhältnis von 1:1 Thiol zu Maleimid bildeten sich TDP-PEG4MAL-Hydrogele innerhalb von 3, 12 und 24 Stunden bei pH-Werten von 8,5, 8,0 bzw. 7,5. Bei einer Erhöhung des Molverhältnisses von Thiol zu Maleimid auf 2:1 wurden jedoch Gelierzeiten von 3, 5 und 30 Minuten für denselben pH-Trend beobachtet. Ein direkter Zusammenhang zwischen dem Thiolgehalt und G' der Gele bei jedem pH-Wert konnte auch durch den Vergleich von Gelen mit einem Thiol/Maleimid-Molverhältnis von 1:1 mit solchen mit einem Thiol/Maleimid-Molverhältnis von 2:1 hergestellt werden. Dies wird durch die Tatsache unterstützt, dass der Speichermodulus (G') linear von der Vernetzungsdichte des Polymers abhängig ist. Die Werte des anfänglichen G′ für alle Gele lagen bei 200 - 5000 Pa, was in den Bereich der Elastizitäten bestimmter Gewebe-Mikroumgebungen fällt, z. B. Gehirngewebe (200 - 1000 Pa) und Fettgewebe (2500 - 3500 Pa). Die bisher aus der Studie gewonnenen Erkenntnisse über die Möglichkeit, die Austauschreaktion von Thioester-haltigen Peptidmimetika zu entwerfen und abzustimmen, geben weitere Einblicke in die Entwicklung neuer, auf spezifische Anwendungen zugeschnittener Sequenzen. Das Design von TTE-Substraten unter Verwendung von Peptidmimetika, wie es in dieser Arbeit vorgestellt wurde, hat interessante neue Erkenntnisse im Hinblick auf den Stand der Technik gebracht. Mit den erzielten Ergebnissen als Basis bietet die Strategie die Möglichkeit, das Konzept auf die kontrollierte Freisetzung aktiver Moleküle zu erweitern, die für andere robuste Vernetzungsreaktionen mit hohem Umsatz für biomedizinische Anwendungen benötigt werden. Dieses sequentiell gekoppelte funktionelle System könnte z. B. bei der Behandlung von entzündetem Gewebe im Zusammenhang mit Harnwegsinfektionen wie Blasenentzündungen eingesetzt werden, für die pH-Werte über 7 berichtet wurden. Durch die Einbeziehung von Zelladhäsionspeptidmotiven könnte das bei diesem pH-Wert gebildete Hydrogelnetz als neue Stützschicht für die Heilung von geschädigtem Epithel fungieren, wie in Experimenten zur Bildung von Grenzflächengelen mit TDP- und PEG4MAL-Tropfen gezeigt wurde. Die Vielseitigkeit der Thiodepsipeptidsequenz Ac-Pro-Leu-Gly-SLeu-Leu-Gly-(TDPo) wurde um Design und die Synthese eines MMP-empfindlichen 4-armigen PEG-TDPo-Konjugats erweitert. Die beabsichtigte Spaltung von TDPo an der Gly-SLeu-Bindung liefert aktive Thiol-Einheiten für die anschließende Reaktion orthogonaler Michael-Akzeptor-Einheiten. Einer der Vorteile stimulierungsgestützter in-situ-Vernetzungssysteme unter Verwendung kurzer Peptide dürfte darin liegen, dass sich die erforderlichen Peptidmoleküle aufgrund der Vorhersagbarkeit der Peptidfunktionen und ihrer Sequenzstruktur leicht entwerfen lassen. Die Funktionalisierung eines vierarmigen PEG-Kerns mit der kollagenaseaktiven TDPo-Sequenz führte zu einem MMP-empfindlichen vierarmigen Thiodepsipeptid-PEG-Konjugat (PEG4TDPo). Spaltungs-Studien unter Verwendung eines thiolfluorimetrischen Assays in Gegenwart der MMPs -2 und -9 bestätigten die Spaltbarkeit von PEG4TDPo durch diese Enzyme. Der daraus resultierende zeitabhängige Anstieg der Fluoreszenzintensität in Anwesenheit des Thiol-Assays deutet auf die erfolgreiche Spaltung von TDPo an der Gly-SLeu-Bindung hin. Es wurde festgestellt, dass die Spaltungsstudien mit dem thiol-fluorimetrischen Assay ein sigmoides, nicht-Michaelis-Menten-artiges kinetisches Profil ergeben, was eine genaue Bestimmung der Enzymzyklusparameter, kcat und KM, erschwert. Gelierungsstudien mit PEG4MAL in einer Konzentration von 10 Gew.-% ergaben eine schnellere Gelierung mit MMP-2 als mit MMP-9 mit Gelierungszeiten von 28 bzw. 40 Minuten. Eventuelle Beiträge durch hydrolytische Spaltung von PEG4TDPo an der Gelierung wurden an PEG4MAL-Blindproben untersucht und führten erst nach 60 Minuten Reaktionszeit zu einer Gelierung. Aus theoretischen Überlegungen heraus wäre zu erwarten, dass sich die gleichzeitige Gelierungsreaktion negativer auf die enzymatische als auf die hydrolytische Spaltung auswirkt. Genaues zum Beitrag der hydrolytischen Spaltung von PEG4TDPo bedürfte jedoch weiterer Untersuchungen. Zusammenfassend lässt sich sagen, dass dieses neue in-situ-Vernetzungssystem, bei dem Peptid-basierte Vernetzungs-Precursor mit einstellbaren Eigenschaften verwendet werden, eine in-situ-Vernetzungs-Gelierungskinetik auf ähnlichem Niveau wie bei bereits berichteten aktiven Dithiole aufweist. Die vorteilhafte On-Demand-Funktionalität in Verbindung mit ihrer pH-Sensitivität und physiologischen Verträglichkeit macht sie zu einem interessanten Kandidaten für weitere Forschungen im Bereich biomedizinischer Anwendungen im Allgemeinen und der On-Demand-Materialsynthese. Die Ergebnisse des MMP-geförderten Gelierungssystems weisen einen einfachen, aber unerforschten Ansatz für die in-situ-Synthese kovalent vernetzter weicher Materialien, der zur Entwicklung eines alternativen Weges zur Bekämpfung der Krebsmetastasierung führen könnte, indem er die MMP-Überexpression als Auslöser nutzt. Mit MMP-Inhibitoren wurde dieses Ziel trotz umfangreicher Arbeiten in dieser Hinsicht bisher nicht erreicht. KW - hydrogels KW - stimuli KW - peptide KW - thioester KW - crosslinker KW - Hydrogele KW - Vernetzer KW - Peptid KW - Thioester KW - Stimuli Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-569713 ER - TY - THES A1 - Ilić Petković, Nikoleta T1 - Stars under influence: evidence of tidal interactions between stars and substellar companions T1 - Sterne unter Einfluss: Beweise für Gezeitenwechselwirkungen zwischen Sternen und substellaren Begleitern N2 - Tidal interactions occur between gravitationally bound astrophysical bodies. If their spatial separation is sufficiently small, the bodies can induce tides on each other, leading to angular momentum transfer and altering of evolutionary path the bodies would have followed if they were single objects. The tidal processes are well established in the Solar planet-moon systems and close stellar binary systems. However, how do stars behave if they are orbited by a substellar companion (e.g. a planet or a brown dwarf) on a tight orbit? Typically, a substellar companion inside the corotation radius of a star will migrate toward the star as it loses orbital angular momentum. On the other hand, the star will gain angular momentum which has the potential to increase its rotation rate. The effect should be more pronounced if the substellar companion is more massive. As the stellar rotation rate and the magnetic activity level are coupled, the star should appear more magnetically active under the tidal influence of the orbiting substellar companion. However, the difficulty in proving that a star has a higher magnetic activity level due to tidal interactions lies in the fact that (I) substellar companions around active stars are easier to detect if they are more massive, leading to a bias toward massive companions around active stars and mimicking the tidal interaction effect, and that (II) the age of a main-sequence star cannot be easily determined, leaving the possibility that a star is more active due to its young age. In our work, we overcome these issues by employing wide stellar binary systems where one star hosts a substellar companion, and where the other star provides the magnetic activity baseline for the host star, assuming they have coevolved, and thereby provides the host's activity level if tidal interactions have no effect on it. Firstly, we find that extrasolar planets can noticeably increase the host star's X-ray luminosity and that the effect is more pronounced if the exoplanet is at least Jupiter-like in mass and close to the star. Further, we find that a brown dwarf will have an even stronger effect, as expected, and that the X-ray surface flux difference between the host star and the wide stellar companion is a significant outlier when compared to a large sample of similar wide binary systems without any known substellar companions. This result proves that substellar hosting wide binary systems can be good tools to reveal the tidal effect on host stars, and also show that the typical stellar age indicators as activity or rotation cannot be used for these stars. Finally, knowing that the activity difference is a good tracer of the substellar companion's tidal impact, we develop an analytical method to calculate the modified tidal quality factor Q' of individual host stars, which defines the tidal dissipation efficiency in the convective envelope of a given main-sequence star. N2 - Gezeitenwechselwirkungen treten zwischen gravitativ gebundenen astrophysikalischen Körpern auf. Wenn ihr räumlicher Abstand hinreichend gering ist, können die Körper gegenseitig Gezeiten hervorrufen, die eine Drehimpulsübertragung bewirken und den Entwicklungsweg der Körper verändern, den sie als Einzelobjekte einschlagen würden. Die Gezeitenprozesse sind in den Planet-Mond-Systemen des Sonnensystems und in engen Doppelsternsystemen gut bekannt. Wie verhalten sich jedoch Sterne, die von einem substellaren Begleiter (z. B. einem Planeten oder einem Braunen Zwerg) auf einer engen Bahn umkreist werden? In der Regel wandert ein substellarer Begleiter innerhalb des Korotationsradius eines Sterns in Richtung des Sterns, da er an Bahndrehimpuls verliert. Auf der anderen Seite gewinnt der Stern an Drehimpuls, was seine Rotationsrate erhöhen kann. Dieser Effekt dürfte umso ausgeprägter sein, je massereicher der substellare Begleiter ist. Da die Rotationsrate des Sterns und das Niveau der magnetischen Aktivität gekoppelt sind, sollte der Stern unter dem Gezeiteneinfluss des ihn umkreisenden substellaren Begleiters magnetisch aktiver erscheinen. Die Schwierigkeit beim Nachweis, dass ein Stern aufgrund von Gezeitenwechselwirkungen eine höhere magnetische Aktivität aufweist, liegt jedoch darin, dass (I) substellare Begleiter um aktive Sterne leichter aufzuspüren sind, wenn sie massereicher sind, wodurch eine Tendenz zu massereichen Begleitern um aktive Sterne entsteht und der Effekt der Gezeitenwechselwirkung nachgeahmt wird, und dass (II) das Alter eines Hauptreihensterns nicht leicht bestimmt werden kann, so dass die Möglichkeit besteht, dass ein Stern aufgrund seines jungen Alters aktiver ist. In unserer Arbeit überwinden wir diese Hindernisse, indem wir weiträumige Doppelsternsysteme verwenden, in denen ein Stern einen substellaren Begleiter beherbergt und in denen der andere Stern den Referenzwert für die magnetische Aktivität des Wirtssterns liefert im Fall das Gezeitenwechselwirkungen keinen Einfluss auf ihn haben, wobei wir davon ausgehen, dass die Sterne sich gemeinsam entwickelt haben. Erstens stellen wir fest, dass extrasolare Planeten die Röntgenleuchtkraft des Wirtssterns merklich erhöhen können und dass der Effekt ausgeprägter ist, wenn der Exoplanet mindestens eine jupiterähnliche Masse hat und sich nahe am Stern befindet. Darüber hinaus stellen wir fest, dass ein Brauner Zwerg erwartungsgemäß einen noch stärkeren Einfluss hat und dass der Unterschied im Röntgenflächenfluss zwischen dem Wirtsstern und dem weiträumigen stellaren Begleiter ein signifikanter Ausreißer im Vergleich zu einer großen Stichprobe ähnlicher weiträumiger Doppelsternsysteme ohne bekannte substellare Begleiter ist. Dieses Ergebnis beweist, dass weiträumige Doppelsternsysteme mit substellaren Begleitern ein gutes Werkzeug sein können, um den Gezeiteneffekt auf Wirtssterne aufzudecken, und zeigt auch, dass die typischen stellaren Altersindikatoren wie Aktivität oder Rotation für diese Sterne nicht verwendet werden können. Mit dem Wissen, dass der Aktivitätsunterschied ein guter Indikator für den Gezeiteneinfluss des substellaren Begleiters ist, entwickeln wir schließlich eine analytische Methode zur Berechnung des modifizierten Gezeitenqualitätsfaktors Q' für einzelne Wirtssterne, der die Effizienz der Gezeitendissipation in der konvektiven Hülle eines gegebenen Hauptreihensterns definiert. KW - stellar evolution KW - tidal interactions KW - star-planet systems KW - star-brown dwarf systems KW - Stern-Brauner Zwerg Systeme KW - Stern-Planet Systeme KW - Sternentwicklung KW - Gezeitenwechselwirkungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-615972 ER - TY - THES A1 - Braun, Tobias T1 - Recurrences in past climates T1 - Rekurrenzen in vergangenen Klimaperioden BT - novel concepts & tools for the study of Palaeoseasonality and beyond BT - neue Konzepte und Methoden zur Analyse von Paläosaisonalität und darüber hinaus N2 - Our ability to predict the state of a system relies on its tendency to recur to states it has visited before. Recurrence also pervades common intuitions about the systems we are most familiar with: daily routines, social rituals and the return of the seasons are just a few relatable examples. To this end, recurrence plots (RP) provide a systematic framework to quantify the recurrence of states. Despite their conceptual simplicity, they are a versatile tool in the study of observational data. The global climate is a complex system for which an understanding based on observational data is not only of academical relevance, but vital for the predurance of human societies within the planetary boundaries. Contextualizing current global climate change, however, requires observational data far beyond the instrumental period. The palaeoclimate record offers a valuable archive of proxy data but demands methodological approaches that adequately address its complexities. In this regard, the following dissertation aims at devising novel and further developing existing methods in the framework of recurrence analysis (RA). The proposed research questions focus on using RA to capture scale-dependent properties in nonlinear time series and tailoring recurrence quantification analysis (RQA) to characterize seasonal variability in palaeoclimate records (‘Palaeoseasonality’). In the first part of this thesis, we focus on the methodological development of novel approaches in RA. The predictability of nonlinear (palaeo)climate time series is limited by abrupt transitions between regimes that exhibit entirely different dynamical complexity (e.g. crossing of ‘tipping points’). These possibly depend on characteristic time scales. RPs are well-established for detecting transitions and capture scale-dependencies, yet few approaches have combined both aspects. We apply existing concepts from the study of self-similar textures to RPs to detect abrupt transitions, considering the most relevant time scales. This combination of methods further results in the definition of a novel recurrence based nonlinear dependence measure. Quantifying lagged interactions between multiple variables is a common problem, especially in the characterization of high-dimensional complex systems. The proposed ‘recurrence flow’ measure of nonlinear dependence offers an elegant way to characterize such couplings. For spatially extended complex systems, the coupled dynamics of local variables result in the emergence of spatial patterns. These patterns tend to recur in time. Based on this observation, we propose a novel method that entails dynamically distinct regimes of atmospheric circulation based on their recurrent spatial patterns. Bridging the two parts of this dissertation, we next turn to methodological advances of RA for the study of Palaeoseasonality. Observational series of palaeoclimate ‘proxy’ records involve inherent limitations, such as irregular temporal sampling. We reveal biases in the RQA of time series with a non-stationary sampling rate and propose a correction scheme. In the second part of this thesis, we proceed with applications in Palaeoseasonality. A review of common and promising time series analysis methods shows that numerous valuable tools exist, but their sound application requires adaptions to archive-specific limitations and consolidating transdisciplinary knowledge. Next, we study stalagmite proxy records from the Central Pacific as sensitive recorders of mid-Holocene El Niño-Southern Oscillation (ENSO) dynamics. The records’ remarkably high temporal resolution allows to draw links between ENSO and seasonal dynamics, quantified by RA. The final study presented here examines how seasonal predictability could play a role for the stability of agricultural societies. The Classic Maya underwent a period of sociopolitical disintegration that has been linked to drought events. Based on seasonally resolved stable isotope records from Yok Balum cave in Belize, we propose a measure of seasonal predictability. It unveils the potential role declining seasonal predictability could have played in destabilizing agricultural and sociopolitical systems of Classic Maya populations. The methodological approaches and applications presented in this work reveal multiple exciting future research avenues, both for RA and the study of Palaeoseasonality. N2 - Unsere Fähigkeit, den Zustand eines Systems vorherzusagen, hängt grundlegend von der Tendenz des Systems ab, zu früheren Zuständen zurückzukehren. Solche "Rekurrenzen" sind sogar Bestandteil unserer Intuition und alltäglichen Erfahrungswelt: regelmäßige Routinen, soziale Zusammentreffen and die Wiederkehr der Jahreszeiten sind hierfür nur vereinzelte Beispiele. Rekurrenzplots (RPs) stellen uns in diesem Kontext eine systematische Methode zur Verfügung, um die Wiederkehreigenschaften von Systemzuständen quantitativ zu untersuchen. Obwohl RPs konzeptionell vergleichsweise simpel sind, stellen sie eine vielseitige Methode zur Analyse von gemessenen Beobachtungsdaten dar. Das globale Klimasystem ist ein komplexes System, bei dem ein datenbasiertes Verständnis nicht lediglich von rein akademischen Wert ist – es ist viel mehr relevant für das Fortbestehen der Gesellschaft innerhalb der natürlichen planetaren Grenzen. Um die heute beobachteten Klimaveränderungen allerdings in einen langfristigen Kontext einzuordnen, benötigen wir empirische Daten, die weit über die Periode hinaus gehen, für die instrumentelle Daten verfügbar sind. Paläoklimatologische Datenreihen repräsentieren hier ein wertvolles Archiv, dessen Auswertung jedoch Analysemethoden erfordert, die an die Komplexitäten von paläoklimatologischen ‘Proxydaten’ angepasst sind. Um einen wissenschaftlichen Beitrag zu dieser Problemstellung zu leisten, befasst sich diese Doktorarbeit mit der Konzeptionierung neuer Methoden und der problemstellungsbezogenen Anpassung bewährter Methoden in der Rekurrenzanalyse (RA). Die hier formulierten zentralen Forschungsfragen konzentrieren sich auf den Nachweis zeitskalen-abhängiger Eigenschaften in nichtlinearen Zeitreihen und, insbesondere, der Anpassung von quantitativen Maßen in der RA, um paläosaisonale Proxydaten zu charakterisieren (‘Paläosaisonalität’). Im ersten Teil dieser Arbeit liegt der Schwerpunkt auf der Entwicklung neuer methodischer Ansätze in der RA. Die Vorhersagbarkeit nichtlinearer (paläo)klimatologischer Zeitreihen ist durch abrupte Übergänge zwischen dynamisch grundlegend verschiedenen Zuständen erschwert (so zum Beispiel das Übertreten sogenannter ‘Kipppunkte’). Solche Zustandsübergänge zeigen oft charakteristische Zeitskalen-Abhängigkeiten. RPs haben sich als Methode zum Nachweis von Zustandsübergängen bewährt und sind darüber hinaus geeignet, Skalenabhängigkeiten zu identifizieren. Dennoch wurden beide Aspekte bislang selten methodisch zusammengeführt. Wir kombinieren hier bestehende Konzepte aus der Analyse selbstähnlicher Strukturen und RPs, um abrupte Zustandsübergänge unter Einbezug der relevantesten Zeitskalen zu identifizieren. Diese Kombination von Konzepten führt uns ferner dazu, ein neues rekurrenzbasiertes, nichtlineares Abhängigkeitsmaß einzuführen. Die quantitative Untersuchung zeitversetzter Abhängigkeiten zwischen zahlreichen Variablen ist ein zentrales Problem, das insbesondere in der Analyse hochdimensionaler komplexer Systeme auftritt. Das hier definierte ‘Rekurrenzfluß’-Abhängigkeitsmaß ermöglicht es auf elegante Weise, derartige Abhängigkeiten zu charakterisieren. Bei räumlich ausgedehnten komplexen Systemen führen Interaktionen zwischen lokalen Variablen zu der Entstehung räumlicher Muster. Diese räumlichen Muster zeigen zeitliche Rekurrenzen. In einer auf dieser Beobachtung aufbauenden Publikation stellen wir eine neue Methode vor, mit deren Hilfe differenzierbare, makroskopische Zustände untersucht werden können, die zu zentralen, zeitlich wiederkehrenden räumlichen Mustern korrespondieren. Folgend leiten wir über zum zweiten Teil dieser Arbeit, indem wir uns Anpassungen von Methoden zur Untersuchung von Paläosaisonalität zuwenden. Messreihen paläoklimatologischer Proxydaten geben uns nur indirekt Informationen über die ihnen zugrunde liegenden Klimavariablen und weisen inhärente Limitationen auf, wie zum Beispiel unregelmäßige Zeitabstände zwischen Datenpunkten. Wir zeigen statistische Verzerrungseffekte auf, die in der quantitativen RA auftreten, wenn Signale mit nichtstationärer Abtastrate untersucht werden. Eine Methode zur Korrektur wird vorgestellt und anhand von Messdaten validiert. Der zweite Teil dieser Dissertation befasst sich mit angewandten Analysen von paläosaisonalen Zeitreihen. Eine Literaturauswertung verbreiteter und potentiell vielversprechender Zeitreihenanalysemethoden zeigt auf, dass es eine Vielzahl solcher Methoden gibt, deren adäquate Anwendung aber Anpassungen an Klimaarchiv-spezifische Grenzen und Probleme sowie eine Zusammenführung interdisziplinärer Fähigkeiten erfordert. Daraufhin untersuchen wir an einem Stalagmiten gemessene Proxydaten aus der zentralen Pazifikregion als ein natürliches Archiv für potentielle Veränderungen der El Niño-Southern Oscillation (ENSO) währen des mittleren Holozäns. Die bemerkenswert hohe zeitliche Auflösung der Proxy-Zeitreihen erlaubt es uns, Verbindungen zwischen der Ausprägung der ENSO und saisonalen Zyklen herzustellen, wobei wir erneut Gebrauch von der RA machen. Die letzte Publikation in dieser Arbeit untersucht, in wie fern die Vorhersagbarkeit saisonaler Veränderungen eine Rolle für die Stabilität von Gesellschaften spielen könnte, deren Nahrungsversorgung auf Landwirtschaft beruht. Die klassische Maya-Zivilisation erlitt zwischen 750-950 CE eine drastische Fragmentierung urbaner Zentren, die mit regionalen Dürren in Verbindung gebracht werden. Auf Grundlage von saisonal-aufgelösten Proxydaten aus der Yok Balum Höhle in Belize, definieren wir ein quantitatives Maß für saisonale Vorhersagbarkeit. Dies erlaubt Schlussfolgerungen über die potentielle Rolle, die ein Verlust saisonaler Vorhersagbarkeit für die sich destablisierenden agrarwirtschaftlichen und soziopolitischen Systeme der Maya gehabt haben könnte. Die methodischen Ansätze und Anwendungen in dieser Arbeit zeigen vielseitige, spannende Forschungsfragen für zukünftige Untersuchungen in der RA und Paläosaisonalität auf. KW - recurrence analysis KW - palaeoclimate KW - seasonality KW - nonlinear time series analysis KW - self-similarity KW - regime shifts KW - climate impact research KW - Klimafolgenforschung KW - nichtlineare Zeitreihenanalyse KW - Paläoklima KW - Rekurrenzanalyse KW - abrupte Übergänge KW - Selbstähnlichkeit Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586900 ER - TY - THES A1 - Wendi, Dadiyorto T1 - Recurrence Plots and Quantification Analysis of Flood Runoff Dynamics T1 - Rekurrenzplot und quantitativen Analyse von Hochwasserabflüssen Dynamik N2 - This paper introduces a novel measure to assess similarity between event hydrographs. It is based on Cross Recurrence Plots and Recurrence Quantification Analysis which have recently gained attention in a range of disciplines when dealing with complex systems. The method attempts to quantify the event runoff dynamics and is based on the time delay embedded phase space representation of discharge hydrographs. A phase space trajectory is reconstructed from the event hydrograph, and pairs of hydrographs are compared to each other based on the distance of their phase space trajectories. Time delay embedding allows considering the multi-dimensional relationships between different points in time within the event. Hence, the temporal succession of discharge values is taken into account, such as the impact of the initial conditions on the runoff event. We provide an introduction to Cross Recurrence Plots and discuss their parameterization. An application example based on flood time series demonstrates how the method can be used to measure the similarity or dissimilarity of events, and how it can be used to detect events with rare runoff dynamics. It is argued that this methods provides a more comprehensive approach to quantify hydrograph similarity compared to conventional hydrological signatures. N2 - Ziel dieser Arbeit ist es, eine Methode und einen umfassenden Index, die die Quantifizierung von Veränderungen in Hochwasserabflüssen über die Zeit ermöglichen, zu entwickeln. Als Proxydaten zur Detektion von Veränderungen dienen Abflusszeitreihen, da diese räumlich-zeitliche Änderungen von Prozessen im Einzugsgebiet integrieren. Einhergehend mit Veränderungen in den Rahmenbedingungen hydrologischer Systeme, beispielsweise Klimaänderungen, Veränderungen im Flussnetzwerk oder der Bodenbedeckung, sind Veränderungen in der Abflussdynamik zu erwarten. Urbanisierung, Klimawandel und veränderte wasserwirtschaftliche Nutzung können erheblichen Einfluss auf Hochwassercharakteristika haben, sodass die auf die abflussverursachenden Prozesse bezogene Hochwassertypologie obsolet wird. Außerdem kann es zur Überlagerung verschiedener Prozesse und der Bildung präzedenzloser Hochwasserdynamiken kommen. Üblicherweise wird seltenen Hochwasserereignissen eine über einen langen Zeitraum bestimmte Wiederkehrwahrscheinlichkeit zugewiesen. Allerdings wird die assoziierte Wiederkehrdauer häufig nur auf der Grundlage des Höchstwasserstandes ermittelt und ist nicht umfassend genug, um die unterschiedlichen Prozesstypen zu erfassen. Um umfassendere Abflussmerkmale in die Hochwassercharakterisierung aufzunehmen, wird die Charakterisierung der Abflussdynamik mittels der kontinuierlichen Gestalt des Hydrographen und als Kurve im Phasenraum empfohlen. Durch die Berücksichtigung des Taken‘schen Satzes zur Einbettung der Zeitverzögerung können ereignisbasierte Hydrographen weiter unterschieden werden. Dieser Ansatz nutzt die zeitliche Abfolge gemessener Abflusswerte, sodass der Einfluss der anfänglichen Werte auf das Hochwasserereignis als charakteristischer Vektor im multidimensionalen Phasenraum interpretiert werden kann. Im Rahmen dieser Arbeit wurden, erstmals im Bereich der Hydrologie, ‚Recurrence Plot‘ (RP) und ‚Recurrence Quantification Analysis‘ RQA eingesetzt, um die Seltenheit bzw. Ähnlichkeit von Abflussdynamiken zu visualisieren und identifizieren. Ebenso werden Anwendungsbeispiele im Bereich der Hydrologie, die das Konzept der Charakterisierung von Abflussdynamiken und den Nutzen des eingeführten Ähnlichkeitsindex verdeutlichen, vorgestellt. Außerdem wurde die Methodik weiterentwickelt und zeichnet sich nun durch erhöhte Robustheit gegenüber Störeinflüssen und eine bessere Anpassung an Abflussmessungen aus. Ein abschließendes Anwendungsbeispiel untersucht den in Dresden gemessenen Abfluss des ostdeutschen Elbe-Einzugsgebietes im Zeitraum von 1901 bis 2010. In dieser Studie werden Beispiele seltener und saisonunabhängiger Hochwasserereignisse, die durch ihre ungewöhnliche Abflussdynamik herausstechen, gezeigt und mit zugrundeliegenden abflussbildenden Prozessen in Verbindung gebracht. KW - Hydrograph Analysis KW - Time Embedded Phase Space KW - Rare and Unseasonal Flood KW - Non-stationary Flood Risk KW - Chaos Theory KW - Recurrence Plots KW - Flood Risk Big Data Mining KW - Flood Change KW - Non-linear Geoscience KW - Chaostheorie KW - Änderungen des Hochwassers KW - Big data mining zu Hochwasserrisiken KW - Analyse von Abflussganglinien KW - nichtlineare Geowissenschaften KW - nichtstationäres Hochwasserrisiko KW - seltenes und saisonunübliches Hochwasser KW - Rekurrenzplot KW - Phasenraum des Time Delay Embedding Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431915 ER - TY - THES A1 - Rözer, Viktor T1 - Pluvial flood loss to private households T1 - Schäden durch urbane Sturzfluten in Privathaushalten N2 - Today, more than half of the world’s population lives in urban areas. With a high density of population and assets, urban areas are not only the economic, cultural and social hubs of every society, they are also highly susceptible to natural disasters. As a consequence of rising sea levels and an expected increase in extreme weather events caused by a changing climate in combination with growing cities, flooding is an increasing threat to many urban agglomerations around the globe. To mitigate the destructive consequences of flooding, appropriate risk management and adaptation strategies are required. So far, flood risk management in urban areas is almost exclusively focused on managing river and coastal flooding. Often overlooked is the risk from small-scale rainfall-triggered flooding, where the rainfall intensity of rainstorms exceeds the capacity of urban drainage systems, leading to immediate flooding. Referred to as pluvial flooding, this flood type exclusive to urban areas has caused severe losses in cities around the world. Without further intervention, losses from pluvial flooding are expected to increase in many urban areas due to an increase of impervious surfaces compounded with an aging drainage infrastructure and a projected increase in heavy precipitation events. While this requires the integration of pluvial flood risk into risk management plans, so far little is known about the adverse consequences of pluvial flooding due to a lack of both detailed data sets and studies on pluvial flood impacts. As a consequence, methods for reliably estimating pluvial flood losses, needed for pluvial flood risk assessment, are still missing. Therefore, this thesis investigates how pluvial flood losses to private households can be reliably estimated, based on an improved understanding of the drivers of pluvial flood loss. For this purpose, detailed data from pluvial flood-affected households was collected through structured telephone- and web-surveys following pluvial flood events in Germany and the Netherlands. Pluvial flood losses to households are the result of complex interactions between impact characteristics such as the water depth and a household’s resistance as determined by its risk awareness, preparedness, emergency response, building properties and other influencing factors. Both exploratory analysis and machine-learning approaches were used to analyze differences in resistance and impacts between households and their effects on the resulting losses. The comparison of case studies showed that the awareness around pluvial flooding among private households is quite low. Low awareness not only challenges the effective dissemination of early warnings, but was also found to influence the implementation of private precautionary measures. The latter were predominately implemented by households with previous experience of pluvial flooding. Even cases where previous flood events affected a different part of the same city did not lead to an increase in preparedness of the surveyed households, highlighting the need to account for small-scale variability in both impact and resistance parameters when assessing pluvial flood risk. While it was concluded that the combination of low awareness, ineffective early warning and the fact that only a minority of buildings were adapted to pluvial flooding impaired the coping capacities of private households, the often low water levels still enabled households to mitigate or even prevent losses through a timely and effective emergency response. These findings were confirmed by the detection of loss-influencing variables, showing that cases in which households were able to prevent any loss to the building structure are predominately explained by resistance variables such as the household’s risk awareness, while the degree of loss is mainly explained by impact variables. Based on the important loss-influencing variables detected, different flood loss models were developed. Similar to flood loss models for river floods, the empirical data from the preceding data collection was used to train flood loss models describing the relationship between impact and resistance parameters and the resulting loss to building structures. Different approaches were adapted from river flood loss models using both models with the water depth as only predictor for building structure loss and models incorporating additional variables from the preceding variable detection routine. The high predictive errors of all compared models showed that point predictions are not suitable for estimating losses on the building level, as they severely impair the reliability of the estimates. For that reason, a new probabilistic framework based on Bayesian inference was introduced that is able to provide predictive distributions instead of single loss estimates. These distributions not only give a range of probable losses, they also provide information on how likely a specific loss value is, representing the uncertainty in the loss estimate. Using probabilistic loss models, it was found that the certainty and reliability of a loss estimate on the building level is not only determined by the use of additional predictors as shown in previous studies, but also by the choice of response distribution defining the shape of the predictive distribution. Here, a mix between a beta and a Bernoulli distribution to account for households that are able to prevent losses to their building’s structure was found to provide significantly more certain and reliable estimates than previous approaches using Gaussian or non-parametric response distributions. The successful model transfer and post-event application to estimate building structure loss in Houston, TX, caused by pluvial flooding during Hurricane Harvey confirmed previous findings, and demonstrated the potential of the newly developed multi-variable beta model for future risk assessments. The highly detailed input data set constructed from openly available data sources containing over 304,000 affected buildings in Harris County further showed the potential of data-driven, building-level loss models for pluvial flood risk assessment. In conclusion, pluvial flood losses to private households are the result of complex interactions between impact and resistance variables, which should be represented in loss models. The local occurrence of pluvial floods requires loss estimates on high spatial resolutions, i.e. on the building level, where losses are variable and uncertainties are high. Therefore, probabilistic loss estimates describing the uncertainty of the estimate should be used instead of point predictions. While the performance of probabilistic models on the building level are mainly driven by the choice of response distribution, multi-variable models are recommended for two reasons: First, additional resistance variables improve the detection of cases in which households were able to prevent structural losses. Second, the added variability of additional predictors provides a better representation of the uncertainties when loss estimates from multiple buildings are aggregated. This leads to the conclusion that data-driven probabilistic loss models on the building level allow for a reliable loss estimation at an unprecedented level of detail, with a consistent quantification of uncertainties on all aggregation levels. This makes the presented approach suitable for a wide range of applications, from decision support in spatial planning to impact- based early warning systems. N2 - Über die Hälfte der Weltbevölkerung lebt heute in Städten. Mit einer hohen Dichte an Menschen, Gütern und Gebäuden sind Städte nicht nur die wirtschaftlichen, politischen und kulturellen Zentren einer Gesellschaft, sondern auch besonders anfällig gegenüber Naturkatastrophen. Insbesondere Hochwasser und Überflutungen stellen in Folge von steigenden Meeresspiegeln und einer erwarteten Zunahme von Extremwettereignissen eine wachsende Bedrohung in vielen Regionen dar. Um die möglichen Folgen dieser Entwicklung zu vermeiden bzw. zu reduzieren, ist es notwendig sich der steigenden Gefahr durch geeignete Maßnahmen anzupassen. Bisher ist der Hochwasserschutz in Städten beinahe ausschließlich auf Überflutungen durch Flusshochwasser oder Sturmfluten fokussiert. Dabei werden sogenannte urbane Sturzfluten, die in den letzten Jahren vermehrt zu hohen Schäden in Städten geführt haben, nicht berücksichtigt. Bei urbanen Sturzfluten führen lokale Starkniederschläge mit hohen Regenmengen zu einer Überlastung des städtischen Abwassersystems und damit zu einer direkten, oft kleinräumigen Überflutung innerhalb eines bebauten Gebiets. Mit einer prognostizierten Zunahme von Starkniederschlägen, sowie einer baulichen Verdichtung und damit einhergehender Flächenversiegelung in vielen Städten, ist mit einer Zunahme von urbanen Sturzfluten zu rechnen. Dies verlangt die Einbindung des Risikos durch urbane Sturzfluten in bestehende Hochwasserschutzkonzepte. Bisher fehlen allerdings sowohl detaillierte Daten als auch Methoden um das Risiko durch urbane Sturzfluten und die dadurch verursachten Schäden, etwa an Wohngebäuden, zuverlässig abzuschätzen. Aus diesem Grund beschäftigt sich diese Arbeit hauptsächlich mit der Entwicklung von Verfahren und Modellen zur Abschätzung von Schäden an Privathaushalten durch urbane Sturzfluten. Dazu wurden detaillierte Daten durch Telefon- und Online-Umfragen nach urbanen Sturzflutereignissen in Deutschland und in den Niederlanden erhoben und ausgewertet. Die Erkenntnisse aus den detaillierten Analysen zu Vorsorge, Notmaßnahmen und Wiederherstellung, vor, während und nach urbanen Sturzflutereignissen, wurden genutzt um eine neue Methode zur Schätzung von Schäden an Wohngebäuden zu entwickeln. Dabei werden neben Angaben wie Dauer und Höhe der Überflutung, auch Eigenschaften von Haushalten, wie etwa deren Risikobewusstsein, in die Schätzung miteinbezogen. Nach lokaler Validierung wurde die neuentwickelte Methode beispielhaft zur Schätzung von Wohngebäudeschäden nach einem urbanen Sturzflutereignis im Großraum Houston (Texas, USA) erfolgreich angewendet. Anders als bei bisherigen Ansätzen wird der geschätzte Schaden eines Wohngebäudes nicht als einzelner Wert angegeben, sondern als Verteilung, welche die Bandbreite möglicher Schäden und deren Wahrscheinlichkeit angibt. Damit konnte die Zuverlässigkeit von Schadensschätzungen im Vergleich zu bisherigen Verfahren erheblich verbessert werden. Durch die erfolgreiche Anwendung sowohl auf der Ebene einzelner Gebäude als auch für gesamte Städte, ergibt sich ein breites Spektrum an Nutzungsmöglichkeiten, etwa als Entscheidungsunterstützung in der Stadtplanung oder für eine verbesserte Frühwarnung vor urbanen Sturzfluten. KW - Schadensmodellierung KW - Unsicherheiten KW - Starkregen KW - Privathaushalte KW - damage modeling KW - economic impacts KW - uncertainty KW - private households KW - probabilistic KW - pluvial flooding Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429910 ER - TY - THES A1 - Gostkowska-Lekner, Natalia Katarzyna T1 - Organic-inorganic hybrids based on P3HT and mesoporous silicon for thermoelectric applications T1 - Organisch-anorganische Hybride basierend auf P3HT und porösem Silizium für thermoelektrische Anwendungen N2 - This thesis presents a comprehensive study on synthesis, structure and thermoelectric transport properties of organic-inorganic hybrids based on P3HT and porous silicon. The effect of embedding polymer in silicon pores on the electrical and thermal transport is studied. Morphological studies confirm successful polymer infiltration and diffusion doping with roughly 50% of the pore space occupied by conjugated polymer. Synchrotron diffraction experiments reveal no specific ordering of the polymer inside the pores. P3HT-pSi hybrids show improved electrical transport by five orders of magnitude compared to porous silicon and power factor values comparable or exceeding other P3HT-inorganic hybrids. The analysis suggests different transport mechanisms in both materials. In pSi, the transport mechanism relates to a Meyer-Neldel compansation rule. The analysis of hybrids' data using the power law in Kang-Snyder model suggests that a doped polymer mainly provides charge carriers to the pSi matrix, similar to the behavior of a doped semiconductor. Heavily suppressed thermal transport in porous silicon is treated with a modified Landauer/Lundstrom model and effective medium theories, which reveal that pSi agrees well with the Kirkpatrick model with a 68% percolation threshold. Thermal conductivities of hybrids show an increase compared to the empty pSi but the overall thermoelectric figure of merit ZT of P3HT-pSi hybrid exceeds both pSi and P3HT as well as bulk Si. N2 - Diese Arbeit präsentiert eine umfassende Studie über Synthese, Struktur und thermoelektrische Transporteigenschaften von organisch-anorganischen Hybriden basierend auf P3HT und porösem Silizium. Es wird die Auswirkung der Einbettung von Polymerin Siliziumporen auf den elektrischen und thermischen Transport untersucht. Morphologische Studien bestätigen eine erfolgreiche Polymerinfiltration und Diffusionsdotierung, wobei etwa 50% des Porenraums mit konjugiertem Polymer gefüllt sind. Synchrotronexperimente zeigen keine spezifische Ordnung des Polymers innerhalb der Poren. P3HT-pSi-Hybride zeigen einen um fünf Größenordnungen verbesserten elektrischen Transport im Vergleich zu porösem Silizium und sogenannte Powerfaktoren, die mit anderen P3HT-anorganischen Hybriden vergleichbar sind oder diese übertreffen. Die Analyse lässt auf unterschiedliche Transportmechanismen in beiden Materialien schließen. In pSi bezieht sich der Transportmechanismus auf eine Meyer-Neldel-{Kompensa\-tionsregel}. Die Analyse der Hybriddaten unter Verwendung des Potenzgesetzes im Kang-Snyder-Modell legt nahe, dass ein dotiertes Polymer hauptsächlich Ladungsträger für die pSi-Matrix bereitstellt, ähnlich dem Verhalten eines {dotier\-ten} Halbleiters. Der stark unterdrückte Wärmetransport in porösem Silizium wird mit einem modifizierten Landauer/Lundstrom-Modell und Effektivmediumtheorien behandelt, die zeigen, dass pSi mit einem Perkolationsschwellenwert von 68% gut mit dem Kirkpatrick-Modell übereinstimmt. Die {Wärmeleitfähigkei\-ten} von Hybriden zeigen einen Anstieg im Vergleich zum leeren pSi, aber der gesamte thermoelektrische Gütefaktor ZT des P3HT-pSi-Hybrids übertrifft sowohl pSi und P3HT als auch den von Bulk-Si. KW - physics KW - energy KW - thermoelectricity KW - organic-inorganic hybrids KW - Energie KW - organisch-anorganische Hybride KW - Physik KW - Thermoelektrizität Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620475 ER - TY - THES A1 - Kiss, Andrea T1 - Moss-associated bacterial and archaeal communities of northern peatlands: key taxa, environmental drivers and potential functions T1 - Moos-assoziierte bakterielle und archaelle Gemeinschaften nördlicher Moore: Schlüsselspezies, beeinflussende Umweltfaktoren und potentielle Funktionen N2 - Moss-microbe associations are often characterised by syntrophic interactions between the microorganisms and their hosts, but the structure of the microbial consortia and their role in peatland development remain unknown. In order to study microbial communities of dominant peatland mosses, Sphagnum and brown mosses, and the respective environmental drivers, four study sites representing different successional stages of natural northern peatlands were chosen on a large geographical scale: two brown moss-dominated, circumneutral peatlands from the Arctic and two Sphagnum-dominated, acidic peat bogs from subarctic and temperate zones. The family Acetobacteraceae represented the dominant bacterial taxon of Sphagnum mosses from various geographical origins and displayed an integral part of the moss core community. This core community was shared among all investigated bryophytes and consisted of few but highly abundant prokaryotes, of which many appear as endophytes of Sphagnum mosses. Moreover, brown mosses and Sphagnum mosses represent habitats for archaea which were not studied in association with peatland mosses so far. Euryarchaeota that are capable of methane production (methanogens) displayed the majority of the moss-associated archaeal communities. Moss-associated methanogenesis was detected for the first time, but it was mostly negligible under laboratory conditions. Contrarily, substantial moss-associated methane oxidation was measured on both, brown mosses and Sphagnum mosses, supporting that methanotrophic bacteria as part of the moss microbiome may contribute to the reduction of methane emissions from pristine and rewetted peatlands of the northern hemisphere. Among the investigated abiotic and biotic environmental parameters, the peatland type and the host moss taxon were identified to have a major impact on the structure of moss-associated bacterial communities, contrarily to archaeal communities whose structures were similar among the investigated bryophytes. For the first time it was shown that different bog development stages harbour distinct bacterial communities, while at the same time a small core community is shared among all investigated bryophytes independent of geography and peatland type. The present thesis displays the first large-scale, systematic assessment of bacterial and archaeal communities associated both with brown mosses and Sphagnum mosses. It suggests that some host-specific moss taxa have the potential to play a key role in host moss establishment and peatland development. N2 - Während die Beziehungen zwischen Moosen und den mit ihnen assoziierten Mikroorganismen oft durch syntrophische Wechselwirkungen charakterisiert sind, ist die Struktur der Moos-assoziierten mikrobiellen Gemeinschaften sowie deren Rolle bei der Entstehung von Mooren weitgehend unbekannt. Die vorliegende Arbeit befasst sich mit mikrobiellen Gemeinschaften, die mit Moosen nördlicher, naturnaher Moore assoziiert sind, sowie mit den Umweltfaktoren, die sie beeinflussen. Entlang eines groß angelegten geographischen Gradienten, der von der Hocharktis bis zur gemäßigten Klimazone reicht, wurden vier naturbelassene Moore als Probenstandorte ausgesucht, die stellvertretend für verschiedene Stadien der Moorentwicklung stehen: zwei Braunmoos-dominierte Niedermoore mit nahezu neutralem pH-Wert sowie zwei Sphagnum-dominierte Torfmoore mit saurem pH-Wert. Die Ergebnisse der vorliegenden Arbeit machen deutlich, dass die zu den Bakterien zählenden Acetobacteraceae das vorherrschende mikrobielle Taxon der Sphagnum-Moose gleich welchen geographischen Ursprungs darstellen und insbesondere innerhalb des Wirtsmoosgewebes dominieren. Gleichzeitig gehörten die Acetobacteraceae zum wesentlichen Bestandteil der mikrobiellen Kerngemeinschaft aller untersuchten Moose, die sich aus einigen wenigen Arten, dafür zahlreich vorkommenden Prokaryoten zusammensetzt. Die vorliegende Arbeit zeigt zudem erstmals, dass sowohl Braunmoose als auch Torfmoose ein Habitat für Archaeen darstellen. Die Mehrheit der Moos-assoziierten Archaeen gehörte dabei zu den methanbildenden Gruppen, wenngleich die metabolischen Aktivitätsraten unter Laborbedingungen meistens kaum messbar waren. Im Gegensatz hierzu konnte die Bakterien-vermittelte Methanoxidation sowohl an Braunmoosen als auch an Sphagnum-Moosen gemessen werden. Dies zeigt eindrucksvoll, dass Moos-assoziierte Bakterien potenziell zur Minderung von Methanemissionen aus nördlichen, aber auch wiedervernässten Mooren beitragen können. Ein weiteres wichtiges Resultat der vorliegenden Arbeit ist die Bedeutung des Moortyps (Niedermoor oder Torfmoor), aber auch der Wirtsmoosart selbst für die Struktur der Moos-assoziierten Bakteriengemeinschaften, während die archaeellen Gemeinschaftsstrukturen weder vom Moortyp noch von der Wirtsmoosart beeinflusst wurden und sich insgesamt deutlich ähnlicher waren als die der Bakterien. Darüber hinaus konnte erstmalig gezeigt werden, dass sich die bakteriellen Gemeinschaften innerhalb der unterschiedlichen Moorsukzessionsstadien zwar ganz erheblich voneinander unterscheiden, ein kleiner Teil der Bakterien dennoch Kerngemeinschaften bilden, die mit allen untersuchten Moosarten assoziiert waren. Bei der hier präsentierten Arbeit handelt es sich um die erste systematische Studie, die sich auf einer großen geographischen Skala mit den bakteriellen und archaeellen Gemeinschaften von Braunmoosen und Torfmoosen aus naturbelassenen nördlichen Mooren befasst. Die vorliegenden Ergebnisse machen deutlich, dass die untersuchten Moose ein ganz spezifisches mikrobielles Konsortium beherbergen, welches mutmaßlich eine Schlüsselrolle bei der Etablierung der Wirtspflanzen am Anfang der Moorentwicklung spielt und darüber hinaus das Potential hat, die charakteristischen Eigenschaften von Mooren sowie deren weitere Entwicklung zu prägen. KW - moss-microbe-interactions KW - moss-associated bacteria KW - moss-associated archaea KW - northern peatlands KW - peatland core microbiome KW - Acetobacteraceae KW - moss-associated methanotrophy KW - moss-associated methanogenesis KW - Sphagnum KW - Amblystegiaceae KW - endophytes KW - brown mosses KW - epiphytes KW - peatland development KW - bryophytes KW - host-specificity KW - large-scale study KW - methanotrophic bacteria KW - methanogenic archaea KW - Essigsäurebakterien KW - Amblystegiaceae KW - Torfmoose KW - Braunmoose KW - Bryophyten KW - Endophyten KW - Epiphyten KW - Wirtsspezifität KW - geographische Großstudie KW - methanproduzierende Archaeen KW - methanoxidierende Bakterien KW - Moos-assoziierte Methanproduktion KW - Moos-assoziierte Methanoxidation KW - Moos-Mikroben-Interaktion KW - nördliche Moore KW - mikrobielle Moor-Kerngemeinschaft KW - Moorsukzession Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-630641 ER - TY - THES A1 - Zeitz, Maria T1 - Modeling the future resilience of the Greenland Ice Sheet T1 - Numerische Modellierung der zukünftigen Resilienz des grönländischen Eisschildes BT - from the flow of ice to the interplay of feedbacks N2 - The Greenland Ice Sheet is the second-largest mass of ice on Earth. Being almost 2000 km long, more than 700 km wide, and more than 3 km thick at the summit, it holds enough ice to raise global sea levels by 7m if melted completely. Despite its massive size, it is particularly vulnerable to anthropogenic climate change: temperatures over the Greenland Ice Sheet have increased by more than 2.7◦C in the past 30 years, twice as much as the global mean temperature. Consequently, the ice sheet has been significantly losing mass since the 1980s and the rate of loss has increased sixfold since then. Moreover, it is one of the potential tipping elements of the Earth System, which might undergo irreversible change once a warming threshold is exceeded. This thesis aims at extending the understanding of the resilience of the Greenland Ice Sheet against global warming by analyzing processes and feedbacks relevant to its centennial to multi-millennial stability using ice sheet modeling. One of these feedbacks, the melt-elevation-feedback is driven by the temperature rise with decreasing altitudes: As the ice sheet melts, its thickness and surface elevation decrease, exposing the ice surface to warmer air and thus increasing the melt rates even further. The glacial isostatic adjustment (GIA) can partly mitigate this melt-elevation feedback as the bedrock lifts in response to an ice load decrease, forming the negative GIA feedback. In my thesis, I show that the interaction between these two competing feedbacks can lead to qualitatively different dynamical responses of the Greenland Ice Sheet to warming – from permanent loss to incomplete recovery, depending on the feedback parameters. My research shows that the interaction of those feedbacks can initiate self-sustained oscillations of the ice volume while the climate forcing remains constant. Furthermore, the increased surface melt changes the optical properties of the snow or ice surface, e.g. by lowering their albedo, which in turn enhances melt rates – a process known as the melt-albedo feedback. Process-based ice sheet models often neglect this melt-albedo feedback. To close this gap, I implemented a simplified version of the diurnal Energy Balance Model, a computationally efficient approach that can capture the first-order effects of the melt-albedo feedback, into the Parallel Ice Sheet Model (PISM). Using the coupled model, I show in warming experiments that the melt-albedo feedback almost doubles the ice loss until the year 2300 under the low greenhouse gas emission scenario RCP2.6, compared to simulations where the melt-albedo feedback is neglected, and adds up to 58% additional ice loss under the high emission scenario RCP8.5. Moreover, I find that the melt-albedo feedback dominates the ice loss until 2300, compared to the melt-elevation feedback. Another process that could influence the resilience of the Greenland Ice Sheet is the warming induced softening of the ice and the resulting increase in flow. In my thesis, I show with PISM how the uncertainty in Glen’s flow law impacts the simulated response to warming. In a flow line setup at fixed climatic mass balance, the uncertainty in flow parameters leads to a range of ice loss comparable to the range caused by different warming levels. While I focus on fundamental processes, feedbacks, and their interactions in the first three projects of my thesis, I also explore the impact of specific climate scenarios on the sea level rise contribution of the Greenland Ice Sheet. To increase the carbon budget flexibility, some warming scenarios – while still staying within the limits of the Paris Agreement – include a temporal overshoot of global warming. I show that an overshoot by 0.4◦C increases the short-term and long-term ice loss from Greenland by several centimeters. The long-term increase is driven by the warming at high latitudes, which persists even when global warming is reversed. This leads to a substantial long-term commitment of the sea level rise contribution from the Greenland Ice Sheet. Overall, in my thesis I show that the melt-albedo feedback is most relevant for the ice loss of the Greenland Ice Sheet on centennial timescales. In contrast, the melt-elevation feedback and its interplay with the GIA feedback become increasingly relevant on millennial timescales. All of these influence the resilience of the Greenland Ice Sheet against global warming, in the near future and on the long term. N2 - Das grönländische Eisschild ist die zweitgrößte Eismasse der Erde. Es fasst genug Eis, um den globalen Meeresspiegel um 7m anzuheben, wenn er vollständig schmilzt. Trotz seiner Größe ist es durch den vom Menschen verursachten Klimawandel immens gefährdet: Die Temperaturen über Grönland sind in den letzten 30 Jahren um mehr als 2,7◦C gestiegen, doppelt so stark wie im globalen Mittel. Daher verliert das Eisschild seit den 1980er Jahren an Masse und die Verlustrate hat sich seitdem versechsfacht. Zudem ist das grönländische Eisschild ein Kippelement des Erdsystems, es könnte sich unwiederbringlich verändern, wenn die globale Erwärmung einen Schwellwert überschreiten sollte. Ziel dieser Arbeit ist es, das Verständnis für die Resilienz des grönländischen Eisschildes zu erweitern, indem relevante Rückkopplungen und Prozesse analysiert werden. Eine dieser Rückkopplungen, die positive Schmelz-Höhen-Rückkopplung wird durch den Temperaturanstieg bei abnehmender Höhe angetrieben: Wenn der Eisschild schmilzt, nehmen seine Dicke und die Oberflächenhöhe ab, wodurch die Eisoberfläche wärmerer Luft ausgesetzt wird und die Schmelzraten noch weiter ansteigen. Die glaziale isostatische Anpassung (GIA) kann die Schmelz-Höhen-Rückkopplung teilweise abschwächen, da sich der Erdmantel als Reaktion auf die abnehmende Eislast hebt und so die negative GIA-Rückkopplung bildet. Ich zeige, dass die Interaktion zwischen diesen beiden konkurrierenden Rückkopplungen zu qualitativ unterschiedlichem dynamischen Verhalten des grönländischen Eisschildes bei Erwärmung führen kann - von permanentem Verlust bis hin zu unvollständiger Erholung. Das Zusammenspiel dieser Rückkopplungen kann zudem Oszillationen des Eisvolumens in einem konstanten Klima auslösen. Die verstärkte Oberflächenschmelze ändert die optischen Eigenschaften von Schnee und Eis und verringert deren Albedo, was wiederum die Schmelzraten erhöht – die sogenannte Schmelz-Albedo Rückkopplung. Da viele Eisschildmodelle diese vernachlässigen, habe ich eine vereinfachte Version des tageszeitlichen Energiebilanzmodells, welches die Effekte der Schmelz-Albedo-Rückkopplung erster Ordnung erfassen kann, in das Eisschildmodell PISM implementiert. Mithilfe des gekoppelten Modells zeige ich, dass die Schmelz-Albedo-Rückkopplung den Eisverlust bis zum Jahr 2300 im moderaten Klimaszenario RCP2.6 fast verdoppelt und im RCP8.5-Szenario, welches von starken Emissionen ausgeht, bis zu 58% zusätzlichen Eisverlust verursacht, im Vergleich zu Simulationen in denen die Schmelz-Albedo-Rückkopplung vernachlässigt wird. Bis zum Jahr 2300 trägt die Schmelz-Albedo-Rückkopplung mehr zum Eisverlust bei als die Schmelz-Höhen-Rückkopplung. Ein weiterer Prozess, der die Widerstandsfähigkeit des grönländischen Eisschilds beeinflussen könnte, ist die Erweichung des Eises bei steigenden Temperaturen, sowie die daraus resultierende Zunahme des Eisflusses. In meiner Dissertation zeige ich, wie sich die parametrische Unsicherheit in dem Flussgesetz auf die Ergebnisse von PISM Simulationen bei Erwärmung auswirkt. In einem idealisierten, zweidimensionalen Experiment mit fester klimatischer Massenbilanz führt die Unsicherheit in den Strömungsparametern zu einer Bandbreite des Eisverlustes, die mit der Bandbreite durch unterschiedliche Erwärmungen vergleichbar ist. Neben den grundsätzlichen Prozessen und Rückkopplungen untersuchte ich auch die Auswirkungen konkreter Klimaszenarien auf den Eisverlust von Grönland. Um die Flexibilität des Kohlenstoffbudgets zu erhöhen sehen einige Erwärmungsszenarien eine temporäre Überschreitung der globalen Temperaturen über das Ziel von 1,5◦C vor. Ich zeige, dass eine solche Temperaturerhöhung den kurz- und langfristigen Eisverlust von Grönland um mehrere Zentimeter erhöht. Der langfristige Meeresspiegelanstieg ist auf die anhaltende Temperaturerhöhung in hohen Breitengraden zurückzuführen. Solche Prozesse führen zu einem langfristigen und bereits festgelegtem Meeresspiegelanstieg, selbst wenn die Temperaturen nicht weiter steigen. Insgesamt zeige ich in meiner Arbeit, dass die Schmelz-Albedo-Rückkopplung für den Eisverlust des grönländischen Eisschilds in den nächsten Jahrhunderten am wichtigsten ist. Im Gegensatz dazu werden die Schmelz-Höhen-Rückkopplung und ihr Zusammenspiel mit der GIA-Rückkopplung auf längeren Zeiträumen immer relevanter. KW - Greenland Ice Sheet KW - ice-flow modeling KW - sea-level rise KW - Grönländisches Eisschild KW - Computersimulation KW - Meeresspiegelanstieg Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-568839 ER - TY - THES A1 - Mester, Benedikt T1 - Modeling flood-induced human displacement risk under global change T1 - Modellierung des hochwasserbedingten Risikos der Vertreibung von Menschen unter globalen Veränderungen N2 - Extreme flooding displaces an average of 12 million people every year. Marginalized populations in low-income countries are in particular at high risk, but also industrialized countries are susceptible to displacement and its inherent societal impacts. The risk of being displaced results from a complex interaction of flood hazard, population exposed in the floodplains, and socio-economic vulnerability. Ongoing global warming changes the intensity, frequency, and duration of flood hazards, undermining existing protection measures. Meanwhile, settlements in attractive yet hazardous flood-prone areas have led to a higher degree of population exposure. Finally, the vulnerability to displacement is altered by demographic and social change, shifting economic power, urbanization, and technological development. These risk components have been investigated intensively in the context of loss of life and economic damage, however, only little is known about the risk of displacement under global change. This thesis aims to improve our understanding of flood-induced displacement risk under global climate change and socio-economic change. This objective is tackled by addressing the following three research questions. First, by focusing on the choice of input data, how well can a global flood modeling chain reproduce flood hazards of historic events that lead to displacement? Second, what are the socio-economic characteristics that shape the vulnerability to displacement? Finally, to what degree has climate change potentially contributed to recent flood-induced displacement events? To answer the first question, a global flood modeling chain is evaluated by comparing simulated flood extent with satellite-derived inundation information for eight major flood events. A focus is set on the sensitivity to different combinations of the underlying climate reanalysis datasets and global hydrological models which serve as an input for the global hydraulic model. An evaluation scheme of performance scores shows that simulated flood extent is mostly overestimated without the consideration of flood protection and only for a few events dependent on the choice of global hydrological models. Results are more sensitive to the underlying climate forcing, with two datasets differing substantially from a third one. In contrast, the incorporation of flood protection standards results in an underestimation of flood extent, pointing to potential deficiencies in the protection level estimates or the flood frequency distribution within the modeling chain. Following the analysis of a physical flood hazard model, the socio-economic drivers of vulnerability to displacement are investigated in the next step. For this purpose, a satellite- based, global collection of flood footprints is linked with two disaster inventories to match societal impacts with the corresponding flood hazard. For each event the number of affected population, assets, and critical infrastructure, as well as socio-economic indicators are computed. The resulting datasets are made publicly available and contain 335 displacement events and 695 mortality/damage events. Based on this new data product, event-specific displacement vulnerabilities are determined and multiple (national) dependencies with the socio-economic predictors are derived. The results suggest that economic prosperity only partially shapes vulnerability to displacement; urbanization, infant mortality rate, the share of elderly, population density and critical infrastructure exhibit a stronger functional relationship, suggesting that higher levels of development are generally associated with lower vulnerability. Besides examining the contextual drivers of vulnerability, the role of climate change in the context of human displacement is also being explored. An impact attribution approach is applied on the example of Cyclone Idai and associated extreme coastal flooding in Mozambique. A combination of coastal flood modeling and satellite imagery is used to construct factual and counterfactual flood events. This storyline-type attribution method allows investigating the isolated or combined effects of sea level rise and the intensification of cyclone wind speeds on coastal flooding. The results suggest that displacement risk has increased by 3.1 to 3.5% due to the total effects of climate change on coastal flooding, with the effects of increasing wind speed being the dominant factor. In conclusion, this thesis highlights the potentials and challenges of modeling flood- induced displacement risk. While this work explores the sensitivity of global flood modeling to the choice of input data, new questions arise on how to effectively improve the reproduction of flood return periods and the representation of protection levels. It is also demonstrated that disentangling displacement vulnerabilities is feasible, with the results providing useful information for risk assessments, effective humanitarian aid, and disaster relief. The impact attribution study is a first step in assessing the effects of global warming on displacement risk, leading to new research challenges, e.g., coupling fluvial and coastal flood models or the attribution of other hazard types and displacement events. This thesis is one of the first to address flood-induced displacement risk from a global perspective. The findings motivate for further development of the global flood modeling chain to improve our understanding of displacement vulnerability and the effects of global warming. N2 - Durch extreme Überschwemmungen werden jedes Jahr durchschnittlich 12 Millionen Menschen vertrieben. Vor allem marginalisierte Bevölkerungsgruppen in Ländern mit niedrigem Einkommen sind stark gefährdet, aber auch Industrieländer sind anfällig für Vertreibungen und die damit verbundenen gesellschaftlichen Auswirkungen. Das Risiko der Vertreibung ergibt sich aus einer komplexen Wechselwirkung zwischen der Hochwassergefahr, der Exposition der in den Überschwemmungsgebieten lebenden Bevölkerung und der sozioökonomischen Vulnerabilität. Die fortschreitende globale Erderwärmung verändert die Intensität, Häufigkeit und Dauer von Hochwassergefahren und untergräbt die bestehenden Schutzmaßnahmen. Gleichzeitig hat die Besiedlung attraktiver, aber gefährdeter Überschwemmungsgebiete zu einem höheren Maß an Exposition der Bevölkerung geführt. Schließlich wird die Vulnerabilität für Vertreibungen durch den demografischen und sozialen Wandel, die Verlagerung der Wirtschaftskräfte, die Urbanisierung und die technologische Entwicklung verändert. Diese Risikokomponenten wurden im Zusammenhang mit dem Verlust von Menschenleben und wirtschaftlichen Schäden intensiv untersucht, über das Risiko der Vertreibung im Rahmen des globalen Wandels ist jedoch nur wenig bekannt. Diese Arbeit zielt darauf ab, unser Verständnis des durch Überschwemmungen verursachten Vertreibungsrisikos unter dem Einfluss des globalen Klimawandels und des sozioökonomischen Wandels zu verbessern. Dieses Ziel wird durch die Beantwortung der folgenden drei Forschungsfragen erreicht. Erstens: Wie gut kann eine globale Hochwassermodellierungskette die Hochwassergefahren historischer Ereignisse, die zu Vertreibung geführt haben, reproduzieren, wobei ein Fokus auf die Wahl der Eingangsdaten gelegt wird? Zweitens: Welches sind die sozioökonomischen Merkmale, die die Vulnerabilität für Vertreibung beeinflussen? Und schließlich, inwieweit hat der Klimawandel möglicherweise zu den jüngsten hochwasserbedingten Vertreibungsereignissen beigetragen? Zur Beantwortung der ersten Frage wird eine globale Hochwassermodellierungskette durch den Vergleich der simulierten Überschwemmungsfläche mit satellitengestützten Überschwemmungsdaten für acht große Hochwasserereignisse überprüft. Der Schwerpunkt liegt dabei auf der Sensitivität gegenüber verschiedenen Kombinationen der zugrunde liegenden Klimareanalysedatensätzen und globalen hydrologischen Modellen, die als Input für das globale Hydraulikmodell dienen. Ein Bewertungsschema von Leistungsindikatoren zeigt, dass die simulierte Überschwemmungsfläche ohne Berücksichtigung des Hochwasserschutzes meist überschätzt wird und nur bei wenigen Ereignissen von der Wahl der globalen hydrologischen Modelle abhängt. Die Ergebnisse sind empfindlicher gegenüber dem zugrunde liegenden Climate Forcing, wobei sich zwei Datensätze erheblich von einem dritten unterscheiden. Im Gegensatz dazu führt die Einbeziehung von Hochwasserschutznormen zu einer Unterschätzung der Überschwemmungsfläche, was auf mögliche Mängel bei der Schätzung des Schutzniveaus oder der Hochwasserhäufigkeitsverteilung innerhalb der Modellierungskette hinweist. Nach der Analyse des physikalischen Hochwassergefahrenmodells werden in einem nächsten Schritt die sozioökonomischen Triebkräfte für die Vulnerabilität für Vertreibungen untersucht. Zu diesem Zweck wird eine satellitengestützte, globale Sammlung von Hochwasseüberschwemmungsflächen mit zwei Katastrophendatenbänken verknüpft, um die gesellschaftlichen Auswirkungen mit der entsprechenden Hochwassergefahr zusammenzuführen. Für jedes Ereignis werden die Anzahl der betroffenen Menschen, Vermögenswerte und kritischen Infrastrukturen sowie sozioökonomische Indikatoren berechnet. Die daraus resultierenden Datensätze werden öffentlich zugänglich gemacht und enthalten 335 Vertreibungsereignisse und 695 Todesopfer-/Schadensereignisse. Auf der Grundlage dieses neuen Datenprodukts werden ereignisspezifische Vertreibungsvulnerabilitäten bestimmt und vielfältige (nationale) Abhängigkeiten mit den sozioökonomischen Prädiktoren abgeleitet. Die Ergebnisse deuten darauf hin, dass wirtschaftlicher Wohlstand nur teilweise die Anfälligkeit für Vertreibungen beeinflusst; Urbanisierung, Kindersterblichkeitsrate, der Anteil älterer Menschen, Bevölkerungsdichte und kritische Infrastrukturen weisen eine stärkere funktionale Beziehung auf, was den Schluss zulässt, dass ein höheres Entwicklungsniveau im Allgemeinen mit einer geringeren Vulnerabilität verbunden ist. Neben der Untersuchung der kontextabhängigen Faktoren der Vulnerabilität wird auch die Rolle des Klimawandels im Zusammenhang mit der Vertreibung von Menschen untersucht. Am Beispiel des Zyklons Idai und den damit verbundenen extremen Küstenüberschwemmungen in Mosambik wird ein Ansatz zur Attribution der Auswirkungen angewandt. Eine Kombination aus Küstenüberflutungsmodellierung und Satellitenbildern wird verwendet, um faktische und kontrafaktische Überschwemmungsereignisse zu konstruieren. Diese Storyline-artige Attributionsmethode ermöglicht die Untersuchung der isolierten oder kombinierten Auswirkungen des Meeresspiegelanstiegs und der Intensivierung der Windgeschwindigkeiten von Zyklonen auf die Küstenüberflutung. Die Ergebnisse deuten darauf hin, dass das Vertreibungsrisiko durch die Gesamtwirkung des Klimawandels auf Küstenüberschwemmungen um 3,1 bis 3,5 % gestiegen ist, wobei die Auswirkungen der zunehmenden Windgeschwindigkeit der dominierende Faktor sind. Zusammenfassend zeigt diese Arbeit die Potentiale und Herausforderungen der Modellierung von hochwasserbedingten Vertreibungsrisiken auf. Während diese Arbeit die Sensitivität der globalen Hochwassermodellierung in Bezug auf die Wahl der Eingabedaten untersucht, ergeben sich neue Fragen, wie die Reproduktion von Wiederkehrintervallen und die Darstellung von Schutzniveaus effektiv verbessert werden kann. Die Ergebnisse liefern nützliche Informationen für Risikobewertungen, effektive humanitäre Hilfe und Katastrophenhilfe. Die Studie zur Auswirkungs-Attribution ist ein erster Schritt zur Bewertung der Effekte der globalen Erwärmung auf das Vertreibungsrisiko und führt zu neuen Forschungsherausforderungen, z. B. zur Kopplung von Fluss- und Küstenhochwassermodellen oder zur Untersuchung anderer Gefahrenarten. Diese Arbeit ist eine der ersten, die das durch Überschwemmungen verursachte Vertreibungsrisiko aus einer globalen Perspektive heraus betrachtet. Die Ergebnisse motivieren dazu, die globale Hochwassermodellierungskette weiterzuentwickeln, um unser Verständnis der Vertreibungsvulnerabilität und der Auswirkungen der globalen Erderwärmung zu vertiefen. KW - displacement KW - flooding KW - remote sensing KW - vulnerability KW - global flood model KW - Vertreibung KW - Überschwemmungen KW - Fernerkundung KW - Vulnerabilität KW - globales Überschwemmungsmodell Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-609293 ER -