TY - THES A1 - Breitenbach, Sebastian Franz Martin T1 - Changes in monsoonal precipitation and atmospheric circulation during the Holocene reconstructed from stalagmites from Northeastern India T1 - Veränderungen monsunalen Niederschlages und atmosphärischer Zirkulation während des Holozäns, rekonstruiert aus Stalagmiten aus Nordostindien N2 - Recent years witnessed a vast advent of stalagmites as palaeoclimate archives. The multitude of geochemical and physical proxies and a promise of a precise and accurate age model greatly appeal to palaeoclimatologists. Although substantial progress was made in speleothem-based palaeoclimate research and despite high-resolution records from low-latitudinal regions, proving that palaeo-environmental changes can be archived on sub-annual to millennial time scales our comprehension of climate dynamics is still fragmentary. This is in particular true for the summer monsoon system on the Indian subcontinent. The Indian summer monsoon (ISM) is an integral part of the intertropical convergence zone (ITCZ). As this rainfall belt migrates northward during boreal summer, it brings monsoonal rainfall. ISM strength depends however on a variety of factors, including snow cover in Central Asia and oceanic conditions in the Indic and Pacific. Presently, many of the factors influencing the ISM are known, though their exact forcing mechanism and mutual relations remain ambiguous. Attempts to make an accurate prediction of rainfall intensity and frequency and drought recurrence, which is extremely important for South Asian countries, resemble a puzzle game; all interaction need to fall into the right place to obtain a complete picture. My thesis aims to create a faithful picture of climate change in India, covering the last 11,000 ka. NE India represents a key region for the Bay of Bengal (BoB) branch of the ISM, as it is here where the monsoon splits into a northwestward and a northeastward directed arm. The Meghalaya Plateau is the first barrier for northward moving air masses and receives excessive summer rainfall, while the winter season is very dry. The proximity of Meghalaya to the Tibetan Plateau on the one hand and the BoB on the other hand make the study area a key location for investigating the interaction between different forcings that governs the ISM. A basis for the interpretation of palaeoclimate records, and a first important outcome of my thesis is a conceptual model which explains the observed pattern of seasonal changes in stable isotopes (d18O and d2H) in rainfall. I show that although in tropical and subtropical regions the amount effect is commonly called to explain strongly depleted isotope values during enhanced rainfall, alone it cannot account for observed rainwater isotope variability in Meghalaya. Monitoring of rainwater isotopes shows no expected negative correlation between precipitation amount and d18O of rainfall. In turn I find evidence that the runoff from high elevations carries an inherited isotopic signature into the BoB, where during the ISM season the freshwater builds a strongly depleted plume on top of the marine water. The vapor originating from this plume is likely to memorize' and transmit further very negative d18O values. The lack of data does not allow for quantication of this plume effect' on isotopes in rainfall over Meghalaya but I suggest that it varies on seasonal to millennial timescales, depending on the runoff amount and source characteristics. The focal point of my thesis is the extraction of climatic signals archived in stalagmites from NE India. High uranium concentration in the stalagmites ensured excellent age control required for successful high-resolution climate reconstructions. Stable isotope (d18O and d13C) and grey-scale data allow unprecedented insights into millennial to seasonal dynamics of the summer and winter monsoon in NE India. ISM strength (i. e. rainfall amount) is recorded in changes in d18Ostalagmites. The d13C signal, reflecting drip rate changes, renders a powerful proxy for dry season conditions, and shows similarities to temperature-related changes on the Tibetan Plateau. A sub-annual grey-scale profile supports a concept of lower drip rate and slower stalagmite growth during dry conditions. During the Holocene, ISM followed a millennial-scale decrease of insolation, with decadal to centennial failures resulting from atmospheric changes. The period of maximum rainfall and enhanced seasonality corresponds to the Holocene Thermal Optimum observed in Europe. After a phase of rather stable conditions, 4.5 kyr ago, the strengthening ENSO system dominated the ISM. Strong El Nino events weakened the ISM, especially when in concert with positive Indian Ocean dipole events. The strongest droughts of the last 11 kyr are recorded during the past 2 kyr. Using the advantage of a well-dated stalagmite record at hand I tested the application of laser ablation-inductively coupled plasma-mass spectrometry (LA-ICP-MS) to detect sub-annual to sub-decadal changes in element concentrations in stalagmites. The development of a large ablation cell allows for ablating sample slabs of up to 22 cm total length. Each analyzed element is a potential proxy for different climatic parameters. Combining my previous results with the LAICP- MS-generated data shows that element concentration depends not only on rainfall amount and associated leaching from the soil. Additional factors, like biological activity and hydrogeochemical conditions in the soil and vadose zone can eventually affect the element content in drip water and in stalagmites. I present a theoretical conceptual model for my study site to explain how climatic signals can be transmitted and archived in stalagmite carbonate. Further, I establish a first 1500 year long element record, reconstructing rainfall variability. Additionally, I hypothesize that volcanic eruptions, producing large amounts of sulfuric acid, can influence soil acidity and hence element mobilization. N2 - Stalagmiten erfuhren in den letzten Jahren vermehrt Aufmerksamkeit als bedeutende Paläoklima- Archive. Paläoklimatologen sind beeindruckt von der grossen Zahl geochemischer und physikalischer Indikatoren (Proxies) und der Möglichkeit, präzise absolute Altersmodelle zu erstellen. Doch obwohl substantielle Fortschritte in der speleothem-basierten Klimaforschung gemacht wurden, und trotz hochaufgelöster Archive aus niederen Breiten, welche zeigen, das Umweltveränderungen auf Zeitskalen von Jahren bis Jahrtausenden archiviert und rekonstruiert werden können, bleibt unser Verständnis der Klimadynamik fragmentarisch. Ganz besonders gilt dies für den Indischen Sommermonsun (ISM) auf dem Indischen Subkontinent. Der ISM ist heute als ein integraler Bestandteil der intertropischen Konvergenzzone verstanden. Sobald dieser Regengürtel während des borealen Sommer nordwärts migriert kann der ISM seine feuchten Luftmassen auf dem Asiatischen Festland entladen. Dabei hängt die Stärke des ISM von einer Vielzahl von Faktoren ab. Zu diesen gehören die Schneedicke in Zentralasien im vorhergehenden Winter und ozeanische Bedingungen im Indischen und Pazifschen Ozean. Heute sind viele dieser Faktoren bekannt. Trotzdem bleiben deren Mechanismen und internen Verbindungen weiterhin mysteriös. Versuche, korrekte Vorhersagen zu Niederschlagsintensität und Häufigkeit oder zu Dürreereignissen zu erstellen ähneln einem Puzzle. All die verschiedenen Interaktionen müssen an die richtige Stelle gelegt werden, um ein sinnvolles Bild entstehen zu lassen. Meine Dissertation versucht, ein vertrauenswürdiges Bild des sich wandelnden Holozänen Klimas in Indien zu erstellen. NE Indien ist eine Schlüsselregion für den östlichen Arm des ISM, da sich hier der ISM in zwei Arme aufteilt, einen nordwestwärts und einen nordostwärts gerichteten. Das Meghalaya Plateau ist das erste Hindernis für die sich nordwärts bewegenden Luftmassen und erhält entsprechend exzessive Niederschläge während des Sommers. Die winterliche Jahreszeit dagegen ist sehr trocken. Die Nähe zum Tibetplateau einerseits und der Bucht von Bengalen andererseits determinieren die Schlüsselposition dieser Region für das Studium der Interaktionen der den ISM beeinflussenden Kräfte. Ein Fundament für die Interpretation der Paläoklimarecords und ein erstes wichtiges Ergebnis meiner Arbeit ist ein konzeptuelles Modell, welches die beobachteten saisonalen Veränderungen stabiler Isotope (d18O und d2H) im Niederschlag erklärt. Ich zeige, das obwohl in tropischen und subtropischen Regionen meist der amount effect zur Erklärung stark negativer Isotopenwerte während starker Niederschläge herangezogen wird, dieser allein nicht ausreicht, um die Isotopenvariabilität im Niederschlag Meghalaya's zu erklären. Die Langzeitbeobachtung der Regenwasserisotopie zeigt keine negative Korrelation zwischen Niederschlagsmenge und d18O. Es finden sich Hinweise, das der Abfluss aus den Hochgebirgsregionen Tibets und des Himalaya eine Isotopensignatur an das Oberflächenwasser der Bucht von Bengalen vererbt. Dort bildet sich aus isotopisch stark abgereicherten Wässern während des ISM eine Süsswasserlinse aus. Es ist wahrscheinlich, das Wasserdampf, der aus dieser Linse stammt, ein Isotopensignal aufgeprägt bekommt, welches abgereichertes d18O weitertransportiert. Der Mangel an Daten lässt es bisher leider nicht zu, quantitative Aussagen über den Einfluss dieses plume effect' auf Niederschläge in Meghalaya zu treffen. Es lässt sich allerdings vermuten, das dieser Einfluss auf saisonalen wie auch auf langen Zeitskalen variabel ist, abhängig vom Abfluss und der Quellencharacteristik. Der Fokus meiner Arbeit liegt in der Herauslösung klimatischer Signale aus nordostindischen Stalagmiten. Hohe Urankonzentrationen in diesen Stalagmiten erlaubt eine exzellente Alterskontrolle, die für hochauflösende Klimarekonstruktionen unerlässlich ist. Die stabilen Isotope (d18O und d13C), sowie Grauwertdaten, erlauben einmalige Einblicke in die Dynamik des Sommer und auch des Wintermonsun in NE Indien. Die ISM Stärke (d. h. Niederschlagsmenge) wird in Veränderungen in den d18Ostalagmites reflektiert. Das d13C Signal, welches Tropfratenänderungen speichert, dient als potenter Indikator für winterliche Trockenheitsbedingungen. Es zeigt Ähnlichkeit zu temperaturabhängigen Veränderungen auf dem Tibetplateau. Das sub-annuell aufgelöste Grauwertprofil stärkt das Konzept, das verminderte Tropfraten und langsameres Stalagmitenwachstum eine Folge von Trockenheit sind. Während des Holozäns folgte der ISM der jahrtausendelangen Verringerung der Insolation. Es finden sich aber ebenso rapide Anomalien, die aus atmosphärischen Veränderungen resultieren. Die Phase des höchsten Niederschlages und erhöhter Saisonalität korrespondiert mit dem Holozänen Thermalen Maximum. Nach einer Phase einigermassen stabilen Bedingungen begann vor ca. 4500 Jahren ENSO einen zunehmenden Einfluss auf den ISM auszuüben. Starke El Nino Ereignisse schwächen den ISM, besonders wenn diese zeitgleich mit positiven Indian Ocean Dipole Ereignissen auftreten. Die stärksten Dürren des gesamten Holozäns traten in den letzten 2000 Jahren auf. Um zusätzliche Informationen aus den hervorragenden Proben zu gewinnen nutzte ich die Vorteile der laser ablation inductively coupled plasma mass spectrometry (LA-ICP-MS). Diese erlaubt die Detektion sub-annueller bis sub-dekadischer Elementkonzentrationsveränderungen in Stalagmiten. Mittels einer neu entwickelten Ablationszelle konnten Proben von maximal 22 cm Länge untersucht werden. Jedes analysierte Element ist ein potentieller Träger einer Klimainformation. Die Kombination der früheren Ergebnisse mit denen der LA-IPC-MS zeigt, das die Elementkonzentrationen nicht nur von Niederschlagsveränderungen und assoziiertem Auswaschen aus dem Boden abhängen. Zusätzlich können auch die biologische Aktivität und hydrogeochemische Bedingungen in der vadosen Zone Einfluss auf die Elementzusammensetzung im Tropfwasser und in den Stalagmiten haben. Darum entwickelte ich ein theoretisches Modell für meinen Standort, um zu klären, wie Klimasignale von der Atmosphäre in die Höhle transportiert werden können. Ein anschliessend rekonstruierter 1500 Jahre langer Proxyrecord zeigt Niederschlagsvariabilität an. Zudem besteht die Möglichkeit, das Vulkaneruptionen, welche grosse Mengen an Schwefelsäure produzieren, eine Bodenversauerung verursachen und damit die Elementmobilisierung verstärken können. KW - Indischer Sommermonsun KW - Stabile Isotope KW - Stalagmiten KW - Holozän KW - Bucht von Bengalen KW - Indian Summer Monsoon KW - Bay of Bengal KW - stable isotopes KW - stalagmites KW - Laser ablation Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-37807 ER - TY - THES A1 - Galushchinskiy, Alexey T1 - Carbon nitride: a flexible platform for net-oxidative and net-neutral photocatalysis BT - Kohlenstoffnitrid: Eine flexible Plattform für netzoxidative und netzneutrale Photokatalyse N2 - Solar photocatalysis is the one of leading concepts of research in the current paradigm of sustainable chemical industry. For actual practical implementation of sunlight-driven catalytic processes in organic synthesis, a cheap, efficient, versatile and robust heterogeneous catalyst is necessary. Carbon nitrides are a class of organic semiconductors who are known to fulfill these requirements. First, current state of solar photocatalysis in economy, industry and lab research is overviewed, outlining EU project funding, prospective synthetic and reforming bulk processes, small scale solar organic chemistry, and existing reactor designs and prototypes, concluding feasibility of the approach. Then, the photocatalytic aerobic cleavage of oximes to corresponding aldehydes and ketones by anionic poly(heptazine imide) carbon nitride is discussed. The reaction provides a feasible method of deprotection and formation of carbonyl compounds from nitrosation products and serves as a convenient model to study chromoselectivity and photophysics of energy transfer in heterogeneous photocatalysis. Afterwards, the ability of mesoporous graphitic carbon nitride to conduct proton-coupled electron transfer was utilized for the direct oxygenation of 1,3-oxazolidin-2-ones to corresponding 1,3-oxazlidine-2,4-diones. This reaction provides an easier access to a key scaffold of diverse types of drugs and agrochemicals. Finally, a series of novel carbon nitrides based on poly(triazine imide) and poly(heptazine imide) structure was synthesized from cyanamide and potassium rhodizonate. These catalysts demonstrated a good performance in a set of photocatalytic benchmark reactions, including aerobic oxidation, dual nickel photoredox catalysis, hydrogen peroxide evolution and chromoselective transformation of organosulfur precursors. Concluding, the scope of carbon nitride utilization for net-oxidative and net-neutral photocatalytic processes was expanded, and a new tunable platform for catalyst synthesis was discovered. N2 - Die solare Photokatalyse ist eines der führenden Forschungskonzepte im aktuellen Paradigma der nachhaltigen chemischen Industrie. Für die praktische Umsetzung von sonnenlichtgetriebenen katalytischen Prozessen in der organischen Synthese ist ein billiger, effizienter, vielseitiger und robuster heterogener Katalysator erforderlich. Kohlenstoffnitride sind eine Klasse von organischen Halbleitern, von denen bekannt ist, dass sie diese Anforderungen erfüllen. Zunächst wird ein Überblick über den aktuellen Stand der solaren Photokatalyse in Wirtschaft, Industrie und Laborforschung gegeben, wobei die Finanzierung von EU-Projekten, künftige Synthese- und Reformierungsprozesse in großen Mengen, organische Solarchemie in kleinem Maßstab sowie bestehende Reaktorkonstruktionen und -prototypen beschrieben und die Durchführbarkeit des Ansatzes erläutert werden. Anschließend wird die photokatalytische aerobe Spaltung von Oximen in die entsprechenden Aldehyde und Ketone durch anionisches Poly(heptazinimid)-Kohlenstoffnitrid diskutiert. Die Reaktion stellt eine praktikable Methode zur Entschützung und Bildung von Carbonylverbindungen aus Nitrosierungsprodukten dar und dient als geeignetes Modell zur Untersuchung der Chromoselektivität und der Photophysik der Energieübertragung in der heterogenen Photokatalyse. Anschließend wurde die Fähigkeit von mesoporösem graphitischem Kohlenstoffnitrid, protonengekoppelten Elektronentransfer zu leiten, für die direkte Oxygenierung von 1,3-Oxazolidin-2-onen zu den entsprechenden 1,3-Oxazlidin-2,4-Dionen genutzt. Diese Reaktion ermöglicht einen leichteren Zugang zu einem wichtigen Gerüst für verschiedene Arten von Medikamenten und Agrochemikalien. Schließlich wurde eine Reihe neuartiger Kohlenstoffnitride auf der Basis von Poly(triazinimid)- und Poly(heptazinimid)-Strukturen aus Cyanamid und Kaliumrhodizonat synthetisiert. Diese Katalysatoren zeigten eine gute Leistung in einer Reihe von photokatalytischen Benchmark-Reaktionen, einschließlich aerober Oxidation, dualer Nickel-Photoredox-Katalyse, Wasserstoffperoxid-Evolution und chromoselektiver Umwandlung von Organoschwefel-Vorläufern. Abschließend wurde der Anwendungsbereich von Kohlenstoffnitrid für netzoxidative und netzneutrale photokatalytische Prozesse erweitert und eine neue abstimmbare Plattform für die Katalysatorsynthese entdeckt. KW - carbon nitrides KW - Kohlenstoffnitriden KW - heterogeneous photocatalysis KW - heterogene Photokatalyse KW - organic synthesis KW - organische Synthese Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-610923 ER - TY - THES A1 - Witt, Tanja Ivonne T1 - Camera Monitoring at volcanoes T1 - Kameramonitoring an Vulkanen BT - Identification and characterization of lava fountain activity and near-vent processes and their relevance for early warning systems BT - Identifikation und Charakterizierung der Aktivität von Lavafontänen und Near-Vent Prozesse und deren Relevanz für Frühwarnsysteme N2 - Basaltic fissure eruptions, such as on Hawai'i or on Iceland, are thought to be driven by the lateral propagation of feeder dikes and graben subsidence. Associated solid earth processes, such as deformation and structural development, are well studied by means of geophysical and geodetic technologies. The eruptions themselves, lava fountaining and venting dynamics, in turn, have been much less investigated due to hazardous access, local dimension, fast processes, and resulting poor data availability. This thesis provides a detailed quantitative understanding of the shape and dynamics of lava fountains and the morphological changes at their respective eruption sites. For this purpose, I apply image processing techniques, including drones and fixed installed cameras, to the sequence of frames of video records from two well-known fissure eruptions in Hawai'i and Iceland. This way I extract the dimensions of multiple lava fountains, visible in all frames. By putting these results together and considering the acquisition times of the frames I quantify the variations in height, width and eruption velocity of the lava fountains. Then I analyse these time-series in both time and frequency domains and investigate the similarities and correlations between adjacent lava fountains. Following this procedure, I am able to link the dynamics of the individual lava fountains to physical parameters of the magma transport in the feeder dyke of the fountains. The first case study in this thesis focuses on the March 2011 Pu'u'O'o eruption, Hawai'i, where a continuous pulsating behaviour at all eight lava fountains has been observed. The lava fountains, even those from different parts of the fissure that are closely connected, show a similar frequency content and eruption behaviour. The regular pattern in the heights of lava fountain suggests a controlling process within the magma feeder system like a hydraulic connection in the underlying dyke, affecting or even controlling the pulsating behaviour. The second case study addresses the 2014-2015 Holuhraun fissure eruption, Iceland. In this case, the feeder dyke is highlighted by the surface expressions of graben-like structures and fault systems. At the eruption site, the activity decreases from a continuous line of fire of ~60 vents to a limited number of lava fountains. This can be explained by preferred upwards magma movements through vertical structures of the pre-eruptive morphology. Seismic tremors during the eruption reveal vent opening at the surface and/or pressure changes in the feeder dyke. The evolving topography of the cinder cones during the eruption interacts with the lava fountain behaviour. Local variations in the lava fountain height and width are controlled by the conduit diameter, the depth of the lava pond and the shape of the crater. Modelling of the fountain heights shows that long-term eruption behaviour is controlled mainly by pressure changes in the feeder dyke. This research consists of six chapters with four papers, including two first author and two co-author papers. It establishes a new method to analyse lava fountain dynamics by video monitoring. The comparison with the seismicity, geomorphologic and structural expressions of fissure eruptions shows a complex relationship between focussed flow through dykes, the morphology of the cinder cones, and the lava fountain dynamics at the vents of a fissure eruption. N2 - Basaltische Spalteneruptionen, wie auf Hawaii oder Island, werden vermutlich durch die laterale Ausbreitung von Förderdikes und damit verbundener Grabenbildung verursacht. Prozesse der festen Erde sind mittels geophysikalischer und geodätischer Technologien gut erforscht. Die Ausbrüche selbst, d.h. die Lavafontä}nen und die Ventdynamik wiederum wurden aufgrund des gefährlichen Zugangs, der lokalen Dimension, der schnellen Prozesse und der daraus resultierenden schlechten Datenverfügbarkeit kaum untersucht. Diese Arbeit liefert ein detailliertes quantitatives Verständnis über Form und Dynamik von Lavafontänen und der morphologischen Veränderungen an ihren jeweiligen Eruptionsstellen. Mittels Bildverarbeitungstechniken, einschließlich Dronen und festen Kameras, wurden von mir die Videoframes von zwei bekannten Spaltausbrüchen auf Hawaii und Island ausgewertet. Auf diese Weise extrahiere ich die Dimensionen mehrerer Lavafontänen, die in allen Frames sichtbar sind. Durch die Zusammenstellung dieser Ergebnisse und unter Berücksichtigung der Erfassungszeiten quantifiziere ich die Schwankungen in Höhe, Breite und Eruptionsgeschwindigkeit. Dann analysiere ich diese Zeitreihen im Zeit- und Frequenzbereich und untersuche die Ähnlichkeiten und Zusammenhänge zwischen benachbarten Lavafontänen. Anschließend verknüpfte ich die Dynamik der einzelnen Lavafontänen mit den physikalischen Parametern des Magmatransports im Förderdike. Die erste Fallstudie dieser Arbeit konzentriert sich auf die Pu'u'O'o Ausbruch, Hawaii im März 2011, bei der ein kontinuierliches pulsierendes Verhalten an allen Lavafontänen beobachtet werden konnte. Lavafontänen verschiedener Teilsegmenten der Spalte sind eng miteinander verbunden, sie weisen Ähnlichkeiten im Frequenzgehalt und Ausbruchsverhalten auf. Das regelmäßige Muster in den Lavafontänenhöhen deutet auf eine hydraulische Verbindung im darunter liegenden Dike als steuernden Prozess innerhalb des Magma-Fördersystems hin. Die zweite Fallstudie befasst sich mit dem Holuhraun-Ausbruch 2014/2015. In diesem Fall wird der horizontale Förderdike durch grabenartige Strukturen und Bruchsysteme an der Oberfläche hervorgehoben. An der Ausbruchsstelle nimmt die Aktivität von einer kontinuierlichen Feuerlinie auf einzelne Lavafontänen ab. Dies lässt sich durch eine bevorzugte Aufwärtsbewegung des Magmas durch vertikale Strukturen der prä-eruptiven Morphologie erklären. Seismische Erschütterungen während des Ausbruchs zeigen Ventöffnungen an der Oberfläche und/oder Druckveränderungen im Förderdike. Die sich während des Ausbruchs entwickelnde Topographie der Schlackenkegel interagiert mit dem Verhalten der Lavafontänen. Lokale Schwankungen in Höhe und Breite der Lavafontäne werden jedoch durch den Schlotdurchmesser, die Tiefe des Lavaponds und die Form des Kraters gesteuert. Die Modellierung der Fontänenhöhe zeigt, dass das langfristige Ausbruchsverhalten vor allem durch Druckänderungen im Förderdike gesteuert wird. Diese Forschungsarbeit besteht aus sechs Kapiteln mit je zwei Papern als Erst- bzw. Co-Autor. Es etabliert eine neue Methode zur Analyse der Dynamik von Lavafontänen durch Videoüberwachung. Der Vergleich mit der Seismizität, den geomorphologischen und strukturellen Ausprägungen von Spalteneruptionen zeigt einen komplexen Zusammenhang zwischen der Dikeströmung, der Vulkanmorphologie und der Dynamik der Lavafontänen an einer Spalteneruption. KW - volcanology KW - Spalteneruption KW - fissure eruption KW - Vulkanologie KW - lava fountains KW - video analysis KW - basaltic volcanoes KW - Lavafontänen KW - Videoanalyse KW - Basalt-Vulkane Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421073 ER - TY - THES A1 - Zhou, Shuo T1 - Biological evaluation and sulfation of polymer networks from glycerol glycidyl ether N2 - Cardiovascular diseases are the main cause of death worldwide, and their prevalence is expected to rise in the coming years. Polymer-based artificial replacements have been widely used for the treatment of cardiovascular diseases. Coagulation and thrombus formation on the interfaces between the materials and the human physiological environment are key issues leading to the failure of the medical device in clinical implantation. The surface properties of the materials have a strong influence on the protein adsorption and can direct the blood cell adhesion behavior on the interfaces. Furthermore, implant-associated infections will be induced by bacterial adhesion and subsequent biofilm formation at the implantation site. Thus, it is important to improve the hemocompatibility of an implant by altering the surface properties. One of the effective strategies is surface passivation to achieve protein/cell repelling ability to reduce the risk of thrombosis. This thesis consists of synthesis, functionalization, sterilization, and biological evaluation of bulk poly(glycerol glycidyl ether) (polyGGE), which is a highly crosslinked polyether-based polymer synthesized by cationic ring-opening polymerization. PolyGGE is hypothesized to be able to resist plasma protein adsorption and bacterial adhesion due to analogous chemical structure as polyethylene glycol and hyperbranched polyglycerol. Hydroxyl end groups of polyGGE provide possibilities to be functionalized with sulfates to mimic the anti-thrombogenic function of the endothelial glycocalyx. PolyGGE was synthesized by polymerization of the commercially available monomer glycerol glycidyl ether, which was characterized as a mixture of mono-, di- and tri-glycidyl ether. Cationic ring opening-polymerization of this monomer was carried out by ultraviolet (UV) initiation of the photo-initiator diphenyliodonium hexafluorophosphate. With the increased UV curing time, more epoxides in the side chains of the monomers participated in chemical crosslinking, resulting in an increase of Young’s modulus, while the value of elongation at break of polyGGE first increased due to the propagation of the polymer chains then decreased with the increase of crosslinking density. Eventually, the chain propagation can be effectively terminated by potassium hydroxide aqueous solution. PolyGGE exhibited different tensile properties in hydrated conditions at body temperature compared to the values in the dry state at room temperature. Both Young’s modulus and values of elongation at break were remarkably reduced when tested in water at 37 °C, which was above the glass transition temperature of polyGGE. At physiological conditions, entanglements of the ployGGE networks unfolded and the free volume of networks were replaced by water molecules as softener, which increased the mobility of the polymer chains, resulting in a lower Young’s modulus. Protein adsorption analysis was performed on polyGGE films with 30 min UV curing using an enzyme-linked immunosorbent assay. PolyGGE could effectively prevent the adsorption of human plasma fibrinogen, albumin, and fibronectin at the interface of human plasma and polyGGE films. The protein resistance of polyGGE was comparable to the negative controls: the hemocompatible polydimethylsiloxane (PDMS), showing its potential as a coating material for cardiovascular implants. Moreover, antimicrobial tests of bacterial activity using isothermal microcalorimetry and the microscopic image of direct bacteria culturing demonstrated that polyGGE could directly interfere biofilm formation and growth of both Gram-negative and antibiotic-resistant Gram-positive bacteria, indicating the potential application of polyGGE for combating the risk of hospital-acquired infections and preventing drug-resistant superbug spreading. To investigate its cell compatibility, polyGGE films were extracted by different solvents (ethanol, chloroform, acetone) and cell culture medium. Indirect cytotoxicity tests showed extracted polyGGE films still had toxic effects on L929 fibroblast cells. High-performance liquid chromatography/electrospray ionization mass spectrometry revealed the occurrence of organochlorine-containing compounds released during the polymer-cell culture medium interaction. A constant level of those organochlorine-containing compounds was confirmed from GGE monomer by a specific peak of C-Cl stretching in infrared spectra of GGE. This is assumed to be the main reason causing the increased cell membrane permeability and decreased metabolic activity, leading to cell death. Attempts as changing solvents were made to remove toxic substances, however, the release of these small molecules seems to be sluggish. The densely crosslinked polyGGE networks can possibly contribute to the trapping of organochlorine-containing compounds. These results provide valuable information for exploring the potentially toxic substances, leaching from polyGGE networks, and propose a feasible strategy for minimizing the cytotoxicity via reducing their crosslinking density. Sulfamic acid/ N-Methyl-2-pyrrolidone (NMP) were selected as the reagents for the sulfation of polyGGE surfaces. Fourier transform attenuated total reflection infrared spectroscopy (ATR-FT-IR) was used to monitor the functionalization kinetics and the results confirmed the successful sulfate grafting on the surface of polyGGE with the covalent bond -C-O-S-. X-ray photoelectron spectroscopy was used to determine the element composition on the surface and the cross-section of the functionalized polyGGE and sulfation within 15 min guarantees the sulfation only takes place on the surface while not occurring in the bulk of the polymer. The concentration of grafted sulfates increased with the increasing reaction time. The hydrophilicity of the surface of polyGGE was highly increased due to the increase of negatively charged end groups. Three sterilization techniques including autoclaving, gamma irradiation, and ethylene oxide (EtO) sterilization were used for polyGGE sulfates. Results from ATR-FT-IR and Toluidine Blue O quantitative assay demonstrated the total loss of the sulfates after autoclave sterilization, which was also confirmed by the increased water contact angle. Little influence on the concentration of sulfates was found for gamma-irradiated and autoclaving sterilized polyGGE sulfates. To investigate the thermal influence on polyGGE sulfates, one strategy was to use poly(hydroxyethyl acrylate) sulfates (PHEAS) for modeling. The thermogravimetric analysis profile of PHEAS demonstrated that sulfates are not thermally stable independent of the substrate materials and decomposition of sulfates occurs at around 100 °C. Although gamma irradiation also showed little negative effect on the sulfate content, the color change in the polyGGE sulfates indicates chemical or physical change might occur in the polymer. EtO sterilization was validated as the most suitable sterilization technique to maintain the chemical structure of polyGGE sulfates. In conclusion, the conducted work proved that bulk polyGGE can be used as an antifouling coating material and shows its antimicrobial potential. Sulfates functionalization can be effectively realized using sulfamic acid/NMP. EtO sterilization is the most suitable sterilization technique for grafted sulfates. Besides, this thesis also offers a good strategy for the analysis of toxic leachable substances using suitable physicochemical characterization techniques. Future work will focus on minimizing/eliminating the release of toxic substances via reducing the crosslinking density. Another interesting aspect is to study whether grafted sulfates can meet the need for anti-thrombogenicity. N2 - Herz-Kreislauf-Erkrankungen sind weltweit die Haupttodesursache, und es wird erwartet, dass ihre Prävalenz in den kommenden Jahren zunehmen wird. Künstlicher Ersatz auf Polymerbasis wird in großem Umfang für die Behandlung von Herz-Kreislauf-Erkrankungen eingesetzt. Gerinnung und Thrombenbildung an den Grenzflächen zwischen den Materialien und der menschlichen physiologischen Umgebung sind ein Hauptproblem, das zum Versagen des Medizinprodukts bei der klinischen Implantation führt. Die Oberflächeneigenschaften der Materialien haben einen starken Einfluss auf die Proteinadsorption und können das Adhäsionsverhalten von Blutzellen an den Grenzflächen steuern. Darüber hinaus werden Implantat-assoziierte Infektionen durch bakterielle Adhäsion und anschließende Biofilmbildung an der Implantationsstelle ausgelöst. Daher ist es wichtig, die Hämokompatibilität eines Implantats durch Veränderung der Oberflächeneigenschaften zu verbessern. Eine der wirksamen Strategien ist die Oberflächenpassivierung, um die Fähigkeit zur Protein-/Zellabweisung zu erreichen und so das Thromboserisiko zu verringern. Diese Arbeit befasst sich mit der Synthese, Funktionalisierung, Sterilisation und biologischen Bewertung von Poly(glycerin glycidyl ether) (polyGGE), einem stark vernetzten Polymer auf Polyetherbasis, das durch kationische Ringöffnungspolymerisation hergestellt wird. Es wird angenommen, dass PolyGGE aufgrund seiner ähnlichen chemischen Struktur wie Polyethylenglykol und hyperverzweigtes Polyglycerin der Adsorption von Plasmaproteinen und der Anhaftung von Bakterien widerstehen kann. Die Hydroxyl-Endgruppen von PolyGGE können mit Sulfaten funktionalisiert werden, um die antithrombogene Funktion der endothelialen Glykokalyx zu imitieren. PolyGGE wurde durch Polymerisation des kommerziell erhältlichen Monomers Glycerin Glycidyl ether synthetisiert, das als Mischung aus Mono-, Di- und Triglycidylether charakterisiert wurde. Die kationische Ringöffnungspolymerisation dieses Monomers wurde mit Hilfe des Photoinitiators Diphenyliodoniumhexafluorophosphat durch Ultraviolett (UV) ausgelöst. Mit zunehmender UV-Härtungszeit nahmen mehr Epoxide in den Seitenketten der Monomere an der chemischen Vernetzung teil, was zu einem Anstieg des Elastizitätsmoduls führte, während der Wert der Bruchdehnung von polyGGE zunächst aufgrund der Ausbreitung der Polymerketten anstieg und dann mit zunehmender Vernetzungsdichte abnahm. Schließlich kann die Kettenausbreitung durch wässrige Kaliumhydroxidlösung wirksam gestoppt werden. PolyGGE wies im hydratisierten Zustand bei Körpertemperatur andere Zugeigenschaften auf als im trockenen Zustand bei Raumtemperatur. Sowohl der Elastizitätsmodul als auch die Werte der Bruchdehnung waren deutlich reduziert, wenn sie in Wasser bei 37 °C getestet wurden, was oberhalb der Glasübergangstemperatur von PolyGGE lag. Unter physiologischen Bedingungen entfalteten sich die Verflechtungen der PolyGGE-Netzwerke und das freie Volumen der Netzwerke wurde durch Wassermoleküle als Weichmacher ersetzt, was die Mobilität der Polymerketten erhöhte und zu einem niedrigeren Elastizitätsmodul führte. Die Proteinadsorptionsanalyse wurde an PolyGGE-Filmen mit 30-minütiger UV-Härtung unter Verwendung eines Enzymimmunoassays durchgeführt. PolyGGE konnte die Adsorption von Fibrinogen, Albumin und Fibronektin aus menschlichem Plasma an der Grenzfläche zwischen menschlichem Plasma und PolyGGE-Filmen wirksam verhindern. Die Proteinresistenz von PolyGGE war vergleichbar mit den Negativkontrollen: dem hämokompatiblen Polydimethylsiloxan, was sein Potenzial als Beschichtungsmaterial für kardiovaskuläre Implantate zeigt. Darüber hinaus zeigten antimikrobielle Tests der bakteriellen Aktivität mittels isothermischer Mikrokalorimetrie und das mikroskopische Bild der direkten Bakterienkultur, dass PolyGGE die Biofilmbildung und das Wachstum sowohl von gramnegativen als auch von antibiotikaresistenten grampositiven Bakterien direkt stören kann, was auf die potenzielle Anwendung von PolyGGE zur Bekämpfung des Risikos von Krankenhausinfektionen und zur Verhinderung der Ausbreitung arzneimittelresistenter Superbugs hinweist. Um die Zellkompatibilität zu untersuchen, wurden polyGGE-Folien mit verschiedenen Lösungsmitteln (Ethanol, Chloroform, Aceton) und Zellkulturmedium extrahiert. Indirekte Zytotoxizitätstests zeigten, dass die extrahierten polyGGE-Filme immer noch eine toxische Wirkung auf L929-Fibroblastenzellen hatten. Die Hochleistungsflüssigkeitschromatographie/Elektrospray-Ionisations-Massenspektrometrie zeigte das Auftreten von chlororganischen Derivaten, die während der Interaktion zwischen Polymer und Zellkulturmedium freigesetzt wurden. Ein konstantes Niveau dieser chlororganischen Derivate wurde vom GGE-Monomer durch einen spezifischen C-Cl-Streckungspeak im Infrarotspektrum von GGE bestätigt. Es wird angenommen, dass dies der Hauptgrund für die erhöhte Permeabilität der Zellmembran und die verringerte Stoffwechselaktivität ist, was zum Zelltod führt. Es wurden Versuche unternommen, die Lösungsmittel zu wechseln, um die toxischen Substanzen zu entfernen, aber die Freisetzung dieser kleinen Moleküle scheint nur langsam zu erfolgen. Die dicht vernetzten polyGGE-Netzwerke können möglicherweise zum Einschluss chloridhaltiger Verbindungen beitragen. Diese Ergebnisse liefern wertvolle Informationen für die Erforschung potenzieller toxischer Substanzen, die aus PolyGGE-Netzwerken ausgewaschen werden, und schlagen eine praktikable Strategie zur Minimierung der Zytotoxizität durch Verringerung der Vernetzungsdichte vor. Als Reagenzien für die Sulfatierung von PolyGGE-Oberflächen wurden Sulfaminsäure und N-Methyl-2-Pyrrolidon (NMP) gewählt. Die Fourier-Transformations-Infrarotspektroskopie mit abgeschwächter Totalreflexion (ATR-FT-IR) wurde zur Überwachung der Funktionalisierungskinetik eingesetzt, und die Ergebnisse bestätigten die erfolgreiche Sulfatpfropfung auf der Oberfläche von PolyGGE mit der kovalenten Bindung -C-O-S-. Mit Hilfe der Röntgen-Photoelektronenspektroskopie wurde die Elementzusammensetzung auf der Oberfläche und der Querschnitt des funktionalisierten PolyGGE bestimmt, und die Sulfatierung innerhalb von 15 Minuten garantiert, dass die Sulfatierung nur auf der Oberfläche stattfindet, während sie in der Masse des Polymers nicht vorkommt. Die Konzentration der gepfropften Sulfate nahm mit zunehmender Reaktionszeit zu. Die Hydrophilie der Oberfläche von polyGGE wurde durch die Zunahme negativ geladener Endgruppen stark erhöht. Für die PolyGGE-Sulfate wurden drei Sterilisationstechniken verwendet: Autoklavieren, Gammastrahlenbestrahlung und Ethylenoxid (EtO)-Sterilisation. Die Ergebnisse der quantitativen ATR-FT-IR und Toluidinblau O-Untersuchung zeigten den vollständigen Verlust der Sulfate nach der Sterilisation im Autoklaven, was auch durch den erhöhten Wasserkontaktwinkel bestätigt wurde. Bei den mit Gammastrahlen und im Autoklaven sterilisierten PolyGGE-Sulfaten wurde nur ein geringer Einfluss auf die Sulfatkonzentration festgestellt. Um den thermischen Einfluss auf PolyGGE-Sulfate zu untersuchen, bestand eine Strategie darin, ein Poly(hydroxyethylacrylat)-Sulfat (PHEAS) für die Modellierung zu verwenden. Das Profil der thermogravimetrischen Analyse von PHEAS zeigte, dass Sulfate unabhängig von den Substratmaterialien thermisch nicht stabil sind und die Zersetzung der Sulfate bei etwa 100 °C stattfindet. Obwohl die Gammasterilisation ebenfalls kaum negative Auswirkungen auf den Sulfatgehalt hat, deutet die Farbveränderung der PolyGGE-Sulfate darauf hin, dass chemische oder physikalische Veränderungen im Polymer auftreten könnten. Die EtO-Sterilisation erwies sich als die am besten geeignete Sterilisationstechnik, um die chemische Struktur der PolyGGE-Sulfate zu erhalten. Zusammenfassend lässt sich sagen, dass die durchgeführte Arbeit bewiesen hat, dass PolyGGE als Antifouling-Beschichtungsmaterial verwendet werden kann und sein antimikrobielles Potenzial zeigt. Die Funktionalisierung der Sulfate kann mit Sulfaminsäure/NMP effektiv durchgeführt werden. Die EtO-Sterilisation ist die am besten geeignete Sterilisationstechnik für gepfropfte Sulfate. Darüber hinaus bietet diese Arbeit auch eine gute Strategie für die Analyse toxischer auslaugbarer Substanzen mit Hilfe geeigneter physikalisch-chemischer Charakterisierungstechniken. Zukünftige Arbeiten werden sich darauf konzentrieren, die Freisetzung toxischer Substanzen durch Verringerung der Vernetzungsdichte zu minimieren bzw. zu eliminieren. Ein weiterer interessanter Aspekt ist die Untersuchung, ob gepfropfte Sulfate den Anforderungen an die Anti-Thrombogenität gerecht werden können. KW - Sulfation KW - Antifouling KW - antimicrobial KW - Polyether Y1 - 2022 ER - TY - THES A1 - Müller, Melanie J. I. T1 - Bidirectional transport by molecular motors T1 - Bidirektionaler Transport durch molekulare Motoren N2 - In biological cells, the long-range intracellular traffic is powered by molecular motors which transport various cargos along microtubule filaments. The microtubules possess an intrinsic direction, having a 'plus' and a 'minus' end. Some molecular motors such as cytoplasmic dynein walk to the minus end, while others such as conventional kinesin walk to the plus end. Cells typically have an isopolar microtubule network. This is most pronounced in neuronal axons or fungal hyphae. In these long and thin tubular protrusions, the microtubules are arranged parallel to the tube axis with the minus ends pointing to the cell body and the plus ends pointing to the tip. In such a tubular compartment, transport by only one motor type leads to 'motor traffic jams'. Kinesin-driven cargos accumulate at the tip, while dynein-driven cargos accumulate near the cell body. We identify the relevant length scales and characterize the jamming behaviour in these tube geometries by using both Monte Carlo simulations and analytical calculations. A possible solution to this jamming problem is to transport cargos with a team of plus and a team of minus motors simultaneously, so that they can travel bidirectionally, as observed in cells. The presumably simplest mechanism for such bidirectional transport is provided by a 'tug-of-war' between the two motor teams which is governed by mechanical motor interactions only. We develop a stochastic tug-of-war model and study it with numerical and analytical calculations. We find a surprisingly complex cooperative motility behaviour. We compare our results to the available experimental data, which we reproduce qualitatively and quantitatively. N2 - In biologischen Zellen transportieren molekulare Motoren verschiedenste Frachtteilchen entlang von Mikrotubuli-Filamenten. Die Mikrotubuli-Filamente besitzen eine intrinsische Richtung: sie haben ein "Plus-" und ein "Minus-"Ende. Einige molekulare Motoren wie Dynein laufen zum Minus-Ende, während andere wie Kinesin zum Plus-Ende laufen. Zellen haben typischerweise ein isopolares Mikrotubuli-Netzwerk. Dies ist besonders ausgeprägt in neuronalen Axonen oder Pilz-Hyphen. In diesen langen röhrenförmigen Ausstülpungen liegen die Mikrotubuli parallel zur Achse mit dem Minus-Ende zum Zellkörper und dem Plus-Ende zur Zellspitze gerichtet. In einer solchen Röhre führt Transport durch nur einen Motor-Typ zu "Motor-Staus". Kinesin-getriebene Frachten akkumulieren an der Spitze, während Dynein-getriebene Frachten am Zellkörper akkumulieren. Wir identifizieren die relevanten Längenskalen und charakterisieren das Stauverhalten in diesen Röhrengeometrien mit Hilfe von Monte-Carlo-Simulationen und analytischen Rechnungen. Eine mögliche Lösung für das Stauproblem ist der Transport mit einem Team von Plus- und einem Team von Minus-Motoren gleichzeitig, so dass die Fracht sich in beide Richtungen bewegen kann. Dies wird in Zellen tatsächlich beobachtet. Der einfachste Mechanismus für solchen bidirektionalen Transport ist ein "Tauziehen" zwischen den beiden Motor-Teams, das nur mit mechanischer Interaktion funktioniert. Wir entwickeln ein stochastisches Tauzieh-Modell, das wir mit numerischen und analytischen Rechnungen untersuchen. Es ergibt sich ein erstaunlich komplexes Motilitätsverhalten. Wir vergleichen unsere Resultate mit den vorhandenen experimentellen Daten, die wir qualitativ und quantitativ reproduzieren. KW - molekulare Motoren KW - bidirektionaler intrazellulärer Transport KW - Tauziehen KW - stochastische Prozesse KW - kooperative Phänomene KW - molecular motors KW - bidirectional intracellular transport KW - tug-of-war KW - stochastic processes KW - cooperative phenomena Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18715 ER - TY - THES A1 - Codutti, Agnese T1 - Behavior of magnetic microswimmers T1 - Verhalten magnetischer Microschwimmer BT - simulations for natural swimmers and synthetic propellers BT - Simulationen von natürlichen Schwimmern und synthetischen Propellern N2 - Microswimmers, i.e. swimmers of micron size experiencing low Reynolds numbers, have received a great deal of attention in the last years, since many applications are envisioned in medicine and bioremediation. A promising field is the one of magnetic swimmers, since magnetism is biocom-patible and could be used to direct or actuate the swimmers. This thesis studies two examples of magnetic microswimmers from a physics point of view. The first system to be studied are magnetic cells, which can be magnetic biohybrids (a swimming cell coupled with a magnetic synthetic component) or magnetotactic bacteria (naturally occurring bacteria that produce an intracellular chain of magnetic crystals). A magnetic cell can passively interact with external magnetic fields, which can be used for direction. The aim of the thesis is to understand how magnetic cells couple this magnetic interaction to their swimming strategies, mainly how they combine it with chemotaxis (the ability to sense external gradient of chemical species and to bias their walk on these gradients). In particular, one open question addresses the advantage given by these magnetic interactions for the magnetotactic bacteria in a natural environment, such as porous sediments. In the thesis, a modified Active Brownian Particle model is used to perform simulations and to reproduce experimental data for different systems such as bacteria swimming in the bulk, in a capillary or in confined geometries. I will show that magnetic fields speed up chemotaxis under special conditions, depending on parameters such as their swimming strategy (run-and-tumble or run-and-reverse), aerotactic strategy (axial or polar), and magnetic fields (intensities and orientations), but it can also hinder bacterial chemotaxis depending on the system. The second example of magnetic microswimmer are rigid magnetic propellers such as helices or random-shaped propellers. These propellers are actuated and directed by an external rotating magnetic field. One open question is how shape and magnetic properties influence the propeller behavior; the goal of this research field is to design the best propeller for a given situation. The aim of the thesis is to propose a simulation method to reproduce the behavior of experimentally-realized propellers and to determine their magnetic properties. The hydrodynamic simulations are based on the use of the mobility matrix. As main result, I propose a method to match the experimental data, while showing that not only shape but also the magnetic properties influence the propellers swimming characteristics. N2 - Die Forschung an Mikroschwimmern oder genauer gesagt an aktiv schwimmenden Mikroorganismen oder Objekten mit niedrigen Reynolds Zahlen, hat in den letzten Jahren wegen ihrer vielfältigen Anwendungen in der Medizin und Bioremediation stark an Bedeutung gewonnen. Besonders vielversprechend ist die Arbeit mit magnetischen Mikroschwimmern, da deren biokompatibler Magnetismus genutzt werden kann um die Schwimmer gezielt zu steuern. In dieser Arbeit werden zwei Beispiele von magnetischen Mikroschwimmern aus physikalischer Sicht untersucht. Das erste Modellsystem hierfür sind magnetische Zellen. Diese können entweder magnetische Biohybride (eine schwimm-Zelle gekoppelt mit einer synthetischen magnetischen Komponente) oder magnetotaktische Bakterien (natürlich vorkommende Bakterien die eine intrazelluläre Kette von magnetischen Kristallen produzieren) sein. Die passive Wechselwirkung der magnetischen Zelle mit einem externen Magnetfeld kann zu deren Steuerung genutzt werden. Das Ziel dieser Arbeit ist es zu verstehen wie magnetische Zellen die magnetische Wechselwirkung mit ihre Schwimmstrategie verknüpfen, oder genauer gesagt, wie sie sie zur Chemotaxis (die Fähigkeit externe chemische Gradienten wahrzunehmen und die Fortbewegungsrichtung daran anzupassen) zu nutzen. Es ist immer noch nicht restlos geklärt worin in der natürlichen Umgebung der magnetischen Bakterien, wie beispielsweise in porösem Sediment, der Vorteil der Wechselwirkung mit dem externen magnetischen Feld liegt. In dieser Arbeit wurde ein modifiziertes „Active Brownian Particle model“ verwendet um mittels Computersimulationen experimentelle Ergebnisse an Bakterien zu reproduzieren, die sich frei, in einer Glaskapillare, oder in anders begrenzten Geometrien bewegen. Ich werde zeigen, dass abhängig von der Schwimmstrategie („run-and-tumble“ oder „runand-reverse“), aerotaktische Strategie (axial oder polar), und der Feldintensität und Orientierung, das magnetische Feld Chemotaxis beschleunigen kann. Abhängig von dem gewählten Modellsystem kann es jedoch auch zu einer Behinderung der Chemotaxis kommen. Das zweite Beispiel für magnetische Mikroschwimmer sind starre (z.B. Helices) oder zufällig geformte magnetische Propeller. Sie werden durch ein externes magnetisches Feld angetrieben und gelenkt. Hierbei stellt sich die Frage wie die Form der Propeller deren Verhalten beeinflusst und wie sie für eine bestimmte Anwendung optimiert werden können. Daher ist es das Ziel dieser Arbeit Simulationsmethoden vorzuschlagen um das experimentell beobachtete Verhalten zu reproduzieren und die magnetischen Eigenschaften der Propeller zu beschreiben. Hierfür wird die Mobilitätsmatrix verwendet um die hydrodynamischen Simulationen zu realisieren. Ein Hauptresultat meiner Arbeit ist eine neue Methode, welche die Simulationen in Einklang mit den experimentellen Resultaten bringt. Hierbei zeigt sich, dass nicht nur die Form sondern insbesondere auch die magnetischen Eigenschaften die Schwimmcharakteristik der Propeller entscheidend beeinflussen. KW - microswimmers KW - magnetism KW - bacteria KW - propellers KW - simulation KW - Microschwimmer KW - Magnetismus KW - Bakterien KW - Propeller KW - Simulationen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-422976 ER - TY - THES A1 - Bajerski, Felizitas T1 - Bacterial communities in glacier forefields of the Larsemann Hills, East Antarctica : structure, development & adaptation T1 - Bakterielle Gemeinschaften in Gletschervorfeldern der Larsemann Berge der Ostantarktis : Struktur, Entwicklung & Anpassung N2 - Antarctic glacier forfields are extreme environments and pioneer sites for ecological succession. The Antarctic continent shows microbial community development as a natural laboratory because of its special environment, geographic isolation and little anthropogenic influence. Increasing temperatures due to global warming lead to enhanced deglaciation processes in cold-affected habitats and new terrain is becoming exposed to soil formation and accessible for microbial colonisation. This study aims to understand the structure and development of glacier forefield bacterial communities, especially how soil parameters impact the microorganisms and how those are adapted to the extreme conditions of the habitat. To this effect, a combination of cultivation experiments, molecular, geophysical and geochemical analysis was applied to examine two glacier forfields of the Larsemann Hills, East Antarctica. Culture-independent molecular tools such as terminal restriction length polymorphism (T-RFLP), clone libraries and quantitative real-time PCR (qPCR) were used to determine bacterial diversity and distribution. Cultivation of yet unknown species was carried out to get insights in the physiology and adaptation of the microorganisms. Adaptation strategies of the microorganisms were studied by determining changes of the cell membrane phospholipid fatty acid (PLFA) inventory of an isolated bacterium in response to temperature and pH fluctuations and by measuring enzyme activity at low temperature in environmental soil samples. The two studied glacier forefields are extreme habitats characterised by low temperatures, low water availability and small oligotrophic nutrient pools and represent sites of different bacterial succession in relation to soil parameters. The investigated sites showed microbial succession at an early step of soil formation near the ice tongue in comparison to closely located but rather older and more developed soil from the forefield. At the early step the succession is influenced by a deglaciation-dependent areal shift of soil parameters followed by a variable and prevalently depth-related distribution of the soil parameters that is driven by the extreme Antarctic conditions. The dominant taxa in the glacier forefields are Actinobacteria, Acidobacteria, Proteobacteria, Bacteroidetes, Cyanobacteria and Chloroflexi. The connection of soil characteristics with bacterial community structure showed that soil parameter and soil formation along the glacier forefield influence the distribution of certain phyla. In the early step of succession the relative undifferentiated bacterial diversity reflects the undifferentiated soil development and has a high potential to shift according to past and present environmental conditions. With progressing development environmental constraints such as water or carbon limitation have a greater influence. Adapting the culturing conditions to the cold and oligotrophic environment, the number of culturable heterotrophic bacteria reached up to 108 colony forming units per gram soil and 148 isolates were obtained. Two new psychrotolerant bacteria, Herbaspirillum psychrotolerans PB1T and Chryseobacterium frigidisoli PB4T, were characterised in detail and described as novel species in the family of Oxalobacteraceae and Flavobacteriaceae, respectively. The isolates are able to grow at low temperatures tolerating temperature fluctuations and they are not specialised to a certain substrate, therefore they are well-adapted to the cold and oligotrophic environment. The adaptation strategies of the microorganisms were analysed in environmental samples and cultures focussing on extracellular enzyme activity at low temperature and PLFA analyses. Extracellular phosphatases (pH 11 and pH 6.5), β-glucosidase, invertase and urease activity were detected in the glacier forefield soils at low temperature (14°C) catalysing the conversion of various compounds providing necessary substrates and may further play a role in the soil formation and total carbon turnover of the habitat. The PLFA analysis of the newly isolated species C. frigidisoli showed that the cold-adapted strain develops different strategies to maintain the cell membrane function under changing environmental conditions by altering the PLFA inventory at different temperatures and pH values. A newly discovered fatty acid, which was not found in any other microorganism so far, significantly increased at decreasing temperature and low pH and thus plays an important role in the adaption of C. frigidisoli. This work gives insights into the diversity, distribution and adaptation mechanisms of microbial communities in oligotrophic cold-affected soils and shows that Antarctic glacier forefields are suitable model systems to study bacterial colonisation in connection to soil formation. N2 - Gletschervorfelder der Antarktis stellen extreme Habitate dar und sind Pionierstandorte biologischer Sukzession. Insbesondere unter Berücksichtigung zuletzt beobachteter und vorausgesagter Erwärmungstrends in der Antarktis und der Relevanz der Mikroorganismen für das Antarktische Ökosystem, ist es essentiell mehr Informationen über die Entwicklung frisch exponierter Gletschervorfelder zu erlangen. Ziel dieser Studie ist es, die Struktur und Entwicklung bakterieller Gletschervorfeldgemeinschaften zu verstehen, insbesondere wie die Mikroorganismen von den Bodenparametern beeinflusst werden und wie diese sich an die extremen Bedingungen des Habitats anpassen. Für die Untersuchung der Proben von zwei Gletschervorfeldern aus den Larsemann Bergen der Ostantarktis diente eine Kombination aus Kultivierungsexperimenten und molekularen, geophysikalischen und geochemischen Analysen. Die untersuchten Gletschervorfelder sind durch extrem niedrige Temperaturen, einer geringen biologischen Wasserverfügbarkeit und oligotrophe Nährstoffgehalte charakterisiert und zeigen unterschiedliche Entwicklungsstufen in Verbindung zu den Bodenparametern. In einem frühen Schritt der Bodenbildung in der Nähe der Gletscherzunge sind die Gemeinschaften undifferenziert, doch mit fortschreitender Entwicklung nimmt de Einfluss von Wasser- und Nährstofflimitationen zu. Nachdem die Kultivierungsbedingungen den kalten und nährstoffarmen Bedingungen des Habitats angepasst wurden, konnten 108 koloniebildende Einheiten heterotropher Bakterien pro Gramm Boden angereichert und daraus 148 Isolate gewonnen werden. Zwei neue psychrotolerante Bakterien, Herbaspirillum psychrotolerans PB1T und Chryseobacterium frigidisoli PB4T, wurden detailiert charakterisiert und als jeweils neue Spezies beschrieben. Die Anpassungsstrategien der Mikroorganismen an die extremen antarktischen Bedingungen zeigten sich in der Aktivität extrazellulärer Enzyme bei niedriger Temperatur, die mit derer temperierter Habitate vergleichbar ist, und in der Fähigkeit der Mikroorganismen, die Fettsäurezusammensetzung der Zellmembran zu ändern. Eine neue Fettsäure, die bisher in keinen anderen Mikroorganismus gefunden wurde, spielt eine entscheidende Rolle in der Anpassung des neu-beschriebenen Bakteriums C. frigidisoli an niedrige Temperaturen und saure pH-Werte. Diese Arbeit gibt einen Einblick in die Vielfalt, Verteilung und Anpassung mikrobieller Gemeinschaften in nährstoffarmen und Kälte-beeinflussten Habitaten und zeigt, dass Antarktische Gletschervorfelder geeignete Modellsysteme, um bakterielle Besiedelung in Verbindung zu Bodenbildung zu untersuchen. KW - Antarktis KW - Gletschervorfeld KW - mikrobielle Gemeinschaften KW - Anpassung KW - Kultivierung KW - Antarctica KW - glacier forefield KW - microbial communities KW - adaptation KW - cultivation Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67424 ER - TY - THES A1 - Rolo, David T1 - Assembly of photosystem I in thylakoid membranes T1 - Die Assemblierung des Photosystems I in der Thylakoidmembran N2 - The light reactions of photosynthesis are carried out by a series of multiprotein complexes embedded in thylakoid membranes. Among them, photosystem I (PSI), acting as plastocyanin-ferderoxin oxidoreductase, catalyzes the final reaction. Together with light-harvesting antenna I, PSI forms a high-molecular-weight supercomplex of ~600 kDa, consisting of eighteen subunits and nearly two hundred co-factors. Assembly of the various components into a functional thylakoid membrane complex requires precise coordination, which is provided by the assembly machinery. Although this includes a small number of proteins (PSI assembly factors) that have been shown to play a role in the formation of PSI, the process as a whole, as well as the intricacy of its members, remains largely unexplored. In the present work, two approaches were used to find candidate PSI assembly factors. First, EnsembleNet was used to select proteins thought to be functionally related to known PSI assembly factors in Arabidopsis thaliana (approach I), and second, co-immunoprecipitation (Co-IP) of tagged PSI assembly factors in Nicotiana tabacum was performed (approach II). Here, the novel PSI assembly factors designated CO-EXPRESSED WITH PSI ASSEMBLY 1 (CEPA1) and Ycf4-INTERACTING PROTEIN 1 (Y4IP1) were identified. A. thaliana null mutants for CEPA1 and Y4IP1 showed a growth phenotype and pale leaves compared with the wild type. Biophysical experiments using pulse amplitude modulation (PAM) revealed insufficient electron transport on the PSII acceptor side. Biochemical analyses revealed that both CEPA1 and Y4IP1 are specifically involved in PSI accumulation in A. thaliana at the post-translational level but are not essential. Consistent with their roles as factors in the assembly of a thylakoid membrane protein complex, the two proteins localize to thylakoid membranes. Remarkably, cepa1 y4ip1 double mutants exhibited lethal phenotypes in early developmental stages under photoautotrophic growth. Finally, co-IP and native gel experiments supported a possible role for CEPA1 and Y4IP1 in mediating PSI assembly in conjunction with other PSI assembly factors (e.g., PPD1- and PSA3-CEPA1 and Ycf4-Y4IP1). The fact that CEPA1 and Y4IP1 are found exclusively in green algae and higher plants suggests eukaryote-specific functions. Although the specific mechanisms need further investigation, CEPA1 and Y4IP1 are two novel assembly factors that contribute to PSI formation. N2 - Die Lichtreaktionen der Photosynthese werden von einer Reihe von Multiproteinkomplexen durchgeführt, die in Thylakoidmembranen eingebettet sind. Hier katalysiert das Photosystem I (PSI), das als Plastocyanin-Ferderoxin-Oxidoreduktase fungiert, die letzte Reaktion. Zusammen mit der lichtsammelnden Antenne I bildet PSI einen hochmolekularen Superkomplex von etwa 600 kDa, der aus achtzehn Untereinheiten und fast zweihundert Co-Faktoren besteht. Der Zusammenbau der verschiedenen Komponenten zu einem funktionsfähigen Thylakoidmembrankomplex erfordert eine präzise Koordination, die durch den Assemblierungsapparat gewährleistet wird. Obwohl dieser eine kleine Anzahl von Proteinen (PSI-Assemblierungsfaktoren) umfasst, die nachweislich eine Rolle bei der Bildung des PSI spielen, ist der Prozess als Ganzes sowie die Komplexität seiner Mitglieder noch weitgehend unerforscht. In der vorliegenden Arbeit wurden zwei Ansätze verwendet, um Kandidaten für PSI-Assemblierungsfaktoren zu finden. Erstens wurde EnsembleNet verwendet, um Proteine auszuwählen, von denen angenommen wird, dass sie funktionell mit bekannten PSI-Assemblierungsfaktoren in Arabidopsis thaliana verwandt sind (Ansatz I), und zweitens wurde eine Co-Immunopräzipitation (Co-IP) von markierten PSI-Assemblierungsfaktoren in Nicotiana tabacum durchgeführt (Ansatz II). Dabei wurden die neuartigen PSI-Assemblierungsfaktoren mit der Bezeichnung CO-EXPRESSED WITH PSI ASSEMBLY 1 (CEPA1) und Ycf4-INTERACTING PROTEIN 1 (Y4IP1) identifiziert. A. thaliana Nullmutanten für CEPA1 und Y4IP1 zeigten einen Wachstumsphänotyp und blasse Blätter im Vergleich zum Wildtyp. Biophysikalische Experimente unter Verwendung der Pulsamplitudenmodulation (PAM) zeigten einen unzureichenden Elektronentransport auf der PSII-Akzeptorseite. Biochemische Analysen ergaben, dass sowohl CEPA1 als auch Y4IP1 spezifisch an der PSI-Akkumulation in A. thaliana auf posttranslationaler Ebene beteiligt, jedoch nicht essentiell sind. Entsprechend ihrer Rolle als Faktoren für den Aufbau eines Thylakoidmembran-Proteinkomplexes sind die beiden Proteine an Thylakoidmembranen lokalisiert. Bemerkenswerterweise wiesen cepa1 y4ip1-Doppelmutanten in frühen Entwicklungsstadien unter photoautotrophem Wachstum tödliche Phänotypen auf. Schließlich untermauerten Co-IP- und native Gelexperimente eine mögliche Rolle von CEPA1 und Y4IP1 bei der Vermittlung des PSI-Aufbaus in Verbindung mit anderen PSI-Aufbaufaktoren (z. B. PPD1- und PSA3-CEPA1, und Ycf4-Y4IP1). Die Tatsache, dass CEPA1 und Y4IP1 ausschließlich in Grünalgen und höheren Pflanzen vorkommen, lässt auf eukaryontenspezifische Funktionen schließen. Obwohl die spezifischen Mechanismen noch weiter untersucht werden müssen, sind CEPA1 und Y4IP1 zwei neuartige Assemblierungsfaktoren, die zur PSI-Bildung beitragen. KW - photosynthesis KW - photosystem I KW - biogenesis KW - thylakoid membranes KW - assembly factor KW - Photosynthese KW - Photosystem I KW - Biogenese KW - Thylakoidmembran KW - Assemblierungsfaktor Y1 - 2023 ER - TY - THES A1 - Graber Majchrzak, Sarah T1 - Arbeit – Produktion – Protest BT - die Leninwerft in Gdańsk und die AG »Weser« in Bremen im Vergleich (1968–1983) T2 - Zeithistorische Studien N2 - Am 14. August 1980 begannen die Arbeiter*innen auf der Danziger Leninwerft einen Besetzungsstreik, in deren Folge die erste unabhängige Gewerkschaft Solidarność gegründet wurde. Einen Monat später am 17. September 1980 gingen auf der anderen Seite des „Eisernen Vorhangs“ die Arbeiter*innen der „AG Weser“ Werft in Bremen auf die Straße, um gegen den Verlust ihrer Arbeitsplätze zu protestieren. Die vorliegende Studie zeigt aus einer Perspektive „von unten“, wie seit den 1970er Jahren Betriebe in zwei unterschiedlichen politisch-ökonomischen Systeme auf technische Veränderungen und die verschärfte Konkurrenz auf dem Weltmarkt reagierten und verweist darauf, dass die Krisen in Ost und West Ende der 1970er Jahre eng miteinander verbunden waren. N2 - On August 14, 1980, the workers at the Gdańsk Lenin Shipyard began an occupation strike, as a result of which the first independent trade union Solidarność was founded. One month later, on September 17, 1980, workers from the “AG Weser” shipyard in Bremen took to the streets on the other side of the “Iron Curtain” to protest against the loss of their jobs. The present study shows from a perspective “from below” how companies in two different political-economic systems have reacted to technical changes and increased competition on the world market since the 1970s and points out that the crises in East and West at the end of the 1970s Years were closely related. KW - Schiffbau KW - West-Ost Vergleich KW - AG "Weser" Solidarność Leninwerft KW - shipbuildung KW - west-east comparison KW - global labour history KW - politics of production shipyards Y1 - 2018 SN - 978-3-412-51917-9 IS - 62 PB - Böhlau CY - Köln ER - TY - THES A1 - Brill, Fabio Alexander T1 - Applications of machine learning and open geospatial data in flood risk modelling N2 - Der technologische Fortschritt erlaubt es, zunehmend komplexe Vorhersagemodelle auf Basis immer größerer Datensätze zu produzieren. Für das Risikomanagement von Naturgefahren sind eine Vielzahl von Modellen als Entscheidungsgrundlage notwendig, z.B. in der Auswertung von Beobachtungsdaten, für die Vorhersage von Gefahrenszenarien, oder zur statistischen Abschätzung der zu erwartenden Schäden. Es stellt sich also die Frage, inwiefern moderne Modellierungsansätze wie das maschinelle Lernen oder Data-Mining in diesem Themenbereich sinnvoll eingesetzt werden können. Zusätzlich ist im Hinblick auf die Datenverfügbarkeit und -zugänglichkeit ein Trend zur Öffnung (open data) zu beobachten. Thema dieser Arbeit ist daher, die Möglichkeiten und Grenzen des maschinellen Lernens und frei verfügbarer Geodaten auf dem Gebiet der Hochwasserrisikomodellierung im weiteren Sinne zu untersuchen. Da dieses übergeordnete Thema sehr breit ist, werden einzelne relevante Aspekte herausgearbeitet und detailliert betrachtet. Eine prominente Datenquelle im Bereich Hochwasser ist die satellitenbasierte Kartierung von Überflutungsflächen, die z.B. über den Copernicus Service der Europäischen Union frei zur Verfügung gestellt werden. Große Hoffnungen werden in der wissenschaftlichen Literatur in diese Produkte gesetzt, sowohl für die akute Unterstützung der Einsatzkräfte im Katastrophenfall, als auch in der Modellierung mittels hydrodynamischer Modelle oder zur Schadensabschätzung. Daher wurde ein Fokus in dieser Arbeit auf die Untersuchung dieser Flutmasken gelegt. Aus der Beobachtung, dass die Qualität dieser Produkte in bewaldeten und urbanen Gebieten unzureichend ist, wurde ein Verfahren zur nachträglichenVerbesserung mittels maschinellem Lernen entwickelt. Das Verfahren basiert auf einem Klassifikationsalgorithmus der nur Trainingsdaten von einer vorherzusagenden Klasse benötigt, im konkreten Fall also Daten von Überflutungsflächen, nicht jedoch von der negativen Klasse (trockene Gebiete). Die Anwendung für Hurricane Harvey in Houston zeigt großes Potenzial der Methode, abhängig von der Qualität der ursprünglichen Flutmaske. Anschließend wird anhand einer prozessbasierten Modellkette untersucht, welchen Einfluss implementierte physikalische Prozessdetails auf das vorhergesagte statistische Risiko haben. Es wird anschaulich gezeigt, was eine Risikostudie basierend auf etablierten Modellen leisten kann. Solche Modellketten sind allerdings bereits für Flusshochwasser sehr komplex, und für zusammengesetzte oder kaskadierende Ereignisse mit Starkregen, Sturzfluten, und weiteren Prozessen, kaum vorhanden. Im vierten Kapitel dieser Arbeit wird daher getestet, ob maschinelles Lernen auf Basis von vollständigen Schadensdaten einen direkteren Weg zur Schadensmodellierung ermöglicht, der die explizite Konzeption einer solchen Modellkette umgeht. Dazu wird ein staatlich erhobener Datensatz der geschädigten Gebäude während des schweren El Niño Ereignisses 2017 in Peru verwendet. In diesem Kontext werden auch die Möglichkeiten des Data-Mining zur Extraktion von Prozessverständnis ausgelotet. Es kann gezeigt werden, dass diverse frei verfügbare Geodaten nützliche Informationen für die Gefahren- und Schadensmodellierung von komplexen Flutereignissen liefern, z.B. satellitenbasierte Regenmessungen, topographische und hydrographische Information, kartierte Siedlungsflächen, sowie Indikatoren aus Spektraldaten. Zudem zeigen sich Erkenntnisse zu den Schädigungsprozessen, die im Wesentlichen mit den vorherigen Erwartungen in Einklang stehen. Die maximale Regenintensität wirkt beispielsweise in Städten und steilen Schluchten stärker schädigend, während die Niederschlagssumme in tiefliegenden Flussgebieten und bewaldeten Regionen als aussagekräftiger befunden wurde. Ländliche Gebiete in Peru weisen in der präsentierten Studie eine höhere Vulnerabilität als die Stadtgebiete auf. Jedoch werden auch die grundsätzlichen Grenzen der Methodik und die Abhängigkeit von spezifischen Datensätzen and Algorithmen offenkundig. In der übergreifenden Diskussion werden schließlich die verschiedenen Methoden – prozessbasierte Modellierung, prädiktives maschinelles Lernen, und Data-Mining – mit Blick auf die Gesamtfragestellungen evaluiert. Im Bereich der Gefahrenbeobachtung scheint eine Fokussierung auf neue Algorithmen sinnvoll. Im Bereich der Gefahrenmodellierung, insbesondere für Flusshochwasser, wird eher die Verbesserung von physikalischen Modellen, oder die Integration von prozessbasierten und statistischen Verfahren angeraten. In der Schadensmodellierung fehlen nach wie vor die großen repräsentativen Datensätze, die für eine breite Anwendung von maschinellem Lernen Voraussetzung ist. Daher ist die Verbesserung der Datengrundlage im Bereich der Schäden derzeit als wichtiger einzustufen als die Auswahl der Algorithmen. N2 - Technological progress allows for producing ever more complex predictive models on the basis of increasingly big datasets. For risk management of natural hazards, a multitude of models is needed as basis for decision-making, e.g. in the evaluation of observational data, for the prediction of hazard scenarios, or for statistical estimates of expected damage. The question arises, how modern modelling approaches like machine learning or data-mining can be meaningfully deployed in this thematic field. In addition, with respect to data availability and accessibility, the trend is towards open data. Topic of this thesis is therefore to investigate the possibilities and limitations of machine learning and open geospatial data in the field of flood risk modelling in the broad sense. As this overarching topic is broad in scope, individual relevant aspects are identified and inspected in detail. A prominent data source in the flood context is satellite-based mapping of inundated areas, for example made openly available by the Copernicus service of the European Union. Great expectations are directed towards these products in scientific literature, both for acute support of relief forces during emergency response action, and for modelling via hydrodynamic models or for damage estimation. Therefore, a focus of this work was set on evaluating these flood masks. From the observation that the quality of these products is insufficient in forested and built-up areas, a procedure for subsequent improvement via machine learning was developed. This procedure is based on a classification algorithm that only requires training data from a particular class to be predicted, in this specific case data of flooded areas, but not of the negative class (dry areas). The application for hurricane Harvey in Houston shows the high potential of this method, which depends on the quality of the initial flood mask. Next, it is investigated how much the predicted statistical risk from a process-based model chain is dependent on implemented physical process details. Thereby it is demonstrated what a risk study based on established models can deliver. Even for fluvial flooding, such model chains are already quite complex, though, and are hardly available for compound or cascading events comprising torrential rainfall, flash floods, and other processes. In the fourth chapter of this thesis it is therefore tested whether machine learning based on comprehensive damage data can offer a more direct path towards damage modelling, that avoids explicit conception of such a model chain. For that purpose, a state-collected dataset of damaged buildings from the severe El Niño event 2017 in Peru is used. In this context, the possibilities of data-mining for extracting process knowledge are explored as well. It can be shown that various openly available geodata sources contain useful information for flood hazard and damage modelling for complex events, e.g. satellite-based rainfall measurements, topographic and hydrographic information, mapped settlement areas, as well as indicators from spectral data. Further, insights on damaging processes are discovered, which mainly are in line with prior expectations. The maximum intensity of rainfall, for example, acts stronger in cities and steep canyons, while the sum of rain was found more informative in low-lying river catchments and forested areas. Rural areas of Peru exhibited higher vulnerability in the presented study compared to urban areas. However, the general limitations of the methods and the dependence on specific datasets and algorithms also become obvious. In the overarching discussion, the different methods – process-based modelling, predictive machine learning, and data-mining – are evaluated with respect to the overall research questions. In the case of hazard observation it seems that a focus on novel algorithms makes sense for future research. In the subtopic of hazard modelling, especially for river floods, the improvement of physical models and the integration of process-based and statistical procedures is suggested. For damage modelling the large and representative datasets necessary for the broad application of machine learning are still lacking. Therefore, the improvement of the data basis in the field of damage is currently regarded as more important than the selection of algorithms. KW - flood risk KW - machine learning KW - open data KW - damage modelling KW - data-mining KW - Schadensmodellierung KW - Data-Mining KW - Hochwasserrisiko KW - maschinelles Lernen KW - offene Daten Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555943 ER - TY - THES A1 - Kempa, Stefan T1 - Analysen zur Stressantwort von Arabidopsis thaliana unter Schwefelmangelbedingungen : Studien zur Funktion der Dehydroascorbatreduktase in vivo Y1 - 2004 CY - Potsdam ER - TY - THES A1 - Krause, Jette T1 - An expert-based Bayesian investigation of greenhouse gas emission reduction options for German passenger vehicles until 2030 T1 - Eine Expertenbasierte Bayesianische Untersuchung von Möglichkeiten zur Reduktion der Treibhausgasemissionen der Deutschen Neuwagenflotte bis 2030 N2 - The present thesis introduces an iterative expert-based Bayesian approach for assessing greenhouse gas (GHG) emissions from the 2030 German new vehicle fleet and quantifying the impacts of their main drivers. A first set of expert interviews has been carried out in order to identify technologies which may help to lower car GHG emissions and to quantify their emission reduction potentials. Moreover, experts were asked for their probability assessments that the different technologies will be widely adopted, as well as for important prerequisites that could foster or hamper their adoption. Drawing on the results of these expert interviews, a Bayesian Belief Network has been built which explicitly models three vehicle types: Internal Combustion Engine Vehicles (which include mild and full Hybrid Electric Vehicles), Plug-In Hybrid Electric Vehicles, and Battery Electric Vehicles. The conditional dependencies of twelve central variables within the BBN - battery energy, fuel and electricity consumption, relative costs, and sales shares of the vehicle types - have been quantified by experts from German car manufacturers in a second series of interviews. For each of the seven second-round interviews, an expert's individually specified BBN results. The BBN have been run for different hypothetical 2030 scenarios which differ, e.g., in regard to battery development, regulation, and fuel and electricity GHG intensities. The present thesis delivers results both in regard to the subject of the investigation and in regard to its method. On the subject level, it has been found that the different experts expect 2030 German new car fleet emission to be at 50 to 65% of 2008 new fleet emissions under the baseline scenario. They can be further reduced to 40 to 50% of the emissions of the 2008 fleet though a combination of a higher share of renewables in the electricity mix, a larger share of biofuels in the fuel mix, and a stricter regulation of car CO$_2$ emissions in the European Union. Technically, 2030 German new car fleet GHG emissions can be reduced to a minimum of 18 to 44% of 2008 emissions, a development which can not be triggered by any combination of measures modeled in the BBN alone but needs further commitment. Out of a wealth of existing BBN, few have been specified by individual experts through elicitation, and to my knowledge, none of them has been employed for analyzing perspectives for the future. On the level of methods, this work shows that expert-based BBN are a valuable tool for making experts' expectations for the future explicit and amenable to the analysis of different hypothetical scenarios. BBN can also be employed for quantifying the impacts of main drivers. They have been demonstrated to be a valuable tool for iterative stakeholder-based science approaches. N2 - Die vorliegende Arbeit verfolgt zwei Forschungsziele - ein inhaltliches und ein methodisches. Auf der inhaltlichen Ebene wurde die Entwicklung der CO2-Emissionen der deutschen Neuwagenflotte bis 2030 untersucht. Es wurden verschiedene technische Möglichkeiten daraufhin überprüft, inwieweit sie zur Emissionsminderung beitragen können, wie wahrscheinlich es ist, dass sie umgesetzt werden, und welche Voraussetzungen und Rahmenbedingungen bedeutenden Einfluß haben. Die methodische Innovation dieser Arbeit besteht darin, subjektive Einschätzungen von Experten mit einem Bayesianischen Netzwerk zu verknüpfen, um die Anwendung solcher Netzwerke auf Situationen von Unsicherheit im Knight'schen Sinne zu erweitern, hier am Beispiel der zukünftigen, heute nicht vorhersagbaren Entwicklung der CO2-Emissionen der deutschen Neuwagenflotte. Ein erster Schritt dieser Untersuchung bestand in der Erhebung und Auswertung der Einschätzungen von 15 Experten in Bezug auf die Möglichkeiten, die CO2-Emissionen neuer PKW in Deutschland bis 2020 zu senken. Erhoben wurden Aussagen über verfügbare Technologien, ihre Einsparpotenziale, ihre Umsetzungswahrscheinlichkeiten sowie wichtige Rahmenbedingungen. Ziel war es, wesentliche Variablen und deren Abhängigkeiten zu identifizieren, um eine Grundlage für die spätere Modellierung zu schaffen. Um die Untersuchung auf eine breite Basis zu stellen, wurden Experten von Autobauern und Zulieferern, Nichtregierungsorganisationen, Verbänden sowie solche aus Wissenschaft und Journalismus einbezogen. Aufbauend auf diesen Ergebnissen wurde in einem zweiten Schritt ein Bayesianisches Netzwerk entwickelt, mit dem die CO2-Emissionen der deutschen Neuwagenflotte im Jahr 2030 quantifiziert werden können. Außerdem sollten die Marktchancen verschiedener Fahrzeugtypen untersucht werden. Ein weiteres Ziel war es, den Einfluss verschiedener technologischer und regulatorischer Einflussfaktoren zu quantifizieren, die in der ersten Interviewrunde identifiziert worden waren. Gegenüber der ersten Interviewrunde wurde der zeitliche Rahmen der Untersuchung um 10 Jahre auf das Jahr 2030 erweitert. Das Bayesianische Netz erstreckt sich auf die zukünftigen Eigenschaften und Marktchancen von drei Fahrzeugtypen: Verbrennungsmotorische Fahrzeuge einschließlich aller Hybridvarianten bis hin zum Vollhybrid, Plug-In Hybride und Batterie-Elektrofahrzeuge. Das Netzwerk umfasst 46 miteinander verknüpfte Variablen. Für zwölf entscheidende Variablen wurden per Expertenbefragung bedingte Wahrscheinlichkeiten erhoben. Befragt wurden sieben Experten, fast alle hochrangige F&E- oder Umweltexperten bei deutschen Autobauern. Für jeden Experten entstand ein individuell quantifiziertes Netzwerk. Um mögliche Technologie- und Emissionspfade zu untersuchen, wurden verschiedene Szenarien definiert, die unterschiedliche Regulierungen, Batterie-Entwicklungspfade und CO2-Intensitäten von Treibstoffen und elektrischer Energie in Betracht ziehen. Im Basis-Szenario liegen die Erwartungswerte der CO2-Emissionen der deutschen Neuwagenflotte 2030 nach Einschätzung der Experten bei 50 bis 65% der Emissionen der Neuwagenflotte 2008. Kombiniert man einen gesteigerten Anteil erneuerbarer Energien im Strommix, einen größeren Anteil von Biotreibstoffen im Treibstoff-Mix und eine strengere CO2-Emissionsregulierung seitens der Europäischen Union, liegen die erwarteten Emissionen der Neuwagenflotte 2030 bei 40 bis 50% der Emissionen der Neuwagen 2008. Die Erwartungswerte der Neuflotten-Emissionen 2030 können in den verschiedenen BBN auf minimale Werte von 18 bis 44% der Emissionen der deutschen Neuwagenflotte von 2008 festgelegt werden. Es ist in den BBN durchaus möglich, aber in den betrachteten Szenarien unwahrscheinlich, die Emissionen so stark zu senken. Neben der Untersuchung von Fahrzeugtechnologien und CO2-Emissionen bis 2030 verfolgte die vorliegende Arbeit das Ziel, eine innovative Methode zu erproben. Es hat meines Wissens bisher kein Experten-basiertes BBN gegeben, das zukünftige Entwicklungen untersucht. Eine weitere Besonderheit des Ansatzes ist, dass für jeden Experten ein eigenes BBN quantifiziert wurde, so dass eine Schar von Netzwerken entstanden ist, deren Aussagen verglichen werden können. Dadurch war es möglich, die Bandbreite der Erwartungen verschiedener Experten abzuleiten und festzustellen, wo Erwartungen relativ konsistent sind, und wo sie weit auseinander liegen. Daraus lassen sich wertvolle Schlüsse ableiten, an welchen Punkten weitere Forschung besonders erfolgversprechend ist. BBN haben sich damit als nützliches Werkzeug für Stakeholder-basierte iterative Forschungsprozesse erwiesen. Insgesamt hat es sich als fruchtbarer neuer Ansatz erwiesen, Experten-basierte Bayesianische Netzwerke zur Untersuchung zukünftiger Entwicklungsmöglichkeiten heranzuziehen. Die Methode ermöglicht es auch, den Einfluß von Rahmenbedingungen zu bestimmen. KW - Bayesianismus KW - Bayesianisches Netzwerk KW - Treibhausgasemissionen KW - Pkw KW - Stakeholder-basierte Forschung KW - Bayesianism KW - Bayesian Network KW - Greenhouse Gas Emissions KW - Cars KW - Stakeholder-based Science Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57671 ER - TY - THES A1 - Nickelt-Czycykowski, Iliya Peter T1 - Aktive Regionen der Sonnenoberfläche und ihre zeitliche Variation in zweidimensionaler Spektro-Polarimetrie T1 - Active regions on the solar surface and their temporal variation in two-dimensional spectropolarimetry N2 - Die Arbeit beschreibt die Analyse von Beobachtungen zweier Sonnenflecken in zweidimensionaler Spektro-Polarimetrie. Die Daten wurden mit dem Fabry-Pérot-Interferometer der Universität Göttingen am Vakuum-Turm-Teleskop auf Teneriffa erfasst. Von der aktiven Region NOAA 9516 wurde der volle Stokes-Vektor des polarisierten Lichts in der Absorptionslinie bei 630,249 nm in Einzelaufnahmen beobachtet, und von der aktiven Region NOAA 9036 wurde bei 617,3 nm Wellenlänge eine 90-minütige Zeitserie des zirkular polarisierten Lichts aufgezeichnet. Aus den reduzierten Daten werden Ergebniswerte für Intensität, Geschwindigkeit in Beobachtungsrichtung, magnetische Feldstärke sowie verschiedene weitere Plasmaparameter abgeleitet. Mehrere Ansätze zur Inversion solarer Modellatmosphären werden angewendet und verglichen. Die teilweise erheblichen Fehlereinflüsse werden ausführlich diskutiert. Das Frequenzverhalten der Ergebnisse und Abhängigkeiten nach Ort und Zeit werden mit Hilfe der Fourier- und Wavelet-Transformation weiter analysiert. Als Resultat lässt sich die Existenz eines hochfrequenten Bandes für Geschwindigkeitsoszillationen mit einer zentralen Frequenz von 75 Sekunden (13 mHz) bestätigen. In größeren photosphärischen Höhen von etwa 500 km entstammt die Mehrheit der damit zusammenhängenden Schockwellen den dunklen Anteilen der Granulen, im Unterschied zu anderen Frequenzbereichen. Die 75-Sekunden-Oszillationen werden ebenfalls in der aktiven Region beobachtet, vor allem in der Lichtbrücke. In den identifizierten Bändern oszillatorischer Power der Geschwindigkeit sind in einer dunklen, penumbralen Struktur sowie in der Lichtbrücke ausgeprägte Strukturen erkennbar, die sich mit einer Horizontalgeschwindigkeit von 5-8 km/s in die ruhige Sonne bewegen. Diese zeigen einen deutlichen Anstieg der Power, vor allem im 5-Minuten-Band, und stehen möglicherweise in Zusammenhang mit dem Phänomen der „Evershed-clouds“. Eingeschränkt durch ein sehr geringes Signal-Rausch-Verhältnis und hohe Fehlereinflüsse werden auch Magnetfeldvariationen mit einer Periode von sechs Minuten am Übergang von Umbra zu Penumbra in der Nähe einer Lichtbrücke beobachtet. Um die beschriebenen Resultate zu erzielen, wurden bestehende Visualisierungsverfahren der Frequenzanalyse verbessert oder neu entwickelt, insbesondere für Ergebnisse der Wavelet-Transformation. N2 - The publication describes the analysis of two sunspot observations in two-dimensional spectropolarimetry. The data was obtained with the Fabry-Pérot-interferometer of Göttingen University at the German Vacuum Tower Telescope on Tenerife. Of the active region NOAA 9516 the full Stokes vector of polarised light was observed in the absorption line at 630.249 nm in single scans. A ninety minute time series of circular polarised light of the active region NOAA 9036 was observed at 617.3 nm wavelength. From the reduced data results for intensity, line-of-sight velocity, magnetic field strength as well as several other plasma parameters are inferred. Different approaches to solar atmosphere model inversion are applied and compared. The significant influence of errors is discussed in detail. The frequency behaviour of the results and spatial and temporal dependencies are further analysed by Fourier and wavelet transformation. As a result the existence of a high frequency band of velocity oscillations with a central frequency of about 75-seconds (13 mHz) can be confirmed. In greater heights of about 500 km the majority of the corresponding shock waves are derived from darker parts of the granules in contrast to the dominant five-minute-oscillations. 75-second-oscillations can also be observed in the active region, especially in the light bridge. In the identified bands of oscillatory velocity power, distinct structures become visible in a penumbral dark structure as well as in the light bridge that move into the quiet sun with a horizontal speed of 5-8 km/s. They show an increase in power, mostly 5-minute-band, and may be related to the Evershed cloud phenomenon. Under the constraint of a very low signal-to-noise ratio and high error influence, magnetic field variations of a 6-minute period are also observed in an umbral-penumbral transition area close to a light bridge. To derive these results, existing visualisation methods for frequency analysis where improved or newly developed, especially so for wavelet transform results. KW - Sonne: Oszillationen KW - Sonne: Sonnenflecken KW - Instrumente: Polarimeter KW - Instrumente: Spektrographen KW - Frequenzanalyse KW - Sun: oszillations KW - Sun: sunspots KW - instrumentation: polarimeters KW - instrumentation: spectrographs KW - frequency analysis Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-25524 ER - TY - THES A1 - Kellermann, Thorsten T1 - Accurate numerical relativity simulations of non-vacuumspace-times in two dimensions and applications to critical collapse T1 - Exakte numerisch relativistische Simulationen der Nicht-Vakuum-Raum-Zeit in zwei Dimensionen und deren Anwendung zu Problemen des kritischen Kollaps N2 - This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse. N2 - Diese Arbeit legt seinen Schwerpunkt auf die Physik von Neutronensternen und deren Beschreibung mit Methoden der numerischen Relativitätstheorie. Im ersten Schritt wird eine neue numerische Umgebung, der Whisky2D Code entwickelt, dieser löst die relativistischen Gleichungen der Hydrodynamik in Axialymmetrie. Hierzu betrachten wir eine verbesserte Formulierung der sog. "flux conserved formulation" der Gleichungen. Im zweiten Teil wird der neue Code verwendet , um das kritische Verhalten zweier kollidierenden Neutronensternen zu untersuchen. In Anbetracht der Analogie, um Übergänge in der statistischen Physik Phase werden wir die Entwicklung der Entropie der Neutronensterne während des gesamten Prozesses betrachten. Ein besseres Verständnis der Evolution von thermodynamischen Größen, wie der Entropie in kritischer Prozess, sollte zu einem tieferen Verständnis der relativistischen Thermodynamik führen. Der Whisky2D Code, zur Lösung Gleichungen relativistischer Hydrodynamik wurde in einer „flux conserved form“ und in zylindrischen Koordinaten geschrieben. Hierdurch entstehen 1 / r singuläre Terme, wobei r der ist, die entsprechend behandelt werden müssen. In früheren Arbeiten, wird der Operator expandiert und die 1 / r spezifisch Therme auf die rechte Seite geschrieben, so dass die linke Seite eine Form annimmt, die identisch ist mit der kartesischen Formulierung. Wir nennen dies die Standard-Formulierung. Eine andere Möglichkeit ist, die Terme nicht zu expandieren, den und den 1/r Term in die Gleichung hinein zu ziehen. Wir nennen dies die Neue-Formulierung. Die neuen Gleichungen werden mit den gleichen Verfahren wie im kartesischen Fall gelöst. Aus mathematischer Sicht ist keine Unterschiede zwischen den beiden Formulierungen zu erwarten, erst die numerische Sicht zeigt die Unterschiede auf. Versuche zeigen, dass die Neue-Formulierung numerische Fehler um mehrere Größenordnungen reduziert. Der zweite Teil der Dissertation verwendet den neuen Code für die Untersuchung kritischer Phänomene in der allgemeinen Relativitätstheorie. Insbesondere betrachten wir die Kopf-auf-Kollision zweier Neutronensterne in einem Bereich des Parameter Raums, deren zwei mögliche Endzustände entweder einen neuen stabilen Neutronenstern oder ein Schwarzes Loch darstellen. Im Jahr 1993, betrachtete Choptuik Ein-Parameter-Familien von Lösungen, S [P], der Einstein-Klein-Gordon-Gleichung für ein masseloses Skalarfeld in sphärischer Symmetrie, so dass für jedes P> P ⋆, S[P] ein Schwarzes Loch enthalten ist und jedes P

10000 years down to a seasonal resolution. Since lake basins additionally act as natural sediment traps, the riverine sediment supply, which is preserved as detrital event layers in the lake sediments, can be used as a proxy for extreme discharge events. Within my thesis I examined a ~ 8.50 m long sedimentary record from the pre-Alpine Lake Mondsee (Northeast European Alps), which covered the last 7000 years. This sediment record consists of calcite varves and intercalated detrital layers, which range in thickness from 0.05 to 32 mm. Detrital layer deposition was analysed by a combined method of microfacies analysis via thin sections, Scanning Electron Microscopy (SEM), μX-ray fluorescence (μXRF) scanning and magnetic susceptibility. This approach allows characterizing individual detrital event layers and assigning a corresponding input mechanism and catchment. Based on varve counting and controlled by 14C age dates, the main goals of this thesis are (i) to identify seasonal runoff processes, which lead to significant sediment supply from the catchment into the lake basin and (ii) to investigate flood frequency under changing climate boundary conditions. This thesis follows a line of different time slices, presenting an integrative approach linking instrumental and historical flood data from Lake Mondsee in order to evaluate the flood record inferred from Lake Mondsee sediments. The investigation of eleven short cores covering the last 100 years reveals the abundance of 12 detrital layers. Therein, two types of detrital layers are distinguished by grain size, geochemical composition and distribution pattern within the lake basin. Detrital layers, which are enriched in siliciclastic and dolomitic material, reveal sediment supply from the Flysch sediments and Northern Calcareous Alps into the lake basin. These layers are thicker in the northern lake basin (0.1-3.9 mm) and thinner in the southern lake basin (0.05-1.6 mm). Detrital layers, which are enriched in dolomitic components forming graded detrital layers (turbidites), indicate the provenance from the Northern Calcareous Alps. These layers are generally thicker (0.65-32 mm) and are solely recorded within the southern lake basin. In comparison with instrumental data, thicker graded layers result from local debris flow events in summer, whereas thin layers are deposited during regional flood events in spring/summer. Extreme summer floods as reported from flood layer deposition are principally caused by cyclonic activity from the Mediterranean Sea, e.g. July 1954, July 1997 and August 2002. During the last two millennia, Lake Mondsee sediments reveal two significant flood intervals with decadal-scale flood episodes, during the Dark Ages Cold Period (DACP) and the transition from the Medieval Climate Anomaly (MCA) into the Little Ice Age (LIA) suggesting a linkage of transition to climate cooling and summer flood recurrences in the Northeastern Alps. In contrast, intermediate or decreased flood episodes appeared during the MWP and the LIA. This indicates a non-straightforward relationship between temperature and flood recurrence, suggesting higher cyclonic activity during climate transition in the Northeast Alps. The 7000-year flood chronology reveals 47 debris flows and 269 floods, with increased flood activity shifting around 3500 and 1500 varve yr BP (varve yr BP = varve years before present, before present = AD 1950). This significant increase in flood activity shows a coincidence with millennial-scale climate cooling that is reported from main Alpine glacier advances and lower tree lines in the European Alps since about 3300 cal. yr BP (calibrated years before present). Despite relatively low flood occurrence prior to 1500 varve yr BP, floods at Lake Mondsee could have also influenced human life in early Neolithic lake dwellings (5750-4750 cal. yr BP). While the first lake dwellings were constructed on wetlands, the later lake dwellings were built on piles in the water suggesting an early flood risk adaptation of humans and/or a general change of the Late Neolithic Culture of lake-dwellers because of socio-economic reasons. However, a direct relationship between the final abandonment of the lake dwellings and higher flood frequencies is not evidenced. N2 - Ein verstärktes Auftreten von Hochwassern, sowohl in ihrer Häufigkeit als auch in ihrer Frequenz, wird im Zuge der Klimaerwärmung und einer möglichen Intensivierung des hydrologischen Kreislaufs diskutiert. Die Kenntnis über die natürliche Variabilität von Hochwasserereignissen ist dabei eine grundlegende Voraussetzung, um die Hochwassergefahr für die Zukunft abschätzen zu können. Da instrumentelle Hochwasserzeitreihen meist nur die letzten 150 Jahre abbilden sind andere Methoden erforderlich, um das Auftreten von historischen und prä-historischen Hochwassern festzustellen. Jährlich laminierte (warvierte) Seesedimente sind bedeutende natürliche Archive, denn sie liefern kontinuierliche Zeitreihen > 10000 Jahre mit einer bis zur saisonalen Auflösung. Seebecken stellen natürliche Sedimentfallen dar, wobei eingetragenes Flusssediment in den Seesedimenten als eine distinkte detritische Lage aufgezeichnet wird, und daher zur Rekonstruktion von extremen Abflussereignissen genutzt werden. Im Rahmen meiner Doktorarbeit habe ich einen 8.50 m langen Sedimentkern aus dem Mondsee (Nordostalpen) untersucht, welcher die letzten 7000 Jahre abdeckt. Dieser Sedimentkern besteht aus Kalzitwarven und eingeschalteten detritischen Lagen mit einer Mächtigkeit von 0.05-32 mm. Detritische Lagen wurden mit Hilfe einer kombinierten Methode untersucht: Mikrofaziesanalyse, Rasterelektronenmikroskopie, Röntgenfluoreszenzanalyse (µXRF) und magnetische Suszeptibilität. Dieser Ansatz ermöglicht die Charakterisierung der einzelnen detritischen Lagen bezüglich der Eintragsprozesse und die Lokalisierung des Einzugsgebietes. Auf Grundlage der Warvenzählung und 14C Datierungen sind die wichtigsten Ziele dieser Arbeit: (i) die Identifizierung der Eintragsprozesse, welche zu einem Sedimenteintrag vom Einzugsgebiet bis in den See führen und (ii) die Rekonstruktion der Hochwasserfrequenz unter veränderten Klimabedingungen. Diese Arbeit zeigt eine Untersuchung auf verschiedenen Zeitscheiben, wobei instrumentelle und historische Daten genutzt werden, um die Aufzeichnung von pre-historischen Hochwasser in den Mondseesedimenten besser zu verstehen. Innerhalb der letzten 100 Jahre wurden zwölf Abflussereignisse aufgezeichnet. Zwei Typen von detritschen Lagen können anhand von Korngröße, geochemischer Zusammensetzung und des Verteilungsmusters unterschieden werden. Detritische Lagen, welche aus siliziklastischen und dolomitischen Material bestehen, zeigen eine Sedimentherkunft vom Teileinzugsgebiet des Flysch (nördliches Einzugsgebiet) und der Nördlichen Kalkalpen (südliches Teileinzugsgebiet) auf. Diese Lagen sind im Nördlichen Becken mächtiger (0.1-3.9 mm) als im südlichen Seebecken (0.05-1.6 mm). Detritische Lagen, welche nur aus dolomitischem Material bestehen und Turbititlagen aufzeigen (0.65-32 mm), weisen auf eine Herkunft aus den Nördlichen Kalkalpen hin. Im Vergleich mit instrumentellen Zeitreihen, stammen die mächtigeren Lagen von lokalen Murereignissen im Sommer und feinere Eintragslagen von regionalen Frühjahrs- und Sommerhochwassern. Extreme Sommerhochwasser am Mondsee werden hauptsächlich durch Zyklonen vom Mittelmeer ausgelöst, z.B. Juli 1954, Juli 1997 und August 2002. Die Untersuchung des langen Sedimentkerns vom Mondsee zeigt während der letzten 2000 Jahre signifikante Hochwasserintervalle mit dekadischen Hochwasserepisoden während der Völkerwanderungszeit und im Übergang vom Mittelalter in die Kleine Eiszeit. Dies weist auf eine Verknüpfung von Abkühlungsphasen und Sommerhochwassern im Nordostalpenraum hin. Während der Mittelalterlichen Wärmephase und in der Kleinen Eiszeit kam es jedoch zu einer geringeren Hochwasseraktivität. Dies zeigt einen komplexen Zusammenhang von Temperaturentwicklung und Hochwasseraktivität in den Nordostalpen, mit einer erhöhten Zyklonenaktivät in den Übergängen von wärmeren zu kälteren Phasen. Während der letzten 7000 Jahre wurden 47 Muren und 269 Hochwasser aufgezeichnet, wobei es eine signifikante Änderung mit erhöhter Häufigkeit um 3500 und 1500 Warvenjahre v. h. gab (v.h. = vor heute = AD 1950). Diese signifikante Änderung stimmt mit einem langfristigem Abkühlungstrend überein, welcher durch alpine Gletschervorstöße und das Absinken von Baumgrenzen seit etwa 3300 Warvenjahre v.h. berichtet wird. Trotz relativ geringer Hochwasseraktivität um 1500 Warvenjahre v.h., könnte das Auftreten von Hochwasser auch das Leben Menschen in Neolithischen Pfahlbausiedlungen (5750-4750 cal. yr BP) beeinflusst haben. Während die ersten Pfahlbauten noch als Feuchtbodensiedlungen am Land entstanden, wurden spätere Siedlungen eventuell als Anpassung an stark schwankenden Seewasserspiegeln auf Pfählen im Wasser gebaut und/oder zeigen eine allgemeine Veränderung der Siedlungsaktivitäten der Neolithischen Pfahlbaukultur an, aufgrund sozio-ökonomischer Veränderungen. Ein direkter Zusammenhang zwischen dem Verlassen der Pfahlbausiedlungen und einer erhöhten Hochwasseraktivität konnte jedoch nicht festgestellt werden. KW - Mondsee KW - Paläohochwasser KW - Seesedimente KW - Warven KW - Klimarekonstruktion KW - Mondsee KW - Paleofloods KW - Lake sediments KW - Warves KW - Climate reconstruction Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66702 ER -