TY - THES A1 - Zemella, Anne T1 - Fluoreszenzmarkierung und Modifizierung von komplexen Proteinen in eukaryotischen zellfreien Systemen durch die Etablierung von orthogonalen tRNA/Aminoacyl-tRNA-Synthetase-Paaren T1 - Fluorescent labeling and modification of complex proteins in eukaryotic cell-free systems by establishing orthogonal tRNA/aminoacyl-tRNA-synthetase pairs N2 - Die funktionelle Charakterisierung von therapeutisch relevanten Proteinen kann bereits durch die Bereitstellung des Zielproteins in adäquaten Mengen limitierend sein. Dies trifft besonders auf Membranproteine zu, die aufgrund von zytotoxischen Effekten auf die Produktionszelllinie und der Tendenz Aggregate zu bilden, in niedrigen Ausbeuten an aktivem Protein resultieren können. Der lebende Organismus kann durch die Verwendung von translationsaktiven Zelllysaten umgangen werden- die Grundlage der zellfreien Proteinsynthese. Zu Beginn der Arbeit wurde die ATP-abhängige Translation eines Lysates auf der Basis von kultivierten Insektenzellen (Sf21) analysiert. Für diesen Zweck wurde ein ATP-bindendes Aptamer eingesetzt, durch welches die Translation der Nanoluziferase reguliert werden konnte. Durch die dargestellte Applizierung von Aptameren, könnten diese zukünftig in zellfreien Systemen für die Visualisierung der Transkription und Translation eingesetzt werden, wodurch zum Beispiel komplexe Prozesse validiert werden können. Neben der reinen Proteinherstellung können Faktoren wie posttranslationale Modifikationen sowie eine Integration in eine lipidische Membran essentiell für die Funktionalität des Membranproteins sein. Im zweiten Abschnitt konnte, im zellfreien Sf21-System, für den G-Protein-gekoppelten Rezeptor Endothelin B sowohl eine Integration in die endogen vorhandenen Endoplasmatisch Retikulum-basierten Membranstrukturen als auch Glykosylierungen, identifiziert werden. Auf der Grundlage der erfolgreichen Synthese des ET-B-Rezeptors wurden verschiedene Methoden zur Fluoreszenzmarkierung des Adenosin-Rezeptors A2a (Adora2a) angewandt und optimiert. Im dritten Abschnitt wurde der Adora2a mit Hilfe einer vorbeladenen tRNA, welche an eine fluoreszierende Aminosäure gekoppelt war, im zellfreien Chinesischen Zwerghamster Ovarien (CHO)-System markiert. Zusätzlich konnte durch den Einsatz eines modifizierten tRNA/Aminoacyl-tRNA-Synthetase-Paares eine nicht-kanonische Aminosäure an Position eines integrierten Amber-Stopcodon in die Polypeptidkette eingebaut und die funktionelle Gruppe im Anschluss an einen Fluoreszenzfarbstoff gekoppelt werden. Aufgrund des offenen Charakters eignen sich zellfreie Proteinsynthesesysteme besonders für eine Integration von exogenen Komponenten in den Translationsprozess. Mit Hilfe der Fluoreszenzmarkierung wurde eine ligandvermittelte Konformationsänderung im Adora2a über einen Biolumineszenz-Resonanzenergietransfer detektiert. Durch die Etablierung der Amber-Suppression wurde darüber hinaus das Hormon Erythropoetin pegyliert, wodurch Eigenschaften wie Stabilität und Halbwertszeit des Proteins verändert wurden. Zu guter Letzt wurde ein neues tRNA/Aminoacyl-tRNA-Synthetase-Paar auf Basis der Methanosarcina mazei Pyrrolysin-Synthetase etabliert, um das Repertoire an nicht-kanonischen Aminosäuren und den damit verbundenen Kopplungsreaktionen zu erweitern. Zusammenfassend wurden die Potenziale zellfreier Systeme in Bezug auf der Herstellung von komplexen Membranproteinen und der Charakterisierung dieser durch die Einbringung einer positionsspezifischen Fluoreszenzmarkierung verdeutlicht, wodurch neue Möglichkeiten für die Analyse und Funktionalisierung von komplexen Proteinen geschaffen wurden. N2 - The functional characterization of therapeutically relevant proteins can be limited due to the provision of the target protein in adequate amounts. In particular membrane proteins belong to the so called “difficult-to-express” proteins because of possible cytotoxic side effects and a susceptibility to aggregation. The living organism can be circumvented by using cell lysates – the basic for cell-free protein synthesis. In the beginning of the thesis the ATP-dependent translation process in a cell lysate based on cultured insect (Sf21) cells was analyzed. For this purpose the translation of a nanoluciferase was regulated by the addition of an ATP-binding aptamer. The demonstrated application of aptamers in cell-free systems might enable a visualization of transcription and translation and following a potential validation process for high-throughput syntheses. In addition to the protein synthesis, factors such as posttranslational modifications and a correct integration into a lipid membrane are essential for the functionality of membrane proteins. Therefore, in the second part, integration of the G protein-coupled Endothelin receptor type B (ET-B) into the endogenous endoplasmic reticulum derived membranes and glycosylation were shown to be possible in a Sf21 cell-free system. Following to the successful synthesis of the ET-B receptor different fluorescent labeling strategies were applied to the adenosine receptor A2a (Adora2a). The first strategy applied precharged tRNAs, coupled to a fluorescently labeled amino acid, to the translation process in a Chinese Hamster Ovary cells (CHO) cell-free system. The second strategy utilized a modified tRNA/aminoacyl-tRNA-synthetase pair to incorporate a non-canonical amino acid at an integrated amber stop codon with a subsequently fluorescent labeling. The open character of cell-free systems enables a feasible integration of exogenous components into the translation process. The site-specific fluorescent labeling was the basis for the detection of a ligand-induced conformational change in the Adora2a by a bioluminescence resonance energy transfer. Additionally the amber suppression technique was transferred to the hormone Erythropoietin (EPO) to modify EPO´s stability and half-life period by coupling polyethylene glycol. Last but not least a novel tRNA/aminoacyl-tRNA-synthetase pair based on the Methanosarcina mazei pyrrolysine synthetase was developed to further increase the repertoire of non-canonical amino acids and copper-free click reactions. Summarizing in the present thesis the potentials of cell-free protein systems related to the synthesis of “difficult-to-express” proteins and the characterization of these proteins with site-specific fluorescence labeling are depicted, thereby establishing new methods for the analysis and functionalization of complex proteins. KW - Zellfreie Proteinsynthese KW - nicht-kanonische Aminosäuren KW - Klick-Chemie KW - Fluoreszenzmarkierung KW - GPCRs KW - Proteinmodifizierung KW - cell-free protein synthesis KW - non-canonical amino acids KW - click chemistry KW - fluorescent labeling KW - GPCRs KW - protein modification Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442361 ER - TY - THES A1 - Zapata, Sebastian Henao T1 - Paleozoic to Pliocene evolution of the Andean retroarc between 26 and 28°S: interactions between tectonics, climate, and upper plate architecture T1 - Paläozoische bis pliozäne Entwicklung des andinen Randbeckens zwischen 26 und 28° Süd: Interaktion von Tektonik, Klima und Architektur der kontinentalen Kruste BT - interactions between tectonics, climate, and upper plate architecture N2 - Interactions and feedbacks between tectonics, climate, and upper plate architecture control basin geometry, relief, and depositional systems. The Andes is part of a longlived continental margin characterized by multiple tectonic cycles which have strongly modified the Andean upper plate architecture. In the Andean retroarc, spatiotemporal variations in the structure of the upper plate and tectonic regimes have resulted in marked along-strike variations in basin geometry, stratigraphy, deformational style, and mountain belt morphology. These along-strike variations include high-elevation plateaus (Altiplano and Puna) associated with a thin-skin fold-and-thrust-belt and thick-skin deformation in broken foreland basins such as the Santa Barbara system and the Sierras Pampeanas. At the confluence of the Puna Plateau, the Santa Barbara system and the Sierras Pampeanas, major along-strike changes in upper plate architecture, mountain belt morphology, basement exhumation, and deformation style can be recognized. I have used a source to sink approach to unravel the spatiotemporal tectonic evolution of the Andean retroarc between 26 and 28°S. I obtained a large low-temperature thermochronology data set from basement units which includes apatite fission track, apatite U-Th-Sm/He, and zircon U-Th/He (ZHe) cooling ages. Stratigraphic descriptions of Miocene units were temporally constrained by U-Pb LA-ICP-MS zircon ages from interbedded pyroclastic material. Modeled ZHe ages suggest that the basement of the study area was exhumed during the Famatinian orogeny (550-450 Ma), followed by a period of relative tectonic quiescence during the Paleozoic and the Triassic. The basement experienced horst exhumation during the Cretaceous development of the Salta rift. After initial exhumation, deposition of thick Cretaceous syn-rift strata caused reheating of several basement blocks within the Santa Barbara system. During the Eocene-Oligocene, the Andean compressional setting was responsible for the exhumation of several disconnected basement blocks. These exhumed blocks were separated by areas of low relief, in which humid climate and low erosion rates facilitated the development of etchplains on the crystalline basement. The exhumed basement blocks formed an Eocene to Oligocene broken foreland basin in the back-bulge depozone of the Andean foreland. During the Early Miocene, foreland basin strata filled up the preexisting Paleogene topography. The basement blocks in lower relief positions were reheated; associated geothermal gradients were higher than 25°C/km. Miocene volcanism was responsible for lateral variations on the amount of reheating along the Campo-Arenal basin. Around 12 Ma, a new deformational phase modified the drainage network and fragmented the lacustrine system. As deformation and rock uplift continued, the easily eroded sedimentary cover was efficiently removed and reworked by an ephemeral fluvial system, preventing the development of significant relief. After ~6 Ma, the low erodibility of the basement blocks which began to be exposed caused relief increase, leading to the development of stable fluvial systems. Progressive relief development modified atmospheric circulation, creating a rainfall gradient. After 3 Ma, orographic rainfall and high relief lead to the development of proximal fluvial-gravitational depositional systems in the surrounding basins. N2 - Die Wechselwirkungen zwischen Tektonik, Klima und dem Aufbau der Oberkruste beeinflussen Relief, Beckengeometrien und sedimentäre Systeme. Die geologische Geschichte der Anden ist durch wiederkehrende tektonische Zyklen gekennzeichnet, die nachhaltig den Aufbau der umliegenden Oberkruste geprägt haben. Im Vorlandbecken der Anden (Retro-Arc Typus) führten räumlich und zeitlich variierende strukturgeologische Prozesse in der Oberkruste zu diversen Beckengeometrien, Deformationsvorgängen, sowie stratigraphische und geomorphologische Markern entlang des Streichens des Hochgebirgszuges. Die räumliche Variation beinhaltet unter anderem Hochgebirgsplateaus wie dem Altiplano oder der Puna, die jeweils mit dem thin-skin Aufschiebungsgürtel oder der thick-skin Deformation des zerbrochenen Vorlands im Santa-Barbara-System, bzw. der Sierras Pampeanas assoziiert werden. Besonders am Tripelpunkt zwischen der Puna Plateau, dem Santa-Barbara-System und der Sierras Pampeanas werden deutliche Veränderungen in der Oberkrustenarchitektur, der Oberflächenbeschaffenheit, der dominierenden Deformationsprozesse und der Heraushebung des Grundgebirges ersichtlich. Ich habe einen Quelle-zu-Senke Ansatz genutzt, um die räumliche und zeitliche tektonische Entwicklung der zentralen Ostanden zwischen 26° und 28°S aufzudecken. Dabei habe ich einen umfangreichen Niedertemperaturdatensatz aus Gesteinen des Grundgebirges gewonnen, welche folgende Methoden mit einschließen: Apatit Spaltspur Methode (apatite fission Track, AFT), Apatit U-Th-Sm/He (AHe), und Zirkon U-Th/He (Zhe) Abkühlalter. Für die stratigraphische Besprechung und die exakte Altersbestimmung der Einheiten des Miozäns wurden U-Pb ICP-MS-LA Zirkonalter aus pyroklastisch zwischengelagerten Materialien genutzt. Die modellierten ZHe Altersdatierungen legen den Schluss nahe, dass das Grundgebirge im Untersuchungsgebiet während der Famatinischen Orogenese (vor 550-450 Ma) herausgehoben wurde, woraufhin im Paläozoikum und dem Trias eine Phase von tektonischer Ruhe folgte. Während der Kreide und dem einsetzenden Salta Rift wurde das Grundgebirge in Form von Horststrukturen freigelegt. Nach der ersten Freilegung wurden einige Grundgebirgsblöcke wieder erwärmt durch die rift-parallele Grabenverfüllung im Santa-Barbara-System. Während dem Eozän und dem Oligozän ist der Übergang in ein kompressives Stressregime verantwortlich für die Heraushebung mehrerer losgelöster Grundgebirgszüge. Diese freigelegten Blöcke entstanden zeitgleich wie Gebiete mit flachem Relief, wo feuchtes Klima und geringe Erosionsraten die Herausbildung von „etchplains“ im kristallinem Grundgebirge ermöglichen. Weiterhin durchbrechen diese Gebirgsblöcke das Vorlandbecken, welches sich im Depozentrum des back-bulges der Anden herausgebildet hat. Während des frühen Miozäns füllten Vorlandbeckensedimente die vorher vorhandene paläogene Topographie. Die Grundgebirgsblöcke mit niedrigem Relief wurden wieder erwärmt und wiesen einen Temperaturgradienten von mehr als 25°C/km auf. Der Vulkanismus im Miozän war verantwortlich für laterale Variationen der Intensität der erneuten Erwärmung innerhalb des Campo-Arenal Beckens. Vor etwa 12 Ma modifizierte eine neue Deformationsphase das Abflussnetz und zerstückelte das lakustrische System. Während die Deformation und die Gebirgsbildung anhielt, wurden überlagernde Sedimentschichten einfach erodiert, effizient beseitigt und durch fluviale Prozesse umgelagert, die die weitere Herausbildung von Relief verhinderten. Nach ~6 Ma ermöglichte die geringe Erodierbarkeit des Grundgebirges deren Reliefzunahme, wodurch sich stabile fluviale Systeme herausbildeten. Möglicherweise unterbrach die fortschreitende Reliefzunahme atmosphärische Zirkulationsprozesse, sodass sich laterale Niederschlagsgradienten ausbildeten. Nach 3 Ma führten orographische Niederschlagsbarrieren zu der Entwicklung von nahe liegenden fluvial-gravitationalen Ablagerungssystemen in den umliegenden Becken. KW - climate KW - tectonics KW - Andes KW - inherited structures KW - Klima KW - Tektonik KW - Anden KW - ererbte Strukturen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439036 ER - TY - THES A1 - Yan, Runyu T1 - Nitrogen-doped and porous carbons towards new energy storage mechanisms for supercapacitors with high energy density T1 - Neuartige Energiespeichermechanismen in porösen und stickstoffdotierten Kohlenstoffen für die Anwendung in Superkondensatoren mit hoher Energiedichte N2 - Supercapacitors are electrochemical energy storage devices with rapid charge/discharge rate and long cycle life. Their biggest challenge is the inferior energy density compared to other electrochemical energy storage devices such as batteries. Being the most widely spread type of supercapacitors, electrochemical double-layer capacitors (EDLCs) store energy by electrosorption of electrolyte ions on the surface of charged electrodes. As a more recent development, Na-ion capacitors (NICs) are expected to be a more promising tactic to tackle the inferior energy density due to their higher-capacity electrodes and larger operating voltage. The charges are simultaneously stored by ion adsorption on the capacitive-type cathode surface and via faradic process in the battery-type anode, respectively. Porous carbon electrodes are of great importance in these devices, but the paramount problems are the facile synthetic routes for high-performance carbons and the lack of fundamental understanding of the energy storage mechanisms. Therefore, the aim of the present dissertation is to develop novel synthetic methods for (nitrogen-doped) porous carbon materials with superior performance, and to reveal a deeper understanding energy storage mechanisms of EDLCs and NICs. The first part introduces a novel synthetic method towards hierarchical ordered meso-microporous carbon electrode materials for EDLCs. The large amount of micropores and highly ordered mesopores endow abundant sites for charge storage and efficient electrolyte transport, respectively, giving rise to superior EDLC performance in different electrolytes. More importantly, the controversial energy storage mechanism of EDLCs employing ionic liquid (IL) electrolytes is investigated by employing a series of porous model carbons as electrodes. The results not only allow to conclude on the relations between the porosity and ion transport dynamics, but also deliver deeper insights into the energy storage mechanism of IL-based EDLCs which is different from the one usually dominating in solvent-based electrolytes leading to compression double-layers. The other part focuses on anodes of NICs, where novel synthesis of nitrogen-rich porous carbon electrodes and their sodium storage mechanism are investigated. Free-standing fibrous nitrogen-doped carbon materials are synthesized by electrospinning using the nitrogen-rich monomer (hexaazatriphenylene-hexacarbonitrile, C18N12) as the precursor followed by condensation at high temperature. These fibers provide superior capacity and desirable charge/discharge rate for sodium storage. This work also allows insights into the sodium storage mechanism in nitrogen-doped carbons. Based on this mechanism, further optimization is done by designing a composite material composed of nitrogen-rich carbon nanoparticles embedded in conductive carbon matrix for a better charge/discharge rate. The energy density of the assembled NICs significantly prevails that of common EDLCs while maintaining the high power density and long cycle life. N2 - Superkondensatoren sind elektrochemische Energiespeicher, die eine hohe Lade-/Entladerate und Zyklensta-bilität aufweisen, deren größte Einschränkung derzeit jedoch bei ihrer im Vergleich zu anderen Speicherlösungen, wie etwa Batterien, geringen Energiedichte liegt. Im am weitesten verbreiteten Superkondensatortyp, dem elektrochemischen Doppelschichtkondensator (engl. electrochemical double-layer capacitor, EDLC), wird die Energie durch Elektrosorption der Elektrolytionen an die geladene Elektrodenoberfläche gespeichert. Der Natrium-Ionen-Kondensator (engl. Na-ion capacitor, NIC) ist eine neuere Entwicklung und löst das Problem der geringen Energiedichte durch Verwendung von Elektroden mit einer höheren Kapazität und Betriebsspannung. Dies wird dadurch erreicht, dass simultan anodenseitig ein faradayscher Prozess und kathodenseitig der Aufbau einer elektrochemischen Doppelschicht genutzt werden. Somit kommen die Vorteile beider Phänomene zum Tragen. Poröse Kohlenstoffelektroden sind wichtig für beide Speichersysteme, wobei die Entwicklung einfacher Syn-theserouten für die Herstellung von Hochleistungskohlenstoffen und der Aufbau eines grundlegenden Ver-ständnisses der dem Energiespeicher zugrunde liegenden Mechanismen die vordergründigen Herausforde-rungen sind. Daher ist es das Ziel der vorliegenden Dissertation, neue Methoden zur Synthese (stickstoffdo-tierter) Kohlenstoffmaterialien mit überlegener Leistung zu erschließen und eine tiefere Einsicht in die me-chanistischen Aspekte der Funktionsweise der eingangs vorgestellten Superkondensatorsysteme zu erhalten. Im ersten Teil der Arbeit wird eine neuartige Synthese von Kohlenstoff-Elektrodenmaterialien für EDLCs vor-gestellt, welche ein hohes Volumen an Mikroporen und hochgeordneten Mesoporen aufweisen. Durch deren Einsatz kann in verschiedenen Elektrolytsystemen eine herausragende Energiedichte erzielt werden. Umso bedeutender sind die Ergebnisse der Untersuchung des kontrovers diskutierten Energiespeichermechanismus in EDLCs mit Elektrolyten auf Basis ionischer Flüssigkeiten (engl. ionic liquids, ILs) und Elektroden aus porösen Modellkohlenstoffen. Aus diesen können nicht nur Rückschlüsse auf den Zusammenhang zwischen Porosität und Ionentransportdynamik gezogen werden, sondern sie lassen auch wichtige Erkenntnisse auf die Mechanismen des Ladungsspeichers in IL-basierten EDLCs zu, welche sich grundlegend von dem in lösungsmittelbasierten Elektrolyten vorherrschenden Mechanismus, der Bildung einer Kompressionsdoppelschicht, unterscheiden. Im zweiten Teil des Werks liegt der Fokus auf der Synthese stickstoffreicher poröser Kohlenstoffelektroden als Anoden für NICs und der Untersuchung der Vorgänge während der Natriumeinlagerung in solchen Syste-men. Freistehende, faserartige und stickstoffdotierte Kohlenstoffmaterialien wurden durch Elektrospinnen des stickstoffreichen Monomers Hexaazatriphenylen-hexacarbonitril (C18N12) gefolgt von dessen Kondensati-on bei hoher Temperatur erhalten. Diese Fasern überzeugen durch überragende Kapazität und eine hohe Lade-/Entladerate beim Natriumspei-chervorgang. In diesem Rahmen wurde auch der Mechanismus der Natriumeinlagerung in stickstoffdotierten Kohlenstoffen beleuchtet und auf Basis dieser Erkenntnisse wurde eine weitere Optimierung vorgenommen. Indem ein Kompositmaterial aus stickstoffreichen Kohlenstoffnanopartikeln in einer leitfähigen Kohlenstoffmatrix erzeugt wurde, konnte die Lade-/Entladerate abermals verbessert werden. Somit übertrifft die Energiedichte der so konstruierten NICs die gewöhnlicher EDLCs, während deren hohe Leistungsdichte und Lebensdauer erhalten bleibt. KW - porous carbons KW - supercapacitors KW - high energy density KW - energy storage mechanism KW - poröse Kohlenstoffe KW - Superkondensatoren KW - hohe Energiedichte KW - Energiespeichermechanismus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431413 ER - TY - THES A1 - Wozny, Florian T1 - Three empirical essays in health economics T1 - Drei empirische Essays in Gesundheitsökonomik N2 - Modern health care systems are characterized by pronounced prevention and cost-optimized treatments. This dissertation offers novel empirical evidence on how useful such measures can be. The first chapter analyzes how radiation, a main pollutant in health care, can negatively affect cognitive health. The second chapter focuses on the effect of Low Emission Zones on public heath, as air quality is the major external source of health problems. Both chapters point out potentials for preventive measures. Finally, chapter three studies how changes in treatment prices affect the reallocation of hospital resources. In the following, I briefly summarize each chapter and discuss implications for health care systems as well as other policy areas. Based on the National Educational Panel Study that is linked to data on radiation, chapter one shows that radiation can have negative long-term effects on cognitive skills, even at subclinical doses. Exploiting arguably exogenous variation in soil contamination in Germany due to the Chernobyl disaster in 1986, the findings show that people exposed to higher radiation perform significantly worse in cognitive tests 25 years later. Identification is ensured by abnormal rainfall within a critical period of ten days. The results show that the effect is stronger among older cohorts than younger cohorts, which is consistent with radiation accelerating cognitive decline as people get older. On average, a one-standarddeviation increase in the initial level of CS137 (around 30 chest x-rays) is associated with a decrease in the cognitive skills by 4.1 percent of a standard deviation (around 0.05 school years). Chapter one shows that sub-clinical levels of radiation can have negative consequences even after early childhood. This is of particular importance because most of the literature focuses on exposure very early in life, often during pregnancy. However, population exposed after birth is over 100 times larger. These results point to substantial external human capital costs of radiation which can be reduced by choices of medical procedures. There is a large potential for reductions because about one-third of all CT scans are assumed to be not medically justified (Brenner and Hall, 2007). If people receive unnecessary CT scans because of economic incentives, this chapter points to additional external costs of health care policies. Furthermore, the results can inform the cost-benefit trade-off for medically indicated procedures. Chapter two provides evidence about the effectiveness of Low Emission Zones. Low Emission Zones are typically justified by improvements in population health. However, there is little evidence about the potential health benefits from policy interventions aiming at improving air quality in inner-cities. The chapter ask how the coverage of Low Emission Zones air pollution and hospitalization, by exploiting variation in the roll out of Low Emission Zones in Germany. It combines information on the geographic coverage of Low Emission Zones with rich panel data on the universe of German hospitals over the period from 2006 to 2016 with precise information on hospital locations and the annual frequency of detailed diagnoses. In order to establish that our estimates of Low Emission Zones’ health impacts can indeed be attributed to improvements in local air quality, we use data from Germany’s official air pollution monitoring system and assign monitor locations to Low Emission Zones and test whether measures of air pollution are affected by the coverage of a Low Emission Zone. Results in chapter two confirm former results showing that the introduction of Low Emission Zones improved air quality significantly by reducing NO2 and PM10 concentrations. Furthermore, the chapter shows that hospitals which catchment areas are covered by a Low Emission Zone, diagnose significantly less air pollution related diseases, in particular by reducing the incidents of chronic diseases of the circulatory and the respiratory system. The effect is stronger before 2012, which is consistent with a general improvement in the vehicle fleet’s emission standards. Depending on the disease, a one-standard-deviation increase in the coverage of a hospitals catchment area covered by a Low Emission Zone reduces the yearly number of diagnoses up to 5 percent. These findings have strong implications for policy makers. In 2015, overall costs for health care in Germany were around 340 billion euros, of which 46 billion euros for diseases of the circulatory system, making it the most expensive type of disease caused by 2.9 million cases (Statistisches Bundesamt, 2017b). Hence, reductions in the incidence of diseases of the circulatory system may directly reduce society’s health care costs. Whereas chapter one and two study the demand-side in health care markets and thus preventive potential, chapter three analyzes the supply-side. By exploiting the same hospital panel data set as in chapter two, chapter three studies the effect of treatment price shocks on the reallocation of hospital resources in Germany. Starting in 2005, the implementation of the German-DRG-System led to general idiosyncratic treatment price shocks for individual hospitals. Thus far there is little evidence of the impact of general price shocks on the reallocation of hospital resources. Additionally, I add to the exiting literature by showing that price shocks can have persistent effects on hospital resources even when these shocks vanish. However, simple OLS regressions would underestimate the true effect, due to endogenous treatment price shocks. I implement a novel instrument variable strategy that exploits the exogenous variation in the number of days of snow in hospital catchment areas. A peculiarity of the reform allowed variation in days of snow to have a persistent impact on treatment prices. I find that treatment price increases lead to increases in input factors such as nursing staff, physicians and the range of treatments offered but to decreases in the treatment volume. This indicates supplier-induced demand. Furthermore, the probability of hospital mergers and privatization decreases. Structural differences in pre-treatment characteristics between hospitals enhance these effects. For instance, private and larger hospitals are more affected. IV estimates reveal that OLS results are biased towards zero in almost all dimensions because structural hospital differences are correlated with the reallocation of hospital resources. These results are important for several reasons. The G-DRG-Reform led to a persistent polarization of hospital resources, as some hospitals were exposed to treatment price increases, while others experienced reductions. If hospitals increase the treatment volume as a response to price reductions by offering unnecessary therapies, it has a negative impact on population wellbeing and public spending. However, results show a decrease in the range of treatments if prices decrease. Hospitals might specialize more, thus attracting more patients. From a policy perspective it is important to evaluate if such changes in the range of treatments jeopardize an adequate nationwide provision of treatments. Furthermore, the results show a decrease in the number of nurses and physicians if prices decrease. This could partly explain the nursing crisis in German hospitals. However, since hospitals specialize more they might be able to realize efficiency gains which justify reductions in input factors without loses in quality. Further research is necessary to provide evidence for the impact of the G-DRG-Reform on health care quality. Another important aspect are changes in the organizational structure. Many public hospitals have been privatized or merged. The findings show that this is at least partly driven by the G-DRG-Reform. This can again lead to a lack in services offered in some regions if merged hospitals specialize more or if hospitals are taken over by ecclesiastical organizations which do not provide all treatments due to moral conviction. Overall, this dissertation reveals large potential for preventive health care measures and helps to explain reallocation processes in the hospital sector if treatment prices change. Furthermore, its findings have potentially relevant implications for other areas of public policy. Chapter one identifies an effect of low dose radiation on cognitive health. As mankind is searching for new energy sources, nuclear power is becoming popular again. However, results of chapter one point to substantial costs of nuclear energy which have not been accounted yet. Chapter two finds strong evidence that air quality improvements by Low Emission Zones translate into health improvements, even at relatively low levels of air pollution. These findings may, for instance, be of relevance to design further policies targeted at air pollution such as diesel bans. As pointed out in chapter three, the implementation of DRG-Systems may have unintended side-effects on the reallocation of hospital resources. This may also apply to other providers in the health care sector such as resident doctors. N2 - Moderne Gesundheitssysteme zeichnen sich sowohl durch eine ausgeprägte Prävention als auch durch kostenoptimierte Behandlungen aus. Diese Dissertation bietet neue empirische Erkenntnisse darüber, wie nützlich solche Maßnahmen sein können. Das erste Kapitel analysiert, wie Strahlung, ein Hauptschadstoff im Gesundheitswesen, die kognitive Gesundheit negativ beeinflussen kann. Das zweite Kapitel konzentriert sich auf die Auswirkungen von Umweltzonen auf die öffentliche Gesundheit, da die Luftqualität die wichtigste externe Quelle für Gesundheitsprobleme ist. Beide Kapitel zeigen Potenziale für präventive Maßnahmen auf. Schließlich wird in Kapitel drei untersucht, wie sich Änderungen von Behandlungspreisen auf die Reallokation von Krankenhausressourcen auswirken. Im Folgenden fasse ich jedes Kapitel kurz zusammen und diskutiere die Relevanz für Gesundheitssysteme und andere Politikbereiche. Basierend auf dem Nationalen Bildungspanel, welches wir mit Strahlungsdaten verknüpfen, zeigt Kapitel eins, dass Strahlung, auch in geringen Dosen, negative Langzeitwirkungen auf die kognitiven Fähigkeiten haben kann. Dazu nutzen wir die exogene Variation der Bodenkontamination in Deutschland nach der Tschernobyl-Katastrophe von 1986. Die Ergebnisse zeigen, dass Menschen, die einer höheren Strahlung ausgesetzt waren, 25 Jahre später in kognitiven Tests deutlich schlechter abschneiden. Die Identifizierung wird durch anormale Niederschläge innerhalb eines kritischen Zeitraums von zehn Tagen nach dem Reaktorunfall gewährleistet. Die Ergebnisse zeigen, dass der Effekt bei älteren Kohorten stärker ist als bei jüngeren Kohorten, was mit der Theorie übereinstimmt, dass Strahlung den altersbedingten Rückgang der kognitiven Leistungsfähigkeit beschleunigt. Im Durchschnitt ist eine Erhöhung des Anfangsniveaus von CS137 um eine Standardabweichung (ca. 30 Thoraxröntgenaufnahmen) mit einer Abnahme der kognitiven Fähigkeiten um 4,1 Prozent einer Standardabweichung verbunden (ca. 0.05 Schuljahre). Die Ergebnisse in Kapitel eins zeigen, dass geringe Strahlungswerte auch nach der frühen Kindheit negative Folgen haben können. Dies ist von besonderer Bedeutung, da sich der Großteil der Literatur auf die Exposition in sehr frühen Lebensphasen konzentriert, oft während der Schwangerschaft. Die nach der Geburt exponierte Bevölkerung ist jedoch über 100-mal größer. Diese Ergebnisse deuten auf erhebliche externe Humankapitalkosten der Strahlung hin, die zum Beispiel durch die Wahl medizinischer Verfahren reduziert werden können. Es bestehen große Reduktionspotenziale, da beispielsweise etwa ein Drittel aller CT-Scans als medizinisch nicht gerechtfertigt angesehen werden (Brenner and Hall, 2007). Unter der Annahme, dass Menschen aufgrund wirtschaftlicher Anreize unnötige CT-Scans erhalten, weist dieses Kapitel auf zusätzliche externe Kosten von Gesundheitsmaßnahmen für die Gesundheit der Patienten hin. Außerdem erweitern die Ergebnisse die Informationsgrundlage für Risiko-Nutzen-Abwägungen medizinischer Behandlungen. Kapitel zwei liefert Belege für die Wirksamkeit von Umweltzonen. Umweltzonen sind in der Regel durch eine Verbesserung der Gesundheit der Bevölkerung gerechtfertigt. Es gibt jedoch wenig Belege für den gesundheitlichen Nutzen solcher politischen Maßnahmen zur Verbesserung der Luftqualität in Innenstädten. In dem Kapitel analysieren wir, wie sich die Ausdehnung der Umweltzonen auf die Luftverschmutzung und die Krankenhausaufenthalte auswirkt. Dazu nutzen wir zeitliche Unterschiede bei der Einführung der Umweltzonen in Deutschland. Hierfür kombinieren wir Informationen über die geografische Abdeckung der Umweltzonen mit umfangreichen Paneldaten von allen deutschen Krankenhäusern im Zeitraum von 2006 bis 2016. Die Krankenhausdaten enthalten präzise Informationen über Krankenhausstandorte und die jährliche Häufigkeit detaillierter Diagnosen. Um sicherzustellen, dass unsere Schätzungen der gesundheitlichen Auswirkungen der Umweltzonen auf eine Verbesserung der lokalen Luftqualität zurückzuführen sind, verwenden wir Daten aus dem offiziellen deutschen Luftmessnetz und ordnen den Umweltzonen Monitorstandorte zu. Hierdurch prüfen wir, ob Messungen der Luftverschmutzung durch die Abdeckung einer Umweltzone beeinflusst werden. Die Ergebnisse in Kapitel zwei bestätigen frühere Ergebnisse, die zeigen, dass die Einführung von Umweltzonen die Luftqualität durch die Reduzierung der NO2- und PM10-Konzentrationen deutlich verbessert. Darüber hinaus zeigt das Kapitel, dass Krankenhäuser, deren Einzugsgebiete in eine Umweltzone fallen, deutlich weniger durch Luftverschmutzung bedingte Krankheiten diagnostizieren, insbesondere durch die Verringerung von chronischen Krankheiten des Kreislaufs und der Atemwege. Der Effekt ist vor 2012 stärker, was sich durch eine allgemeine Verbesserung der Abgasnormen für Fahrzeuge erklären lässt. Wird der Anteil eines Krankenhauseinzugsgebiets mit Umweltzone um eine Standardabweichung erhöht, reduziert sich die jährliche Anzahl der entsprechenden Diagnosen um bis zu 5 Prozent. Diese Ergebnisse sind für politische Entscheidungsträger von Bedeutung. Im Jahr 2015 gab Deutschland 46 Milliarden Euro für Herz-Kreislauf-Erkrankungen aus, die teuerste Krankheitsform mit 2,9 Millionen Fällen. Die Reduktion von Herz-Kreislauf-Erkrankungen würde die Gesundheitskosten der Gesellschaft unmittelbar senken. Während Kapitel eins und zwei die Nachfrageseite in Gesundheitsmärkten und damit das Präventionspotenzial untersuchen, analysiert Kapitel drei die Angebotsseite. Unter Verwendung desselben Krankenhauspaneldatensatzes wie in Kapitel zwei untersuche ich die Auswirkungen von veränderten Behandlungspreisen auf Krankenhausressourcen in Deutschland. Ab 2005 wurden die Behandlungspreise für Patienten durch das G-DRG- System umgewandelt, was bis 2010 zu allgemeinen idiosynkratischen Preisschocks für einzelne Krankenhäuser führte. Die vorhandene Literatur bildet den Effekt von allgemeinen Preisschocks auf Krankenhausressourcen jedoch nur unzureichend ab. Außerdem erweitere ich die vorhandene Literatur indem ich zeige, dass Preisänderungen auch dann langfristige Auswirkungen auf Krankenhausressourcen haben können, wenn die Preisschocks verschwinden. Einfache OLS-Regressionen würden den wahren Effekt aufgrund von endogenen Preisschocks unterschätzen. Unter Zuhilfenahme von hochauflösenden Satellitendaten nutze ich eine Instrumentenvariablenstrategie, welche exogene Schwankungen der Wetterbedingungen im Einzugsbereich von Krankenhäusern nutzt. Eine Besonderheit der Reform führt dazu, dass Abweichungen der Wetterbedingungen zum Zeitpunkt der Reformeinführung einen nachhaltigen Einfluss auf die Behandlungspreise hatten. Die Ergebnisse zeigen, dass Preiserhöhungen im Laufe der Zeit zu einem Anstieg des Pflegepersonals, von Ärzten und der Vielfalt der angebotenen Behandlungen führen, aber zu einem Rückgang des Behandlungsvolumens. Bei privaten und größeren Krankenhäusern sind die Auswirkungen stärker. Darüber hinaus sinkt die Wahrscheinlichkeit von Krankenhausfusionen und Privatisierungen. IV-Ergebnisse zeigen gegen Null verzerrte OLS-Schätzungen in fast allen Dimensionen, da strukturelle Krankenhausunterschiede mit der Reallokation von Ressourcen korreliert sind. Diese Ergebnisse sind aus mehreren Gründen wichtig. Die G-DRG-Reform führte zu einer anhaltenden Polarisation von Krankenhausressourcen, da Krankenhäuser sowohl Preisanstiege als auch Preissenkungen erfuhren. Wenn Krankenhäuser das Behandlungsvolumen durch unnötige Therapien erhöhen, hat das negative Auswirkungen auf die öffentliche Gesundheit der Bevölkerung und die öffentlichen Ausgaben. Andererseits zeigen die Ergebnisse einen Rückgang der Bandbreite der angebotenen Behandlungen bei sinkenden Preisen. Krankenhäuser könnten sich stärker spezialisieren und so mehr Patienten anziehen. Aus politischer Sicht ist es wichtig zu beurteilen, ob solche Veränderungen in der Vielfalt der angebotenen Behandlungen eine angemessene flächendeckende Versorgung gefährden. Des Weiteren zeigen die Ergebnisse einen Rückgang der Zahl der Krankenschwestern und Ärzte, wenn die Preise sinken. Dies könnte die Pflegekrise, welche die Bundesregierung in Deutschland beschreibt, teilweise erklären. Da sich die Krankenhäuser jedoch stärker spezialisieren, können sie möglicherweise Effizienzsteigerungen erzielen, die eine Verringerung der Inputfaktoren rechtfertigen, ohne an Qualität zu verlieren. Weitere Untersuchungen sind notwendig, um die Auswirkungen auf die Qualität der Gesundheitsversorgung nachzuweisen. Ein weiterer wichtiger Aspekt sind Veränderungen in der Organisationsstruktur. Viele öffentliche Krankenhäuser werden privatisiert oder mit anderen Krankenhäusern fusioniert. Meine Ergebnisse zeigen, dass dies zumindest teilweise auf die G-DRG-Reform zurückzuführen ist. Dies kann zu einem Mangel an angebotenen Behandlungen in einigen Regionen führen, wenn sich fusionierte Krankenhäuser spezialisieren oder wenn Krankenhäuser von kirchlichen Organisationen übernommen werden, die aus moralischen Gründen nicht alle Behandlungen anbieten. Insgesamt unterstreicht diese Dissertation das große Potenzial von Gesundheitsvorsorgemaßnahmen und hilft, Reallokationsprozesse im Krankenhaussektor zu erklären. Darüber hinaus haben die Ergebnisse potenziell relevante Auswirkungen auf andere Bereiche der Politik. Kapitel Eins identifiziert einen Einfluss von geringer Radioaktivität auf die kognitive Gesundheit. Auf der Suche nach neuen Energiequellen wird die Kernenergie wieder populär. Die Ergebnisse von Kapitel Eins deuten jedoch auf erhebliche Kosten von Kernenergie hin, die in der aktuellen Debatte noch nicht berücksichtigt wurden. Kapitel Zwei findet starke Hinweise darauf, dass die Verbesserung der Luftqualität durch Umweltzonen, selbst bei relativ geringer Luftverschmutzung, zu einer Verbesserung der Gesundheit führt. Diese Ergebnisse können für die Einführung weiterer Maßnahmen zur Bekämpfung der Luftverschmutzung von Bedeutung sein, wie beispielsweise Fahrverbote für Dieselfahrzeuge. Wie in Kapitel Drei dargelegt, kann die Einführung von DRG-Systemen unbeabsichtigte Effekte bei der Reallokation von Krankenhausressourcen haben. Dies kann auch für andere Anbieter im Gesundheitswesen wie niedergelassene Ärzte gelten. KW - health economics KW - managment KW - hospital KW - Gesundheitsökonomik KW - Management KW - Krankenhaus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469910 ER - TY - THES A1 - Wolf, Mathias Johannes T1 - The role of partial melting on trace element and isotope systematics of granitic melts T1 - Die Bedeutung partieller Schmelzbildung für die Spurenelement- und Isotopensystematik granitischer Schmelzen N2 - Partial melting is a first order process for the chemical differentiation of the crust (Vielzeuf et al., 1990). Redistribution of chemical elements during melt generation crucially influences the composition of the lower and upper crust and provides a mechanism to concentrate and transport chemical elements that may also be of economic interest. Understanding of the diverse processes and their controlling factors is therefore not only of scientific interest but also of high economic importance to cover the demand for rare metals. The redistribution of major and trace elements during partial melting represents a central step for the understanding how granite-bound mineralization develops (Hedenquist and Lowenstern, 1994). The partial melt generation and mobilization of ore elements (e.g. Sn, W, Nb, Ta) into the melt depends on the composition of the sedimentary source and melting conditions. Distinct source rocks have different compositions reflecting their deposition and alteration histories. This specific chemical “memory” results in different mineral assemblages and melting reactions for different protolith compositions during prograde metamorphism (Brown and Fyfe, 1970; Thompson, 1982; Vielzeuf and Holloway, 1988). These factors do not only exert an important influence on the distribution of chemical elements during melt generation, they also influence the volume of melt that is produced, extraction of the melt from its source, and its ascent through the crust (Le Breton and Thompson, 1988). On a larger scale, protolith distribution and chemical alteration (weathering), prograde metamorphism with partial melting, melt extraction, and granite emplacement are ultimately depending on a (plate-)tectonic control (Romer and Kroner, 2016). Comprehension of the individual stages and their interaction is crucial in understanding how granite-related mineralization forms, thereby allowing estimation of the mineralization potential of certain areas. Partial melting also influences the isotope systematics of melt and restite. Radiogenic and stable isotopes of magmatic rocks are commonly used to trace back the source of intrusions or to quantify mixing of magmas from different sources with distinct isotopic signatures (DePaolo and Wasserburg, 1979; Lesher, 1990; Chappell, 1996). These applications are based on the fundamental requirement that the isotopic signature in the melt reflects that of the bulk source from which it is derived. Different minerals in a protolith may have isotopic compositions of radiogenic isotopes that deviate from their whole rock signature (Ayres and Harris, 1997; Knesel and Davidson, 2002). In particular, old minerals with a distinct parent-to-daughter (P/D) ratio are expected to have a specific radiogenic isotope signature. As the partial melting reaction only involves selective phases in a protolith, the isotopic signature of the melt reflects that of the minerals involved in the melting reaction and, therefore, should be different from the bulk source signature. Similar considerations hold true for stable isotopes. N2 - Partielle Schmelzbildung ist ein zentraler Prozess für die geochemische Differentiation der Erdkruste (Vielzeuf et al., 1990). Die Umverteilung chemischer Elemente während der Schmelzbildung beeinflusst die Zusammensetzung der oberen und unteren Erdkruste entscheidend und stellt einen Mechanismus zur Konzentration und zum Transport chemischer Elemente dar. Das Verständnis der diversen Prozesse und der kontrollierenden Faktoren ist deshalb nicht nur von wissenschaftlichem Interesse sondern auch von ökonomischer Bedeutung um die Nachfrage für seltene Metalle zu decken. Die Umverteilung von Haupt- und Spurenelementen während des partiellen Aufschmelzens ist ein entscheidender Schritt für das Verständnis wie sich granitgebundene Lagerstätten bilden (Hedenquist and Lowenstern, 1994). Die Schmelzbildung und die Mobilisierung von Erz-Elementen (z. B. Sn, W, Nb, Ta) in die Schmelze hängt von der Zusammensetzung der sedimentären Ausgangsgesteine und den Schmelzbedingungen ab. Verschiedene Ausgangsgesteine haben aufgrund ihrer Ablagerungs- und Verwitterungsgeschichte unterschiedliche Zusammensetzungen. Dieses spezifische geochemische „Gedächtnis“ resultiert in unterschiedlichen Mineralparagenesen und Schmelzreaktionen in verschiedenen Ausgangsgesteinen während der prograden Metamorphose. (Brown and Fyfe, 1970; Thompson, 1982; Vielzeuf and Holloway, 1988). Diese Faktoren haben nicht nur einen wichtigen Einfluss auf die Verteilung chemischer Elemente während der Schmelzbildung, sie beeinflussen auch das Volumen an Schmelze, die Extraktion der Schmelze aus dem Ausgangsgestein und deren Aufstieg durch die Erdkruste (Le Breton and Thompson, 1988). Auf einer grösseren Skala unterliegen die Verteilung der Ausgangsgesteine und deren chemische Alteration (Verwitterung), die prograde Metamorphose mit partieller Schmelzbildung, Schmelzextraktion und die Platznahme granitischer Intrusionen einer plattentektonischen Kontrolle. Das Verständnis der einzelnen Schritte und deren Wechselwirkungen ist entscheidend um zu verstehen wie granitgebunden Lagerstätten entstehen und erlaubt es, das Mineralisierungspotential bestimmter Gebiete abzuschätzen. Partielles Aufschmelzen beeinflusst auch die Isotopensystematik der Schmelze und des Restites. Die Zusammensetzungen radiogener und stabiler Isotopen von magmatischen Gesteinen werden im Allgemeinen dazu verwendet um deren Ursprungsgesteine zu identifizieren oder um Mischungsprozesses von Magmen unterschiedlichen Ursprunges zu quantifizieren (DePaolo and Wasserburg, 1979; Lesher, 1990; Chappell, 1996). Diese Anwendungen basieren auf der fundamentalen Annahme, dass die Isotopenzusammensetzung der Schmelze derjenigen des Ausgangsgesteines entspricht. Unterschiedliche Minerale in einem Gestein können unterschiedliche, vom Gesamtgestein abweichende, Isotopenzusammensetzungen haben (Ayres and Harris, 1997; Knesel and Davidson, 2002). Insbesondere für alte Minerale, mit einem unterschiedlichen Mutter-Tochter Nuklidverhältnis, ist eine spezifische Isotopenzusammensetzung zu erwarten. Da im partiellen Schmelzprozess nur bestimmte Minerale eines Gesteines involviert sind, entspricht die Isotopenzusammensetzung der Schmelze derjenigen der Minerale welche an der Schmelzreaktion teilnehmen. Daher sollte die Isotopenzusammensetzung der Schmelze von derjenigen des Ursprungsgesteines abweichen. Ähnliche Überlegungen treffen auch für stabile Isotopen zu. KW - geochemistry KW - trace elements KW - radiogenic isotopes KW - stable isotopes KW - resources KW - Sn Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423702 ER - TY - THES A1 - Willig, Lisa T1 - Ultrafast magneto-optical studies of remagnetisation dynamics in transition metals T1 - Ultraschnelle Magneto-Optische Studien der Remagnetisierungsdynamik von Übergangsmetallen N2 - Ultrafast magnetisation dynamics have been investigated intensely for two decades. The recovery process after demagnetisation, however, was rarely studied experimentally and discussed in detail. The focus of this work lies on the investigation of the magnetisation on long timescales after laser excitation. It combines two ultrafast time resolved methods to study the relaxation of the magnetic and lattice system after excitation with a high fluence ultrashort laser pulse. The magnetic system is investigated by time resolved measurements of the magneto-optical Kerr effect. The experimental setup has been implemented in the scope of this work. The lattice dynamics were obtained with ultrafast X-ray diffraction. The combination of both techniques leads to a better understanding of the mechanisms involved in magnetisation recovery from a non-equilibrium condition. Three different groups of samples are investigated in this work: Thin Nickel layers capped with nonmagnetic materials, a continuous sample of the ordered L10 phase of Iron Platinum and a sample consisting of Iron Platinum nanoparticles embedded in a carbon matrix. The study of the remagnetisation reveals a general trend for all of the samples: The remagnetisation process can be described by two time dependences. A first exponential recovery that slows down with an increasing amount of energy absorbed in the system until an approximately linear time dependence is observed. This is followed by a second exponential recovery. In case of low fluence excitation, the first recovery is faster than the second. With increasing fluence the first recovery is slowed down and can be described as a linear function. If the pump-induced temperature increase in the sample is sufficiently high, a phase transition to a paramagnetic state is observed. In the remagnetisation process, the transition into the ferromagnetic state is characterised by a distinct transition between the linear and exponential recovery. From the combination of the transient lattice temperature Tp(t) obtained from ultrafast X-ray measurements and magnetisation M(t) gained from magneto-optical measurements we construct the transient magnetisation versus temperature relations M(Tp). If the lattice temperature remains below the Curie temperature the remagnetisation curve M(Tp) is linear and stays below the M(T) curve in equilibrium in the continuous transition metal layers. When the sample is heated above phase transition, the remagnetisation converges towards the static temperature dependence. For the granular Iron Platinum sample the M(Tp) curves for different fluences coincide, i.e. the remagnetisation follows a similar path irrespective of the initial laser-induced temperature jump. N2 - Ultraschnelle Magnetisierungsdynamiken wurden in den letzten zwei Jahrzehnten intensiv untersucht. Hingegen der Wiederherstellungsprozess der Magnetisierung nach einer ultraschnellen Demagnetisierung wird selten experimentell untersucht und im Detail diskutiert. Der Fokus dieser Arbeit liegt auf der Untersuchung der Magnetisierung auf langen Zeitskalen nach der Anregung durch einen Laserpuls. Dazu werden zwei ultraschnelle zeitaufgelöste Techniken verwendet, um die Relaxierung von dem magnetischen System und dem System des Gitters nach Anregung mit einem hochenergetischen ultrakurzen Laserpuls zu untersuchen. Das magnetische System wurde untersucht mithilfe von Messungen des zeitaufgelösten magneto-optischen Kerr Effekts. Der experimentelle Aufbau wurde im Rahmen dieser Arbeit entwickelt. Die Gitterdynamik wurde mittels ultraschneller Röntgendiffraktometrie aufgenommen. Die Kombination beider Techniken liefert ein besseres Verständnis von den Prozessen involviert in Magnetisierungsrelaxation aus einem Nicht-Gleichgewichtszustand. Drei unterschiedliche Probensysteme wurden im Rahmen dieser Arbeit untersucht: Dünne Nickel Schichten umgeben von nicht-magnetischen Schichten, eine kontinuierliche Schicht aus einer Eisen Platin Legierung und eine Probe bestehend aus Eisen Platin Nanopartikeln eingebettet in einer Kohlenstoffmatrix. Die Studie der Remagnetisierung zeigt einen generellen Trend für alle diese Systeme auf: Der Remagnetisierungsprozess kann mit zwei Zeitabhängikeiten beschrieben werden. Eine erste exponentielle Zeitabhängigkeit, die mit zunehmender Menge an absorbierter Energie verlangsamt wird bis ein lineares Verhalten beobachtet wird. Darauf folgend gibt es eine zweite exponentielle funktionale Abhängigkeit in der Zeit. Im Falle einer geringen Energieabsorption ist die erste Remagnetisierung schneller als die zweite. Mit steigender Fluenz wird die Remagnetisierung in der ersten Zeitabhängigkeit verlangsamt und kann als lineare Funktion beschrieben werden. Wenn der durch den Pump Puls induzierte Temperatursprung in der Probe ausreichend groß ist, wird ein Phasenübergang in die paramagnetische Phase beobachtet. In dem Remagnetisierungsprozess wird dieser Übergang durch einen deutlich sichtbaren Wechsel zwischen linearem und exponentiellen Verhalten sichtbar. Mithilfe der Kombination aus der von Rötngendaten gewonnener Gittertemperatur Tp(t) und der Magnetisierung M(t) erhalten wir die zeitliche Abhängigkeit der Magnetisierung von der Gittertemperatur M(Tp). Falls die Gittertemperatur unter der Curietemperatur bleibt, ist die Remagnetisierungskurve M(Tp) linear und bleibt unterhalb der statischen Gleichgewichtskurve M(T) für die kontinuierlichen Übergangsmetalle. Wenn die Probe über den Phasenübergang geheizt wird, nähert sich die Remagnetisierung der statischen Kurve an. Die transiente Remagnetisierungskurven M(Tp) der granularen Eisen Platin Probe folgen immer einem der statischen Magnetisierungskurve ähnlichen Verlauf, unabhängig von dem laser-induzierten Temperatursprung. KW - ultrafast dynamics KW - remagnetization KW - magnetization dynamics KW - transition metals KW - condensed matter KW - ultraschnelle Dynamik KW - magneto-optics KW - Magneto-Optik KW - Remagnetisierung KW - Magnetisierungsdynamik KW - Übergangsmetalle KW - kondensierte Materie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441942 ER - TY - THES A1 - Walczak, Ralf T1 - Molecular design of nitrogen-doped nanoporous noble carbon materials for gas adsorption T1 - Molekulares Design Stickstoffdotierter, Nanoporöser, und Edler Kohlenstoffmaterialien für Gasadsorption N2 - In den modernen Gesellschaften führt ein stetig steigender Energiebedarf zu dem zunehmenden Verbrauch fossiler Brennstoffe wie Kohle, Öl, und Gas. Die Verbrennung dieser kohlenstoffbasierten Brennstoffe führt unweigerlich zur Freisetzung von Treibhausgasen, vor allem von CO2. Die CO2 Aufnahme unmittelbar bei den Verbrennungsanlagen oder direkt aus der Luft, zusammen mit Regulierung von CO2 produzierenden Energiesektoren (z.B. Kühlanlagen), können den CO2 Ausstoß reduzieren. Allerdings führen insbesondere bei der CO2 Aufnahme die geringen CO2 Konzentrationen und die Aufnahme konkurrierender Gase zu niedrigen CO2 Kapazitäten und Selektivitäten. Das Zusammenspiel der Gastmoleküle mit porösen Materialien ist dabei essentiell. Poröse Kohlenstoffmaterialien besitzen attraktive Eigenschaften, unter anderem elektrische Leitfähigkeit, einstellbare Porosität, als auch chemische und thermische Stabilität. Allerdings führt die zu geringe Polarisierbarkeit dieser Materialien zu einer geringen Affinität zu polaren Molekülen (z.B. CO2, H2O, oder NH3). Diese Affinität kann durch den Einbau von Stickstoff erhöht werden. Solche Materialien sind oft „edler“ als reine Kohlenstoffe, dies bedeutet, dass sie eher oxidierend wirken, als selbst oxidiert zu werden. Die Problematik besteht darin, einen hohen und gleichmäßig verteilten Stickstoffgehalt in das Kohlenstoffgerüst einzubauen. Die Zielsetzung dieser Dissertation ist die Erforschung neuer Synthesewege für stickstoffdotierte edle Kohlenstoffmaterialien und die Entwicklung eines grundlegenden Verständnisses für deren Anwendung in Gasadsorption und elektrochemischer Energiespeicherung. Es wurde eine templatfreie Synthese für stickstoffreiche, edle, und mikroporöse Kohlenstoffmaterialien durch direkte Kondensation eines stickstoffreichen organischen Moleküls als Vorläufer erarbeitet. Dadurch konnten Materialien mit hohen Adsorptionskapazitäten für H2O und CO2 bei niedrigen Konzentrationen und moderate CO2/N2 Selektivitäten erzielt werden. Um die CO2/N2 Selektivitäten zu verbessern, wurden mittels der Einstellung des Kondensationsgrades die molekulare Struktur und Porosität der Kohlenstoffmaterialien kontrolliert. Diese Materialien besitzen die Eigenschaften eines molekularen Siebs für CO2 über N2, das zu herausragenden CO2/N2 Selektivitäten führt. Der ultrahydrophile Charakter der Porenoberflächen und die kleinen Mikroporen dieser Kohlenstoffmaterialien ermöglichen grundlegende Untersuchungen für die Wechselwirkungen mit Molekülen die polarer sind als CO2, nämlich H2O und NH3. Eine weitere Reihe stickstoffdotierter Kohlenstoffmaterialien wurde durch Kondensation eines konjugierten mikroporösen Polymers synthetisiert und deren strukturelle Besonderheiten als Anodenmaterial für die Natriumionen Batterie untersucht. Diese Dissertation leistet einen Beitrag zur Erforschung stickstoffdotierter Kohlenstoffmaterialien und deren Wechselwirkungen mit verschiedenen Gastmolekülen. N2 - The growing energy demand of the modern economies leads to the increased consumption of fossil fuels in form of coal, oil, and natural gases, as the mains sources. The combustion of these carbon-based fossil fuels is inevitably producing greenhouse gases, especially CO2. Approaches to tackle the CO2 problem are to capture it from the combustion sources or directly from air, as well as to avoid CO2 production in energy consuming sources (e.g., in the refrigeration sector). In the former, relatively low CO2 concentrations and competitive adsorption of other gases is often leading to low CO2 capacities and selectivities. In both approaches, the interaction of gas molecules with porous materials plays a key role. Porous carbon materials possess unique properties including electric conductivity, tunable porosity, as well as thermal and chemical stability. Nevertheless, pristine carbon materials offer weak polarity and thus low CO2 affinity. This can be overcome by nitrogen doping, which enhances the affinity of carbon materials towards acidic or polar guest molecules (e.g., CO2, H2O, or NH3). In contrast to heteroatom-free materials, such carbon materials are in most cases “noble”, that is, they oxidize other matter rather than being oxidized due to the very positive working potential of their electrons. The challenging task here is to achieve homogenous distribution of significant nitrogen content with similar bonding motives throughout the carbon framework and a uniform pore size/distribution to maximize host-guest interactions. The aim of this thesis is the development of novel synthesis pathways towards nitrogen-doped nanoporous noble carbon materials with precise design on a molecular level and understanding of their structure-related performance in energy and environmental applications, namely gas adsorption and electrochemical energy storage. A template-free synthesis approach towards nitrogen-doped noble microporous carbon materials with high pyrazinic nitrogen content and C2N-type stoichiometry was established via thermal condensation of a hexaazatriphenylene derivative. The materials exhibited high uptake of guest molecules, such as H2O and CO2 at low concentrations, as well as moderate CO2/N2 selectivities. In the following step, the CO2/N2 selectivity was enhanced towards molecular sieving of CO2 via kinetic size exclusion of N2. The precise control over the condensation degree, and thus, atomic construction and porosity of the resulting materials led to remarkable CO2/N2 selectivities, CO2 capacities, and heat of CO2 adsorption. The ultrahydrophilic nature of the pore walls and the narrow microporosity of these carbon materials served as ideal basis for the investigation of interface effects with more polar guest molecules than CO2, namely H2O and NH3. H2O vapor physisorption measurements, as well as NH3-temperature programmed desorption and thermal response measurements showed exceptionally high affinity towards H2O vapor and NH3 gas. Another series of nitrogen-doped carbon materials was synthesized by direct condensation of a pyrazine-fused conjugated microporous polymer and their structure-related performance in electrochemical energy storage, namely as anode materials for sodium-ion battery, was investigated. All in all, the findings in this thesis exemplify the value of molecularly designed nitrogen-doped carbon materials with remarkable heteroatom content implemented as well-defined structure motives. The simultaneous adjustment of the porosity renders these materials suitable candidates for fundamental studies about the interactions between nitrogen-doped carbon materials and different guest species. KW - carbon materials KW - nitrogen-doped KW - gas adsorption KW - porosity KW - Porösität KW - Gasadsorption KW - Stickstoffdotiert KW - Kohlenstoffmaterialien Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-435241 ER - TY - THES A1 - Vranic, Marija T1 - 3D Structure of the biomarker hepcidin-25 in its native state T1 - 3D-Struktur des Biomarkers Hepcidin-25 im eigenen nativen Zustand N2 - Hepcidin-25 (Hep-25) plays a crucial role in the control of iron homeostasis. Since the dysfunction of the hepcidin pathway leads to multiple diseases as a result of iron imbalance, hepcidin represents a potential target for the diagnosis and treatment of disorders of iron metabolism. Despite intense research in the last decade targeted at developing a selective immunoassay for iron disorder diagnosis and treatment and better understanding the ferroportin-hepcidin interaction, questions remain. The key to resolving these underlying questions is acquiring exact knowledge of the 3D structure of native Hep-25. Since it was determined that the N-terminus, which is responsible for the bioactivity of Hep-25, contains a small Cu(II)-binding site known as the ATCUN motif, it was assumed that the Hep-25-Cu(II) complex is the native, bioactive form of the hepcidin. This structure has thus far not been elucidated in detail. Owing to the lack of structural information on metal-bound Hep-25, little is known about its possible biological role in iron metabolism. Therefore, this work is focused on structurally characterizing the metal-bound Hep-25 by NMR spectroscopy and molecular dynamics simulations. For the present work, a protocol was developed to prepare and purify properly folded Hep-25 in high quantities. In order to overcome the low solubility of Hep-25 at neutral pH, we introduced the C-terminal DEDEDE solubility tag. The metal binding was investigated through a series of NMR spectroscopic experiments to identify the most affected amino acids that mediate metal coordination. Based on the obtained NMR data, a structural calculation was performed in order to generate a model structure of the Hep-25-Ni(II) complex. The DEDEDE tag was excluded from the structural calculation due to a lack of NMR restraints. The dynamic nature and fast exchange of some of the amide protons with solvent reduced the overall number of NMR restraints needed for a high-quality structure. The NMR data revealed that the 20 Cterminal Hep-25 amino acids experienced no significant conformational changes, compared to published results, as a result of a pH change from pH 3 to pH 7 and metal binding. A 3D model of the Hep-25-Ni(II) complex was constructed from NMR data recorded for the hexapeptideNi(II) complex and Hep-25-DEDEDE-Ni(II) complex in combination with the fixed conformation of 19 C-terminal amino acids. The NMR data of the Hep-25-DEDEDE-Ni(II) complex indicates that the ATCUN motif moves independently from the rest of the structure. The 3D model structure of the metal-bound Hep-25 allows for future works to elucidate hepcidin’s interaction with its receptor ferroportin and should serve as a starting point for the development of antibodies with improved selectivity. N2 - Hepcidin-25 (Hep-25) spielt eine entscheidende Rolle bei der Kontrolle der Eisenhomöostase. Da die Dysfunktion des Hepcidin-Signalweges aufgrund des Eisenungleichgewichts zu mehreren Krankheiten führt, stellt Hepcidin ein potenzielles Ziel für die Diagnose und Behandlung von Störungen des Eisenstoffwechsels dar. Trotz intensiver Forschung in den letzten zehn Jahren, die darauf abzielte, einen selektiven Immunoassay für die Diagnose und Behandlung von Eisenerkrankungen zu entwickeln und die Ferroportin-Hepcidin-Interaktion besser zu verstehen, bleiben Fragen offen. Der Schlüssel zur Lösung dieser grundlegenden Fragen liegt darin, genaue Kenntnisse über die 3D-Struktur des nativen Hep-25 zu erlangen. Da festgestellt wurde, dass der N-Terminus, der für die Bioaktivität von Hep-25 verantwortlich ist, eine kleine Cu(II)-Bindungsstelle enthält, die als ATCUN-Motiv bekannt ist, wurde angenommen, dass der Hep-25- Cu(II)-Komplex die native, bioaktive Form des Hepcidins ist. Diese Struktur ist bisher noch nicht im Detail untersucht worden. Aufgrund fehlender Strukturinformationen über metallgebundenes Hep-25 ist wenig über seine mögliche biologische Rolle im Eisenstoffwechsel bekannt. Daher konzentriert sich diese Arbeit auf die strukturelle Charakterisierung des metallgebundenen Hep-25 mittels NMR-Spektroskopie und Molekulardynamik Simulationen. In der vorliegenden Arbeit wurde ein Protokoll zur Präparation und Reinigung von korrekt gefaltetem Hep-25 in hohen Mengen entwickelt. Um das Problem der geringen Löslichkeit von Hep-25 bei neutralem pH-Wert zu überwinden, haben wir einen C-terminalen DEDEDEDE Löslichkeits-Tag eingeführt. Die Metallbindung wurde durch eine Reihe von NMRspektroskopischen Experimenten untersucht, um die Aminosäuren zu identifizieren, welche an der Metallkoordination beteiligt sind. Basierend auf den erhaltenen NMR-Daten wurde eine Strukturberechnung durchgeführt, um eine Modellstruktur des Hep-25-Ni(II)-Komplexes zu erzeugen. Der DEDEDE-Tag wurde aufgrund fehlender NMR- restraints von der Strukturberechnung ausgeschlossen. Die dynamische Natur und der schnelle Austausch eines Teils der Amid-Protonen mit dem Lösungsmittel reduzierten die Gesamtzahl der NMR- restraints, die für eine hochwertige Struktur erforderlich waren. Die NMR-Daten zeigten, dass die 20 C-terminalen Hep-25-Aminosäuren keine signifikanten Konformationsänderungen als Folge eines pH-Wechsels von pH 3 auf pH 7 und einer Metallbindung erfuhren. Ein 3D-Modell des Hep-25-Ni(II)-Komplexes wurde aus den NMR-Daten des Hexapeptid-Ni(II)-Komplexes und des Hep-25-DEDEDE-Ni(II)-Komplexes in Kombination mit der bekannten Konformation der 19 C-terminalen Aminosäuren erstellt. Die NMR-Daten des Hep-25-DEDEDE-Ni(II)Komplexes zeigen, dass sich das Ni-ATCUN-Motiv unabhängig vom C-Terminus bewegt. Die 3D-Modellstruktur des metallgebundenen Hep-25 ermöglicht es, in Zukunft die Interaktion von Hepcidin mit seinem Rezeptor Ferroportin zu untersuchen und soll als Ausgangspunkt für die Entwicklung von Antikörpern mit verbesserter Selektivität dienen. KW - iron KW - hepcidin KW - peptide KW - metal KW - binding KW - NMR KW - Eisen KW - Hepcidin KW - Peptid KW - Metall KW - Bindung KW - NMR Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459295 ER - TY - THES A1 - Voß, Amira T1 - Für eine Reformierung des irakischen internationalen Privatrechts T1 - For a reform of the Iraqi International Private Law N2 - Seit 2003 hat sich das politische Bild des Irak stark verändert. Dadurch begann der Prozess der Neugestaltung der irakischen Rechtsordnung. Die irakische Verfassung von 2005 legt erstmalig in der Geschichte des Irak den Islam und die Demokratie als zwei nebeneinander zu beachtende Grundprinzipien bei der Gesetzgebung fest. Trotz dieser signifikanten Veränderung im irakischen Rechtssystem und erheblicher Entwicklungen im internationalen Privat- und Zivilverfahrensrecht (IPR/IZVR) im internationalen Vergleich gilt die hauptsächlich im irakischen Zivilgesetzbuch (ZGB) von 1951 enthaltene gesetzliche Regelung des IPR/IZVR im Irak weiterhin. Deshalb entstand diese Arbeit für eine Reformierung des irakischen IPR/IZVR. Die Arbeit gilt als erste umfassende wissenschaftliche Untersuchung, die sich mit dem jetzigen Inhalt und der zukünftigen Reformierung des irakischen internationalen Privatrecht- und Zivilverfahrensrechts (IPR/IZVR) beschäftigt. Die Verfasserin vermittelt einen Gesamtüberblick über das jetzt geltende irakische internationale Privat- und Zivilverfahrensrecht mit gelegentlicher punktueller und stichwortartiger Heranziehung des deutschen, islamischen, türkischen und tunesischen Rechts, zeigt dessen Schwachstellen auf und unterbreitet entsprechende Reformvorschläge. Wegen der besonderen Bedeutung des internationalen Vertragsrechts für die Wirtschaft im Irak und auch zum Teil für Deutschland gibt die Verfasserin einen genaueren Überblick über das irakische internationale Vertragsrecht und bekräftigt gleichzeitig dessen Reformbedürftigkeit. Die Darstellung der wichtigen Entwicklungen im deutsch-europäischen, im traditionellen islamischen Recht und im türkischen und tunesischen internationalen Privat- und Zivilverfahrensrecht im zweiten Kapitel dienen als Grundlage, auf die bei der Reformierung des irakischen IPR/ IZVR zurück gegriffen werden kann. Da die Kenntnisse des islamischen Rechts nicht zwingend zum Rechtsstudium gehören, wird das islamische Recht dazu in Bezug auf seine Entstehung und die Rechtsquellen dargestellt. Am Ende der Arbeit wird ein Entwurf eines föderalen Gesetzes zum internationalen Privatrecht im Irak katalogisiert, der sich im Rahmen der irakischen Verfassung gleichzeitig mit dem Islam und der Demokratie vereinbaren lässt. N2 - The political framework of Iraq has remarkably transformed since 2003. Hence began the process of reshaping the Iraqi legal system. For the first time in the history of Iraq, the Iraqi Constitution of 2005 determines Islam and democracy as two essential principles to be followed in legislation side by side. Despite this substantial development within the Iraqi legal system and current considerable development of international private and civil procedural law in international comparison, the legal regulation of the Iraqi international private and civil procedural law, which contained mainly in the Iraqi Civil Code of 1951 still applies. This thesis wants to sketch a possible reform of the Iraqi international private and civil procedural law. This work is considered the first comprehensive scientific work dealing with the current content and the future reform of Iraqi international private and civil procedural law The author gives a general overview of the current Iraqi international private and civil procedural law, indicates its weak points and makes appropriate reform proposals. The German, Islamic, Turkish and Tunisian international private and civil procedural law are used occasionally and in keywords in this passage. Due to the special significance of international contract law for the economy in Iraq and partly for the German economy as well, the author gives a more detailed overview of the Iraqi international contract law and at the same time reaffirms its need for reform. The outline of the main aspects of German-European law, of traditional Islamic law and of Turkish and Tunisian international private Law and civil procedure law in the second chapter serves as a basis that can be used to reform the Iraqi international private Law and civil procedure law. Because the knowledge of Islamic law is not necessarily part of the law studies, Islamic law is presented additionally in relation to its origin and the sources of law. At the end of the work, a draft of a federal law on private international law in Iraq is catalogued, which is compatible with Islam and democracy within the framework of the Iraqi constitution. KW - Islamisches Recht KW - Irakisches Internationales Privatrecht- und Zivilverfahrensrecht KW - Tunesisches internationales Privatrecht- und Zivilverfahrensrecht KW - Türkisches internationales Privatrecht- und Zivilverfahrensrecht KW - Siyar KW - Islamisches internationales Privatrecht- und Zivilverfahrensrecht KW - Internationales Vertragsrecht KW - Deutsch- europäisches internationales Privatrecht- und Zivilverfahrensrecht KW - Iraq KW - Islamic law KW - Iraqi International Private Law and Civil Procedure Law KW - Tunisian international private and civil procedural law KW - Turkish international private and civil procedural law KW - Siyar KW - Islamic international private and civil procedural law KW - International contract law KW - German-European international private law and civil procedure law Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430190 ER - TY - THES A1 - von Kaphengst, Dragana T1 - Project’s management quality in development cooperation T1 - Managementqualität von Projekten in der Entwicklungszusammenarbeit N2 - In light of the debate on the consequences of competitive contracting out of traditionally public services, this research compares two mechanisms used to allocate funds in development cooperation—direct awarding and competitive contracting out—aiming to identify their potential advantages and disadvantages. The agency theory is applied within the framework of rational-choice institutionalism to study the institutional arrangements that surround two different money allocation mechanisms, identify the incentives they create for the behavior of individual actors in the field, and examine how these then transfer into measurable differences in managerial quality of development aid projects. In this work, project management quality is seen as an important determinant of the overall project success. For data-gathering purposes, the German development agency, the Gesellschaft für Internationale Zusammenarbeit (GIZ), is used due to its unique way of work. Whereas the majority of projects receive funds via direct-award mechanism, there is a commercial department, GIZ International Services (GIZ IS) that has to compete for project funds. The data concerning project management practices on the GIZ and GIZ IS projects was gathered via a web-based, self-administered survey of project team leaders. Principal component analysis was applied to reduce the dimensionality of the independent variable to total of five components of project management. Furthermore, multiple regression analysis identified the differences between the separate components on these two project types. Enriched by qualitative data gathered via interviews, this thesis offers insights into everyday managerial practices in development cooperation and identifies the advantages and disadvantages of the two allocation mechanisms. The thesis first reiterates the responsibility of donors and implementers for overall aid effectiveness. It shows that the mechanism of competitive contracting out leads to better oversight and control of implementers, fosters deeper cooperation between the implementers and beneficiaries, and has a potential to strengthen ownership of recipient countries. On the other hand, it shows that the evaluation quality does not tremendously benefit from the competitive allocation mechanism and that the quality of the component knowledge management and learning is better when direct-award mechanisms are used. This raises questions about the lacking possibilities of actors in the field to learn about past mistakes and incorporate the finings into the future interventions, which is one of the fundamental issues of aid effectiveness. Finally, the findings show immense deficiencies in regard to oversight and control of individual projects in German development cooperation. KW - development cooperation KW - project management quality KW - evaluation KW - GIZ KW - knowledge management KW - Entwicklungszusammenarbeit KW - Qualität des Projektmanagements KW - Evaluierung KW - GIZ KW - Wissensmanagement Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430992 ER - TY - THES A1 - Veh, Georg T1 - Outburst floods from moraine-dammed lakes in the Himalayas T1 - Ausbruchsfluten von moränen-gestauten Seen im Himalaya BT - detection, frequency, and hazard BT - Erkennung, Häufigkeit, und Gefährdung N2 - The Himalayas are a region that is most dependent, but also frequently prone to hazards from changing meltwater resources. This mountain belt hosts the highest mountain peaks on earth, has the largest reserve of ice outside the polar regions, and is home to a rapidly growing population in recent decades. One source of hazard has attracted scientific research in particular in the past two decades: glacial lake outburst floods (GLOFs) occurred rarely, but mostly with fatal and catastrophic consequences for downstream communities and infrastructure. Such GLOFs can suddenly release several million cubic meters of water from naturally impounded meltwater lakes. Glacial lakes have grown in number and size by ongoing glacial mass losses in the Himalayas. Theory holds that enhanced meltwater production may increase GLOF frequency, but has never been tested so far. The key challenge to test this notion are the high altitudes of >4000 m, at which lakes occur, making field work impractical. Moreover, flood waves can attenuate rapidly in mountain channels downstream, so that many GLOFs have likely gone unnoticed in past decades. Our knowledge on GLOFs is hence likely biased towards larger, destructive cases, which challenges a detailed quantification of their frequency and their response to atmospheric warming. Robustly quantifying the magnitude and frequency of GLOFs is essential for risk assessment and management along mountain rivers, not least to implement their return periods in building design codes. Motivated by this limited knowledge of GLOF frequency and hazard, I developed an algorithm that efficiently detects GLOFs from satellite images. In essence, this algorithm classifies land cover in 30 years (~1988–2017) of continuously recorded Landsat images over the Himalayas, and calculates likelihoods for rapidly shrinking water bodies in the stack of land cover images. I visually assessed such detected tell-tale sites for sediment fans in the river channel downstream, a second key diagnostic of GLOFs. Rigorous tests and validation with known cases from roughly 10% of the Himalayas suggested that this algorithm is robust against frequent image noise, and hence capable to identify previously unknown GLOFs. Extending the search radius to the entire Himalayan mountain range revealed some 22 newly detected GLOFs. I thus more than doubled the existing GLOF count from 16 previously known cases since 1988, and found a dominant cluster of GLOFs in the Central and Eastern Himalayas (Bhutan and Eastern Nepal), compared to the rarer affected ranges in the North. Yet, the total of 38 GLOFs showed no change in the annual frequency, so that the activity of GLOFs per unit glacial lake area has decreased in the past 30 years. I discussed possible drivers for this finding, but left a further attribution to distinct GLOF-triggering mechanisms open to future research. This updated GLOF frequency was the key input for assessing GLOF hazard for the entire Himalayan mountain belt and several subregions. I used standard definitions in flood hydrology, describing hazard as the annual exceedance probability of a given flood peak discharge [m3 s-1] or larger at the breach location. I coupled the empirical frequency of GLOFs per region to simulations of physically plausible peak discharges from all existing ~5,000 lakes in the Himalayas. Using an extreme-value model, I could hence calculate flood return periods. I found that the contemporary 100-year GLOF discharge (the flood level that is reached or exceeded on average once in 100 years) is 20,600+2,200/–2,300 m3 s-1 for the entire Himalayas. Given the spatial and temporal distribution of historic GLOFs, contemporary GLOF hazard is highest in the Eastern Himalayas, and lower for regions with rarer GLOF abundance. I also calculated GLOF hazard for some 9,500 overdeepenings, which could expose and fill with water, if all Himalayan glaciers have melted eventually. Assuming that the current GLOF rate remains unchanged, the 100-year GLOF discharge could double (41,700+5,500/–4,700 m3 s-1), while the regional GLOF hazard may increase largest in the Karakoram. To conclude, these three stages–from GLOF detection, to analysing their frequency and estimating regional GLOF hazard–provide a framework for modern GLOF hazard assessment. Given the rapidly growing population, infrastructure, and hydropower projects in the Himalayas, this thesis assists in quantifying the purely climate-driven contribution to hazard and risk from GLOFs. N2 - In kaum einer anderen Region treten Abhängigkeit, Nutzen und Gefährdung von Gletscher- und Schneeschmelze so deutlich zu Tage wie im Himalaya. Naturgefahren sind hier allgegenwärtig, wobei eine die Wissenschaftler in den vergangen zwei Jahrzehnten besonders beschäftigte: Ausbrüche von Gletscherseen traten in der Vergangenheit zwar selten, aber meist mit katastrophalen Konsequenzen für die darunterliegenden Berggemeinden auf. Gletscherseeausbrüche (englisches Akronym GLOFs – glacial lake outburst floods) beschreiben den plötzlichen Ausfluss von teils mehreren Millionen Kubikmetern Wasser aus natürlich gedämmten Schmelzwasserseen. Anhaltender Gletscherrückgang in vergangenen Jahrzehnten schuf mehrere tausend Hochgebirgsseen, mit ununterbrochenem Wachstum in Anzahl und Fläche, was den Schluss auf ein möglicherweise vermehrtes Auftreten von GLOFs nahelegte. Diese suggerierte Zunahme von GLOFs konnte jedoch bisher weder getestet noch bestätigt werden, vor allem weil Seen überwiegend jenseits von 4,000 m üNN entstehen, was Feldstudien dort erschwert. Unser Wissen über GLOFs ist daher möglicherweise zu größeren, schadensreichen Ereignissen verschoben, wodurch ihre aktuelle Frequenz, und letztlich auch ihr Zusammenhang mit dem Klimawandel, nur schwer quantifizierbar sind. Mit welcher Wiederkehrrate GLOFs auftreten ist nicht zuletzt entscheidend für Risikoanalyse und -management entlang von Flüssen. Um einer Unterschätzung der tatsächlichen GLOF-Aktivität entgegenzuwirken, entwickelte ich einen Algorithmus, der GLOFs automatisch aus Satellitenbildern detektiert. Der Algorithmus greift auf etwa 30 Jahre kontinuierlich aufgenommene Landsat-Bilder (~1988-2017) zu, und berechnet letztlich die Wahrscheinlichkeit, ob Wasserkörper rasch innerhalb dieser Bildzeitreihe geschrumpft sind. An solchen Stellen suchte ich nach Sedimentverlagerungen im Gerinne flussabwärts, was ein zweites Hauptkriterium für GLOFs ist. Tests und Validierung in etwa 10% des Himalayas bestätigten, dass die Methode robust gegenüber atmosphärischen Störeffekten ist. Mit dem Ziel bisher unbekannte GLOFs zu entdecken, wendete ich daher diesen Algorithmus auf den gesamten Himalaya an. Die Suche ergab 22 neu entdeckte GLOFs, was das bestehende Inventar von 16 bekannten GLOFs seit 1988 mehr als verdoppelte. Das aktualisierte räumliche Verbreitungsmuster bestätigte einmal mehr, dass GLOFs vermehrt im Zentral- und Osthimalaya (Bhutan und Ost-Nepal) auftraten, wohingegen im Norden deutlich weniger GLOFs stattfanden. Entgegen der häufigen Annahme stellte ich jedoch fest, dass die jährliche Häufigkeit von GLOFs in den letzten drei Jahrzehnten konstant blieb. Dadurch hat das Verhältnis von GLOFs pro Einheit See(-fläche) in diesem Zeitraum sogar abgenommen. Dieses räumlich aufgelöste GLOF-Inventar bot nun die Möglichkeit, das Gefährdungspotential durch GLOFs für den gesamten Himalaya und einzelne Regionen zu berechnen. Dafür verwendete ich die in der Hochwasseranalyse gebräuchliche Definition von Gefährdung, welche die jährliche Überschreitungswahrscheinlichkeit einer gewissen Abflussmenge, in diesem Fall des Spitzenabflusses [m3 s-1] am Dammbruch, beschreibt. Das GLOF-Inventar liefert demnach die zeitliche Wahrscheinlichkeit für das Auftreten von GLOFs, während Simulationen von möglichen Spitzenabflüssen für alle heute existierenden ~5,000 Seen im Himalaya die zu erwarteten Magnituden beisteuerten. Mit Extremwertstatistik lässt sich so die mittlere Wiederkehrzeit dieser Spitzenabflüsse errechnen. Ich fand heraus, dass der 100-jährliche Abfluss (die Flutmagnitude, die im Durchschnitt einmal in 100 Jahren erreicht oder überschritten wird) derzeit bei rund 20,600+2,200/–2,300 m³ s-1 für den gesamten Himalaya liegt. Entsprechend der heutigen räumlichen und zeitlichen Verteilung von GLOFs ist die Gefährdung im Osthimalaya am höchsten und in Regionen mit wenig dokumentierten GLOFs vergleichsweise niedrig. Für ein Szenario, in dem der gesamte Himalaya in Zukunft eisfrei sein könnte, errechnete ich zudem das Gefährdungspotential von ~9,500 Übertiefungen unterhalb der heutigen Gletschern, die sich nach deren Abschmelzen mit Wasser füllen könnten. Angenommen, dass die zukünftige GLOF-Rate der heutigen entspricht, könnte der 100-jährliche Abfluss sich mehr als verdoppeln (41,700+5,500/–4,700 m3 s-1), wobei der stärkste regionale Anstieg für den Karakorum zu erwarten wäre. Zusammenfassend formen diese drei Schritte–von der Detektion von GLOFs, über die Bestimmung derer Frequenz, bis zur regionalen Abschätzung von Spitzenabflüssen–das Grundgerüst, das ein moderner Ansatz zur Gefahrenabschätzung von GLOFs benötigt. Angesichts einer wachsenden Exposition von Bevölkerung, Infrastruktur und Wasserkraftanlagen liefert diese Arbeit einen entscheidenden Beitrag, den Anteil des Klimawandels in der Gefährdung und Risiko durch GLOFs zu quantifizieren. KW - GLOF KW - frequency KW - Landsat KW - satellite images KW - classification KW - magnitude KW - Himalaya KW - Karakoram KW - climate change KW - atmospheric warming KW - glacial lakes KW - glaciers KW - meltwater KW - natural hazard KW - GLOF KW - Gletscherseeasubruch KW - Häufigkeit KW - Landsat KW - Satellitenbilder KW - Klassifikation KW - Magnitude KW - Himalaya KW - Karakorum KW - Klimawandel KW - atmosphärische Erwärmung KW - Gletscherseen KW - Gletscher KW - Schmelzwasser KW - Naturgefahr Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436071 ER - TY - THES A1 - Trautwein, Jutta T1 - The Mental lexicon in acquisition T1 - Das mentale Lexikon im Erwerb BT - assessment, size & structure BT - Messung, Größe und Struktur N2 - The individual’s mental lexicon comprises all known words as well related infor-mation on semantics, orthography and phonology. Moreover, entries connect due to simi-larities in these language domains building a large network structure. The access to lexical information is crucial for processing of words and sentences. Thus, a lack of information in-hibits the retrieval and can cause language processing difficulties. Hence, the composition of the mental lexicon is essential for language skills and its assessment is a central topic of lin-guistic and educational research. In early childhood, measurement of the mental lexicon is uncomplicated, for example through parental questionnaires or the analysis of speech samples. However, with growing content the measurement becomes more challenging: With more and more words in the mental lexicon, the inclusion of all possible known words into a test or questionnaire be-comes impossible. That is why there is a lack of methods to assess the mental lexicon for school children and adults. For the same reason, there are only few findings on the courses of lexical development during school years as well as its specific effect on other language skills. This dissertation is supposed to close this gap by pursuing two major goals: First, I wanted to develop a method to assess lexical features, namely lexicon size and lexical struc-ture, for children of different age groups. Second, I aimed to describe the results of this method in terms of lexical development of size and structure. Findings were intended to help understanding mechanisms of lexical acquisition and inform theories on vocabulary growth. The approach is based on the dictionary method where a sample of words out of a dictionary is tested and results are projected on the whole dictionary to determine an indi-vidual’s lexicon size. In the present study, the childLex corpus, a written language corpus for children in German, served as the basis for lexicon size estimation. The corpus is assumed to comprise all words children attending primary school could know. Testing a sample of words out of the corpus enables projection of the results on the whole corpus. For this purpose, a vocabulary test based on the corpus was developed. Afterwards, test performance of virtual participants was simulated by drawing different lexicon sizes from the corpus and comparing whether the test items were included in the lexicon or not. This allowed determination of the relation between test performance and total lexicon size and thus could be transferred to a sample of real participants. Besides lexicon size, lexical content could be approximated with this approach and analyzed in terms of lexical structure. To pursue the presented aims and establish the sampling method, I conducted three consecutive studies. Study 1 includes the development of a vocabulary test based on the childLex corpus. The testing was based on the yes/no format and included three versions for different age groups. The validation grounded on the Rasch Model shows that it is a valid instrument to measure vocabulary for primary school children in German. In Study 2, I estab-lished the method to estimate lexicon sizes and present results on lexical development dur-ing primary school. Plausible results demonstrate that lexical growth follows a quadratic function starting with about 6,000 words at the beginning of school and about 73,000 words on average for young adults. Moreover, the study revealed large interindividual differences. Study 3 focused on the analysis of network structures and their development in the mental lexicon due to orthographic similarities. It demonstrates that networks possess small-word characteristics and decrease in interconnectivity with age. Taken together, this dissertation provides an innovative approach for the assessment and description of the development of the mental lexicon from primary school onwards. The studies determine recent results on lexical acquisition in different age groups that were miss-ing before. They impressively show the importance of this period and display the existence of extensive interindividual differences in lexical development. One central aim of future research needs to address the causes and prevention of these differences. In addition, the application of the method for further research (e.g. the adaptation for other target groups) and teaching purposes (e.g. adaptation of texts for different target groups) appears to be promising. N2 - Das mentale Lexikon wird als individueller Speicher, der semantische, orthographi-sche und phonologische Informationen über alle bekannten Wörter enthält, verstanden. Die lexikalischen Einträge sind aufgrund von Ähnlichkeiten auf diesen Sprachebenen im Sinne einer Netzwerkstruktur verbunden. Bei der Sprachverarbeitung von Wörtern und Sätzen müssen die Informationen aus dem mentalen Lexikon abgerufen werden. Sind diese nicht oder nur teilweise vorhanden, ist der Prozess erschwert. Die Beschaffenheit des mentalen Lexikons ist damit zentral für sprachliche Fähigkeiten im Allgemeinen, welche wiederum es-senziell für den Bildungserfolg und die Teilhabe an der Gesellschaft sind. Die Erfassung des mentalen Lexikons und die Beschreibung seiner Entwicklung ist demnach ein wichtiger Schwerpunkt linguistischer Forschung. Im frühen Kindesalter ist es noch relativ einfach, den Umfang und Inhalt des menta-len Lexikons eines Individuums zu erfassen – dies kann beispielsweise durch Befragung der Eltern oder durch Aufzeichnung von Äußerungen erfolgen. Mit steigendem Inhalt wird diese Messung allerdings schwieriger: Umso mehr Wörter im mentalen Lexikon gespeichert sind, umso unmöglicher wird es, sie alle abzufragen bzw. zu testen. Dies führt dazu, dass es nur wenige Methoden zur Erfassung lexikalischer Eigenschaften nach Schuleintritt gibt. Aus die-sem Grund bestehen auch nur wenige aktuelle Erkenntnisse über den Verlauf der lexikali-schen Entwicklung in diesem Alter sowie deren spezifischen Einfluss auf andere (sprachliche) Fähigkeiten. Diese Lücke sollte in der vorliegenden Dissertation geschlossen werden. Dazu wurden zwei Ziele verfolgt: Zum einen sollte eine aussagekräftige Methode entwickelt wer-den, mit der Umfang und Inhalt des Wortschatzes von Kindern im Grundschulalter bis ins Erwachsenenalter bestimmt werden können. Zum anderen sollten die Ergebnisse der Me-thode dazu dienen, den lexikalischen Erwerb nach Schuleintritt genauer zu beschreiben und zu verstehen. Dabei wurde neben der Entwicklung der Lexikongröße auch die Struktur des Lexikons, d.h. die Vernetzung der Einträge untereinander, betrachtet. Die grundsätzliche Idee der Arbeit beruht auf der Wörterbuch-Methode, bei der eine Auswahl an Wörtern aus einem Wörterbuch getestet und die Ergebnisse auf das gesamte Wörterbuch übertragen werden, um die Lexikongröße einer Person zu bestimmen. In der vorliegenden Dissertation diente das childLex Korpus, das die linguistische Umwelt von Grundschulkindern enthält, als Grundlage. Zunächst wurde ein Wortschatztest entwickelt, der auf dem Korpus basiert. Anschließend wurde das Testverhalten von virtuellen Versuchs-personen simuliert, indem verschiedene Lexikongrößen aus dem Korpus gezogen wurden und überprüft wurde, welche der Items aus dem Wortschatztest in den Lexika enthalten waren. Dies ermöglichte die Bestimmung der Beziehung zwischen dem Verhalten im Wort-schatztest und der absoluten Lexikongröße und ließ sich dann auf tatsächliche Studienteil-nehmer übertragen. Neben der Wortschatzgröße konnten mit dieser Methode auch der wahrscheinliche Inhalt des mentalen Lexikons und so die Vernetzung des Lexikons zu ver-schiedenen Entwicklungszeitpunkten bestimmt werden. Drei Studien wurden konzipiert, um die vorgestellten Ziele zu erreichen und die prä-sentierte Methode zu etablieren. Studie 1 diente der Entwicklung des Wortschatztests, der auf den childLex Korpus beruht. Hierzu wurde das Ja/Nein-Testformat gewählt und ver-schiedene Versionen für unterschiedliche Altersgruppen erstellt. Die Validierung mithilfe des Rasch-Modells zeigt, dass der Test ein aussagekräftiges Instrument für die Erfassung des Wortschatzes von Grundschuldkindern im Deutschen darstellt. In Studie 2 werden der da-rauf basierende Mechanismus zur Schätzung von Lexikongrößen sowie Ergebnisse zu deren Entwicklung vom Grundschul- bis ins Erwachsenenalter präsentiert. Es ergaben sich plausible Ergebnisse in Bezug auf die Wortschatzentwicklung, die einer quadratischen Funktion folgt und mit etwa 6000 Wörtern in der ersten Klasse beginnt und im Durschnitt 73.000 Wörter im jungen Erwachsenenalter erreicht. Studie 3 befasste sich mit den lexikalischen Inhalten in Bezug auf die Netzwerkstruktur des mentalen Lexikons in verschiedenen Altersgruppen. Dabei zeigt sich, dass die orthographische Vernetzung des mentalen Lexikons im Erwerb ab-nimmt. Zusammengenommen liefert die Dissertation damit einen innovativen Ansatz zur Messung und Beschreibung der Entwicklung des mentalen Lexikons in der späteren Kind-heit. Die Studien bieten aktuelle Ergebnisse zum lexikalischen Erwerb in einer Altersgruppe, in der dazu bisher wenige Erkenntnisse vorlagen. Die Ergebnisse zeigen eindrücklich, wie wichtig diese Phase für den Wortschatzerwerb ist und legen außerdem nahe, dass es starke interindividuelle Unterschiede im lexikalischen Erwerb gibt. Diesen entgegenzuwirken ist eines der Ziele zukünftiger Forschung und Bildung. Zudem ergeben sich aus der Dissertation vielfältige Möglichkeiten zur Anwendung der Methode sowohl zu Forschungszwecken, z.B. in Bezug auf die Übertragung auf andere Zielgruppen und den Effekt der Ergebnisse auf an-dere Fähigkeiten, als auch für die pädagogische Arbeit, z.B. für die Anpassung von Texten an bestimmte Zielgruppen. KW - mental lexicon KW - language acquisition KW - language assessment KW - lexion size KW - lexicon structure KW - mentales Lexikon KW - Spracherwerb KW - Sprachstandserfassung KW - Wortschatzgröße KW - Wortschatzstruktur Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434314 ER - TY - THES A1 - Thiede, Tobias T1 - A multiscale analysis of additively manufactured lattice structures T1 - Multiskalige Analyse von Additiv Gefertigten Gitterstrukturen N2 - Additive Manufacturing (AM) in terms of laser powder-bed fusion (L-PBF) offers new prospects regarding the design of parts and enables therefore the production of lattice structures. These lattice structures shall be implemented in various industrial applications (e.g. gas turbines) for reasons of material savings or cooling channels. However, internal defects, residual stress, and structural deviations from the nominal geometry are unavoidable. In this work, the structural integrity of lattice structures manufactured by means of L-PBF was non-destructively investigated on a multiscale approach. A workflow for quantitative 3D powder analysis in terms of particle size, particle shape, particle porosity, inter-particle distance and packing density was established. Synchrotron computed tomography (CT) was used to correlate the packing density with the particle size and particle shape. It was also observed that at least about 50% of the powder porosity was released during production of the struts. Struts are the component of lattice structures and were investigated by means of laboratory CT. The focus was on the influence of the build angle on part porosity and surface quality. The surface topography analysis was advanced by the quantitative characterisation of re-entrant surface features. This characterisation was compared with conventional surface parameters showing their complementary information, but also the need for AM specific surface parameters. The mechanical behaviour of the lattice structure was investigated with in-situ CT under compression and successive digital volume correlation (DVC). The deformation was found to be knot-dominated, and therefore the lattice folds unit cell layer wise. The residual stress was determined experimentally for the first time in such lattice structures. Neutron diffraction was used for the non-destructive 3D stress investigation. The principal stress directions and values were determined in dependence of the number of measured directions. While a significant uni-axial stress state was found in the strut, a more hydrostatic stress state was found in the knot. In both cases, strut and knot, seven directions were at least needed to find reliable principal stress directions. N2 - Das Laserstrahlschmelzen (L-PBF) als Prozess im Bereich der Additiven Fertigung (AM) ermöglicht ein neuartiges Bauteildesign und somit auch die Produktion von komplexen Gitterstrukturen, welche Materialeinsparungen und effizientere Kühlsysteme erlauben und daher für verschiedene industrielle Anwendungen (z.B. Gasturbinen) geeignet sind. Interne Defekte, Eigenspannungen und geometrische Abweichungen von der Soll-Geometrie sind jedoch unvermeidbar. Im Rahmen dieser Arbeit wird die strukturelle Integrität von L-PBF gefertigten Gitterstrukturen zerstörungsfrei auf verschiedenen Größenskalen untersucht. Eine Auswerteroutine für dreidimensionale quantitative Pulvercharakterisierung hinsichtlich der Partikelgröße, der -form, der -porosität, des Interpartikelabstands und der Packungsdichte wurde entwickelt. Synchrotron Computertomographie (CT) wurde für die Korrelation der Packungsdichte mit der Partikelgröße und -form genutzt. Darüber hinaus konnte festgestellt werden, dass mindestens 50% der Porosität aus den Pulverpartikel während der Herstellung der Streben mittels L-PBF gelöst wurde. Streben sind die Grundbausteine der Gitterstrukturen und wurden mit industrieller CT untersucht. Dabei lag der Fokus auf dem Einfluss des Bauwinkels auf die Strebenporosität und -oberflächenqualität. Die Analyse der Oberflächentopographie wurde hinsichtlich einer quantitativen Analyse von sogenannten re-entrant features erweitert. Der Vergleich dieser Auswertung mit konventionellen Oberflächenparametern offenbarte sowohl deren Komplementarität also auch den Bedarf an neuen AM-spezifischen Oberflächenparametern. In-situ CT Versuche mit anschließender digitaler Volumenkorrelation (DVC) erlaubte die Gitterstruktur bezüglich des mechanischen Verhaltens unter Druckspannung zu bewerten. Aufgrund einer schichtweisen Faltung der Einheitszellen konnte dabei das Versagensverhalten als knoten-dominiert identifiziert werden. Mittels Neutronenbeugung konnten Eigenspannungen in solchen Gitterstrukturen erstmalig experimentell bestimmt werden. Dabei wurden sowohl die Hauptspannungsrichtungen als auch die -beträge in Abhängigkeit von der Anzahl der gemessenen Spannungsrichtungen bestimmt. Während in der Strebe ein signifikanter uni-axialer Spannungszustand nachgewiesen wurde, zeigte der Knotenpunkt einen hydrostatischeren Spannungszustand. Sowohl im Falle der Strebe als auch des Knotenpunkts waren mindestens sieben gemessene Spannungsrichtungen nötig, um die Hauptspannungsrichtungen verlässlich zu ermitteln. KW - additive manufacturing KW - laser powder bed fusion KW - computed tomography KW - neutron diffraction KW - in-situ testing KW - residual stress KW - roughness KW - powder particle analysis KW - additive Fertigung KW - Laserstrahlschmelzen KW - Computertomographie KW - Neutronendiffraktion KW - In-situ Experimente KW - Eigenspannung KW - Rauheit KW - Pulverpartikelanalyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470418 ER - TY - THES A1 - Thater, Sabine T1 - The interplay between supermassive black holes and their host galaxies T1 - Das Zusammenspiel zwischen supermassereichen Schwarzen Löchern und ihren Muttergalaxien N2 - Supermassive black holes reside in the hearts of almost all massive galaxies. Their evolutionary path seems to be strongly linked to the evolution of their host galaxies, as implied by several empirical relations between the black hole mass (M BH ) and different host galaxy properties. The physical driver of this co-evolution is, however, still not understood. More mass measurements over homogeneous samples and a detailed understanding of systematic uncertainties are required to fathom the origin of the scaling relations. In this thesis, I present the mass estimations of supermassive black holes in the nuclei of one late-type and thirteen early-type galaxies. Our SMASHING sample extends from the intermediate to the massive galaxy mass regime and was selected to fill in gaps in number of galaxies along the scaling relations. All galaxies were observed at high spatial resolution, making use of the adaptive-optics mode of integral field unit (IFU) instruments on state-of-the-art telescopes (SINFONI, NIFS, MUSE). I extracted the stellar kinematics from these observations and constructed dynamical Jeans and Schwarzschild models to estimate the mass of the central black holes robustly. My new mass estimates increase the number of early-type galaxies with measured black hole masses by 15%. The seven measured galaxies with nuclear light deficits (’cores’) augment the sample of cored galaxies with measured black holes by 40%. Next to determining massive black hole masses, evaluating the accuracy of black hole masses is crucial for understanding the intrinsic scatter of the black hole- host galaxy scaling relations. I tested various sources of systematic uncertainty on my derived mass estimates. The M BH estimate of the single late-type galaxy of the sample yielded an upper limit, which I could constrain very robustly. I tested the effects of dust, mass-to-light ratio (M/L) variation, and dark matter on my measured M BH . Based on these tests, the typically assumed constant M/L ratio can be an adequate assumption to account for the small amounts of dark matter in the center of that galaxy. I also tested the effect of a variable M/L variation on the M BH measurement on a second galaxy. By considering stellar M/L variations in the dynamical modeling, the measured M BH decreased by 30%. In the future, this test should be performed on additional galaxies to learn how an as constant assumed M/L flaws the estimated black hole masses. Based on our upper limit mass measurement, I confirm previous suggestions that resolving the predicted BH sphere-of-influence is not a strict condition to measure black hole masses. Instead, it is only a rough guide for the detection of the black hole if high-quality, and high signal-to-noise IFU data are used for the measurement. About half of our sample consists of massive early-type galaxies which show nuclear surface brightness cores and signs of triaxiality. While these types of galaxies are typically modeled with axisymmetric modeling methods, the effects on M BH are not well studied yet. The massive galaxies of our presented galaxy sample are well suited to test the effect of different stellar dynamical models on the measured black hole mass in evidently triaxial galaxies. I have compared spherical Jeans and axisymmetric Schwarzschild models and will add triaxial Schwarzschild models to this comparison in the future. The constructed Jeans and Schwarzschild models mostly disagree with each other and cannot reproduce many of the triaxial features of the galaxies (e.g., nuclear sub-components, prolate rotation). The consequence of the axisymmetric-triaxial assumption on the accuracy of M BH and its impact on the black hole - host galaxy relation needs to be carefully examined in the future. In the sample of galaxies with published M BH , we find measurements based on different dynamical tracers, requiring different observations, assumptions, and methods. Crucially, different tracers do not always give consistent results. I have used two independent tracers (cold molecular gas and stars) to estimate M BH in a regular galaxy of our sample. While the two estimates are consistent within their errors, the stellar-based measurement is twice as high as the gas-based. Similar trends have also been found in the literature. Therefore, a rigorous test of the systematics associated with the different modeling methods is required in the future. I caution to take the effects of different tracers (and methods) into account when discussing the scaling relations. I conclude this thesis by comparing my galaxy sample with the compilation of galaxies with measured black holes from the literature, also adding six SMASHING galaxies, which were published outside of this thesis. None of the SMASHING galaxies deviates significantly from the literature measurements. Their inclusion to the published early-type galaxies causes a change towards a shallower slope for the M BH - effective velocity dispersion relation, which is mainly driven by the massive galaxies of our sample. More unbiased and homogenous measurements are needed in the future to determine the shape of the relation and understand its physical origin. N2 - Supermassereiche schwarze Löcher befinden sich in den Herzen von fast allen massiven Galaxien. Ihr evolutionärer Werdegang scheint stark mit dem Wachstum ihrer Muttergalaxien in Verbindung zu stehen, wie mehrere empirische Beziehungen zwischen der Masse der schwarzen Löcher (M BH ) und verschiedenen Eigenschaften der Muttergalaxien andeuten. Der physikalische Ursprung dieser Koevolution ist jedoch immer noch nicht verstanden. Weitere Massenmessungen über homogene Galaxienproben und ein detailliertes Verständnis der systematischen Unsicherheiten sind erforderlich, um den Ursprung dieser Skalierungsbeziehungen zu ergründen. In dieser Arbeit präsentiere ich die Massenabschätzungen von Supermassereichen Schwarzen Löchern der Zentren einer Spiral- und dreizehn elliptischer und linsenförmiger Galaxien. Meine SMASHING-Probe erstreckt sich vom mittleren bis zum hohen Galaxienmassenbereich und wurde ausgewählt, um Lücken entlang der Skalierungsbeziehungen zu schließen. Alle Galaxien wurden mit hoher räumlicher Auflösung beobachtet, wobei der adaptivoptische Modus von Integralfeldspektrographen (IFU) modernster Teleskope (SINFONI, NIFS, MUSE) verwendet wurde. Aus diesen Beobachtungen habe ich die Sternenkinematik extrahiert und dynamische Jeans- und Schwarzschildmodelle konstruiert, um die Masse der zentralen Schwarzen Löcher robust zu bestimmen. Meine neuen Massenschätzungen erhöhen die Anzahl elliptischer Galaxien mit vermessenen Schwarzen Löchern um 15%. Die sieben vermessenen Galaxien mit inneren Lichtdefiziten ("Cores") ergänzen die Probe der Core-Galaxien mit gemessenen schwarzen Löchern um 40%. Neben der Bestimmung ist die Beurteilung der Genauigkeit von Schwarzlochmassen entscheidend für das Verständnis der intrinsischen Streuung der Beziehungen zwischen schwarzem Loch und Muttergalaxie. Ich habe meine abgeleiteten Massenabschätzungen auf verschiedene systematische Fehlerquellen getestet. Dabei habe ich Bezug genommen auf die Auswirkungen von Staub, Variation des Masse-Licht-Verhältnisses (M/L), Dunkler Materie, verschiedener dynamischer Modelle und verschiedener dynamischer Tracer. Die Ergebnisse präsentiere ich in dieser Arbeit. Ich schließe diese Arbeit, indem ich meine Galaxienprobe mit der den in der Forschungsliteratur zusammengestellten Galaxien mit bereits vermessenen Schwarzen Löchern vergleiche und auch sechs SMASHING-Galaxien hinzufüge, die außerhalb dieser Arbeit veröffentlicht wurden. Keine der SMASHING-Galaxien weicht signifikant von den veröffentlichten Messungen ab. Eine gemeinsame Analyse meiner Messungen und der veröffentlichten elliptischen Galaxien ergibt eine Abflachung der Steigung für die M BH - effektive Geschwindigkeitsdispersionsbeziehung, die hauptsächlich von den massiven Galaxien meiner Probe bewirkt wird. In Zukunft sind unvoreingenommene und homogenere Messungen erforderlich, um die Form der Skalierungsbeziehung zu bestimmen und ihren physikalischen Ursprung zu verstehen. KW - supermassive black holes KW - galaxy evolution KW - stellar kinematics KW - galaxy dynamics KW - integral field spectroscopy KW - supermassereiche Schwarze Löcher KW - Galaxienentwicklung KW - stellare Kinematik KW - Galaxiendynamik KW - Integralfieldspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437570 ER - TY - THES A1 - Teckentrup, Lisa T1 - Understanding predator-prey interactions T1 - Verstehen von Räuber-Beute-Interaktionen BT - the role of fear in structuring prey communities BT - die Rolle der Angst bei der Strukturierung von Beutetiergemeinschaften N2 - Predators can have numerical and behavioral effects on prey animals. While numerical effects are well explored, the impact of behavioral effects is unclear. Furthermore, behavioral effects are generally either analyzed with a focus on single individuals or with a focus on consequences for other trophic levels. Thereby, the impact of fear on the level of prey communities is overlooked, despite potential consequences for conservation and nature management. In order to improve our understanding of predator-prey interactions, an assessment of the consequences of fear in shaping prey community structures is crucial. In this thesis, I evaluated how fear alters prey space use, community structure and composition, focusing on terrestrial mammals. By integrating landscapes of fear in an existing individual-based and spatially-explicit model, I simulated community assembly of prey animals via individual home range formation. The model comprises multiple hierarchical levels from individual home range behavior to patterns of prey community structure and composition. The mechanistic approach of the model allowed for the identification of underlying mechanism driving prey community responses under fear. My results show that fear modified prey space use and community patterns. Under fear, prey animals shifted their home ranges towards safer areas of the landscape. Furthermore, fear decreased the total biomass and the diversity of the prey community and reinforced shifts in community composition towards smaller animals. These effects could be mediated by an increasing availability of refuges in the landscape. Under landscape changes, such as habitat loss and fragmentation, fear intensified negative effects on prey communities. Prey communities in risky environments were subject to a non-proportional diversity loss of up to 30% if fear was taken into account. Regarding habitat properties, I found that well-connected, large safe patches can reduce the negative consequences of habitat loss and fragmentation on prey communities. Including variation in risk perception between prey animals had consequences on prey space use. Animals with a high risk perception predominantly used safe areas of the landscape, while animals with a low risk perception preferred areas with a high food availability. On the community level, prey diversity was higher in heterogeneous landscapes of fear if individuals varied in their risk perception compared to scenarios in which all individuals had the same risk perception. Overall, my findings give a first, comprehensive assessment of the role of fear in shaping prey communities. The linkage between individual home range behavior and patterns at the community level allows for a mechanistic understanding of the underlying processes. My results underline the importance of the structure of the landscape of fear as a key driver of prey community responses, especially if the habitat is threatened by landscape changes. Furthermore, I show that individual landscapes of fear can improve our understanding of the consequences of trait variation on community structures. Regarding conservation and nature management, my results support calls for modern conservation approaches that go beyond single species and address the protection of biotic interactions. N2 - Raubtiere beeinflussen ihre Beute durch die Verringerung der Anzahl (numerische Effekte) und durch das Hervorrufen von Verhaltensänderungen (Verhaltenseffekte). Während die Auswirkungen von numerischen Effekten gut erforscht sind, sind die Auswirkungen von Verhaltenseffekten unklar. Außerdem werden bei Verhaltensänderungen selten die Auswirkungen auf die Beutetiergemeinschaft betrachtet, sondern nur die Effekte auf einzelne Individuen bzw. Arten oder auf andere Stufen der Nahrungskette. Eine Betrachtung auf der Stufe der Beutetiergemeinschaft ist jedoch sehr wichtig, da nur so ein umfassendes Verständnis von Räuber-Beute-Gemeinschaften möglich ist. In der vorliegenden Arbeit habe ich die Auswirkungen von Verhaltenseffekten auf die Raumnutzung und die Struktur von Beutetiergemeinschaften untersucht. Dazu habe ich ein räumliches Modell benutzt, welches die Bildung von Beutetiergemeinschaften über den individuellen Aufbau von Aktionsräumen der Beutetiere simuliert. Die Einrichtung von Aktionsräumen basiert dabei auf der Nahrungsverfügbarkeit in der Landschaft und auf dem vom Beutetier wahrgenommenen Risiko von einem Räuber gefressen zu werden. Die räumliche Verteilung des wahrgenommenen Risikos wird auch als Landschaft der Angst bezeichnet. Meine Ergebnisse zeigen, dass sich die Raumnutzung und die Struktur der Beutetiergemeinschaft durch Verhaltenseffekte verändern. Unter dem Einfluss von Angst haben die Beutetiere ihre Aktionsräume in sicherere Bereiche der Landschaft verlegt. Außerdem hat sich in risikoreichen Landschaften die Vielfalt der Beutetiere verringert und die Zusammensetzung zu Arten mit einem geringen Körpergewicht verschoben. Wenn die Beutetiergemeinschaft Landschaftsveränderungen wie z.B. dem Verlust oder der Zerschneidung von Lebensraum ausgesetzt war, haben sich die Auswirkungen von Verhaltenseffekten weiter verstärkt. Durch eine Erhöhung der Größe und Anzahl von Rückzugsräumen, die nicht von Räubern erreicht werden können, sowie deren Verbindung in der Landschaft, kann die Stärke dieser Effekte jedoch begrenzt werden. In einem weiteren Schritt habe ich die Auswirkungen von Unterschieden in der Risikowahrnehmung zwischen Individuen untersucht. Diese Unterschiede haben dazu geführt, dass Tiere mit einer hohen Risikowahrnehmung sich ihren Aktionsraum vornehmlich in sicheren Bereichen gesucht haben, während Tiere mit einer geringen Risikowahrnehmung Bereiche mit einer hohen Nahrungsverfügbarkeit genutzt haben. Dadurch konnten sich in Landschaften mit unterschiedlichen Risiken, vielfältigere Beutetiergemeinschaften etablieren, als in Landschaften mit gleichmäßigem Risiko. Insgesamt geben meine Ergebnisse einen guten Überblick über die Auswirkungen von Verhaltenseffekten auf Beutetiergemeinschaften. Die Verknüpfung von individuellem Verhalten mit Mustern auf der Gemeinschaftsebene erlaubt es die zugrundeliegenden Mechanismen zu identifizieren und zu verstehen. In Bezug auf den Naturschutz unterstützen meine Ergebnisse den Ruf nach modernen Schutzmaßnahmen, die über den Erhalt von einzelnen Arten hinausgehen und den Schutz von Beziehungen zwischen Arten einbeziehen. KW - ecology KW - landscape of fear KW - predator-prey KW - movement KW - biodiversity KW - Ökologie KW - Landschaft der Angst KW - Räuber-Beute KW - Bewegung KW - Biodiversität Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431624 ER - TY - THES A1 - Stutter Garcia, Ana T1 - The use of grammatical knowledge in an additional language T1 - Die Verwendung des grammatischen Wissens in einer weiteren Fremdsprache BT - effects of native and non-native linguistic constraints BT - der Effekt von muttersprachlichen und nicht-muttersprachlichen linguistischen Beschränkungen N2 - This thesis investigates whether multilingual speakers’ use of grammatical constraints in an additional language (La) is affected by the native (L1) and non-native grammars (L2) of their linguistic repertoire. Previous studies have used untimed measures of grammatical performance to show that L1 and L2 grammars affect the initial stages of La acquisition. This thesis extends this work by examining whether speakers at intermediate levels of La proficiency, who demonstrate mature untimed/offline knowledge of the target La constraints, are differentially affected by their L1 and L2 knowledge when they comprehend sentences under processing pressure. With this purpose, several groups of La German speakers were tested on word order and agreement phenomena using online/timed measures of grammatical knowledge. Participants had mirror distributions of their prior languages and they were either L1English/L2Spanish speakers or L1Spanish/L2English speakers. Crucially, in half of the phenomena the target La constraint aligned with English but not with Spanish, while in the other half it aligned with Spanish but not with English. Results show that the L1 grammar plays a major role in the use of La constraints under processing pressure, as participants displayed increased sensitivity to La constraints when they aligned with their L1, and reduced sensitivity when they did not. Further, in specific phenomena in which the L2 and La constraints aligned, increased L2 proficiency resulted in an enhanced sensitivity to the La constraint. These findings suggest that both native and non-native grammars affect how speakers use La grammatical constraints under processing pressure. However, L1 and L2 grammars differentially influence on participants’ performance: While L1 constraints seem to be reliably recruited to cope with the processing demands of real-time La use, proficiency in an L2 can enhance sensitivity to La constraints only in specific circumstances, namely when L2 and La constraints align. N2 - In dieser Dissertation wird untersucht, ob mehrsprachige Personen, wenn sie grammatikalische Beschränkungen in einer zusätzlichen Sprache (La) verarbeiten, von ihrer Muttersprache (L1) und/oder ihrer Nicht-Muttersprache (L2) beeinflusst werden. Frühere Studien haben durch Messungen ohne Zeitangabe (offline Messungen) der grammatikalischen Leistung gezeigt, dass die L1- und L2-Grammatik die Anfangsstadien des La-Spracherwerbs beeinflusst. In dieser Dissertation wird diese Arbeit auf zweierlei Weise erweitert. Einerseits wird untersucht, ob die L1- und L2-Grammatik die La auf unterschiedliche Weise beeinflusst, wenn mehrsprachige Personen La Sätze unter Druck verarbeiten müssen. Anderseits werden in der Dissertation nur Personen mit mittleren La-Kenntnissen getestet, die ausgereifte Kenntnisse über die getesteten La Phänomene in offline Messungen vorwiesen. Zu diesem Zweck wurden mehrere Gruppen von La Deutschsprachlern auf Wortreihenfolgen- und Konkordanz-Phänomene getestet, wobei online Messungen der grammatikalischen Fähigkeiten verwendet wurden. Die Teilnehmer waren entweder L1Englisch / L2Spanisch oder L1Spanisch / L2Englisch Sprecher. Entscheidend ist, dass die Hälfte der getesteten Beschränkungen auf Englisch, aber nicht auf Spanisch ausgerichtet war, während die andere Hälfte wiederum auf Spanisch, aber nicht auf Englisch ausgerichtet war. Die Ergebnisse zeigen, dass die L1-Grammatik eine wichtige Rolle bei der Verarbeitung von La-Beschränkungen unter Zeitdruck spielt. Die Teilnehmer zeigten eine erhöhte Sensibilität gegenüber La-Beschränkungen, wenn diese mit ihrer eigenen L1 übereinstimmten. Eine verringerte Sensibilität zeigt sich wiederum, wenn die Übereinstimmung nicht vorliegt. Ferner führte eine erhöhte L2-Kompetenz, unter bestimmten Beschränkungen, bei denen die L2 und La übereinstimmen, zu einer erhöhten Sensibilität gegenüber der La-Beschränkung. Diese Ergebnisse legen nahe, dass sowohl die muttersprachliche als auch die nicht muttersprachliche Grammatik die Verwendung von La Beschränkungen unter Verarbeitungsdruck beeinflusst. L1- und L2-Grammatik wirkt sich jedoch unterschiedlich auf die Leistungen der Teilnehmer aus. Während die L1 Grammatik zuverlässig angewendet wird, um den Verarbeitungsanforderungen der Echtzeit La-Verwendung gerecht zu werden, kann die Kenntnis einer L2 die Sensibilität gegenüber La-Beschränkungen nur unter bestimmten Umständen verbessern. Nämlich dann wenn die L2- und La-Beschränkungen parallel ausgerichtet sind. KW - additional language KW - cross-linguistic influence KW - multilingualism KW - grammatical knowledge KW - zusätzliche Sprache KW - sprachübergreifender Einfluss KW - Multilingualität KW - Grammatikkenntnisse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469326 ER - TY - THES A1 - Sterzel, Till T1 - Analyzing global typologies of socio-ecological vulnerability BT - the cases of human security in drylands, and rapid coastal urbanization N2 - On a planetary scale human populations need to adapt to both socio-economic and environmental problems amidst rapid global change. This holds true for coupled human-environment (socio-ecological) systems in rural and urban settings alike. Two examples are drylands and urban coasts. Such socio-ecological systems have a global distribution. Therefore, advancing the knowledge base for identifying socio-ecological adaptation needs with local vulnerability assessments alone is infeasible: The systems cover vast areas, while funding, time, and human resources for local assessments are limited. They are lacking in low an middle-income countries (LICs and MICs) in particular. But places in a specific socio-ecological system are not only unique and complex – they also exhibit similarities. A global patchwork of local rural drylands vulnerability assessments of human populations to socio-ecological and environmental problems has already been reduced to a limited number of problem structures, which typically cause vulnerability. However, the question arises whether this is also possible in urban socio-ecological systems. The question also arises whether these typologies provide added value in research beyond global change. Finally, the methodology employed for drylands needs refining and standardizing to increase its uptake in the scientific community. In this dissertation, I set out to fill these three gaps in research. The geographical focus in my dissertation is on LICs and MICs, which generally have lower capacities to adapt, and greater adaptation needs, regarding rapid global change. Using a spatially explicit indicator-based methodology, I combine geospatial and clustering methods to identify typical configurations of key factors in case studies causing vulnerability to human populations in two specific socio-ecological systems. Then I use statistical and analytical methods to interpret and appraise both the typical configurations and the global typologies they constitute. First, I improve the indicator-based methodology and then reanalyze typical global problem structures of socio-ecological drylands vulnerability with seven indicator datasets. The reanalysis confirms the key tenets and produces a more realistic and nuanced typology of eight spatially explicit problem structures, or vulnerability profiles: Two new profiles with typically high natural resource endowment emerge, in which overpopulation has led to medium or high soil erosion. Second, I determine whether the new drylands typology and its socio-ecological vulnerability concept advance a thematically linked scientific debate in human security studies: what drives violent conflict in drylands? The typology is a much better predictor for conflict distribution and incidence in drylands than regression models typically used in peace research. Third, I analyze global problem structures typically causing vulnerability in an urban socio-ecological system - the rapidly urbanizing coastal fringe (RUCF) – with eleven indicator datasets. The RUCF also shows a robust typology, and its seven profiles show huge asymmetries in vulnerability and adaptive capacity. The fastest population increase, lowest income, most ineffective governments, most prevalent poverty, and lowest adaptive capacity are all typically stacked in two profiles in LICs. This shows that beyond local case studies tropical cyclones and/or coastal flooding are neither stalling rapid population growth, nor urban expansion, in the RUCF. I propose entry points for scaling up successful vulnerability reduction strategies in coastal cities within the same vulnerability profile. This dissertation shows that patchworks of local vulnerability assessments can be generalized to structure global socio-ecological vulnerabilities in both rural and urban socio-ecological systems according to typical problems. In terms of climate-related extreme events in the RUCF, conflicting problem structures and means to deal with them are threatening to widen the development gap between LICs and high-income countries unless successful vulnerability reduction measures are comprehensively scaled up. The explanatory power for human security in drylands warrants further applications of the methodology beyond global environmental change research in the future. Thus, analyzing spatially explicit global typologies of socio-ecological vulnerability is a useful complement to local assessments: The typologies provide entry points for where to consider which generic measures to reduce typical problem structures – including the countless places without local assessments. This can save limited time and financial resources for adaptation under rapid global change. N2 - Menschliche Gesellschaften müssen sich weltweit an sozioökonomische und ökologische Probleme unter rapidem globalen Wandel anpassen. Dies gilt für gekoppelte Mensch-Umwelt-Systeme (sozio-ökologische Systeme) in ländlichen und in städtischen Gebieten. Beispiele sind Trockengebiete oder urban geprägte Küsten. Solche sozio-ökologischen Systeme haben eine globale Ausdehnung. Daher ist es nicht praktikabel, die Wissensbasis zur Ermittlung des sozio-ökologischen Anpassungsbedarfs allein mit lokalen Vulnerabilitätsanalysen voranzutreiben: Die Systeme decken große Gebiete ab, während finanzielle Mittel, Zeit und Personal für lokale Analysen begrenzt sind. In Ländern mit niedrigem und mittlerem Einkommen (LICs und MICs) mangelt es daran besonders. Aber Orte in einem konkreten sozioökologischen System sind nicht nur einzigartig und komplex – sie weisen auch Gemeinsamkeiten auf. Ein globaler Flickenteppich lokaler Vulnerabilitätsanalysen von Gesellschaften gegenüber sozioökonomischen und ökologischen Problemen in Trockengebieten wurde bereits auf eine begrenzte Anzahl von Problemstrukturen reduziert, die typischerweise Verwundbarkeiten verursachen. Es stellt sich jedoch die Frage, ob dies auch in urbanen sozioökologischen Systemen möglich ist. Es stellt sich auch die Frage, ob diese Typologien über die Forschung zum globalen Wandel hinaus einen Mehrwert bieten. Schließlich muss die für Trockengebiete angewandte Methodik verfeinert und standardisiert werden, um ihre Aufnahme in der Wissenschaft zu erhöhen. In dieser Dissertation habe ich versucht, diese drei Forschungslücken zu schließen. Der geografische Schwerpunkt meiner Dissertation liegt auf LICs und MICs, die im Allgemeinen über geringere Anpassungskapazitäten und einen größeren Anpassungsbedarf gegenüber schnellen globalen Wandels verfügen. Unter Verwendung einer räumlich expliziten, indikatorgestützten Methodik kombiniere ich raumbezogene und Clustering-Methoden, um typische Konfigurationen von Schlüsselfaktoren in Fallstudien zu identifizieren, die Verwundbarkeiten für Gesellschaften in zwei spezifischen sozio-ökologischen Systemen verursachen. Dann benutze ich statistische und analytische Methoden, um sowohl die typischen Konfigurationen als auch die globalen Typologien zu interpretieren und zu bewerten. Im ersten Teil verbessere ich die indikatorbasierte Methodik und reanalysiere dann typische globale Problemstrukturen sozioökologischer Verwundbarkeit in ländlichen Trockengebieten mit sieben Indikatordatensätzen. Die Reanalyse bestätigt die Kernaussagen und führt zu einer realistischeren und differenzierteren Typologie von acht räumlich expliziten Problemstrukturen bzw. Vulnerabilitätsprofilen: Zwei neue Profile mit typischer hoher natürlicher Ressourcenausstattung treten auf, in denen Überbevölkerung zu mittlerer bis hoher Bodenerosion geführt hat. Im zweiten Teil stelle ich fest, ob die neue Trockengebietstypologie und ihr sozioökologisches Vulnerabilitätskonzept eine thematisch verknüpfte wissenschaftliche Debatte über menschliche Sicherheit vorantreiben können: Was treibt gewalttätige Konflikte in Trockengebieten an? Die Typologie ist ein deutlich besserer Prädiktor für die Verteilung und Inzidenz von Konflikten in Trockengebieten als Regressionsmodelle, die typischerweise in der Friedensforschung verwendet werden. Im dritten Teil analysiere ich mit elf Indikatordatensätzen globale Problemstrukturen, die in einem urbanen sozioökologischen System - der rapide urbanisierenden Küstenzone (RUCF) – typischerweise Verwundbarkeiten verursachen. Die RUCF weist ebenfalls eine robuste Typologie auf und ihre sieben Profile zeigen große Asymmetrien in Bezug auf Vulnerabilität und Anpassungskapazität. Der schnellste Bevölkerungszuwachs, das niedrigste Einkommen, die ineffektivsten Regierungen, die am weitesten verbreitete Armut und die geringste Anpassungskapazität sind typischerweise in zwei Profilen in LICs geballt. Dies zeigt jenseits von lokalen Analysen, dass tropische Wirbelstürme und / oder Überschwemmungen im RUCF weder schnelles Bevölkerungswachstum noch städtische Expansion verhindern. Ich schlage Einstiegspunkte für die Skalierung erfolgreicher Strategien zur Reduzierung von Vulnerabilität in Küstenstädten innerhalb des gleichen Vulnerabilitätsprofils vor. Diese Dissertation zeigt, dass Flickenteppiche lokaler Vulnerabilitätsanalysen verallgemeinert werden können, um globale sozioökologische Vulnerabilitäten in ländlichen und städtischen sozioökologischen Systemen nach typischen Problemstrukturen zu systematisieren. In Bezug auf klimatische Extremereignisse drohen sich entgegenstehende Problemstrukturen und Mittel, um mit ihnen umzugehen, die Entwicklungslücke zwischen LICs und Ländern mit hohem Einkommen in der RUCF zu vergrößern, wenn erfolgreiche Maßnahmen zur Vulnerabilitätsreduzierung nicht umfassend ausgeweitet werden. Die Erklärungskraft für menschliche Sicherheit in Trockengebieten berechtigt weitere Anwendungen der Methodik über die globale Umweltforschung hinaus. Die Analyse räumlich expliziter globaler Typologien sozio-ökologischer Vulnerabilität ist daher eine sinnvolle Ergänzung zu lokalen Analysen: Die Typologien bieten Einstiegspunkte dafür, welche generischen Maßnahmen wo in Betracht zu ziehen, um typische Problemstrukturen zu reduzieren - einschließlich der unzähligen Orte ohne lokale Analysen. Dies kann begrenzte Zeit und finanzielle Ressourcen für Anpassung unter rapidem globalen Wandel sparen. KW - vulnerability KW - global environmental change KW - patterns KW - drylands KW - indicator-based analysis KW - adaptation KW - Socio-ecological system KW - cluster analysis KW - subnational resolution KW - resource scarcity KW - environment KW - coastal cities KW - coastal urbanization Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-428837 ER - TY - THES A1 - Sotiropoulou, Stavroula T1 - Pleiotropy of phonetic indices in the expression of syllabic organization N2 - This dissertation is concerned with the relation between qualitative phonological organization in the form of syllabic structure and continuous phonetics, that is, the spatial and temporal dimensions of vocal tract action that express syllabic structure. The main claim of the dissertation is twofold. First, we argue that syllabic organization exerts multiple effects on the spatio-temporal properties of the segments that partake in that organization. That is, there is no unique or privileged exponent of syllabic organization. Rather, syllabic organization is expressed in a pleiotropy of phonetic indices. Second, we claim that a better understanding of the relation between qualitative phonological organization and continuous phonetics is reached when one considers how the string of segments (over which the nature of the phonological organization is assessed) responds to perturbations (scaling of phonetic variables) of localized properties (such as durations) within that string. Specifically, variation in phonetic variables and more specifically prosodic variation is a crucial key to understanding the nature of the link between (phonological) syllabic organization and the phonetic spatio-temporal manifestation of that organization. The effects of prosodic variation on segmental properties and on the overlap between the segments, we argue, offer the right pathway to discover patterns related to syllabic organization. In our approach, to uncover evidence for global organization, the sequence of segments partaking in that organization as well as properties of these segments or their relations with one another must be somehow locally varied. The consequences of such variation on the rest of the sequence can then be used to unveil the span of organization. When local perturbations to segments or relations between adjacent segments have effects that ripple through the rest of the sequence, this is evidence that organization is global. If instead local perturbations stay local with no consequences for the rest of the whole, this indicates that organization is local. N2 - Die vorliegende Dissertation befasst sich mit dem Verhältnis zwischen qualitativer Phonologie im Sinne silbischer Struktur und kontinuierlicher Phonetik im Sinne raum- und zeitbezogener Eigenschaften artikulatorischer Bewegungen, welche ebendiese Struktur ausdrücken. Die Dissertation stellt zwei Hauptthesen auf: Erstens behaupten wir, dass silbische Struktur verschiedene Auswirkungen auf die räumlichen und zeitlichen Eigenschaften der beteiligten Segmente hat. Das heißt, dass es keinen einzelnen ausgezeichneten Indikator für die silbische Struktur gibt, vielmehr muss diese durch mehrere verschiedene phonetischen Indexe beschrieben werden. Zweitens behaupten wir, dass man ein besseres Verständnis über den Zusammenhang von qualitativer phonologischer Struktur und kontinuierlicher Phonetik erhält, wenn man berücksichtigt, wie Abfolgen von Segmenten, welche die phonologische Struktur bestimmen, auf Perturbationen von lokalen phonetischen Eigenschaften reagieren. Die Variabilität phonetischer und insbesondere prosodischer Parameter spielt hierbei eine wesentliche Rolle. Wir behaupten, dass die Effekte prosodischer Variation der Eigenschaften einzelner Segmente und deren Überlappung einen geeigneten Weg zur Aufklärung silbisch-struktureller Muster aufzeigen. Wenn man Hinweise auf eine globale silbische Struktur herausarbeiten möchte, müssen folglich sowohl die Abfolge als auch die lokalen Eigenschaften der beteiligten Segmente variiert werden. Auswirkungen der Variationen können dann Auskunft über der Art und Gestalt der silbischen Struktur geben. Wenn lokale Perturbationen von Segmenten oder von Relationen zwischen benachbarten Segmenten die restliche Sequenz beeinflussen, ist dies als Hinweis auf eine globale Organisation zu bewerten. Wenn lokale Perturbationen hingegen lokal verbleiben ohne die restliche Sequenz zu beeinflussen, ist dies als Hinweis auf eine lokale Organisation zu bewerten. KW - Syllabic organization KW - inter-segmental coordination KW - obstruent-liquid clusters KW - prosodic modulation KW - compensatory effects KW - silbische Struktur KW - kompensatorischer Effekt KW - Koordination zwischen Segmenten KW - Obstruent-Liquide Konsonantencluster KW - prosodische Variation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546399 ER - TY - THES A1 - Solopow, Sergej T1 - Wavelength dependent demagnetization dynamics in Co2MnGa Heusler-alloy T1 - Wellenlängeabhängige Entmagnetisierungsdynamik in Co2MnGa Heusler-Legierung N2 - In dieser Arbeit haben wir ultraschnelle Entmagnetisierung an einer Heusler-Legierung untersucht. Es handelt sich um ein Halbmetall, das sich in einer ferromagnetischen Phase befindet. Die Besonderheit dieses Materials besteht im Aufbau einer Bandstruktur. Diese bildet Zustandsdichten, in der die Majoritätselektronen eine metallische Bänderbildung aufweisen und die Minoritätselektronen eine Bandlücke in der Nähe des Fermi-Niveaus aufweisen, das dem Aufbau eines Halbleiters entspricht. Mit Hilfe der Pump-Probe-Experimente haben wir zeitaufgelöste Messungen durchgeführt. Für das Pumpen wurden ultrakurze Laserpulse mit einer Pulsdauer von 100 fs benutzt. Wir haben dabei zwei verschiedene Wellenlängen mit 400 nm und 1240 nm benutzt, um den Effekt der Primäranregung und der Bandlücke in den Minoritätszuständen zu untersuchen. Dabei wurde zum ersten Mal OPA (Optical Parametrical Amplifier) für die Erzeugung der langwelligen Pulse an der FEMTOSPEX-Beamline getestet und erfolgreich bei den Experimenten verwendet. Wir haben Wellenlängen bedingte Unterschiede in der Entmagnetisierungszeit gemessen. Mit der Erhöhung der Photonenenergie ist der Prozess der Entmagnetisierung deutlich schneller als bei einer niedrigeren Photonenenergie. Wir verknüpften diese Ergebnisse mit der Existenz der Energielücke für Minoritätselektronen. Mit Hilfe lokaler Elliot-Yafet-Streuprozesse können die beobachteten Zeiten gut erklärt werden. Wir haben in dieser Arbeit auch eine neue Probe-Methode für die Magnetisierung angewandt und somit experimentell deren Effektivität, nämlich XMCD in Refletiongeometry, bestätigen können. Statische Experimente liefern somit deutliche Indizien dafür, dass eine magnetische von einer rein elektronischen Antwort des Systems getrennt werden kann. Unter der Voraussetzung, dass die Photonenenergie der Röntgenstrahlung auf die L3 Kante des entsprechenden Elements eingestellt, ein geeigneter Einfallswinkel gewählt und die zirkulare Polarisation fixiert wird, ist es möglich, diese Methode zur Analyse magnetischer und elektronischer Respons anzuwenden. N2 - In this work we investigated ultrafast demagnetization in a Heusler-alloy. This material belongs to the halfmetal and exists in a ferromagnetic phase. A special feature of investigated alloy is a structure of electronic bands. The last leads to the specific density of the states. Majority electrons form a metallic like structure while minority electrons form a gap near the Fermi-level, like in semiconductor. This particularity offers a good possibility to use this material as model-like structure and to make some proof of principles concerning demagnetization. Using pump-probe experiments we carried out time-resolved measurements to figure out the times of demagnetization. For the pumping we used ultrashort laser pulses with duration around 100 fs. Simultaneously we used two excitation regimes with two different wavelengths namely 400 nm and 1240 nm. Decreasing the energy of photons to the gap size of the minority electrons we explored the effect of the gap on the demagnetization dynamics. During this work we used for the first time OPA (Optical Parametrical Amplifier) for the generation of the laser irradiation in a long-wave regime. We tested it on the FETOSPEX-beamline in BASSYII electron storage ring. With this new technique we measured wavelength dependent demagnetization dynamics. We estimated that the demagnetization time is in a correlation with photon energy of the excitation pulse. Higher photon energy leads to the faster demagnetization in our material. We associate this result with the existence of the energy-gap for minority electrons and explained it with Elliot-Yaffet-scattering events. Additionally we applied new probe-method for magnetization state in this work and verified their effectivity. It is about the well-known XMCD (X-ray magnetic circular dichroism) which we adopted for the measurements in reflection geometry. Static experiments confirmed that the pure electronic dynamics can be separated from the magnetic one. We used photon energy fixed on the L3 of the corresponding elements with circular polarization. Appropriate incidence angel was estimated from static measurements. Using this probe method in dynamic measurements we explored electronic and magnetic dynamics in this alloy. KW - magnetizationdynamic KW - XMCD KW - Heusler-alloy KW - Magnetisierungsdynamik KW - XMCD KW - Heusler-Legierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427860 ER - TY - THES A1 - Sidarenka, Uladzimir T1 - Sentiment analysis of German Twitter T1 - Sentimentanalyse des deutschen Twitters N2 - The immense popularity of online communication services in the last decade has not only upended our lives (with news spreading like wildfire on the Web, presidents announcing their decisions on Twitter, and the outcome of political elections being determined on Facebook) but also dramatically increased the amount of data exchanged on these platforms. Therefore, if we wish to understand the needs of modern society better and want to protect it from new threats, we urgently need more robust, higher-quality natural language processing (NLP) applications that can recognize such necessities and menaces automatically, by analyzing uncensored texts. Unfortunately, most NLP programs today have been created for standard language, as we know it from newspapers, or, in the best case, adapted to the specifics of English social media. This thesis reduces the existing deficit by entering the new frontier of German online communication and addressing one of its most prolific forms—users’ conversations on Twitter. In particular, it explores the ways and means by how people express their opinions on this service, examines current approaches to automatic mining of these feelings, and proposes novel methods, which outperform state-of-the-art techniques. For this purpose, I introduce a new corpus of German tweets that have been manually annotated with sentiments, their targets and holders, as well as lexical polarity items and their contextual modifiers. Using these data, I explore four major areas of sentiment research: (i) generation of sentiment lexicons, (ii) fine-grained opinion mining, (iii) message-level polarity classification, and (iv) discourse-aware sentiment analysis. In the first task, I compare three popular groups of lexicon generation methods: dictionary-, corpus-, and word-embedding–based ones, finding that dictionary-based systems generally yield better polarity lists than the last two groups. Apart from this, I propose a linear projection algorithm, whose results surpass many existing automatically-generated lexicons. Afterwords, in the second task, I examine two common approaches to automatic prediction of sentiment spans, their sources, and targets: conditional random fields (CRFs) and recurrent neural networks, obtaining higher scores with the former model and improving these results even further by redefining the structure of CRF graphs. When dealing with message-level polarity classification, I juxtapose three major sentiment paradigms: lexicon-, machine-learning–, and deep-learning–based systems, and try to unite the first and last of these method groups by introducing a bidirectional neural network with lexicon-based attention. Finally, in order to make the new classifier aware of microblogs' discourse structure, I let it separately analyze the elementary discourse units of each tweet and infer the overall polarity of a message from the scores of its EDUs with the help of two new approaches: latent-marginalized CRFs and Recursive Dirichlet Process. N2 - Die enorme Popularität von Online-Kommunikationsdiensten in den letzten Jahrzehnten hat nicht unser Leben massiv geändert (sodass Nachrichten sich wie Fegefeuer übers Internet ausbreiten, Präsidenten ihre Entscheidungen auf Twitter ankündigen, und Ergebnisse politischer Wahlen auf Facebook entschieden werden) sondern auch zu einem dramatischen Anstieg der Datenmenge geführt, die über solche Plattformen ausgetauscht werden. Deswegen braucht man heutzutage dringend zuverlässige, qualitätvolle NLP-Programme, um neue gesellschaftliche Bedürfnisse und Risiken in unzensierten Nutzernachrichten automatisch erkennen und abschätzen zu können. Leider sind die meisten modernen NLP-Anwendungen entweder auf die Analyse der Standardsprache (wie wir sie aus Zeitungstexten kennen) ausgerichtet oder im besten Fall an die Spezifika englischer Social Media angepasst. Diese Dissertation reduziert den bestehenden Rückstand, indem sie das "Neuland" der deutschen Online-Kommunikation betritt und sich einer seiner produktivsten Formen zuwendet—den User-Diskussionen auf Twitter. Diese Arbeit erforscht insbesondere die Art und Weise, wie Leute ihre Meinungen auf diesem Online-Service äußern, analysiert existierende Verfahren zur automatischen Erkennung ihrer Gefühle und schlägt neue Verfahren vor, die viele heutige State-of-the-Art-Systeme übertreffen. Zu diesem Zweck stelle ich ein neues Korpus deutscher Tweets vor, die manuell von zwei menschlichen Experten mit Sentimenten (polaren Meinungen), ihren Quellen (sources) und Zielen (targets) sowie lexikalischen polaren Termen und deren kontextuellen Modifizierern annotiert wurden. Mithilfe dieser Daten untersuche ich vier große Teilgebiete der Sentimentanalyse: (i) automatische Generierung von Sentiment-Lexika, (ii) aspekt-basiertes Opinion-Mining, (iii) Klassifizierung der Polarität von ganzen Nachrichten und (iv) diskurs-bewusste Sentimentanalyse. In der ersten Aufgabe vergleiche ich drei populäre Gruppen von Lexikongenerierungsmethoden: wörterbuch-, corpus- und word-embedding-basierte Verfahren, und komme zu dem Schluss, dass wörterbuch-basierte Ansätze generell bessere Polaritätslexika liefern als die letzten zwei Gruppen. Abgesehen davon, schlage ich einen neuen Linearprojektionsalgorithmus vor, dessen Resultate deutlich besser als viele automatisch generierte Polaritätslisten sind. Weiterhin, in der zweiten Aufgabe, untersuche ich zwei gängige Herangehensweisen an die automatische Erkennung der Textspannen von Sentimenten, Sources und Targets: Conditional Random Fields (CRFs) und rekurrente neuronale Netzwerke. Ich erziele bessere Ergebnisse mit der ersten Methode und verbessere diese Werte noch weiter durch alternative Topologien der CRF-Graphen. Bei der Analyse der Nachrichtenpolarität stelle ich drei große Sentiment-Paradigmen gegenüber: lexikon-, Machine-Learning–, und Deep-Learning–basierte Systeme, und versuche die erste und die letzte dieser Gruppen in einem Verfahren zu vereinigen, indem ich eine neue neuronale Netzwerkarchitektur vorschlage: bidirektionales rekurrentes Netzwerk mit lexikon-basierter Attention (LBA). Im letzten Kapitel unternehme ich einen Versuch, die Prädiktion der Gesamtpolarität von Tweets über die Diskursstruktur der Nachrichten zu informieren. Zu diesem Zweck wende ich den vorgeschlagenen LBA-Klassifikator separat auf jede einzelne elementare Diskurs-Einheit (EDU) eines Microblogs an und induziere die allgemeine semantische Ausrichtung dieser Nachricht mithilfe von zwei neuen Methoden: latenten marginalisierten CRFs und rekursivem Dirichlet-Prozess. KW - sentiment analysis KW - opinion mining KW - social media KW - Twitter KW - natural language processing KW - discourse analysis KW - NLP KW - computational linguistics KW - machine learning KW - Sentimentanalyse KW - Computerlinguistik KW - Meinungsforschung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437422 ER - TY - THES A1 - Schürings, Marco Philipp Hermann T1 - Synthesis of 1D microgel strands and their motion analysis in solution T1 - Synthese von 1D-Mikrogelsträngen und ihre Bewegungsanalyse in der Lösung N2 - The fabrication of 1D nanostrands composed of stimuli responsive microgels has been shown in this work. Microgels are well known materials able to respond to various stimuli from outer environment. Since these microgels respond via a volume change to an external stimulus, a targeted mechanical response can be achieved. Through carefully choosing the right composition of the polymer matrix, microgels can be designed to react precisely to the targeted stimuli (e.g. drug delivery via pH and temperature changes, or selective contractions through changes in electrical current125). In this work, it was aimed to create flexible nano-filaments which are capable of fast anisotropic contractions similar to muscle filaments. For the fabrication of such filaments or strands, nanostructured templates (PDMS wrinkles) were chosen due to a facile and low-cost fabrication and versatile tunability of their dimensions. Additionally, wrinkling is a well-known lithography-free method which enables the fabrication of nanostructures in a reproducible manner and with a high long-range periodicity. In Chapter 2.1, it was shown for the first time that microgels as soft matter particles can be aligned to densely packed microgel arrays of various lateral dimensions. The alignment of microgels with different compositions (e.g. VCL/AAEM, NIPAAm, NIPAAm/VCL and charged microgels) was shown by using different assembly techniques (e.g. spin-coating, template confined molding). It was chosen to set one experimental parameter constant which was the SiOx surface composition of the templates and substrates (e.g. oxidized PDMS wrinkles, Si-wafers and glass slides). It was shown that the fabrication of nanoarrays was feasible with all tested microgel types. Although the microgels exhibited different deformability when aligned on a flat surface, they retained their thermo-responsivity and swelling behavior. Towards the fabrication of 1D microgel strands interparticle connectivity was aspired. This was achieved via different cross-linking methods (i.e. cross-linking via UV-irradiation and host-guest complexation) discussed in Chapter 2.2. The microgel arrays created by different assembly methods and microgel types were tested for their cross-linking suitability. It was observed that NIPAAm based microgels cannot be cross-linked with UV light. Furthermore, it was found that these microgels exhibit a strong surface-particle-interaction and therefore could not be detached from the given substrates. In contrast to the latter, with VCL/AAEM based microgels it was possible to both UV cross-link them based on the keto-enol tautomerism of the AAEM copolymer, and to detach them from the substrate due to the lower adhesion energy towards SiOx surfaces. With VCL/AAEM microgels long, one-dimensional microgel strands could be re-dispersed in water for further analysis. It has also been shown that at least one lateral dimension of the free dispersed 1D microgel strands is easily controllable by adjusting the wavelength of the wrinkled template. For further work, only VCL/AAEM based microgels were used to focus on the main aim of this work, i.e. the fabrication of 1D microgel nanostrands. As an alternative to the unspecific and harsh UV cross-linking, the host-guest complexation via diazobenzene cross-linkers and cyclodextrin hosts was explored. The idea behind this approach was to give means to a future construction kit-like approach by incorporation of cyclodextrin comonomers in a broad variety of particle systems (e.g. microgels, nanoparticles). For this purpose, VCL/AAEM microgels were copolymerized with different amounts of mono-acrylate functionalized β-cyclodextrin (CD). After successfully testing the cross-linking capability in solution, the cross-linking of aligned VCL/AAEM/CD microgels was tried. Although the cross-linking worked well, once the single arrays came into contact to each other, they agglomerated. As a reason for this behavior residual amounts of mono-complexed diazobenzene linkers were suspected. Thus, end-capping strategies were tried out (e.g. excess amounts of β-cyclodextrin and coverage with azobenzene functionalized AuNPs) but were unsuccessful. With deeper thought, entropy effects were taken into consideration which favor the release of complexed diazobenzene linker leading to agglomerations. To circumvent this entropy driven effect, a multifunctional polymer with 50% azobenzene groups (Harada polymer) was used. First experiments with this polymer showed promising results regarding a less pronounced agglomeration (Figure 77). Thus, this approach could be pursued in the future. In this chapter it was found out that in contrast to pearl necklace and ribbon like formations, particle alignment in zigzag formation provided the best compromise in terms of stability in dispersion (see Figure 44a and Figure 51) while maintaining sufficient flexibility. For this reason, microgel strands in zigzag formation were used for the motion analysis described in Chapter 2.3. The aim was to observe the properties of unrestrained microgel strands in solution (e.g. diffusion behavior, rotational properties and ideally, anisotropic contraction after temperature increase). Initially, 1D microgel strands were manipulated via AFM in a liquid cell setup. It could be observed that the strands required a higher load force compared to single microgels to be detached from the surface. However, with the AFM it was not possible to detach the strands in a controllable manner but resulted in a complete removal of single microgel particles and a tearing off the strands from the surface, respectively. For this reason, to observe the motion behavior of unrestrained microgel strands in solution, confocal microscopy was used. Furthermore, to hinder an adsorption of the strands, it was found out that coating the surface of the substrates with a repulsive polymer film was beneficial. Confocal and wide-field microscopy videos showed that the microgel strands exhibit translational and rotational diffusive motion in solution without perceptible bending. Unfortunately, with these methods the detection of the anisotropic stimuli responsive contraction of the free moving microgel strands was not possible. To summarize, the flexibility of microgel strands is more comparable to the mechanical behavior of a semi flexible cable than to a yarn. The strands studied here consist of dozens or even hundreds of discrete submicron units strung together by cross-linking, having few parallels in nanotechnology. With the insights gained in this work on microgel-surface interactions, in the future, a targeted functionalization of the template and substrate surfaces can be conducted to actively prevent unwanted microgel adsorption for a given microgel system (e.g. PVCL and polystyrene coating235). This measure would make the discussed alignment methods more diverse. As shown herein, the assembly methods enable a versatile microgel alignment (e.g. microgel meshes, double and triple strands). To go further, one could use more complex templates (e.g. ceramic rhombs and star shaped wrinkles (Figure 14) to expand the possibilities of microgel alignment and to precisely control their aspect ratios (e.g. microgel rods with homogeneous size distributions). N2 - In dieser Arbeit wurde die Herstellung von Nanostrukturen aus stimuli-responsiven Mikrogelen gezeigt. Mikrogele sind bekannt dafür auf verschiedene Reize aus der Umgebung reagieren zu können, so werden sie z.B. in der Industrie seit langem als Superabsorber eingesetzt. Da diese Mikrogele über eine Volumenäderung auf den externen Reiz reagieren, kann so eine gezielte mechanische Antwort erreicht werden. Durch eine sorgfältige Auswahl der Polymermatrix ist es möglich die Mikrogele so zu gestalten, dass sie präzise auf die gesetzten Stimuli reagieren (z.B. Wirkstoffabgabe über pH- und Temperaturänderungen oder selektive Kontraktionen durch Zufuhr von elektrischem Strom). In dieser Arbeit wurde das Ziel verfolgt, flexible Nanofilamente zu schaffen, die ähnlich wie Muskelfilamente zu schnellen anisotropen Kontraktionen fähig sind. Für die Herstellung solcher Stränge wurden nanostrukturierte Template (PDMS-Wrinkles) verwendet, da diese einfach und kostengünstig herzustellen und in ihren Abmessungen vielseitig skalierbar sind. Darüber hinaus ist die Strukturbildung via Wrinkles ein bekanntes lithographiefreies Verfahren, das die Herstellung von Nanostrukturen in reproduzierbarer Weise und mit hoher Fernordnung auf Nanoskala ermöglicht. In Kapitel 2.1 wurde erstmals gezeigt, dass Mikrogele als weiche bzw. schwammartige Materialien zu dicht gepackten Mikrogelarrays mit einstellbaren lateralen Dimensionen ausgerichtet werden können. Obwohl die Mikrogele bei der Anordnung auf ebene Oberflächen unterschiedliche Verformbarkeiten zeigten, behielten sie ihre Thermoresponsivität und ihr Quellverhalten bei. Zur Herstellung von Mikrogelsträngen wurde eine interpartikuläre Konnektivität angestrebt. In Kapitel 2.2 wurde dies durch verschiedene Vernetzungsmethoden (d.h. Vernetzung durch UV-Bestrahlung und Wirt-Gast-Komplexierung) erreicht. Mit VCL/AAEM-Mikrogelen ist es möglich stabile, eindimensionale Mikrogelstränge herzustellen und zur weiteren Analyse in Wasser zu redispergieren. In diesem Kapitel wurde gezeigt, dass eindimensionale Partikelanordnungen in der Zickzackformation im Gegensatz zu Anordnungen in einer Perlenkettenstruktur oder zweidimensionaler Bandstruktur den besten Kompromiss in Bezug auf die Stabilität der Mikrogelstränge in Lösung bei gleichzeitigem Erhalt einer ausreichenden Flexibilität darstellt. In Kapitel 2.3 wurden für die Bewegungsanalysen Mikrogelstränge in Zickzackformation verwendet. Zusammenfassend lässt sich sagen, dass die Flexibilität der Mikrogelstränge eher mit der mechanischen Biegefähigkeit eines halbflexiblen Kabels als mit dem eines Fadens vergleichbar ist. Die hier untersuchten Stränge bestehen aus Dutzenden oder sogar Hunderten von diskreten Einzelpartikeln, die durch Vernetzung miteinander verbunden sind und für die es in der Nanotechnologie nur wenige Parallelen gibt. Wie hier dargestellt, ermöglichen die diversen Anordnungsmethoden eine vielseitige Mikrogelarchitektur (z.B. Mikrogelnetze, Doppel- und Dreifachstränge). In Zukunft könnte man komplexere Template (z.B. keramische Rhomben und sternförmige Wrinkles) verwenden, um die Möglichkeiten der nanoskaligen Mikrogelanordnungen zu erweitern und deren Seitenverhältnisse präzise zu steuern (z.B. zur Herstellung von homogenen Mikrogelstäbchen). KW - anisotropic microgels KW - microgel strands KW - microgel chains KW - template assisted alignment of soft particles KW - microgel array KW - Mikrogele KW - Mikrogelstränge KW - Mikrogelketten KW - tamplat unterstütze Anordnung von weichen Partikeln KW - Mikrogel-Array Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439532 ER - TY - THES A1 - Schäfer, Merlin T1 - Understanding and predicting global change impacts on migratory birds T1 - Verständnis und Vorhersage von Auswirkungen des globalen Wandels auf Zugvögel N2 - This is a publication-based dissertation comprising three original research stud-ies (one published, one submitted and one ready for submission; status March 2019). The dissertation introduces a generic computer model as a tool to investigate the behaviour and population dynamics of animals in cyclic environments. The model is further employed for analysing how migratory birds respond to various scenarios of altered food supply under global change. Here, ecological and evolutionary time-scales are considered, as well as the biological constraints and trade-offs the individual faces, which ultimately shape response dynamics at the population level. Further, the effect of fine-scale temporal patterns in re-source supply are studied, which is challenging to achieve experimentally. My findings predict population declines, altered behavioural timing and negative carry-over effects arising in migratory birds under global change. They thus stress the need for intensified research on how ecological mechanisms are affected by global change and for effective conservation measures for migratory birds. The open-source modelling software created for this dissertation can now be used for other taxa and related research questions. Overall, this thesis improves our mechanistic understanding of the impacts of global change on migratory birds as one prerequisite to comprehend ongoing global biodiversity loss. The research results are discussed in a broader ecological and scientific context in a concluding synthesis chapter. N2 - Dies ist eine publikationsbasierte Dissertation, welche aus drei wissenschaftlichen Originalstudien (eine publiziert, eine eingereicht und eine einreichbar; Stand März 2019) besteht. Die Dissertation stellt ein generisches Computermodell bereit, um das Verhalten und die Populationsdynamik von Tieren zu untersuchen, welche saisonale Umweltbedingungen erfahren. Mit diesem Computermodell untersuche ich in der vorliegenden Thesis, wie Zugvögel auf verschiedene Szenarien veränderter Nahrungsverfügbarkeit reagieren, welche im Rahmen des globalen Wandels wahrscheinlich sind. Dabei werden ökologische und evolutionäre Zeitskalen berücksichtigt. Außerdem werden biologisch bedingte Einschränkungen und Zielkonflikte einbezogen, welche das einzelne Individuum erfährt, die aber letztendlich auch das Geschehen auf Populationsebene bestimmen. Weiterhin studiere ich mit dem erstellten Computermodell am Beispiel des Weißstorchs, wie sich feinskalige Zeitmuster in der Nahrungsverfügbarkeit auf Zugvögel auswirken. Solche Studien würden eine enorme experimentelle Herausforderung darstellen. Die im Rahmen dieser Dissertation entstandene frei verfügbare Modellierungs-Software kann nun für andere Taxa und verwandte Forschungsfragen eingesetzt werden. Nach meinen Ergebnissen ist im Zuge des globalen Wandels mit verstärkten Populationsabnahmen bei Zugvögeln zu rechnen, sowie mit Änderungen im zeitlichen Verhaltensablauf und nichtlinearen negativen Carry-over-Effekten. Dies verdeutlicht, wie wichtig es ist, die vom globalen Wandel betroffenen ökologischen Mechanismen näher zu erforschen sowie effektive Schutzmaßnahmen für Zugvögel zu entwickeln. Allgemein erhöht die Dissertation unser mechanistisches Verständnis davon, wie sich der globale Wandel auf bedrohte Zugvogelarten auswirkt und damit die globale Biodiversität beeinflusst. Die Forschungsergebnisse werden in einem abschließenden Synthese-Kapitel zusammenführend diskutiert. KW - global change KW - migratory birds KW - life-history theory KW - movement ecology KW - bird migration KW - optimal annual routine model KW - stochastic dynamic programming KW - full annual cycle KW - population dynamics KW - carry-over effects KW - white stork KW - behavioural ecology KW - adaptation KW - mechanistic model KW - energetics KW - behavioural timing KW - reproduction KW - globaler Wandel KW - Zugvögel KW - Lebenszyklustheorie KW - Bewegungsökologie KW - Vogelzug KW - "Optimal annual routine"-Modell KW - stochastisch-dynamische Optimierung KW - vollständiger Jahreszyklus KW - Populationsdynamik KW - Carry-over-Effekte KW - Weißstorch KW - Verhaltensökologie KW - Anpassung KW - mechanistisches Modell KW - Energetik KW - Verhaltens-Timing KW - Reproduktion Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439256 ER - TY - THES A1 - Schulte-Osseili, Christine T1 - Vom Monomer zum Glykopolymer T1 - From monomer to glycopolymer BT - Anwendung als Biofunktionalitäten auf Oberflächen und als Transportmoleküle BT - application as biofunctionalized surfaces and transport molecules N2 - Glykopolymere sind synthetische und natürlich vorkommende Polymere, die eine Glykaneinheit in der Seitenkette des Polymers tragen. Glykane sind durch die Glykan-Protein-Wechselwirkung verantwortlich für viele biologische Prozesse. Die Beteiligung der Glykanen in diesen biologischen Prozessen ermöglicht das Imitieren und Analysieren der Wechselwirkungen durch geeignete Modellverbindungen, z.B. der Glykopolymere. Dieses System der Glykan-Protein-Wechselwirkung soll durch die Glykopolymere untersucht und studiert werden, um die spezifische und selektive Bindung der Proteine an die Glykopolymere nachzuweisen. Die Proteine, die in der Lage sind, Kohlenhydratstrukturen selektiv zu binden, werden Lektine genannt. In dieser Dissertationsarbeit wurden verschiedene Glykopolymere synthetisiert. Dabei sollte auf einen effizienten und kostengünstigen Syntheseweg geachtet werden. Verschiedene Glykopolymere wurden durch funktionalisierte Monomere mit verschiedenen Zuckern, wie z.B. Mannose, Laktose, Galaktose oder N-Acetyl-Glukosamin als funktionelle Gruppe, hergestellt. Aus diesen funktionalisierten Glykomonomeren wurden über ATRP und RAFT-Polymerisation Glykopolymere synthetisiert. Die erhaltenen Glykopolymere wurden in Diblockcopolymeren als hydrophiler Block angewendet und die Selbstassemblierung in wässriger Lösung untersucht. Die Polymere formten in wässriger Lösung Mizellen, bei denen der Zuckerblock an der Oberfläche der Mizellen sitzt. Die Mizellen wurden mit einem hydrophoben Fluoreszenzfarbstoff beladen, wodurch die CMC der Mizellenbildung bestimmt werden konnte. Außerdem wurden die Glykopolymere als Oberflächenbeschichtung über „Grafting from“ mit SI-ATRP oder über „Grafting to“ auf verschiedene Oberflächen gebunden. Durch die glykopolymerbschichteten Oberflächen konnte die Glykan Protein Wechselwirkung über spektroskopische Messmethoden, wie SPR- und Mikroring Resonatoren untersucht werden. Hierbei wurde die spezifische und selektive Bindung der Lektine an die Glykopolymere nachgewiesen und die Bindungsstärke untersucht. Die synthetisierten Glykopolymere könnten durch Austausch der Glykaneinheit für andere Lektine adressierbar werden und damit ein weites Feld an anderen Proteinen erschließen. Die bioverträglichen Glykopolymere wären alternativen für den Einsatz in biologischen Prozessen als Transporter von Medikamenten oder Farbstoffe in den Körper. Außerdem könnten die funktionalisierten Oberflächen in der Diagnostik zum Erkennen von Lektinen eingesetzt werden. Die Glykane, die keine selektive und spezifische Bindung zu Proteinen eingehen, könnten als antiadsorptive Oberflächenbeschichtung z.B. in der Zellbiologie eingesetzt werden. N2 - Glycopolymers are synthetic and naturally occurring polymers that carry a gylcan unit in the side chain of the polymer. Glycans are responsible for many biological processes due to the glycn-protein interaction. The involvement of glcans in these biological processes enables the imitation and analysis of interactions by suitable model coumponds, e.g. glycopolymers. This system of glycan-protein interaction will be investigated and studied by glycopolymers in order to demonstrate the specific and selective binding of proteins to glycopolymers. The proteins that are able to selectively bind carbohydrate structures are called lectins. In this dissertation different glycopolymers were synthesized. Care should be taken to ensure an effficient and cost-effective synthesis route. Different glycopolymers were produced by functionalized monomers with different sugars, such as mannose, lactose, galactose or N-acetyl-glucosamine as functional group. From these functionalized glycomonomers, glycopolymers were synthesized via ATRP and RAFT polymerization. The glycopolymers obtained were used as hydrophilic blocks in diblock copolymers and self-assembly in aqueous solution was investigated. In aqueoussolution, the polymers formed micelles in which the sugar block sits on the surface of the micelles. The micelles were loaded with a hydrophobic fluorescent dxe, which made it possible to determine the CMC of micelle formation. In additiom, the glycopolymers were bound to various surfaces as surface coatings via “grafting from” with SI-ATRP or via “grafting to”. Through the glycopolymer-coated surfaces, the glycan-protein interaction could be investigated by spectroscpic measurement methods such as SPR and microring resonators. The specific and selective binding of lectins to the glycopolymers was detected and the binding strength was investigated. The synthesised glycopolymers could become adressable for other lectins by exchanging the glycan unit and thus open up a broad field of other proteins. The biocompatible glycopolymers would be an alternative for use in iological processes as transporters of drugs or dyes into the body. In addtion, the functionalised surfaces could be used in diagnostics for regognition of lectins. The glycan, which do nit bind selectively and specifically to proetins, could be used as anit-adsoptive surface coatings, e.g. in cell biology. KW - Glykopolymere KW - Polymerisation KW - Oberflächenbeschichtung KW - Lektine KW - Glykan-Protein-Wechselwirkung KW - glycopolymers KW - polymerization KW - surface modification KW - lectins KW - glycan-protein interaction Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432169 ER - TY - THES A1 - Schneider, Jan Niklas T1 - Computational approaches for emotion research T1 - Computergestützte Methoden für die Emotionsforschung N2 - Emotionen sind ein zentrales Element menschlichen Erlebens und spielen eine wichtige Rolle bei der Entscheidungsfindung. Diese Dissertation identifiziert drei methodische Probleme der aktuellen Emotionsforschung und zeigt auf, wie diese mittels computergestützter Methoden gelöst werden können. Dieser Ansatz wird in drei Forschungsprojekten demonstriert, die die Entwicklung solcher Methoden sowie deren Anwendung auf konkrete Forschungsfragen beschreiben. Das erste Projekt beschreibt ein Paradigma welches es ermöglicht, die subjektive und objektive Schwierigkeit der Emotionswahrnehmung zu messen. Darüber hinaus ermöglicht es die Verwendung einer beliebigen Anzahl von Emotionskategorien im Vergleich zu den üblichen sechs Kategorien der Basisemotionen. Die Ergebnisse deuten auf eine Zunahme der Schwierigkeiten bei der Wahrnehmung von Emotionen mit zunehmendem Alter der Darsteller hin und liefern Hinweise darauf, dass junge Erwachsene, ältere Menschen und Männer ihre Schwierigkeit bei der Wahrnehmung von Emotionen unterschätzen. Weitere Analysen zeigten eine geringe Relevanz personenbezogener Variablen und deuteten darauf hin, dass die Schwierigkeit der Emotionswahrnehmung vornehmlich durch die Ausprägung der Wertigkeit des Ausdrucks bestimmt wird. Das zweite Projekt zeigt am Beispiel von Arousal, einem etablierten, aber vagen Konstrukt der Emotionsforschung, wie Face-Tracking-Daten dazu genutzt werden können solche Konstrukte zu schärfen. Es beschreibt, wie aus Face-Tracking-Daten Maße für die Entfernung, Geschwindigkeit und Beschleunigung von Gesichtsausdrücken berechnet werden können. Das Projekt untersuchte wie diesen Maße mit der Arousal-Wahrnehmung in Menschen mit und ohne Autismus zusammenhängen. Der Abstand zum Neutralgesicht war prädiktiv für die Arousal-Bewertungen in beiden Gruppen. Die Ergebnisse deuten auf eine qualitativ ähnliche Wahrnehmung von Arousal für Menschen mit und ohne Autismus hin. Im dritten Projekt stellen wir die Partial-Least-Squares-Analyse als allgemeine Methode vor, um eine optimale Repräsentation zur Verknüpfung zweier hochdimensionale Datensätze zu finden. Das Projekt demonstriert die Anwendbarkeit dieser Methode in der Emotionsforschung anhand der Frage nach Unterschieden in der Emotionswahrnehmung zwischen Männern und Frauen. Wir konnten zeigen, dass die emotionale Wahrnehmung von Frauen systematisch mehr Varianz der Gesichtsausdrücke erfasst und dass signifikante Unterschiede in der Art und Weise bestehen, wie Frauen und Männer einige Gesichtsausdrücke wahrnehmen. Diese konnten wir als dynamische Gesichtsausdrücke visualisieren. Um die Anwendung der entwickelten Methode für die Forschungsgemeinschaft zu erleichtern, wurde ein Software-Paket für die Statistikumgebung R geschrieben. Zudem wurde eine Website entwickelt (thisemotiondoesnotexist.com), die es Besuchern erlaubt, ein Partial-Least-Squares-Modell von Emotionsbewertungen und Face-Tracking-Daten interaktiv zu erkunden, um die entwickelte Methode zu verbreiten und ihren Nutzen für die Emotionsforschung zu illustrieren. N2 - Emotions are a central element of human experience. They occur with high frequency in everyday life and play an important role in decision making. However, currently there is no consensus among researchers on what constitutes an emotion and on how emotions should be investigated. This dissertation identifies three problems of current emotion research: the problem of ground truth, the problem of incomplete constructs and the problem of optimal representation. I argue for a focus on the detailed measurement of emotion manifestations with computer-aided methods to solve these problems. This approach is demonstrated in three research projects, which describe the development of methods specific to these problems as well as their application to concrete research questions. The problem of ground truth describes the practice to presuppose a certain structure of emotions as the a priori ground truth. This determines the range of emotion descriptions and sets a standard for the correct assignment of these descriptions. The first project illustrates how this problem can be circumvented with a multidimensional emotion perception paradigm which stands in contrast to the emotion recognition paradigm typically employed in emotion research. This paradigm allows to calculate an objective difficulty measure and to collect subjective difficulty ratings for the perception of emotional stimuli. Moreover, it enables the use of an arbitrary number of emotion stimuli categories as compared to the commonly used six basic emotion categories. Accordingly, we collected data from 441 participants using dynamic facial expression stimuli from 40 emotion categories. Our findings suggest an increase in emotion perception difficulty with increasing actor age and provide evidence to suggest that young adults, the elderly and men underestimate their emotion perception difficulty. While these effects were predicted from the literature, we also found unexpected and novel results. In particular, the increased difficulty on the objective difficulty measure for female actors and observers stood in contrast to reported findings. Exploratory analyses revealed low relevance of person-specific variables for the prediction of emotion perception difficulty, but highlighted the importance of a general pleasure dimension for the ease of emotion perception. The second project targets the problem of incomplete constructs which relates to vaguely defined psychological constructs on emotion with insufficient ties to tangible manifestations. The project exemplifies how a modern data collection method such as face tracking data can be used to sharpen these constructs on the example of arousal, a long-standing but fuzzy construct in emotion research. It describes how measures of distance, speed and magnitude of acceleration can be computed from face tracking data and investigates their intercorrelations. We find moderate to strong correlations among all measures of static information on one hand and all measures of dynamic information on the other. The project then investigates how self-rated arousal is tied to these measures in 401 neurotypical individuals and 19 individuals with autism. Distance to the neutral face was predictive of arousal ratings in both groups. Lower mean arousal ratings were found for the autistic group, but no difference in correlation of the measures and arousal ratings could be found between groups. Results were replicated in a high autistic traits group consisting of 41 participants. The findings suggest a qualitatively similar perception of arousal for individuals with and without autism. No correlations between valence ratings and any of the measures could be found which emphasizes the specificity of our tested measures for the construct of arousal. The problem of optimal representation refers to the search for the best representation of emotions and the assumption that there is a one-fits-all solution. In the third project we introduce partial least squares analysis as a general method to find an optimal representation to relate two high-dimensional data sets to each other. The project demonstrates its applicability to emotion research on the question of emotion perception differences between men and women. The method was used with emotion rating data from 441 participants and face tracking data computed on 306 videos. We found quantitative as well as qualitative differences in the perception of emotional facial expressions between these groups. We showed that women’s emotional perception systematically captured more of the variance in facial expressions. Additionally, we could show that significant differences exist in the way that women and men perceive some facial expressions which could be visualized as concrete facial expression sequences. These expressions suggest differing perceptions of masked and ambiguous facial expressions between the sexes. In order to facilitate use of the developed method by the research community, a package for the statistical environment R was written. Furthermore, to call attention to the method and its usefulness for emotion research, a website was designed that allows users to explore a model of emotion ratings and facial expression data in an interactive fashion. KW - facial expression KW - emotion KW - perception KW - face tracking KW - perception differences KW - emotion representation KW - Gesichtsausdruck KW - Emotionen KW - Wahrnehmung KW - Wahrnehmungsunterschiede KW - computational methods KW - emotion research KW - computergestützte Methoden KW - Emotionsforschung KW - arousal perception KW - objective difficulty KW - Wahrnehmung von Arousal KW - Objektive Schwierigkeit Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459275 ER - TY - THES A1 - Schmidt, Martin T1 - Fragmentation of landscapes: modelling ecosystem services of transition zones T1 - Fragmentierung von Landschaften: Modellierung von Ökosystemleistungen in Übergangszonen N2 - For millennia, humans have affected landscapes all over the world. Due to horizontal expansion, agriculture plays a major role in the process of fragmentation. This process is caused by a substitution of natural habitats by agricultural land leading to agricultural landscapes. These landscapes are characterized by an alternation of agriculture and other land use like forests. In addition, there are landscape elements of natural origin like small water bodies. Areas of different land use are beside each other like patches, or fragments. They are physically distinguishable which makes them look like a patchwork from an aerial perspective. These fragments are each an own ecosystem with conditions and properties that differ from their adjacent fragments. As open systems, they are in exchange of information, matter and energy across their boundaries. These boundary areas are called transition zones. Here, the habitat properties and environmental conditions are altered compared to the interior of the fragments. This changes the abundance and the composition of species in the transition zones, which in turn has a feedback effect on the environmental conditions. The literature mainly offers information and insights on species abundance and composition in forested transition zones. Abiotic effects, the gradual changes in energy and matter, received less attention. In addition, little is known about non-forested transition zones. For example, the effects on agricultural yield in transition zones of an altered microclimate, matter dynamics or different light regimes are hardly researched or understood. The processes in transition zones are closely connected with altered provisioning and regulating ecosystem services. To disentangle the mechanisms and to upscale the effects, models can be used. My thesis provides insights into these topics: literature was reviewed and a conceptual framework for the quantitative description of gradients of matter and energy in transition zones was introduced. The results of measurements of environmental gradients like microclimate, aboveground biomass and soil carbon and nitrogen content are presented that span from within the forest into arable land. Both the measurements and the literature review could not validate a transition zone of 100 m for abiotic effects. Although this value is often reported and used in the literature, it is likely to be smaller. Further, the measurements suggest that on the one hand trees in transition zones are smaller compared to those in the interior of the fragments, while on the other hand less biomass was measured in the arable lands’ transition zone. These results support the hypothesis that less carbon is stored in the aboveground biomass in transition zones. The soil at the edge (zero line) between adjacent forest and arable land contains more nitrogen and carbon content compared to the interior of the fragments. One-year measurements in the transition zone also provided evidence that microclimate is different compared to the fragments’ interior. To predict the possible yield decreases that transition zones might cause, a modelling approach was developed. Using a small virtual landscape, I modelled the effect of a forest fragment shading the adjacent arable land and the effects of this on yield using the MONICA crop growth model. In the transition zone yield was less compared to the interior due to shading. The results of the simulations were upscaled to the landscape level and exemplarily calculated for the arable land of a whole region in Brandenburg, Germany. The major findings of my thesis are: (1) Transition zones are likely to be much smaller than assumed in the scientific literature; (2) transition zones aren’t solely a phenomenon of forested ecosystems, but significantly extend into arable land as well; (3) empirical and modelling results show that transition zones encompass biotic and abiotic changes that are likely to be important to a variety of agricultural landscape ecosystem services. N2 - Seit Jahrtausenden werden Landschaften weltweit maßgeblich durch den Menschen gestaltet. Insbesondere die Landwirtschaft hat durch Fragmentierung, der teilweisen Umwandlung natürlicher Lebensräume in landwirtschaftlich genutzte Flächen, großen Einfluss, so dass Agrarlandschaften entstanden. Diese zeichnen sich durch einen Wechsel von agrarischer und anderer Nutzung, wie beispielsweise Forst, aus. Hinzu kommen Flächen, die auf eine natürliche Entstehung zurückzuführen sind, wie etwa Kleingewässer. Kleinere und größere Flächen der unterschiedlichen Nutzung liegen als Flicken bzw. Fragmente nebeneinander. Durch die physische Differenzierbarkeit der Flächennutzung aus der Vogelperspektive werden Agrarlandschaften oft auch als Flickwerk (“Patchwork”) bezeichnet. Diese Fragmente sind Ökosysteme, die sich in ihren Eigenschaften voneinander unterscheiden. Die Fragmente als Ökosysteme sind offene und komplexe Systeme und stehen im Austausch mit angrenzenden Fragmenten. Die Bereiche, in denen der Austausch von Stoffen, Energie und Informationen stattfindet, sind deren Übergangszonen. Durch den Austausch verändern sich die vorherrschenden Eigenschaften der jeweils angrenzenden Fragmente in den Übergangszonen. Stoffflüsse beeinflussen dabei die in den Übergangszonen lebenden Organismen und können die Artenzusammensetzung und Population verändern. Gleichwohl hat dies Rückkopplungseffekte auf die Flüsse von Stoffen, Informationen und Energie selbst. In der Forschung ist bereits viel über die Auswirkungen auf Organismen in den Übergangszonen bekannt, insbesondere für bewaldete Gebiete. Weniger beforscht sind abiotische Effekte, insbesondere die graduellen Veränderungen von Stoffen und Energie in der Übergangszone. Diese sind jedoch eng verwoben in die Prozesse, die zu regulierenden und bereitstellenden Ökosystemleistungen wie beispielsweise landwirtschaftlichen Erträgen oder Kohlenstoffspeicherung beitragen. Darüber hinaus gibt es wenig Forschung zu den Übergangszonen von nicht-bewaldeten Übergangszonen, wie etwa Äckern. In der vorliegenden Arbeit präsentiere ich die Ergebnisse einer Literaturrecherche und einen Ansatz zur quantitativen Beschreibung von Stoff- und Energieflüssen in Übergangszonen. Darüber hinaus analysiere ich Messungen eben jener abiotischen Effekte in Übergangszonen. Sowohl die Messungen als auch die Auswertung der Literatur ergab, dass viele Autoren die Übergangszone in Bezug auf Umweltgradienten und deren Einfluss auf Ökosystemleistungen mit 100 m überschätzen. Sie ist oft kleiner. Die Messungen ergaben außerdem, dass Bäume in der Übergangszone kleiner sind und dadurch vermutlich weniger Kohlenstoff speichern als vergleichbare Bäume im Inneren dieser Fragmente. An Wald angrenzende Ackerkulturen zeigen ebenfalls einen geringeren Aufwuchs an Biomasse. Im Boden genau an der Grenze zwischen Wald- und Ackerfragmenten waren sowohl Stickstoff als auch Kohlenstoff erhöht. Einjährige Messungen in Brandenburg ergaben, dass das Mikroklima in der Übergangszone im Vergleich zum Inneren der Fragmente ebenfalls verändert war. Um genauer zu verstehen, was die Ertragsminderung in der ackerbaulichen Übergangszone induziert, wurde ein Modellierungsansatz entwickelt. Die Beschattung durch einen virtuellen Wald wurde im agrarischen Simulationsmodell MONICA als Variable benutzt, um eine potentielle Ertragsminderung zu simulieren. Ein Minderertrag in der Übergangszone konnte auf diese Weise nachgewiesen und mit einer verminderten Solarstrahlung in Verbindung gebracht werden. Die simulierten Ergebnisse wurden anschließend für die Beispielregion Brandenburg für die gesamte landwirtschaftlich genutzte Fläche skaliert. Insbesondere in drei Punkten trägt diese Arbeit zum wissenschaftlichen Fortschritt bei: 1) Übergangszonen sind sehr wahrscheinlich kleiner als bislang in der wissenschaftlichen Literatur angenommen; 2) Übergangszonen sollten ganzheitlich, über die Grenze zwischen Wald und Feld hinweg betrachtet werden; 3) Messungen und Modellierung zeigen einen Zusammenhang zwischen Mikroklima, Stoffdynamik und Ökosystemleistungen in Übergangszonen von Agrarlandschaften. KW - edge effects KW - agricultural modelling KW - ecosystem services KW - transition zone KW - fragmentation KW - Randeffekte KW - Pflanzenwachstumsmodellierung KW - Ökosystemleistungen KW - Übergangszone KW - Fragmentierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442942 ER - TY - THES A1 - Schlenter, Judith T1 - Predictive language processing in late bilinguals T1 - Vorausschauende Sprachverarbeitung bei späten Bilingualen BT - Evidence from visual-world eye-tracking BT - Visual-World Eye-Tracking Evidenz N2 - The current thesis examined how second language (L2) speakers of German predict upcoming input during language processing. Early research has shown that the predictive abilities of L2 speakers relative to L1 speakers are limited, resulting in the proposal of the Reduced Ability to Generate Expectations (RAGE) hypothesis. Considering that prediction is assumed to facilitate language processing in L1 speakers and probably plays a role in language learning, the assumption that L1/L2 differences can be explained in terms of different processing mechanisms is a particularly interesting approach. However, results from more recent studies on the predictive processing abilities of L2 speakers have indicated that the claim of the RAGE hypothesis is too broad and that prediction in L2 speakers could be selectively limited. In the current thesis, the RAGE hypothesis was systematically put to the test. In this thesis, German L1 and highly proficient late L2 learners of German with Russian as L1 were tested on their predictive use of one or more information sources that exist as cues to sentence interpretation in both languages, to test for selective limits. The results showed that, in line with previous findings, L2 speakers can use the lexical-semantics of verbs to predict the upcoming noun. Here the level of prediction was more systematically controlled for than in previous studies by using verbs that restrict the selection of upcoming nouns to the semantic category animate or inanimate. Hence, prediction in L2 processing is possible. At the same time, this experiment showed that the L2 group was slower/less certain than the L1 group. Unlike previous studies, the experiment on case marking demonstrated that L2 speakers can use this morphosyntactic cue for prediction. Here, the use of case marking was tested by manipulating the word order (Dat > Acc vs. Acc > Dat) in double object constructions after a ditransitive verb. Both the L1 and the L2 group showed a difference between the two word order conditions that emerged within the critical time window for an anticipatory effect, indicating their sensitivity towards case. However, the results for the post-critical time window pointed to a higher uncertainty in the L2 group, who needed more time to integrate incoming information and were more affected by the word order variation than the L1 group, indicating that they relied more on surface-level information. A different cue weighting was also found in the experiment testing whether participants predict upcoming reference based on implicit causality information. Here, an additional child L1 group was tested, who had a lower memory capacity than the adult L2 group, as confirmed by a digit span task conducted with both learner groups. Whereas the children were only slightly delayed compared to the adult L1 group and showed the same effect of condition, the L2 speakers showed an over-reliance on surface-level information (first-mention/subjecthood). Hence, the pattern observed resulted more likely from L1/L2 differences than from resource deficits. The reviewed studies and the experiments conducted show that L2 prediction is affected by a range of factors. While some of the factors can be attributed to more individual differences (e.g., language similarity, slower processing) and can be interpreted by L2 processing accounts assuming that L1 and L2 processing are basically the same, certain limits are better explained by accounts that assume more substantial L1/L2 differences. Crucially, the experimental results demonstrate that the RAGE hypothesis should be refined: Although prediction as a fast-operating mechanism is likely to be affected in L2 speakers, there is no indication that prediction is the dominant source of L1/L2 differences. The results rather demonstrate that L2 speakers show a different weighting of cues and rely more on semantic and surface-level information to predict as well as to integrate incoming information. N2 - Die vorliegende Dissertation untersucht, wie Nicht-Muttersprachler des Deutschen sprachliche Information vorausschauend verarbeiten. Frühere Forschungsarbeiten haben gezeigt, dass diese Fähigkeit bei Fremdsprachsprechern im Vergleich zu Muttersprachlern eingeschränkt ist. Dies resultierte in der Formulierung der RAGE Hypothese, die besagt, dass Nicht-Muttersprachler eine reduzierte Fähigkeit besitzen, Erwartungen zu generieren. Unter der Berücksichtigung, dass vorausschauende Verarbeitung die Sprachverarbeitung bei Muttersprachlern erleichtert und möglicherweise eine Rolle beim Sprachenlernen spielt, ist die Annahme, dass sich Mutter- und Fremdsprachunterschiede durch unterschiedliche Verarbeitungsmechanismen erklären lassen, besonders interessant. Jedoch zeigen die Ergebnisse neuerer Studien, dass die Annahmen der RAGE Hypothese zu generell sind und es selektive Unterschiede zwischen Mutter- und Fremdsprachsprechern geben könnte. In dieser Dissertation wurde die RAGE Hypothese systematisch überprüft. KW - prediction KW - L2 sentence processing KW - RAGE hypothesis KW - visual-world eye-tracking KW - vorausschauende Sprachverarbeitung KW - Fremdsprachverarbeitung KW - RAGE Hypothese KW - Visual-World Eye-Tracking Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432498 ER - TY - THES A1 - Sarhan, Radwan Mohamed T1 - Plasmon-driven photocatalytic reactions monitored by surface-enhanced Raman spectroscopy T1 - Plasmonen-getriebene photokatalytische Reaktionen, gemessen mittels oberflächenverstärkter Raman-Spektroskopie N2 - Plasmonic metal nanostructures can be tuned to efficiently interact with light, converting the photons into energetic charge carriers and heat. Therefore, the plasmonic nanoparticles such as gold and silver nanoparticles act as nano-reactors, where the molecules attached to their surfaces benefit from the enhanced electromagnetic field along with the generated energetic charge carriers and heat for possible chemical transformations. Hence, plasmonic chemistry presents metal nanoparticles as a unique playground for chemical reactions on the nanoscale remotely controlled by light. However, defining the elementary concepts behind these reactions represents the main challenge for understanding their mechanism in the context of the plasmonically assisted chemistry. Surface-enhanced Raman scattering (SERS) is a powerful technique employing the plasmon-enhanced electromagnetic field, which can be used for probing the vibrational modes of molecules adsorbed on plasmonic nanoparticles. In this cumulative dissertation, I use SERS to probe the dimerization reaction of 4-nitrothiophenol (4-NTP) as a model example of plasmonic chemistry. I first demonstrate that plasmonic nanostructures such as gold nanotriangles and nanoflowers have a high SERS efficiency, as evidenced by probing the vibrations of the rhodamine dye R6G and the 4-nitrothiophenol 4-NTP. The high signal enhancement enabled the measurements of SERS spectra with a short acquisition time, which allows monitoring the kinetics of chemical reactions in real time. To get insight into the reaction mechanism, several time-dependent SERS measurements of the 4-NTP have been performed under different laser and temperature conditions. Analysis of the results within a mechanistic framework has shown that the plasmonic heating significantly enhances the reaction rate, while the reaction is probably initiated by the energetic electrons. The reaction was shown to be intensity-dependent, where a certain light intensity is required to drive the reaction. Finally, first attempts to scale up the plasmonic catalysis have been performed showing the necessity to achieve the reaction threshold intensity. Meanwhile, the induced heat needs to quickly dissipate from the reaction substrate, since otherwise the reactants and the reaction platform melt. This study might open the way for further work seeking the possibilities to quickly dissipate the plasmonic heat generated during the reaction and therefore, scaling up the plasmonic catalysis. N2 - Plasmonische Metallnanostrukturen können so eingestellt werden, dass sie effizient mit Licht interagieren, Photonen in energetische Ladungsträger und wärmeenergie umwandeln. Aus diesem Grund wirken plasmonische Nanopartikel wie Gold und Silbernanopartikel als Nanoreaktoren, wenn Moleküle mit deren Oberfläche verbunden sind. Durch das verstärkte elektromagnetische Feld und den somit erzeugten energetischen Ladungsträgern und der wärmeenergie können chemische Umwandlungen entstehen. Das bedeutet, in der plasmonischen Chemie sind Metallnanopartikel ein einzigartiges system um chemische Reaktionen auf der Nanoebene unter der Kontrolle von Licht verfolgen zu können. Die Herausforderung liegt darin, grundlegende Konzepte hinter den Reaktionen für das mechanistische Verständnis in Bezug auf die plasmonisch unterstützte Chemie zu definieren. Oberflächenverstärkte Raman Streuung (SERS) ist eine leistungsfähige Technik, die sich mit plasmonverstärkten, elektromagnetischen Feldern beschäftigt, um die Vibrationsmoden von den auf den Nanopartikeln absorbierten Molekülen zu analysieren. In dieser kumulativen Dissertation wurde die Dimerisierung von 4-Nitrothiophenol (4-NTP) mittels SERS als Beispielreaktion für die plasmonische Chemie untersucht. Aufgrund der hohen SERS Signalverstärkung konnten die SERS Spektren mit einer kurzen Erfassungszeit aufgenommen werden, was die Untersuchung der Kinetik und des Reaktionsmechanismus in Echtzeit ermöglichte. KW - plasmonic chemistry KW - plasmonische Chemie KW - heiße Elektronen KW - SERS KW - SERS Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-433304 ER - TY - THES A1 - Sablowski, Daniel T1 - Spectroscopic analysis of the benchmark system Alpha Aurigae T1 - Spektroskopische Analysen des Vergleichssystems alpha Aurigae N2 - Binaries play an important role in observational and theoretical astrophysics. Since the mass and the chemical composition are key ingredients for stellar evolution, high-resolution spectroscopy is an important and necessary tool to derive those parameters to high confidence in binaries. This involves carefully measured orbital motion by the determination of radial velocity (RV) shifts and sophisticated techniques to derive the abundances of elements within the stellar atmosphere. A technique superior to conventional cross-correlation methods to determine RV shifts in known as spectral disentangling. Hence, a major task of this thesis was the design of a sophisticated software package for this approach. In order to investigate secondary effects, such as flux and line-profile variations, imprinting changes on the spectrum the behavior of spectral disentangling on such variability is a key to understand the derived values, to improve them, and to get information about the variability itself. Therefore, the spectral disentangling code presented in this thesis and available to the community combines multiple advantages: separation of the spectra for detailed chemical analysis, derivation of orbital elements, derivation of individual RVs in order to investigate distorted systems (either by third body interaction or relativistic effects), the suppression of telluric contaminations, the derivation of variability, and the possibility to apply the technique to eclipsing binaries (important for orbital inclination) or in general to systems that undergo flux-variations. This code in combination with the spectral synthesis codes MOOG and SME was used in order to derive the carbon 12C/13C isotope ratio (CIR) of the benchmark binary Capella. The observational result will be set into context with theoretical evolution by the use of MESA models and resolves the discrepancy of theory and observations existing since the first measurement of Capella's CIR in 1976. The spectral disentangling code has been made available to the community and its applicability to completely different behaving systems, Wolf-Rayet stars, have also been investigated and resulted in a published article. Additionally, since this technique relies strongly on data quality, continues development of scientific instruments to achieve best observational data is of great importance in observational astrophysics. That is the reason why there has also been effort in astronomical instrumentation during the work on this thesis. N2 - Doppelsterne spielen eine wichtige Rolle in der beobachtenden und theoretischen Astrophysik. Die Massen und die chemische Zusammensetzung der Sterne sind dabei ausschlaggebende Parameter. Die wichtige und notwendige Methode um diese zu bestimmen ist hochaufgelöste Spektroskopie. Dies beinhaltet eine penible Bestimmung der orbitalen Bewegung durch die Vermessung von Radialgeschwindigkeitsverschiebungen (RV) und fortgeschrittene Techniken zur Bestimmung der Häufigkeiten der in der Sternatmosphäre vorhandenen Elemente. Gegenüber der konventionellen Kreuzkorrelation zur Bestimmung der RV-Verschiebungen, gilt die Methode des sogenannten 'spectral disentanglings' als überlegen. Daher bestand ein Großteil der vorliegenden Arbeit darin, eine solche Methode in einem weiterentwickelten Softwarepacket zu realisieren. Um sekundäre Effekte zu verstehen, welche zu weiteren Änderungen im Spektrum führen, also insbesondere solche wie Fluss- und Linienprofilvariationen, ist es von zentraler Bedeutung das Verhalten des spectral disentangling durch solche Variabilitäten zu verstehen, sodass die ermittelten Größen besser interpretiert und verbessert, sowie Informationen über die Variabilität selbst abgeleitet werden können. Daher vereint der in dieser Arbeit vorgestellte und der Allgemeinheit offen stehende Algorithmus für das spectral disentangling mehrere Vorteile: Separation der Spektren für detaillierte chemische Analysen, Ableitung der orbitalen Bahnelemente, Ableitung der einzelnen RV-Verschiebungen um auch gestörte Systeme (z.B. durch einen dritten Körper oder relativistische Effekte) analysieren zu können, die Reduktion des Einflusses tellurischer Kontamination, Ableitung der Variabilität und die Möglichkeit der Anwendung auf Bedeckungsveränderliche (wichtig zur Bestimmung der Inklination) bzw. allgemeiner auf Systeme mit Flussvariationen. Der vorgestellte Algorithmus wurde zusammen mit MOOG und SME zur Erzeugung synthetischer Spektren verwendet um das Kohlenstoff-12C/13C Isotopen-Verhältnis (KIV) des Referenzsystems Capella zu bestimmen. Dieses Ergebnis aus Beobachtungen wird in Kontext zur theoretischen Entwicklung durch Verwendung von MESA Modellen gesetzt und löst die Unstimmigkeit zwischen Beobachtung und Theorie die bereits seit der ersten Messung des KIV von Kapella von 1976 existiert. Der Algorithmus für das spectral disentangling ist der Allgemeinheit zugänglich gemacht und wurde auf vollkommen anders verhaltende Objekte, den Wolf-Rayet-Sternen, angewendet, was in einer publizierten Arbeit resultierte. Da die Methode stark von der Qualität der Beobachtungsdaten abhängt, ist eine kontinuierliche Weiterentwicklung der wissenschaftlichen Messtechnik der beobachtenden Astrophysik sehr wichtig um die bestmöglichsten Beobachtungsdaten gewinnen zu können. Daher wurden auch große Anstrengungen in der astronomischen Instrumentierung während dieser Arbeit unternommen. KW - Stellar physics KW - Stellar evolution KW - spectroscopy KW - instrumentation KW - carbon-isotope-ratio KW - Capella KW - Stellarphysik KW - Sternentwicklung KW - Spektroskopie KW - Instrumentierung KW - Kohlenstoff-Isotopen-Verhältnis KW - Kapella Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432396 ER - TY - THES A1 - Ruschel, Matthias T1 - Das Preußische Erbrecht in der Judikatur des Berliner Obertribunals in den Jahren 1836 bis 1865 T1 - The Prussian inheritance law in the Jurisprudence of the Prussian Supreme Court in Berlin during the years from 1836 to 1865 N2 - Die Dissertation befasst sich mit dem Allgemeinen Preußischen Landrecht von 1794 und der hierzu ergangenen Rechtsprechung des Berliner Obertribunals. Im Fokus der Untersuchung stehen die erbrechtlichen Regelungen des Landrechts und deren Anwendung sowie Auslegung in der Judikatur des höchsten preußischen Gerichts. Der Forschungsgegenstand ergibt sich aus dem im Landrecht kodifizierten speziellen Gesetzesverständnisses. Nach diesem sollte die Gesetzesauslegung durch die Rechtsprechung auf ein Minimum, nämlich die Auslegung allein anhand des Wortlauts der Regelung reduziert werden, um dem absolutistischen Regierungsanspruch der preußischen Monarchen, namentlich Friedrich des Großen, hinreichend Rechnung zu tragen. In diesem Kontext wird der Frage nachgegangen, inwieweit das preußische Obertribunal das im Landrecht statuierte „Auslegungsverbot“ beachtet hat und in welchen Fällen sich das Gericht von der Vorgabe emanzipierte und weitere Auslegungsmethoden anwendete und sich so eine unabhängige Rechtsprechung entwickeln konnte. Die Arbeit gliedert sich in drei Hauptabschnitte. Im Anschluss an die Einleitung, in der zunächst die rechtshistorische Bedeutung des Landrechts und des Erbrechts sowie der Untersuchungsgegenstand umrissen werden, folgt die Darstellung der Entstehungsgeschichte des Landrechts und des Berliner Obertribunals. Hieran schließt sich in einem dritten Abschnitt eine Analyse der erbrechtlichen Vorschriften des Landrechts an. In dieser wird auf die Entstehungsgeschichte der verschiedenen erbrechtlichen Institute wie beispielsweise der gesetzlichen und gewillkürten Erbfolge, dem Pflichtteilsrecht etc., unter Berücksichtigung des zeitgenössischen wissenschaftlichen Diskurses eingegangen. Im vierten Abschnitt geht es um die Judikate des Berliner Obertribunals aus den Jahren 1836-1865 in denen die zuvor dargestellten erbrechtlichen Regelungen entscheidungserheblich waren. Dabei wird der Forschungsfrage, inwieweit das Obertribunal das im Landrecht statuierte Auslegungsverbot beachtet hat und in welchen Fällen es von diesem abwich bzw. weitere Auslegungsmethoden anwendete, konkret nachgegangen wird. Insgesamt werden 26 Entscheidungen des Obertribunals unter dem Aspekt der Auslegungspraxis, der Kontinuität und der Beschleunigung der Rechtsprechung analysiert und ausgewertet. N2 - The thesis deals with the General Prussian Codex of 1794 and the related jurisprudence of the Prussian Supreme Court in Berlin. The spotlight of the investigation are the inheritance regulations of the prussian law and their application and interpretation in the judicature of the Prussian Supreme Court in Berlin. The subject of research results from the special understanding of the rule of law in the General Prussian Codex of 1794. According to this, the interpretation of the law by the jurisprudence should be reduced to a minimum, namely the interpretation solely on the basis of the wording of the regulation, in order to take sufficient account of the absolutist claim to government of the Prussian monarchs, namely Frederick the Great. In this context, the question of the extent to which the Prussian Supreme Court in Berlin observed the "prohibition of interpretation" stipulated in the General Prussian Codex of 1794 and in which cases the court emancipated itself from the requirement and applied further methods of interpretation and thus an independent judiciary was able to develop. The thesis is divided into three main sections. Following the introduction, in which the legal historical significance of the General Prussian Codex of 1794 and inheritance law as well as the subject of investigation are outlined, the history of the development of land law and the the Prussian Supreme Court in Berlin follows. This is followed by a third section with includes an analysis of the inheritance law provisions and rules in the General Prussian Codex of 1794. In this, the history of the origins of the various institutes of inheritance law, such as the legal and voluntary succession, the last will, the compulsory portion, etc., taking into account the contemporary scientific discourse, is dealt with. The fourth chapter deals with the judgments of the Prussian Supreme Court in Berlin from the years of 1836-1865 in which the previously described inheritance regulations were relevant to the decision. The research question of the extent to which the Prussian Supreme Court in Berlin has observed the “prohibition of interpretation stipulated in the General Prussian Codex of 1794 and in which cases it deviated from this or used other methods of interpretation of the law is specifically investigated. A total of 26 decisions of the higher tribunal are analyzed and evaluated under the aspect of interpretation practice, continuity and the acceleration of case law. KW - Erbrecht KW - Preußisches Erbrecht KW - Berliner Obertribunal KW - Allgemeine Landrecht für die Preußischen Staaten von 1794 KW - Inheritance law KW - Jurisprudence KW - Prussian Suprime Court KW - European Codex KW - last will KW - Prussian Codex of 1794 KW - Prussian Law Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-527798 ER - TY - THES A1 - Romero Mujalli, Daniel T1 - Ecological modeling of adaptive evolutionary responses to rapid climate change T1 - Ökologische Modellierung anpassungsfähiger evolutionärer Reaktionen auf schnellen Klimawandel N2 - A contemporary challenge in Ecology and Evolutionary Biology is to anticipate the fate of populations of organisms in the context of a changing world. Climate change and landscape changes due to anthropic activities have been of major concern in the contemporary history. Organisms facing these threats are expected to respond by local adaptation (i.e., genetic changes or phenotypic plasticity) or by shifting their distributional range (migration). However, there are limits to their responses. For example, isolated populations will have more difficulties in developing adaptive innovations by means of genetic changes than interconnected metapopulations. Similarly, the topography of the environment can limit dispersal opportunities for crawling organisms as compared to those that rely on wind. Thus, populations of species with different life history strategy may differ in their ability to cope with changing environmental conditions. However, depending on the taxon, empirical studies investigating organisms’ responses to environmental change may become too complex, long and expensive; plus, complications arising from dealing with endangered species. In consequence, eco-evolutionary modeling offers an opportunity to overcome these limitations and complement empirical studies, understand the action and limitations of underlying mechanisms, and project into possible future scenarios. In this work I take a modeling approach and investigate the effect and relative importance of evolutionary mechanisms (including phenotypic plasticity) on the ability for local adaptation of populations with different life strategy experiencing climate change scenarios. For this, I performed a review on the state of the art of eco-evolutionary Individual-Based Models (IBMs) and identify gaps for future research. Then, I used the results from the review to develop an eco-evolutionary individual-based modeling tool to study the role of genetic and plastic mechanisms in promoting local adaption of populations of organisms with different life strategies experiencing scenarios of climate change and environmental stochasticity. The environment was simulated through a climate variable (e.g., temperature) defining a phenotypic optimum moving at a given rate of change. The rate of change was changed to simulate different scenarios of climate change (no change, slow, medium, rapid climate change). Several scenarios of stochastic noise color resembling different climatic conditions were explored. Results show that populations of sexual species will rely mainly on standing genetic variation and phenotypic plasticity for local adaptation. Population of species with relatively slow growth rate (e.g., large mammals) – especially those of small size – are the most vulnerable, particularly if their plasticity is limited (i.e., specialist species). In addition, whenever organisms from these populations are capable of adaptive plasticity, they can buffer fitness losses in reddish climatic conditions. Likewise, whenever they can adjust their plastic response (e.g., bed-hedging strategy) they will cope with bluish environmental conditions as well. In contrast, life strategies of high fecundity can rely on non-adaptive plasticity for their local adaptation to novel environmental conditions, unless the rate of change is too rapid. A recommended management measure is to guarantee interconnection of isolated populations into metapopulations, such that the supply of useful genetic variation can be increased, and, at the same time, provide them with movement opportunities to follow their preferred niche, when local adaptation becomes problematic. This is particularly important for bluish and reddish climatic conditions, when the rate of change is slow, or for any climatic condition when the level of stress (rate of change) is relatively high. N2 - Eine aktuelle Herausforderung in der Ökologie und Evolutionsbiologie besteht darin, das Schicksal von Populationen verschiedener Lebewesen im Kontext einer sich verändernden Welt zu antizipieren. Der Klimawandel und die durch anthropologische Aktivitäten verursachten Landschaftsveränderungen sind im Laufe der Geschichte von großer Bedeutung geworden. Von den Organismen, die sich diesen Veränderungen stellen, wird erwartet, dass sie durch lokale Anpassung (d.h. genetische Veränderungen oder phänotypische Plastizität) oder durch Verschiebung ihres Verbreitungsgebietes (Migration) darauf reagieren. Allerdings sind diese Reaktionen begrenzt. So werden beispielsweise isolierte Populationen mehr Schwierigkeiten bei der Entwicklung adaptiver Neuheiten mittels genetischer Variation haben als vernetzte Metapopulationen. Ebenso kann die Topographie der Umgebung die Ausbreitungsmöglichkeiten für zum Beispiel kriechende Organismen im Vergleich zu denen, die auf Wind angewiesen sind, einschränken. So können Populationen von Arten mit unterschiedlichen Lebensstrategien verschiedene Fähigkeiten haben, mit den sich ändernden Umweltbedingungen umzugehen. Empirische Studien, die die Reaktionen von Organismen auf Umweltveränderungen untersuchen, können jedoch, je nach Taxon, zu komplex, langwierig und teuer werden. Ebenso sollten Komplikationen im Umgang mit gefährdeten Arten nicht außer Acht gelassen werden. Die ökoevolutionäre Modellierung bietet jedoch die Möglichkeit, diese Einschränkungen zu überwinden und empirische Studien zu ergänzen, die Wirkung und Grenzen der zugrunde liegenden Mechanismen zu verstehen und mögliche Zukunftsszenarien zu erstellen. In dieser Arbeit untersuche ich mittels einer Modellierungsmethode die Wirkung und relative Bedeutung evolutionärer Mechanismen (einschließlich phänotypischer Plastizität) auf die Fähigkeit zur lokalen Anpassung von Populationen mit unterschiedlichen Lebensstrategien, die Szenarien des Klimawandels durchleben. Dazu habe ich in einem Review den Stand der Technik ökoevolutionärer individuenbasierender Modelle (Individual-Based Models; IBMs) zusammengefasst und Ansätze für eine zukünftige Forschung identifiziert. Die Erkenntnisse des Reviews nutzte ich, um ein ökoevolutionäres, individuelles Modellierungsprogramm zu entwickeln. Dieses analysiert die Rolle genetischer und plastischer Mechanismen zur Förderung der lokalen Anpassung organismischer Populationen mit unterschiedlichen Lebensstrategien, welche Szenarien des Klimawandels und der ökologischen Stochastik erfahren. Die Umweltbedingungen wurden durch eine klimatische Variable (z.B. Temperatur) simuliert, die ein phänotypisches Optimum definiert, das sich mit einer bestimmten Änderungsrate bewegt. Verschiedene Änderungsraten wurden angewandt, um unterschiedliche Szenarien des Klimawandels darzustellen (keine Veränderung, langsamer, mittlerer, schneller Klimawandel). Es wurden mehrere Szenarien stochastischen Farbrauschens untersucht, die verschiedene klimatische Bedingungen widerspiegeln. Die Ergebnisse zeigen, dass Populationen sexueller Arten hauptsächlich auf genetische Variation und phänotypische Plastizität hinsichtlich lokalen Anpassung angewiesen sind. Populationen von Arten mit relativ langsamer Wachstumsrate (z.B. große Säugetiere), und insbesondere die mit kleiner Populationsgröße, sind am anfälligsten, vor allem wenn ihre Plastizität begrenzt ist (d.h. spezialisierte Arten). Wenn Individuen dieser Populationen zu adaptiver Plastizität fähig sind, können sie Fitnessverluste unter „rötlichen“ Klimabedingungen ausgleichen. Zugleich können diese Populationen durch Anpassung der Plastizität auch unter bläulichen Umweltbedingungen zurecht kommen (z.B. Bed-Hedging-Strategie). Im Gegensatz dazu können sich Lebensstrategen mit hoher Reproduktionszahl auf nicht-adaptive Plastizität zur lokalen Anpassung an neue Umweltbedingungen verlassen, es sei denn, die Änderungsrate ist zu schnell. Eine empfohlene Handlungsmaßnahme ist es, die Eingliederung von isolierten Populationen in Metapopulationen zu gewährleisten, so dass die genetische Variation erhöht werden kann. Wenn eine lokale Anpassung problematisch wird, sollte ihnen gleichzeitig Migrationsfreiraum gegeben werden, um ihrer bevorzugten Nische zu folgen. Dies ist besonders wichtig für „bläuliche“ und „rötliche“ Klimabedingungen, bei denen die Änderungsrate langsam ist, oder für jede klimatische Bedingung, wenn die Belastung (Änderungsrate) relativ hoch ist. KW - climate change KW - local adaptation KW - plasticity KW - evolution KW - individual-based model KW - Klimawandel KW - lokale Anpassung KW - Plastizität KW - Evolution KW - Individuen-basierende Modelle Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430627 ER - TY - THES A1 - Riemer, Janine T1 - Synthese und Charakterisierung selektiver Fluoroionophore für intra- und extrazelluläre Bestimmungen von Kalium- und Natrium-Ionen T1 - Synthesis and characterization of selective fluoroionophores for intra- and extracellular determinations of potassium and sodium ions N2 - Im Rahmen dieser Dissertation konnten neue Kalium- und Natrium-Ionen Fluoreszenzfarbstoffe von der Klasse der Fluoroionophore synthetisiert und charakterisiert werden. Sie bestehen aus einem N Phenylazakronenether als Ionophor und unterschiedlichen Fluorophoren und sind über einen π-konjugierten 1,2,3-Triazol-1,4-diyl Spacer verbunden. Dabei lag der Fokus während ihrer Entwicklung darauf, diese in ihrer Sensitivität, Selektivität und in ihren photophysikalischen Eigenschaften so zu funktionalisieren, dass sie für intra- bzw. extrazelluläre Konzentrationsbestimmungen geeignet sind. Durch Variation der in ortho Position der N-Phenylazakronenether befindlichen Alkoxy-Gruppen und der fluorophoren Gruppe der Fluoroionophore konnte festgestellt werden, dass die Sensitivität und Selektivität für Kalium- bzw. Natrium-Ionen jeweils durch eine bestimmte Isomerie der 1,2,3-Triazol-1,4-diyl-Einheit erhöht wird. Des Weiteren wurde gezeigt, dass durch eine erhöhte Einschränkung der N,N-Diethylamino-Gruppe des Fluorophors eine Steigerung der Fluoreszenzquantenausbeute und eine Verschiebung des Emissionsmaximums auf über 500 nm erreicht werden konnte. Die Einführung einer Isopropoxy-Gruppe an einem N-Phenylaza-[18]krone-6-ethers resultierte dabei in einem hoch selektiven Kalium-Ionen Fluoroionophor und ermöglichte eine in vitro Überwachung von 10 – 80 mM Kalium-Ionen. Die Substitution einer Methoxy-Gruppe an einem N-Phenylaza-[15]krone-5-ether kombiniert mit unterschiedlich N,N-Diethylamino-Coumarinen lieferte hingegen zwei Natrium-Ionen Fluoroionophore, die für die Überwachung von intra- bzw. extrazellulären Natrium-Ionen Konzentrationen geeignet sind. In einem weiteren Schritt wurden N-Phenylaza-[18]krone-6-ether mit einem Fluorophor, basierend auf einem [1,3]-Dioxolo[4,5-f][1,3]benzodioxol-(DBD)-Grundgerüst, funktionalisiert. Die im Anschluss durchgeführten spektroskopischen Untersuchungen ergaben, dass die Isopropoxy-Gruppe in ortho Position des N-Phenylaza-[18]krone-6-ether in einen für extrazelluläre Kalium-Ionen Konzentrationen selektiven Fluoroionophor resultierte, der die Konzentrationsbestimmungen über die Fluoreszenzintensität und -lebensdauer ermöglicht. In einem abschließenden Schritt konnte unter Verwendung eines Pyrens als fluorophore Gruppe ein weiterer für extrazelluläre Kalium-Ionen Konzentrationen geeigneter Fluoroionophor entwickelt werden. Die Bestimmung der Kalium-Ionen Konzentration erfolgte hierbei anhand der Fluoreszenzintensitätsverhältnisse bei zwei Emissionswellenlängen. Insgesamt konnten 17 verschiedene neue Fluoroionophore für die Bestimmung von Kalium- bzw. Natrium-Ionen synthetisiert und charakterisiert werden. Sechs dieser neuen Moleküle ermöglichen in vitro Messungen der intra- oder extrazellulären Kalium- und Natrium-Ionen Konzentrationen und könnten zukünftig für in vivo Konzentrationsmessungen verwendet werden. N2 - In this thesis, new potassium and sodium ion fluorescent probes from the class of fluoroionophores were synthesized and characterized. They consist of an N-phenylazacrown lariat ether and several fluorophores, connected through a π-conjugated 1,2,3-triazole-1,4-diyl spacer. The focus of their development was to optimize their sensitivity, selectivity and their photophysical properties, making them suitable for detecting intra- or extracellular ion levels. Variation of the alkoxy groups in the ortho position of the N-phenylazacrown lariat ether and the fluorophoric group of the fluoroionophores showed that the sensitivity and selectivity for potassium or sodium ions was preferred by a specific isomerism of the 1,2,3-triazole-1,4-diyl unit. Furthermore it was possible to show that an increased hindrance of the N,N-diethylamino group of the fluorophore led to a higher fluorescence quantum yield and a shift of the emission maximum to over 500 nm. The introduction of an isopropoxy group to an N phenylaza-[18]crown-6 lariat ether resulted in a highly selective potassium ion fluoroionophore suitable for in vitro monitoring of potassium ion levels (10 – 80 mM). However, a substitution of a methoxy group on an N-phenylaza-[15] crown-5 lariat ether combined with different degrees of hindrance of N,N diethylamino coumarins gave sodium ion fluoroionophores which are suitable for monitoring intracellular and extracellular sodium ion levels. In a following step N-phenylaza-[18]crown-6 lariat ethers were functionalized with a fluorophore, which was based on a [1,3]-dioxolo[4,5-f [1,3]benzodioxole (DBD) backbone. Following spectroscopic studies it was shown that an isopropoxy group in the ortho position of the N-phenylaza-[18]crown-6 lariat ether resulted in a selective fluoroionophore for extracellular potassium ion levels, which allows measurements of the fluorescence intensity and -lifetime. In a final step an additional fluoroionophore, suitable for extracellular potassium ion levels, was developed by using a pyrene as the fluorophoric group. This fluoroionophore was used to measure potassium ion levels by analyzing the fluorescence intensity ratios at two emission wavelengths. In this work 17 new fluoroionophores were synthesized and characterized. Six of these novel molecules allow in vitro measurements of intra- or extracellular potassium and sodium ion levels and could be used for in vivo concentration measurements in the future. KW - Fluoroionophore KW - fluoroionophore KW - intra- und extrazellulär KW - intra- and extracellular KW - Kalium- und Natrium-Ionen KW - potassium and sodium ions Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441932 ER - TY - THES A1 - Rezaei, Mina T1 - Deep representation learning from imbalanced medical imaging N2 - Medical imaging plays an important role in disease diagnosis, treatment planning, and clinical monitoring. One of the major challenges in medical image analysis is imbalanced training data, in which the class of interest is much rarer than the other classes. Canonical machine learning algorithms suppose that the number of samples from different classes in the training dataset is roughly similar or balance. Training a machine learning model on an imbalanced dataset can introduce unique challenges to the learning problem. A model learned from imbalanced training data is biased towards the high-frequency samples. The predicted results of such networks have low sensitivity and high precision. In medical applications, the cost of misclassification of the minority class could be more than the cost of misclassification of the majority class. For example, the risk of not detecting a tumor could be much higher than referring to a healthy subject to a doctor. The current Ph.D. thesis introduces several deep learning-based approaches for handling class imbalanced problems for learning multi-task such as disease classification and semantic segmentation. At the data-level, the objective is to balance the data distribution through re-sampling the data space: we propose novel approaches to correct internal bias towards fewer frequency samples. These approaches include patient-wise batch sampling, complimentary labels, supervised and unsupervised minority oversampling using generative adversarial networks for all. On the other hand, at algorithm-level, we modify the learning algorithm to alleviate the bias towards majority classes. In this regard, we propose different generative adversarial networks for cost-sensitive learning, ensemble learning, and mutual learning to deal with highly imbalanced imaging data. We show evidence that the proposed approaches are applicable to different types of medical images of varied sizes on different applications of routine clinical tasks, such as disease classification and semantic segmentation. Our various implemented algorithms have shown outstanding results on different medical imaging challenges. N2 - Medizinische Bildanalyse spielt eine wichtige Rolle bei der Diagnose von Krankheiten, der Behandlungsplanung, und der klinischen Überwachung. Eines der großen Probleme in der medizinischen Bildanalyse ist das Vorhandensein von nicht ausbalancierten Trainingsdaten, bei denen die Anzahl der Datenpunkte der Zielklasse in der Unterzahl ist. Die Aussagen eines Modells, welches auf einem unbalancierten Datensatz trainiert wurde, tendieren dazu Datenpunkte in die Klasse mit der Mehrzahl an Trainingsdaten einzuordnen. Die Aussagen eines solchen Modells haben eine geringe Sensitivität aber hohe Genauigkeit. Im medizinischen Anwendungsbereich kann die Einordnung eines Datenpunktes in eine falsche Klasse Schwerwiegende Ergebnisse mit sich bringen. In die Nichterkennung eines Tumors Beispielsweise brigt ein viel höheres Risiko für einen Patienten, als wenn ein gesunder Patient zum Artz geschickt wird. Das Problem des Lernens unter Nutzung von nicht ausbalancierten Trainingsdaten wird erst seit Kurzem bei der Klassifizierung von Krankheiten, der Entdeckung von Tumoren und beider Segmentierung von Tumoren untersucht. In der Literatur wird hier zwischen zwei verschiedenen Ansätzen unterschieden: datenbasierte und algorithmische Ansätze. Die vorliegende Arbeit behandelt das Lernen unter Nutzung von unbalancierten medizinischen Bilddatensätzen mittels datenbasierter und algorithmischer Ansätze. Bei den datenbasierten Ansätzen ist es unser Ziel, die Datenverteilung durch gezieltes Nutzen der vorliegenden Datenbasis auszubalancieren. Dazu schlagen wir neuartige Ansätze vor, um eine ausgeglichene Einordnung der Daten aus seltenen Klassen vornehmen zu können. Diese Ansätze sind unter anderem synthesize minority class sampling, patient-wise batch normalization, und die Erstellung von komplementären Labels unter Nutzung von generative adversarial networks. Auf der Seite der algorithmischen Ansätze verändern wir den Trainingsalgorithmus, um die Tendenz in Richtung der Klasse mit der Mehrzahl an Trainingsdaten zu verringern. Dafür schlagen wir verschiedene Algorithmen im Bereich des kostenintensiven Lernens, Ensemble-Lernens und des gemeinsamen Lernens vor, um mit stark unbalancierten Trainingsdaten umgehen zu können. Wir zeigen, dass unsere vorgeschlagenen Ansätze für verschiedenste Typen von medizinischen Bildern, mit variierender Größe, auf verschiedene Anwendungen im klinischen Alltag, z. B. Krankheitsklassifizierung, oder semantische Segmentierung, anwendbar sind. Weiterhin haben unsere Algorithmen hervorragende Ergebnisse bei unterschiedlichen Wettbewerben zur medizinischen Bildanalyse gezeigt. KW - machine learning KW - deep learning KW - computer vision KW - imbalanced learning KW - medical image analysis KW - Maschinenlernen KW - tiefes Lernen KW - unbalancierter Datensatz KW - Computervision KW - medizinische Bildanalyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442759 ER - TY - THES A1 - Reeg, Jette T1 - Simulating the impact of herbicide drift exposure on non-target terrestrial plant communities T1 - Simulation der Auswirkungen von Herbizid-Drift-Expositionen auf Gemeinschaften von Nichtzielpflanzen N2 - In Europe, almost half of the terrestrial landscape is used for agriculture. Thus, semi-natural habitats such as field margins are substantial for maintaining diversity in intensively managed farmlands. However, plants located at field margins are threatened by agricultural practices such as the application of pesticides within the fields. Pesticides are chemicals developed to control for undesired species within agricultural fields to enhance yields. The use of pesticides implies, however, effects on non-target organisms within and outside of the agricultural fields. Non-target organisms are organisms not intended to be sprayed or controlled for. For example, plants occurring in field margins are not intended to be sprayed, however, can be impaired due to herbicide drift exposure. The authorization of plant protection products such as herbicides requires risk assessments to ensure that the application of the product has no unacceptable effects on the environment. For non-target terrestrial plants (NTTPs), the risk assessment is based on standardized greenhouse studies on plant individual level. To account for the protection of plant populations and communities under realistic field conditions, i.e. extrapolating from greenhouse studies to field conditions and from individual-level to community-level, assessment factors are applied. However, recent studies question the current risk assessment scheme to meet the specific protection goals for non-target terrestrial plants as suggested by the European Food Safety Authority (EFSA). There is a need to clarify the gaps of the current risk assessment and to include suitable higher tier options in the upcoming guidance document for non-target terrestrial plants. In my thesis, I studied the impact of herbicide drift exposure on NTTP communities using a mechanistic modelling approach. I addressed main gaps and uncertainties of the current risk assessment and finally suggested this modelling approach as a novel higher tier option in future risk assessments. Specifically, I extended the plant community model IBC-grass (Individual-based community model for grasslands) to reflect herbicide impacts on plant individuals. In the first study, I compared model predictions of short-term herbicide impacts on artificial plant communities with empirical data. I demonstrated the capability of the model to realistically reflect herbicide impacts. In the second study, I addressed the research question whether or not reproductive endpoints need to be included in future risk assessments to protect plant populations and communities. I compared the consequences of theoretical herbicide impacts on different plant attributes for long-term plant population dynamics in the community context. I concluded that reproductive endpoints only need to be considered if the herbicide effect is assumed to be very high. The endpoints measured in the current vegetative vigour and seedling emergence studies had high impacts for the dynamic of plant populations and communities already at lower effect intensities. Finally, the third study analysed long-term impacts of herbicide application for three different plant communities. This study highlighted the suitability of the modelling approach to simulate different communities and thus detecting sensitive environmental conditions. Overall, my thesis demonstrates the suitability of mechanistic modelling approaches to be used as higher tier options for risk assessments. Specifically, IBC-grass can incorporate available individual-level effect data of standardized greenhouse experiments to extrapolate to community-level under various environmental conditions. Thus, future risk assessments can be improved by detecting sensitive scenarios and including worst-case impacts on non-target plant communities. N2 - Fast die Hälfte der gesamten Landfläche in Europa wird für landwirtschaftliche Zwecke genutzt. Daher sind halb-natürliche Gebiete, wie zum Beispiel Ackerränder, von besonderer Bedeutung für den Artenreichtum in intensiv genutzten Ackerlandschaften. Vor allem in den intensiv genutzten Äckern werden Chemikalien eingesetzt um die Erträge zu erhöhen. So werden zum Beispiel Pflanzenschutzmittel eingesetzt, um Unkräuter im Acker zu vernichten. Allerdings kann dieser Einsatz auch Auswirkungen auf sogenannte Nicht-Zielarten haben. Dies sind solche Arten oder Artindividuen, die z.B. innerhalb vom Acker nicht in Konkurrenz mit den darauf wachsenden Getreidesorten stehen oder sich nicht innerhalb vom Feld befinden aber dennoch den Pflanzenschutzmitteln ausgesetzt sind. Um den Artenreichtum in halb-natürlichen Gebieten zu schützen, ist es daher notwendig eine Risikoabschätzung durchzuführen bevor ein Pflanzenschutzmittel für den Verkauf und die Anwendung zugelassen wird. Für terrestrische Nicht-Zielpflanzen erfolgt eine solche Risikoabschätzung basierend auf standardisierten Gewächshausexperimenten, in denen die Effekte auf der Ebene von Einzelindividuen gemessen werden. Um das letztliche Risiko im Freiland für ganze Pflanzengemeinschaften abzuschätzen, werden sogenannte Unsicherheitsfaktoren hinzugenommen. Allerdings stellen neuere Studien in Frage, ob der derzeitige Ansatz ausreichend sicher ist. Dies gilt vor allem in Bezug auf die aktuellen speziellen Schutzziele, die den Fokus auf den Schutz von Pflanzengemeinschaften und Artenreichtum legen. Es ist daher zwingend notwendig die Wissenslücken der derzeitigen Risikoabschätzung zu schließen und Optionen zu weiteren Studien zu geben, die das Risiko vom Einsatz von Pflanzenschutzmitteln für Nicht-Zielpflanzen realistischer abschätzen können. In meiner Dissertation nutze ich einen mechanistischen Modellierungsansatz um den Einfluss von Pflanzenschutzmitteln auf Nicht-Zielpflanzengemeinschaften zu untersuchen. Hierbei spreche ich die wesentlichen Wissenslücken und Unklarheiten der aktuellen Risikoabschätzung an und schlage zusammenfassend eine neue Option für eine realistischere Abschätzung des Risikos vor. Hierzu integriere ich den Einfluss von Herbiziden auf Einzelindividuen in das Pflanzengemeinschaftsmodell IBC-grass. In meiner ersten Studie vergleiche ich Modellvorhersagen von kurzzeitigen Herbizideffekten in künstlichen Artgemeinschaften mit experimentellen Daten. Mit der Studie zeige ich, dass das Modell den Einfluss von Herbiziden auf die Pflanzengemeinschaft realistisch vorhersagen kann. In der zweiten Studie fokussiere ich mich auf die Frage, ob Effekte auf weitere Pflanzeneigenschaften, insbesondere Fortpflanzungseigenschaften, wie zum Beispiel die Samenproduktion, im Rahmen der standardisierten Gewächshausstudien gemessen werden sollten. Die Studie zeigt, dass die derzeitig gemessenen Pflanzeneigenschaften am meisten Einfluss auf die Dynamiken einer Pflanzengesellschaft haben und somit schon geringe Schädigungen dieser Eigenschaften auf Individuenebene Auswirkungen für die Gemeinschaft haben. Dahingegen führten nur sehr starke Effekte auf die Fortpflanzungseigenschaften zu einem Einfluss auf Gemeinschaftsebene. Mit der letzten Studie zeige ich, dass der Modellansatz dazu genutzt werden kann Auswirkungen für unterschiedliche Pflanzengemeinschaften darzustellen. Zusammengefasst zeigen die Studien meiner Dissertation, dass mechanistische Modellierung eine geeignete Option für eine realistischere Risikoabschätzung ist. Auf Grund des besonderen Designs von IBC-grass können die durch derzeitige Gewächshausstudien zur Verfügung stehenden empirischen Daten in das Modell eingearbeitet werden und somit das Risiko auf Gemeinschaftsebene abgeschätzt werden. Mit Hilfe des Modells können mehrere Umweltbedingungen getestet werden und somit Extremszenarien abgedeckt werden. Meine Studien tragen dazu bei, zukünftige Risikoabschätzungen für Nicht-Zielpflanzen zu verbessern. KW - ecological modelling KW - pesticide KW - risk assessment KW - plant community KW - non-target organisms KW - ökologische Modellierung KW - Pestizide KW - Risikoabschätzung KW - Pflanzengemeinschaft KW - Nicht-Zielorganismen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429073 ER - TY - THES A1 - Rector, Michael V. T1 - The acute effect of exercise on flow-mediated dilation in young people with cystic fibrosis T1 - Der akute Effekt des Trainings auf den Fluss vermittelte Dilatation bei jungen Menschen mit Mukoviszidose N2 - Introduction: Cystic fibrosis (CF) is a genetic disease which disrupts the function of an epithelial surface anion channel, CFTR (cystic fibrosis transmembrane conductance regulator). Impairment to this channel leads to inflammation and infection in the lung causing the majority of morbidity and mortality. However, CF is a multiorgan disease affecting many tissues, including vascular smooth muscle. Studies have revealed young people with cystic fibrosis lacking inflammation and infection still demonstrate vascular endothelial dysfunction, measured per flow-mediated dilation (FMD). In other disease cohorts, i.e. diabetic and obese, endurance exercise interventions have been shown improve or taper this impairment. However, long-term exercise interventions are risky, as well as costly in terms of time and resources. Nevertheless, emerging research has correlated the acute effects of exercise with its long-term benefits and advocates the study of acute exercise effects on FMD prior to longitudinal studies. The acute effects of exercise on FMD have previously not been examined in young people with CF, but could yield insights on the potential benefits of long-term exercise interventions. The aims of these studies were to 1) develop and test the reliability of the FMD method and its applicability to study acute exercise effects; 2) compare baseline FMD and the acute exercise effect on FMD between young people with and without CF; and 3) explore associations between the acute effects of exercise on FMD and demographic characteristics, physical activity levels, lung function, maximal exercise capacity or inflammatory hsCRP levels. Methods: Thirty young volunteers (10 people with CF, 10 non-CF and 10 non-CF active matched controls) between the ages of 10 and 30 years old completed blood draws, pulmonary function tests, maximal exercise capacity tests and baseline FMD measurements, before returning approximately 1 week later and performing a 30-min constant load training at 75% HRmax. FMD measurements were taken prior, immediately after, 30 minutes after and 1 hour after constant load training. ANOVAs and repeated measures ANOVAs were employed to explore differences between groups and timepoints, respectively. Linear regression was implemented and evaluated to assess correlations between FMD and demographic characteristics, physical activity levels, lung function, maximal exercise capacity or inflammatory hsCRP levels. For all comparisons, statistical significance was set at a p-value of α < 0.05. Results: Young people with CF presented with decreased lung function and maximal exercise capacity compared to matched controls. Baseline FMD was also significantly decreased in the CF group (CF: 5.23% v non-CF: 8.27% v non-CF active: 9.12%). Immediately post-training, FMD was significantly attenuated (approximately 40%) in all groups with CF still demonstrating the most minimal FMD. Follow-up measurements of FMD revealed a slow recovery towards baseline values 30 min post-training and improvements in the CF and non-CF active groups 60 min post-training. Linear regression exposed significant correlations between maximal exercise capacity (VO2 peak), BMI and FMD immediately post-training. Conclusion: These new findings confirm that CF vascular endothelial dysfunction can be acutely modified by exercise and will aid in underlining the importance of exercise in CF populations. The potential benefits of long-term exercise interventions on vascular endothelial dysfunction in young people with CF warrants further investigation. N2 - Einleitung: Mukoviszidose (CF) ist eine genetische Erkrankung, die die Funktion eines Epithelien Oberflächenanionenkanals, CFTR (cystic fibrosis transmembrane conductance regulator), stört. Eine Beeinträchtigung dieses Kanals führt zu Entzündungen und Infektionen in der Lunge, die den Großteil der Morbidität und Mortalität verursachen. CF ist jedoch eine Multiorganerkrankung, die viele Gewebe einschließlich vaskulärer glatter Muskeln betrifft. Studien haben gezeigt, dass junge Menschen mit Mukoviszidose, die keine Entzündung und Infektion aufweisen, immer noch eine vaskuläre Dysfunktion aufweisen, gemessen anhand der durchflussbedingten Dilatation (FMD). In anderen Krankheitskohorten, u.a. Diabetes und Fettleibigkeit, wurde gezeigt, dass Ausdauersporteingriffe diese Beeinträchtigungen verbessern oder reduzieren. Langfristige Bewegungseingriffe sind jedoch riskant und kostenintensiv in Bezug auf Zeit und Ressourcen. Nichtsdestotrotz hat die aufkommende Forschung die akuten Auswirkungen von körperlicher Bewegung mit ihren langfristigen Vorteilen korreliert und befürwortet die Untersuchung akuter Bewegungseffekte auf FMD vor longitudinalen Studien. Die akuten Auswirkungen von körperlicher Bewegung auf FMD wurden bisher bei jungen Menschen mit Mukoviszidose nicht untersucht, konnten jedoch Erkenntnisse über die potenziellen Vorteile langfristiger Bewegungseingriffe liefern. Die Ziele dieser Studien waren, 1) die Zuverlässigkeit der FMD-Methode und ihre Anwendbarkeit zu entwickeln, um akute Übungseffekte zu untersuchen; 2) Vergleich der Grundlinien-FMD und der Akutübungswirkung bei FMD zwischen Jugendlichen mit und ohne CF; und 3) Zusammenhänge zwischen den akuten Auswirkungen von körperlicher Bewegung auf FMD und demographischen Merkmalen, der körperlichen Aktivität, der Lungenfunktion, der maximalen körperlichen Belastbarkeit oder den entzündlichen hsCRP-Spiegeln zu untersuchen. Methoden: Dreißig junge Freiwillige (10 CF-Patienten, 10 gesunde und 10 aktive, gesunde Kontrollpersonen) im Alter von 10 bis 30 Jahren führten zuvor Blutabnahmen, Lungenfunktionstests, maximale Belastungstests und Grundlinien-FMD-Messungen durch Rückkehr etwa 1 Woche später und Durchführung eines 30-minütigen Dauerlasttrainings bei 75% HFmax durch. FMD-Messungen wurden vor, unmittelbar nach, 30 Minuten nach und 1 Stunde nach konstantem Belastungstraining durchgeführt. ANOVAs und ANOVAs mit wiederholten Messungen wurden verwendet, um Unterschiede zwischen Gruppen bzw. Zeitpunkten zu untersuchen. Die lineare Regression wurde implementiert und evaluiert, um Korrelationen zwischen FMD und demographischen Merkmalen, körperlichen Aktivitätsniveaus, Lungenfunktion, maximaler Belastungskapazität oder inflammatorischen hsCRP-Spiegeln zu bestimmen. Für alle Vergleiche wurde die statistische Signifikanz auf einen p-Wert von α < 0,05 eingestellt. Ergebnisse: Jugendliche mit Mukoviszidose zeigten eine verminderte Lungenfunktion und maximale Belastbarkeit im Vergleich zu Kontrollpersonen. Baseline FMD (%) war auch in der CF-Gruppe (CF: 5.23% v nicht-CF: 8.27% v nicht-CF-aktive: 9.12%) signifikant verringert. Unmittelbar nach dem Training war die FMD in allen Gruppen mit CF, die immer noch die minimalste FMD aufwiesen, signifikant abgeschwächt (~40%). Follow-up-Messungen von FMD zeigte eine langsame Erholung in Richtung Baseline-Werte 30 Minuten nach dem Training und Verbesserungen in der CF-und nicht-CF-aktive Gruppen 60 Minuten nach dem Training. Die lineare Regression zeigte signifikante Korrelationen zwischen maximaler Belastungsfähigkeit (VO2-Peak), BMI und FMD unmittelbar nach dem Training. Feststellung: Diese neuen Ergebnisse bestätigen, dass die vaskuläre Dysfunktion der CF durch sportliche Betätigung akut verändert werden kann und dazu beitragen wird, die Bedeutung von Bewegung in CF-Populationen zu unterstreichen. Die potenziellen Vorteile von Langzeitübungsinterventionen bei vaskulärer Dysfunktion bei jungen CF-Patienten rechtfertigen weitere Untersuchungen. KW - cystic fibrosis KW - flow-mediated dilation KW - vascular dysfunction KW - exercise KW - Mukoviszidose KW - Fluss vermittelte Dilatation KW - vaskuläre Dysfunktion KW - Sporttraining Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-438938 ER - TY - THES A1 - Ramachandran, Varsha T1 - Massive star evolution, star formation, and feedback at low metallicity T1 - Massive Sternentwicklung, Sternentstehung, und das Feedback bei niedriger Metallizität BT - quantitative spectroscopy of OB stars in the Magellanic Clouds N2 - The goal of this thesis is to broaden the empirical basis for a better, comprehensive understanding of massive star evolution, star formation and feedback at low metallicity. Low metallicity massive stars are a key to understand the early universe. Quantitative information on metal-poor massive stars was sparse before. The quantitative spectroscopic studies of massive star populations associated with large-scale ISM structures were not performed at low metallicity before, but are important to investigate star-formation histories and feedback in detail. Much of this work relies on spectroscopic observations with VLT-FLAMES of ~500 OB stars in the Magellanic Clouds. When available, the optical spectroscopy was complemented by UV spectra from the HST, IUE, and FUSE archives. The two representative young stellar populations that have been studied are associated with the superbubble N 206 in the Large Magellanic Cloud (LMC) and with the supergiant shell SMC-SGS 1 in the Wing of the Small Magellanic Cloud (SMC), respectively. We performed spectroscopic analyses of the massive stars using the nonLTE Potsdam Wolf-Rayet (PoWR) model atmosphere code. We estimated the stellar, wind, and feedback parameters of the individual massive stars and established their statistical distributions. The mass-loss rates of N206 OB stars are consistent with theoretical expectations for LMC metallicity. The most massive and youngest stars show nitrogen enrichment at their surface and are found to be slower rotators than the rest of the sample. The N 206 complex has undergone star formation episodes since more than 30 Myr, with a current star formation rate higher than average in the LMC. The spatial age distribution of stars across the complex possibly indicates triggered star formation due to the expansion of the superbubble. Three very massive, young Of stars in the region dominate the ionizing and mechanical feedback among hundreds of other OB stars in the sample. The current stellar wind feedback rate from the two WR stars in the complex is comparable to that released by the whole OB sample. We see only a minor fraction of this stellar wind feedback converted into X-ray emission. In this LMC complex, stellar winds and supernovae equally contribute to the total energy feedback, which eventually powered the central superbubble. However, the total energy input accumulated over the time scale of the superbubble significantly exceeds the observed energy content of the complex. The lack of energy along with the morphology of the complex suggests a leakage of hot gas from the superbubble. With a detailed spectroscopic study of massive stars in SMC-SGS 1, we provide the stellar and wind parameters of a large sample of OB stars at low metallicity, including those in the lower mass-range. The stellar rotation velocities show a broad, tentatively bimodal distribution, with Be stars being among the fastest. A few very luminous O stars are found close to the main sequence, while all other, slightly evolved stars obey a strict luminosity limit. Considering additional massive stars in evolved stages, with published parameters and located all over the SMC, essentially confirms this picture. The comparison with single-star evolutionary tracks suggests a dichotomy in the fate of massive stars in the SMC. Only stars with an initial mass below 30 solar masses seem to evolve from the main sequence to the cool side of the HRD to become a red supergiant and to explode as type II-P supernova. In contrast, more massive stars appear to stay always hot and might evolve quasi chemically homogeneously, finally collapsing to relatively massive black holes. However, we find no indication that chemical mixing is correlated with rapid rotation. We measured the key parameters of stellar feedback and established the links between the rates of star formation and supernovae. Our study demonstrates that in metal-poor environments stellar feedback is dominated by core-collapse supernovae in combination with winds and ionizing radiation supplied by a few of the most massive stars. We found indications of the stochastic mode of star formation, where the resulting stellar population is fully capable of producing large-scale structures such as the supergiant shell SMC-SGS 1 in the Wing. The low level of feedback in metal-poor stellar populations allows star formation episodes to persist over long timescales. Our study showcases the importance of quantitative spectroscopy of massive stars with adequate stellar-atmosphere models in order to understand star-formation, evolution, and feedback. The stellar population analyses in the LMC and SMC make us understand that massive stars and their impact can be very different depending on their environment. Obviously, due to their different metallicity, the massive stars in the LMC and the SMC follow different evolutionary paths. Their winds differ significantly, and the key feedback agents are different. As a consequence, the star formation can proceed in different modes. N2 - Massereiche Sterne, also Sterne, die ihre Entwicklung mit mehr als acht Sonnenmassen starten, spielen die Hauptrolle in der chemischen Entwicklung des Universums. Darüberhinaus formen sie das sie umgebende interstellare Medium, aus dem sie entstanden sind, durch ihre ionisierende Strahlung und ihre starken Massenausflüsse in Form von Sternwinden und Supernovaexplosionen, das sogenannte Feedback. Diese Arbeit verbreitert die empirische Basis für ein besseres Verständnis der Entwicklung, Entstehung und des Feedbacks massereicher Sterne bei niedriger Metallizität, wie sie auch im frühen Universum herrschte, wesentlich. Hierfür wurden die Daten von zwei großen spektroskopischen Beobachtungskampagnen in der Großen (LMC) und in der Kleinen Magellanschen Wolke (SMC) - beides Galaxien mit erniedrigter Metallizität - mittels des Non-LTE Potsdam Wolf-Rayet (PoWR) Model Atmosphere Codes quantitativ analysiert, um wesentliche Stern-, Wind- und Feedbackparameter sowie ihre statistische Verteilung zu bestimmen und damit ein globales Bild der massereichen Sterne und ihrer Wechselwirkung mit der Umgebung zu erhalten. Diese Analysen stützen sich hauptsächlich auf Spektren aus dem optischen Bereich, die mit dem Fibre Large Array Multi Element Spectrograph (FLAMES) am Very Large Telescope (VLT) von ~ 500 OBSternen in den Magellanschen Wolken aufgenommen worden, ergänzt durch UV-Spektren aus den Archiven verschiedener UV-Satelliten. Die zwei repräsentativen jungen Sternpopulationen, die untersucht wurden, gehören zur Superbubble N206 in der LMC beziehungsweise zur Supergiant Shell SMC-SGS 1 im Wing der SMC. Die analysierte Stichprobe des N206-Komplexes umfasst alle heißen massereichen Sterne vom Typ OB, Of, und Wolf-Rayet, wobei letztere weit entwickelt und durch starke Sternwinde gekennzeichnet sind. Auf Basis unsere Analysen fanden wir heraus, dass der Komplex seit 30 Mio. Jahren mehrere Sternentstehungsepisoden durchlief. Die räumliche Altersverteilung dieser Sterne über den Komplex weist möglicherweise auf getriggerte Sternentstehung infolge der Ausdehnung der Superbubble hin. Drei sehr massereiche, junge Of-Sterne in dieser Region dominieren das ionisierende und mechanische Feedback unter hunderten von anderen OBSternen in der Region. Die SMC hat eine noch niedrigere Metallizität als die LMC, was sich u.a. auch in der Sternentwicklung niederschlagen sollte. Daher wurde mittels der Daten der Spektralanalysen der Supergiant Shell SMC-SGS 1 in der SMC zusammen mit weiteren Daten aus der Literatur das am dichtesten besiedelte Hertzsprung-Russell-Diagramm der massereichen Sterne in der SMC erstellt. Der Vergleich mit Sternentwicklungsrechnungen suggeriert eine Zweiteilung der Entwicklungswege massereicher Sterne in der SMC. Dabei scheint die gemessene Rotation der Sterne überraschenderweise keinen großen Einfluss zu haben. Wir vermuten daher, dass die Masse und Metallizität der Sterne zusammen hauptverantwortlich für die beobachtete Zweiteilung sind. Desweiteren konnte erstmalig auf einer breiten Datenbasis aufbauend die Korrelation zwischen Metallizität und Stärke von OB-Sternwinden etabliert werden, allerdings sind die ermittelten Windstärken weit schwächer als vorhergesagt (Weak-Wind-Problem) und in Sternentwicklungsrechnungen verwendet. Die Alter und räumliche Verteilung von massereichen Sternen zeigen, dass Sternentstehung seit über 100 Mio. Jahren in der ruhigen Region niedriger Dichte in der SMC eher stochastisch als sequenziell voranschreitet und höher ist als von Messungen diffuser Hα-Emission abgeleitet wurde. Das Feedback in dieser Region wird aufgrund der schwachen Sternwinde durch Supernovae bestimmt, während die Ionization der gesamten Region durch einen einzigen sehr heißen und leuchtkräftigen Wolf-Rayet-Stern dominiert wird. Die niedrige Feedbackrate in metallarmen Sternpopulationen scheint für die Größe und das Überleben von Molekülwolken förderlich zu sein, sodass Sternentstehungsepisoden über einen längeren Zeitraum ablaufen. Solch ausgedehnte Sternentstehung kann dazu führen, dass es eine fortwährende Quelle von ionisierenden Photonen gibt, welche in das zirkumgalaktische Medium durch Löcher oder Kanäle entweichen können, die durch Supernovae erzeugt worden. Diese Studie regt an, dass Sternentstehungsregionen mit langer Geschichte ihre Spuren im umgebenden ISM auch bei niedriger Metallizität hinterlassen werden. Die zukünftigen großräumigen Spektroskopiestudien von weiter entfernten Galaxien mit noch geringeren Metallizitäten können weitere Einsichten in unser derzeitiges Verständnis von massereichen Sternen bringen. KW - massive stars KW - stellar feedback KW - spectroscopy KW - stellar evolution KW - star formation KW - massive Sterne KW - Sternfeedback KW - Spektroskopie KW - Sternentwicklung KW - Sternentstehung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432455 ER - TY - THES A1 - Rabe, Sophie T1 - Wirksamkeit einer telemedizinisch assistierten Bewegungstherapie für die postrehabilitative Versorgung von Patienten mit Knie- oder Hüft-Totalendoprothese im berufsfähigen Alter T1 - Telerehabilitation as a supplement to aftercare programs in patients after total knee or hip replacement N2 - Einleitung Die Implantation einer Knie- oder Hüft-Totalendoprothese (TEP) ist eine der häufigsten operativen Eingriffe. Im Anschluss an die Operation und die postoperative Rehabilitation stellt die Bewegungstherapie einen wesentlichen Bestandteil der Behandlung zur Verbesserung der Gelenkfunktion und der Lebensqualität dar. In strukturschwachen Gebieten werden entsprechende Angebote nur in unzureichender Dichte vorgehalten. Zudem zeichnet sich ein flächendeckender Fachkräftemangel im Bereich der Physiotherapie ab. Die Tele-Nachsorge bietet daher einen innovativen Ansatz für die postrehabilitative Versorgung der Patienten. Das Ziel der vorliegenden Untersuchung war die Überprüfung der Wirksamkeit einer interaktiven Tele-Nachsorgeintervention für Patienten mit Knie- oder Hüft-TEP im Vergleich zur herkömmlichen Versorgung (usual care). Dazu wurden die Funktionalität und die berufliche Wiedereingliederung untersucht. Methode Zwischen August 2016 und August 2017 wurden 111 Patienten (54,9 ± 6,8 Jahre, 54,3 % weiblich) zu Beginn ihrer stationären Anschlussheilbehandlung nach Implantation einer Knie- oder Hüft-TEP in diese randomisiert, kontrolliert, multizentrische Studie eingeschlossen. Nach Entlassung aus der orthopädischen Anschlussrehabilitation (Baseline) führte die Interventionsgruppe (IG) ein dreimonatiges interaktives Training über ein Telerehabilitationssystem durch. Hierfür erstellte ein betreuender Physiotherapeut einen individuellen Trainingsplan aus 38 Übungen zur Verbesserung der Kraft sowie der posturalen Kontrolle. Zur Anpassung des Trainingsplans übermittelte das System dem Physiotherapeuten Daten zur Quantität sowie zur Qualität des Trainings. Die Kontrollgruppe (KG) konnte die herkömmlichen Versorgungsangebote nutzen. Zur Beurteilung der Wirksamkeit der Intervention wurde die Differenz der Verbesserung im 6MWT zwischen der IG und der KG nach drei Monaten als primärer Endpunkt definiert. Als sekundäre Endpunkte wurden die Return-to-Work-Rate sowie die funktionelle Mobilität mittels des Stair Ascend Tests, des Five-Times-Sit-to-Stand Test und des Timed Up and Go Tests untersucht. Weiterhin wurden die gesundheitsbezogene Lebensqualität mit dem Short-Form 36 (SF-36) und die gelenkbezogenen Einschränkungen mit dem Western Ontario and McMaster Universities Osteoarthritis Index (WOMAC) evaluiert. Der primäre und die sekundären Endpunkte wurden anhand von baseline-adjustierten Kovarianzanalysen im intention-to-treat-Ansatz ausgewertet. Zusätzlich wurde die Teilnahme an Nachsorgeangeboten und die Adhärenz der Interventionsgruppe an der Tele-Nachsorge erfasst und evaluiert. Ergebnisse Zum Ende der Intervention wiesen beide Gruppen einen statistisch signifikanten Anstieg ihrer 6MWT Strecke auf (p < 0,001). Zu diesem Zeitpunkt legten die Teilnehmer der IG im Mittel 530,8 ± 79,7 m, die der KG 514,2 ± 71,2 m zurück. Dabei betrug die Differenz der Verbesserung der Gehstrecke in der IG 88,3 ± 57,7 m und in der KG 79,6 ± 48,7 m. Damit zeigt der primäre Endpunkt keine signifikanten Gruppenunterschiede (p = 0,951). Bezüglich der beruflichen Wiedereingliederung konnte jedoch eine signifikant höhere Rate in der IG (64,6 % versus 46,2 %; p = 0,014) festgestellt werden. Für die sekundären Endpunkte der funktionellen Mobilität, der Lebensqualität und der gelenkbezogenen Beschwerden belegen die Ergebnisse eine Gleichwertigkeit beider Gruppen zum Ende der Intervention. Schlussfolgerung Die telemedizinisch assistierte Bewegungstherapie für Knie- oder Hüft-TEP Patienten ist der herkömmlichen Versorgung zur Nachsorge hinsichtlich der erzielten Verbesserungen der funktionellen Mobilität, der gesundheitsbezogenen Lebensqualität und der gelenkbezogenen Beschwerden gleichwertig. In dieser Patientenpopulation ließen sich klinisch relevante Verbesserungen unabhängig von der Form der Bewegungstherapie erzielen. Im Hinblick auf die berufliche Wiedereingliederung zeigte sich eine signifikant höhere Rate in der Interventionsgruppe. Die telemedizinisch assistierte Bewegungstherapie scheint eine geeignete Versorgungsform der Nachsorge zu sein, die orts- und zeitunabhängig durchgeführt werden kann und somit den Bedürfnissen berufstätiger Patienten entgegenkommt und in den Alltag der Patienten integriert werden kann. Die Tele-Nachsorge sollte daher als optionale und komplementäre Form der postrehabilitativen Nachsorge angeboten werden. Auch im Hinblick auf den zunehmenden Fachkräftemangel im Bereich der Physiotherapie und bestehende Versorgungslücken in strukturschwachen Gebieten kann der Einsatz der Tele-Nachsorge innovative und bedarfsgerechte Lösungsansätze bieten. N2 - Background Total hip or knee replacement is one of the most frequent surgical procedures. Physical rehabilitation following total hip or knee replacement and the subsequent rehabilitation is an essential part of the therapy to improve functional outcomes and quality of life. After discharge of inpatient rehabilitation, a subsequent post-rehabilitation exercise therapy is needed to maintain functional mobility. Telerehabilitation may be a potential innovative treatment approach. The study aimed to investigate the superiority of an interactive telerehabilitation intervention for patients after total hip or knee replacement in comparison to usual care regarding physical performance, functional mobility, quality of life and joint-related impairment. Methods This is an open, randomized, controlled, multicenter study with two prospective arms. 111 eligible and consenting participants with total knee or hip replacement were recruited at admission to subsequent inpatient rehabilitation. After comprehensive three-week inpatient rehabilitation, the intervention group performed a three-month interactive home-based exercise training with a telerehabilitation system. For this purpose, a physiotherapist created an individual training plan composed of 38 different strength and balance exercises, which were implemented in the system. Data about quality and frequency of training were transmitted to the physiotherapist for further adjustment. Communication between patient and physiotherapist was possible using the system. The control group received voluntary usual aftercare programs. Baseline assessments were investigated after discharge from rehabilitation, final assessments three months later. The primary outcome was the difference in improvement between intervention and control group in 6-minute walk distance after three months. Secondary outcomes included differences in Stair Ascend Test, Five-Times-Sit-to-Stand Test, Timed Up and Go Test to assess mobility and the SF 36 as well as the WOMAC Index to assess quality of life and joint-related impairment. Furthermore, the adherence for aftercare programs and the interactive home-based exercise program were evaluated. Results At the end of intervention both groups revealed a statistically significant increase in their 6-minute walk distance (p < 0,001). At that time participants of the intervention group had an absolute 6-minute walk distance of 530,8 ± 79,7 m and the control group had a distance of 514,2 ± 71,2 m. The difference in improvement for the primary outcome for the intervention group was 88,3 ± 57,7 m and 79,6 ± 48,7 for the control group. No statistically significant difference was demonstrated (p = 0,951). However, regarding the return to work rate, there was a significantly higher rate in the intervention group (64,6 % versus 46,2 %; p = 0,05). The secondary endpoints for functional mobility, quality of life and joint-related complaints demonstrated no significant difference between groups at the end of intervention. Adherence was above 75 % for the first seven weeks. Discussion The results show that the interactive home-based exercise training is equal to usual care regarding the functional mobility, the quality of life and joint-related impairments. In this population clinically, significant improvements were shown independently from the form of exercise therapy. Whereas the return to work rate turned out to be significantly increased for the intervention group. The interactive home-based exercise training seems to be an appropriate form of healthcare provision that does not depend on specific locations or appointment allocations and seems to be suitable and feasible for employed persons. Therefore, this interactive home-based aftercare program should be offered as an optional health care service that can consider patients’ individual needs. Regarding an increasing shortage in physiotherapists and an additional supply gap in rural areas, the implementation of telerehabilitation may offer an innovative and needs-oriented approach. KW - Telerehabilitation KW - telerehabilitation KW - total knee replacement KW - total hip replacement KW - Reha-Nachsorge KW - Totalendoprothese Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430556 ER - TY - THES A1 - Raatz, Michael T1 - Strategies within predator-prey interactions – from individuals to ecosystems T1 - Strategien in Räuber-Beute Interaktionen – vom Individuum bis zum Ökosystem N2 - Predator-prey interactions provide central links in food webs. These interaction are directly or indirectly impacted by a number of factors. These factors range from physiological characteristics of individual organisms, over specifics of their interaction to impacts of the environment. They may generate the potential for the application of different strategies by predators and prey. Within this thesis, I modelled predator-prey interactions and investigated a broad range of different factors driving the application of certain strategies, that affect the individuals or their populations. In doing so, I focused on phytoplankton-zooplankton systems as established model systems of predator-prey interactions. At the level of predator physiology I proposed, and partly confirmed, adaptations to fluctuating availability of co-limiting nutrients as beneficial strategies. These may allow to store ingested nutrients or to regulate the effort put into nutrient assimilation. We found that these two strategies are beneficial at different fluctuation frequencies of the nutrients, but may positively interact at intermediate frequencies. The corresponding experiments supported our model results. We found that the temporal structure of nutrient fluctuations indeed has strong effects on the juvenile somatic growth rate of {\itshape Daphnia}. Predator colimitation by energy and essential biochemical nutrients gave rise to another physiological strategy. High-quality prey species may render themselves indispensable in a scenario of predator-mediated coexistence by being the only source of essential biochemical nutrients, such as cholesterol. Thereby, the high-quality prey may even compensate for a lacking defense and ensure its persistence in competition with other more defended prey species. We found a similar effect in a model where algae and bacteria compete for nutrients. Now, being the only source of a compound that is required by the competitor (bacteria) prevented the competitive exclusion of the algae. In this case, the essential compounds were the organic carbon provided by the algae. Here again, being indispensable served as a prey strategy that ensured its coexistence. The latter scenario also gave rise to the application of the two metabolic strategies of autotrophy and heterotrophy by algae and bacteria, respectively. We found that their coexistence allowed the recycling of resources in a microbial loop that would otherwise be lost. Instead, these resources were made available to higher trophic levels, increasing the trophic transfer efficiency in food webs. The predation process comprises the next higher level of factors shaping the predator-prey interaction, besides these factors that originated from the functioning or composition of individuals. Here, I focused on defensive mechanisms and investigated multiple scenarios of static or adaptive combinations of prey defense and predator offense. I confirmed and extended earlier reports on the coexistence-promoting effects of partially lower palatability of the prey community. When bacteria and algae are coexisting, a higher palatability of bacteria may increase the average predator biomass, with the side effect of making the population dynamics more regular. This may facilitate experimental investigations and interpretations. If defense and offense are adaptive, this allows organisms to maximize their growth rate. Besides this fitness-enhancing effect, I found that co-adaptation may provide the predator-prey system with the flexibility to buffer external perturbations. On top of these rather internal factors, environmental drivers also affect predator-prey interactions. I showed that environmental nutrient fluctuations may create a spatio-temporal resource heterogeneity that selects for different predator strategies. I hypothesized that this might favour either storage or acclimation specialists, depending on the frequency of the environmental fluctuations. We found that many of these factors promote the coexistence of different strategies and may therefore support and sustain biodiversity. Thus, they might be relevant for the maintenance of crucial ecosystem functions that also affect us humans. Besides this, the richness of factors that impact predator-prey interactions might explain why so many species, especially in the planktonic regime, are able to coexist. N2 - Organismen interagieren miteinander und mit ihrer Umwelt. Innerhalb dieses Netzwerks von Interaktionen sind Fraßbeziehungen zwischen Räubern und ihrer Beute von zentraler Bedeutung. Sie werden auf verschiedenen Ebenen von unterschiedlichen Faktoren beeinflusst, was zur Ausprägung von diversen Strategien von Räuber oder Beute führen kann. Diese Faktoren und die Strategien die sie hervor bringen sind Gegenstand dieser Doktorarbeit. In mehreren Modellierungsstudien habe ich vielseitige Faktoren untersucht, die sich dem Aufbau einzelner Organismen, Verteidigungs- und Angriffsmechanismen sowie Umwelteinflüssen zuordnen lassen. Dabei konzentrierte ich mich auf ein etabliertes Modellsystem zur Erforschung von Räuber-Beute-Dynamiken und untersuchte die Fraßbeziehung zwischen Phytoplankton als Beute und Zooplankton als Räuber. Ich fand heraus, dass die Bereitstellung von essentiellen Ressourcen für Konkurrenten oder Räuber eine Strategie sein kann, mit der Beutearten sich vor dem Aussterben schützen können. Auch die direkte Verteidigung gegen den Räuber ist eine häufige Strategie zur Verringerung des Fraßdrucks und kann ebenfalls Koexistenz fördern. Für anpassungsfähige Verteidigung der Beute und Angriffsstärke des Räubers konnte ich zeigen, dass dies sowohl die Fitness erhöhen, als auch die Robustheit der Räuber-Beute-Dynamiken gegen äußere Störungen erhöhen kann. Weiterhin fand ich heraus, dass physiologische Anpassungsmechanismen wie Speicherung oder anpassungsfähige Aufnahme von Nährstoffen die Wachstumsrate des Räubers verbessern können, wenn die Qualität der verfügbaren Beute in der Umwelt des Räubers fluktuiert. Viele der Strategien, die ich in dieser Arbeit herausgestellt habe, können die Koexistenz von verschiedenen Arten fördern und damit zu erhöhter Biodiversität beitragen, welche wiederum entscheidend ist für die Stabilität von Ökosystemen und deren Nutzbarkeit. KW - predator-prey KW - biodiversity KW - modelling KW - Räuber-Beute KW - Biodiversität KW - Modellierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426587 ER - TY - THES A1 - Qin, Qing T1 - Chemical functionalization of porous carbon-based materials to enable novel modes for efficient electrochemical N2 fixation T1 - Chemische Funktionalisierung von porösen Materialien auf Kohlenstoffbasis zur Ermöglichung neuartiger Verfahren für eine effiziente elektrochemische N2-Fixierung N2 - The central motivation of the thesis was to provide possible solutions and concepts to improve the performance (e.g. activity and selectivity) of electrochemical N2 reduction reaction (NRR). Given that porous carbon-based materials usually exhibit a broad range of structural properties, they could be promising NRR catalysts. Therefore, the advanced design of novel porous carbon-based materials and the investigation of their application in electrocatalytic NRR including the particular reaction mechanisms are the most crucial points to be addressed. In this regard, three main topics were investigated. All of them are related to the functionalization of porous carbon for electrochemical NRR or other electrocatalytic reactions. In chapter 3, a novel C-TixOy/C nanocomposite has been described that has been obtained via simple pyrolysis of MIL-125(Ti). A novel mode for N2 activation is achieved by doping carbon atoms from nearby porous carbon into the anion lattice of TixOy. By comparing the NRR performance of M-Ts and by carrying out DFT calculations, it is found that the existence of (O-)Ti-C bonds in C-doped TixOy can largely improve the ability to activate and reduce N2 as compared to unoccupied OVs in TiO2. The strategy of rationally doping heteroatoms into the anion lattice of transition metal oxides to create active centers may open many new opportunities beyond the use of noble metal-based catalysts also for other reactions that require the activation of small molecules as well. In chapter 4, a novel catalyst construction composed of Au single atoms decorated on the surface of NDPCs was reported. The introduction of Au single atoms leads to active reaction sites, which are stabilized by the N species present in NDPCs. Thus, the interaction within as-prepared AuSAs-NDPCs catalysts enabled promising performance for electrochemical NRR. For the reaction mechanism, Au single sites and N or C species can act as Frustrated Lewis pairs (FLPs) to enhance the electron donation and back-donation process to activate N2 molecules. This work provides new opportunities for catalyst design in order to achieve efficient N2 fixation at ambient conditions by utilizing recycled electric energy. The last topic described in chapter 5 mainly focused on the synthesis of dual heteroatom-doped porous carbon from simple precursors. The introduction of N and B heteroatoms leads to the construction of N-B motives and Frustrated Lewis pairs in a microporous architecture which is also rich in point defects. This can improve the strength of adsorption of different reactants (N2 and HMF) and thus their activation. As a result, BNC-2 exhibits a desirable electrochemical NRR and HMF oxidation performance. Gas adsorption experiments have been used as a simple tool to elucidate the relationship between the structure and catalytic activity. This work provides novel and deep insights into the rational design and the origin of activity in metal-free electrocatalysts and enables a physically viable discussion of the active motives, as well as the search for their further applications. Throughout this thesis, the ubiquitous problems of low selectivity and activity of electrochemical NRR are tackled by designing porous carbon-based catalysts with high efficiency and exploring their catalytic mechanisms. The structure-performance relationships and mechanisms of activation of the relatively inert N2 molecules are revealed by either experimental results or DFT calculations. These fundamental understandings pave way for a future optimal design and targeted promotion of NRR catalysts with porous carbon-based structure, as well as study of new N2 activation modes. N2 - Die zentrale Motivation der Arbeit war es, mögliche Lösungen und Konzepte zur Verbesserung der Leistung (z.B. Aktivität und Selektivität) der elektrochemischen N2-Reduktionsreaktion (NRR) anzubieten. Da poröse Materialien auf Kohlenstoffbasis in der Regel ein breites Spektrum an strukturellen Eigenschaften aufweisen, könnten sie vielversprechende NRR-Katalysatoren sein. Daher sind das fortgeschrittene Design neuartiger poröser Materialien auf Kohlenstoffbasis und die Untersuchung ihrer Anwendung in der elektrokatalytischen NRR einschließlich der besonderen Reaktionsmechanismen die wichtigsten Punkte, die angegangen werden müssen. In diesem Zusammenhang wurden drei Hauptthemen untersucht. Alle von ihnen stehen im Zusammenhang mit der Funktionalisierung von porösem Kohlenstoff für elektrochemische NRR oder andere elektrokatalytische Reaktionen. In Kapitel 3 wurde ein neuartiger C-TixOy/C-Nanokomposit beschrieben, der durch einfache Pyrolyse von MIL-125(Ti) gewonnen wurde. Ein neuartiger Modus für die N2-Aktivierung wird durch Dotierung von Kohlenstoffatomen aus nahegelegenem porösem Kohlenstoff in das Aniongitter von TixOy erreicht. Durch den Vergleich der NRR-Leistung von M-Ts und die Durchführung von DFT-Berechnungen wird festgestellt, dass die Existenz von (O-)Ti-C-Bindungen in C-dotiertem TixOy die Fähigkeit zur Aktivierung und Reduktion von N2 im Vergleich zu unbesetzten OVs in TiO2 erheblich verbessern kann. Die Strategie, Heteroatome rational in das Aniongitter von Übergangsmetalloxiden zu dotieren, um aktive Zentren zu schaffen, kann viele neue Möglichkeiten eröffnen, die über den Einsatz von edelmetallbasierten Katalysatoren hinausgehen, auch für andere Reaktionen, die ebenfalls die Aktivierung von kleinen Molekülen erfordern. In Kapitel 4 wurde über eine neuartige Katalysatorkonstruktion aus Au-Einzelatomen berichtet, die auf der Oberfläche von NDPCs dekoriert sind. Die Einführung von Au-Einzelatomen führt zu aktiven Reaktionsstellen, die durch die in NDPCs vorhandenen N-Spezies stabilisiert werden. So ermöglichte die Interaktion innerhalb von hergestellten AuSAs-NDPCs-Katalysatoren eine vielversprechende Leistung für die elektrochemische NRR. Für den Reaktionsmechanismus können Au-Einzelstandorte und N- oder C-Spezies als frustrierte Lewis-Paare (FLPs) fungieren, um den Elektronenabgabe- und Rückgabeprozess zur Aktivierung von N2-Molekülen zu verbessern. Diese Arbeit bietet neue Möglichkeiten für das Design von Katalysatoren, um eine effiziente N2-Fixierung unter Umgebungsbedingungen durch die Nutzung recycelter elektrischer Energie zu erreichen. Das letzte in Kapitel 5 beschriebene Thema konzentrierte sich hauptsächlich auf die Synthese von dualem heteroatomdotiertem porösem Kohlenstoff aus einfachen Vorläufern. Die Einführung von N- und B-Heteroatomen führt zur Konstruktion von N-B-Motiven und frustrierten Lewis-Paaren in einer mikroporösen Architektur, die ebenfalls reich an Punktdefekten ist. Dies kann die Adsorptionskraft verschiedener Reaktanden (N2 und HMF) und damit deren Aktivierung verbessern. Infolgedessen weist BNC-2 eine wünschenswerte elektrochemische NRR- und HMF-Oxidationsleistung auf. Gasadsorptionsexperimente wurden als einfaches Werkzeug zur Aufklärung des Zusammenhangs zwischen Struktur und katalytischer Aktivität eingesetzt. Diese Arbeit liefert neue und tiefe Einblicke in das rationale Design und den Ursprung der Aktivität bei metallfreien Elektrokatalysatoren und ermöglicht eine physikalisch tragfähige Diskussion der aktiven Motive, sowie die Suche nach deren weiteren Anwendungen. Während dieser Arbeit, die allgegenwärtigen Probleme der niedrigen Selektivität und Aktivität der elektrochemischen NRR werden durch die Gestaltung poröser Katalysatoren auf Kohlenstoffbasis mit hoher Effizienz und die Erforschung ihrer katalytischen Mechanismen. Die Struktur-Leistungsbeziehungen und Aktivierungsmechanismen der relativ inerten N2-Moleküle werden entweder durch experimentelle Ergebnisse oder DFT-Berechnungen aufgezeigt. Diese grundlegenden Erkenntnisse ebnen den Weg für ein zukünftiges optimales Design und eine gezielte Förderung von NRR-Katalysatoren mit poröser Kohlenstoffstruktur, sowie für die Untersuchung neuer N2-Aktivierungsmodi. KW - N2 fixation KW - porous carbon-based materials KW - ammonia KW - selectivity KW - N2-Fixierung KW - porösen Materialien auf Kohlenstoffbasis KW - Ammoniak KW - Selektivität Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443397 ER - TY - THES A1 - Pérez Medrano, Cuauhtémoc T1 - Ficción herética T1 - Die Insel als Abdruck BT - disimulaciones insulares en la Cuba contemporánea BT - Vert(ä)uschungen in der zeitgenössischen kubanischen Prosa N2 - Mit der kubanischen Wirtschaftskrise entstanden neue literarische Gestaltungsprozesse nationaler Identitätskonstruktionen. Die vorliegende Analyse geht der zeitgenössischen Literatur Kubas nach, in der soziale, kulturelle und politische Paradoxe der post-revolutionären Weltanschauung zum Vorschein kommen und der Figur der „Insel“ bzw. „Insularität“ eine große Bedeutung für die Neukonfiguration der Nation zukommt. Die „Insularität“ drückt in literarischen Texten verschiedene Aneignungen des Raumes und somit auch eine Weltanschauungen aus. Die literarische Figur der „Insel“ kann hypothetisch als „visuelles Phänomen“ (Ette 2002) konzipiert werden, das durch soziokulturelle Umstände konfiguriert wird. Unterschiedliche postkommunistische Erfahrungen bilden sog. „erlebnisweltliche“ Repräsentationen und somit literarische und soziale Identitätsbilder. Im Verlauf der Zeit werden die Metapher der „Insel“ bzw. der „Insularität“ anders beschrieben. Erste Untersuchungen der Metapher der „Insel“ bzw. der „Insularität“ finden sich in den Texten Noche insular (Lezama Lima 2000) und La isla en peso (Piñera 1998). Die Metapher wird in den Begrifflichkeiten der „Simulation“ und „Dissimulation“ (Sarduy 1982) oder auch einer „visuellen Erscheinung“ als „Grund-Ekphrasis“ (Pimentel 2001) beschrieben. Demgegenüber stellen spätere Arbeiten die literarische Figur der „Insel“ als ein Instrument der Dekonstruktion der Nationalliteratur Kubas dar (Rojas 1998; Nuez 1998, Benitez Rojo 1998). In zeitgenössischen Analysen wird die Metapher in ihrer jeweiligen Beziehungen zur Repräsentation und zum „Lebenswissen“ (Ette 2010) herausgearbeitet. Die Repräsentation der “Insel” bzw. der “Insularität” wird in der vorliegenden Arbeit anhand des soziokulturellen Kontextes in den letzten dreißig Jahren u.a. in den Romanen von Abilio Estevez Tuyo es el reino (1998), Atilio Caballero La última playa (1999), Daniel Díaz Mantilla Regreso a Utopía (2007) sowie den Erzählungen von Ena Lucia Portela Huracan (2000), Antonio José Ponte Un nuevo arte de hacer ruinas (2005), Emerio Medina Isla (2005), Orlando Luís Pardo Tokionama (2009), Ahmel Echeverria Isla (2014) und Anesly Negrín Isla a mediodía (2014) untersucht. N2 - La metáfora de la «isla» en la narrativa cubana contemporánea engloba toda una serie de complejidades simbólicas dependientes de la vivencia del espacio y el tiempo. Su potencial visual se manifiesta u oculta las propias vivencias insulares de los escritores cubanos. En los últimos 30 años en Cuba, los fenómenos políticos económicos y sociales han modificado categóricamente la percepción y la configuración del plano social e individual frente a las exigencias globales (Fornet 2006, Rojas 1999, 2002, 2006). Se ha confirmado una sensación de acinesia e ingravidez (Casamayor 2013) y se ha presentado una actitud «herética» por parte de los narradores cubanos, quienes se confrontan con las ideas de la postmodernidad, lo postsoviético o postutópico, reafirmando así una sensibilidad presentista (Guerrero 2016). Estos autores presentan resonancias y reivindicaciones de los imaginarios insulares de autores y de tradiciones estéticas dentro y fuera de la isla como José Lezama Lima, Virgilio Piñera, Guillermo Cabrera Infante, Reinaldo Arenas y Severo Sarduy). El análisis de las écfrasis insulares permite examinar las dinámicas de representación y de sentido: disimulación: la disimulación, la anamorfosis y la trompe l’oeil (Sarduy 1981). La novela Tuyo es el reino (1998) de Abilio Estévez es un modelo desde el que se localizará las relaciones de sentido entre canon literario y los referentes socioculturales de las variaciones somatopológicas de la isla en la narrativa cubana actual: Ena Lucía Portela, Atilio Caballero, Antonio José Ponte, Daniel Díaz Mantilla, Emerio Medina, Orlando Luis Pardo, Anisley Negrin y Ahmel Echeverría, entre otros. T3 - Potsdamer Bibliothek der WeltRegionen (PoWeR) - 1 KW - kubanische Literatur KW - Insel KW - Literaturkritik KW - Cuban literature KW - island KW - literary criticism Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-424490 SN - 978-3-86956-454-8 SN - 2629-2548 SN - 2629-253X PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Pohlenz, Julia T1 - Structural insights into sodium-rich silicate - carbonate glasses and melts T1 - Strukturelle Eigenschaften von natriumreichen silikatisch-karbonatischen Gläsern und Schmelzen mittels in-situ XAFS an Spurenelementen und Molekular Dynamik BT - a combined study of trace element in-situ XAFS and Molecular Dynamics N2 - Carbonate-rich silicate and carbonate melts play a crucial role in deep Earth magmatic processes and their melt structure is a key parameter, as it controls physical and chemical properties. Carbonate-rich melts can be strongly enriched in geochemically important trace elements. The structural incorporation mechanisms of these elements are difficult to study because such melts generally cannot be quenched to glasses, which are usually employed for structural investigations. This thesis investigates the influence of CO2 on the local environments of trace elements contained in silicate glasses with variable CO2 concentrations as well as in silicate and carbonate melts. The compositions studied include sodium-rich peralkaline silicate melts and glasses and carbonate melts similar to those occurring naturally at Oldoinyo Lengai volcano, Tanzania. The local environments of the three elements yttrium (Y), lanthanum (La) and strontium (Sr) were investigated in synthesized glasses and melts using X-ray absorption fine structure (XAFS) spectroscopy. Especially extended X-ray absorption fine structure spectroscopy (EXAFS) provides element specific information on local structure, such as bond lengths, coordination numbers and the degree of disorder. To cope with the enhanced structural disorder present in glasses and melts, EXAFS analysis was based on fitting approaches using an asymmetric distribution function as well as a correlation model according to bond valence theory. Firstly, silicate glasses quenched from high pressure/temperature melts with up to 7.6 wt % CO2 were investigated. In strongly and extremely peralkaline glasses the local structure of Y is unaffected by the CO2 content (with oxygen bond lengths of ~ 2.29 Å). Contrary, the bond lengths for Sr-O and La-O increase with increasing CO2 content in the strongly peralkaline glasses from ~ 2.53 to ~ 2.57 Å and from ~ 2.52 to ~ 2.54 Å, respectively, while they remain constant in extremely peralkaline glasses (at ~ 2.55 Å and 2.54 Å, respectively). Furthermore, silicate and unquenchable carbonate melts were investigated in-situ at high pressure/temperature conditions (2.2 to 2.6 GPa, 1200 to 1500 °C) using a Paris-Edinburgh press. A novel design of the pressure medium assembly for this press was developed, which features increased mechanical stability as well as enhanced transmittance at relevant energies to allow for low content element EXAFS in transmission. Compared to glasses the bond lengths of Y-O, La-O and Sr-O are elongated by up to + 3 % in the melt and exhibit higher asymmetric pair distributions. For all investigated silicate melt compositions Y-O bond lengths were found constant at ~ 2.37 Å, while in the carbonate melt the Y-O length increases slightly to 2.41 Å. The La-O bond lengths in turn, increase systematically over the whole silicate – carbonate melt joint from 2.55 to 2.60 Å. Sr-O bond lengths in melts increase from ~ 2.60 to 2.64 Å from pure silicate to silicate-bearing carbonate composition with constant elevated bond length within the carbonate region. For comparison and deeper insight, glass and melt structures of Y and Sr bearing sodium-rich silicate to carbonate compositions were simulated in an explorative ab initio molecular dynamics (MD) study. The simulations confirm observed patterns of CO2-dependent local changes around Y and Sr and additionally provide further insights into detailed incorporation mechanisms of the trace elements and CO2. Principle findings include that in sodium-rich silicate compositions carbon either is mainly incorporated as a free carbonate-group or shares one oxygen with a network former (Si or [4]Al) to form a non-bridging carbonate. Of minor importance are bridging carbonates between two network formers. Here, a clear preference for two [4]Al as adjacent network formers occurs, compared to what a statistical distribution would suggest. In C-bearing silicate melts minor amounts of molecular CO2 are present, which is almost totally dissolved as carbonate in the quenched glasses. The combination of experiment and simulation provides extraordinary insights into glass and melt structures. The new data is interpreted on the basis of bond valence theory and is used to deduce potential mechanisms for structural incorporation of investigated elements, which allow for prediction on their partitioning behavior in natural melts. Furthermore, it provides unique insights into the dissolution mechanisms of CO2 in silicate melts and into the carbonate melt structure. For the latter, a structural model is suggested, which is based on planar CO3-groups linking 7- to 9-fold cation polyhedra, in accordance to structural units as found in the Na-Ca carbonate nyerereite. Ultimately, the outcome of this study contributes to rationalize the unique physical properties and geological phenomena related to carbonated silicate-carbonate melts. N2 - Karbonatische und karbonatreiche silikatische Schmelzen spielen eine entscheidende Rolle in den magmatischen Prozessen der Erde. Die interne Schmelzstruktur bestimmt dabei maßgeblich ihre physikalischen und chemischen Eigenschaften. Karbonatreiche Schmelzen können sehr stark mit geochemisch wichtigen Spurenelementen angereichert sein. Die strukturellen Einbaumechanismen sind jedoch kaum verstanden, da diese Schmelzen nicht zu homogenen Gläsern abgeschreckt werden können, welche üblicherweise für strukturelle Untersuchungen genutzt werden. Die vorliegende Arbeit widmet sich dem Einfluss von CO2 auf die lokale Umgebung von ausgewählten Spurenelementen in karbonathaltigen silikatischen Gläsern sowie silikatisch bis karbonatischen Schmelzen. Untersucht werden natriumreiche, stark bis extrem peralkaline silikatische und karbonatische Zusammensetzungen, wie sie vom Vulkan Oldoinyo Lengai, Tansania, bekannt sind. Zum einen werden die lokale Umgebungen von Yttrium (Y), Lanthan (La) und Strontium (Sr) in synthetisierten Gläsern und Schmelzen mit Röntgen-Absorption-Feinstruktur-Spektroskopie (engl. X-ray absorption fine structure (XAFS) spectroscopy) untersucht. Insbesondere extended X-ray absorption fine structure (EXAFS) spectroscopy liefert elementspezifisch strukturelle Informationen über Bindungslängen, Koordinationszahlen und Ordnungsgrad. Dem hohen Grad struktureller Unordnung in Gläsern und Schmelzen wird in den vorliegenden EXAFS-Analysen mit der Verwendung einer asymmetrischen Verteilungsfunktion und eines Korrelationsmodells, basierend auf der Bindungsvalenztheorie, Rechnung getragen. Für silikatische Gläser mit steigendem CO2-Gehalt zwischen 0 und bis zu 7,6 Gew.-% ist festzustellen: (1) Konstante Bindungslängen für Sr-O (~ 2,55 Å) und La-O (~ 2,54 Å) in extrem peralkaliner Zusammensetzung, sowie für Y-O (~ 2,29 Å) in stark und extrem peralkaliner Zusammensetzung. (2) Zunehmende Bindungslängen für Sr-O (~ von 2,53 auf 2,57 Å) und La-O in stark peralkaliner Zusammensetzung (~ von 2,52 auf 2,54 Å). Weiterhin werden silikatische sowie nicht-abschreckbare karbonatische Schmelzen in-situ unter hohem Druck und hoher Temperatur (2,2 bis 2,6 GPa, 1200 bis 1500 °C, untersucht in einer Paris-Edinburgh-Presse) analysiert. Ein neu entwickelter Aufbau des Druckübertragungsmediums garantiert eine hohe mechanische Festigkeit und ermöglicht aufgrund hervorragender Transmissivität im relevanten Energiebereich Transmissions-EXAFS an niedrigkonzentrierten Elementen. Im Vergleich zu den Gläsern zeigen die Schmelzen generell ~ 3 % höhere Y-O-, La-O-, und Sr-O-Bindungslängen und eine erhöhte Asymmetrie in der Paarverteilung. In silikatischen Schmelzen sind Y-O-Bindungslängen konstant (~ 2,37 Å), wohingegen sie in karbonatischen Schmelzen zunehmen (bis zu 2,41 Å). La-O-Abstände vergrößern sich systematisch von silikatischen zu karbonatischen Schmelzen (von 2,55 auf 2,60 Å). Sr-O-Abstände steigen von 2,60 auf 2,64 Å in silikatischen Zusammensetzungen mit steigendem CO2-Gehalt und sind für alle karbonatischen Zusammensetzungen konstant. Zum Vergleich und besserem Verständnis wurden Y- und Sr-haltige, silikatische und karbonatische Glas- und Schmelzstrukturen in einer explorativen ab-initio Molekular Dynamik (MD) Studie simuliert. Die MD-Studie bestätigt die CO2-abhängigen lokalen Veränderungen um Y und Sr und liefert zusätzliche Einblicke in silikatische und karbonatische Glas- und Schmelzstrukturen. In natriumreicher silikatischer Zusammensetzung wird CO2 hauptsächlich als freie Karbonatgruppe eingebaut oder teilt sich als nicht-brückenbildendes Karbonat genau ein Sauerstoffatom mit einem Netzwerkbildner (Si oder [4]Al). Seltener tritt es als brückenbildendes Karbonat zwischen zwei Netzwerkbildnern auf; dabei allerdings mit einer gegenüber der statistischen Verteilung deutlich erhöhten Präferenz für zwei [4]Al als anliegende Netzwerkbildner. C-haltige Schmelzen weisen geringe Mengen an molekularem CO2 auf, welches in den abgeschreckten Gläsern fast vollständig als Karbonat gelöst ist. Die Kombination aus Experiment und Simulation gewährt außerordentliche Einblicke in nur schwierig zu untersuchende Glas- und Schmelzstrukturen. Die gewonnenen Daten werden auf Grundlage der Bindungsvalenztheorie gedeutet und hinsichtlich potentieller Mechanismen des strukturellen Spurenelementeinbaus sowie dem daraus ableitbaren Fraktionierungsverhalten in natürlichen Schmelzen diskutiert. Neue Erkenntnisse über den strukturellen CO2-Einbau werden genutzt, um ein Strukturmodell für karbonatische Schmelzen abzuleiten. Dieses basiert auf der Verknüpfung von 7- bis 9-fach koordinierten Kationenpolyedern durch die planaren Karbonat-Gruppen, ähnlich wie es im Na-Ca-Karbonat Nyerereite zu beobachten ist. Letztendlich leisten die Erkenntnisse der Arbeit somit ihren Beitrag, das Verständnis um die einzigartigen physikalischen Eigenschaften und geologischen Phänomene dieser Schmelzen zu vertiefen. KW - glass structure KW - melt structure KW - X-ray absorption spectroscopy KW - Glasstruktur KW - Schmelzstruktur KW - Röntgenabsorptionsspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423826 ER - TY - THES A1 - Peter, Franziska T1 - Transition to synchrony in finite Kuramoto ensembles T1 - Synchronisationsübergang in endlichen Kuramoto-Ensembles N2 - Synchronisation – die Annäherung der Rhythmen gekoppelter selbst oszillierender Systeme – ist ein faszinierendes dynamisches Phänomen, das in vielen biologischen, sozialen und technischen Systemen auftritt. Die vorliegende Arbeit befasst sich mit Synchronisation in endlichen Ensembles schwach gekoppelter selbst-erhaltender Oszillatoren mit unterschiedlichen natürlichen Frequenzen. Das Standardmodell für dieses kollektive Phänomen ist das Kuramoto-Modell – unter anderem aufgrund seiner Lösbarkeit im thermodynamischen Limes unendlich vieler Oszillatoren. Ähnlich einem thermodynamischen Phasenübergang zeigt im Fall unendlich vieler Oszillatoren ein Ordnungsparameter den Übergang von Inkohärenz zu einem partiell synchronen Zustand an, in dem ein Teil der Oszillatoren mit einer gemeinsamen Frequenz rotiert. Im endlichen Fall treten Fluktuationen auf. In dieser Arbeit betrachten wir den bisher wenig beachteten Fall von bis zu wenigen hundert Oszillatoren, unter denen vergleichbar starke Fluktuationen auftreten, bei denen aber ein Vergleich zu Frequenzverteilungen im unendlichen Fall möglich ist. Zunächst definieren wir einen alternativen Ordnungsparameter zur Feststellung einer kollektiven Mode im endlichen Kuramoto-Modell. Dann prüfen wir die Abhängigkeit des Synchronisationsgrades und der mittleren Rotationsfrequenz der kollektiven Mode von Eigenschaften der natürlichen Frequenzverteilung für verschiedene Kopplungsstärken. Wir stellen dabei zunächst numerisch fest, dass der Synchronisationsgrad stark von der Form der Verteilung (gemessen durch die Kurtosis) und die Rotationsfrequenz der kollektiven Mode stark von der Asymmetrie der Verteilung (gemessen durch die Schiefe) der natürlichen Frequenzen abhängt. Beides können wir im thermodynamischen Limes analytisch verifizieren. Mit diesen Ergebnissen können wir Erkenntnisse anderer Autoren besser verstehen und verallgemeinern. Etwas abseits des roten Fadens dieser Arbeit finden wir außerdem einen analytischen Ausdruck für die Volumenkontraktion im Phasenraum. Der zweite Teil der Arbeit konzentriert sich auf den ordnenden Effekt von Fluktuationen, die durch die Endlichkeit des Systems zustande kommen. Im unendlichen Modell sind die Oszillatoren eindeutig in kohärent und inkohärent und damit in geordnet und ungeordnet getrennt. Im endlichen Fall können die auftretenden Fluktuationen zusätzliche Ordnung unter den asynchronen Oszillatoren erzeugen. Das grundlegende Prinzip, die rauschinduzierte Synchronisation, ist aus einer Reihe von Publikationen bekannt. Unter den gekoppelten Oszillatoren nähern sich die Phasen aufgrund der Fluktuationen des Ordnungsparameters an, wie wir einerseits direkt numerisch zeigen und andererseits mit einem Synchronisationsmaß aus der gerichteten Statistik zwischen Paaren passiver Oszillatoren nachweisen. Wir bestimmen die Abhängigkeit dieses Synchronisationsmaßes vom Verhältnis von paarweiser natürlicher Frequenzdifferenz zur Varianz der Fluktuationen. Dabei finden wir eine gute Übereinstimmung mit einem einfachen analytischen Modell, in welchem wir die deterministischen Fluktuationen des Ordnungsparameters durch weißes Rauschen ersetzen. N2 - Synchronization – the adjustment of rhythms among coupled self-oscillatory systems – is a fascinating dynamical phenomenon found in many biological, social, and technical systems. The present thesis deals with synchronization in finite ensembles of weakly coupled self-sustained oscillators with distributed frequencies. The standard model for the description of this collective phenomenon is the Kuramoto model – partly due to its analytical tractability in the thermodynamic limit of infinitely many oscillators. Similar to a phase transition in the thermodynamic limit, an order parameter indicates the transition from incoherence to a partially synchronized state. In the latter, a part of the oscillators rotates at a common frequency. In the finite case, fluctuations occur, originating from the quenched noise of the finite natural frequency sample. We study intermediate ensembles of a few hundred oscillators in which fluctuations are comparably strong but which also allow for a comparison to frequency distributions in the infinite limit. First, we define an alternative order parameter for the indication of a collective mode in the finite case. Then we test the dependence of the degree of synchronization and the mean rotation frequency of the collective mode on different characteristics for different coupling strengths. We find, first numerically, that the degree of synchronization depends strongly on the form (quantified by kurtosis) of the natural frequency sample and the rotation frequency of the collective mode depends on the asymmetry (quantified by skewness) of the sample. Both findings are verified in the infinite limit. With these findings, we better understand and generalize observations of other authors. A bit aside of the general line of thoughts, we find an analytical expression for the volume contraction in phase space. The second part of this thesis concentrates on an ordering effect of the finite-size fluctuations. In the infinite limit, the oscillators are separated into coherent and incoherent thus ordered and disordered oscillators. In finite ensembles, finite-size fluctuations can generate additional order among the asynchronous oscillators. The basic principle – noise-induced synchronization – is known from several recent papers. Among coupled oscillators, phases are pushed together by the order parameter fluctuations, as we on the one hand show directly and on the other hand quantify with a synchronization measure from directed statistics between pairs of passive oscillators. We determine the dependence of this synchronization measure from the ratio of pairwise natural frequency difference and variance of the order parameter fluctuations. We find a good agreement with a simple analytical model, in which we replace the deterministic fluctuations of the order parameter by white noise. KW - synchronization KW - Kuramoto model KW - finite size KW - phase transition KW - dynamical systems KW - networks KW - Synchronisation KW - Kuramoto-Modell KW - endliche Ensembles KW - Phasenübergang KW - dynamische Systeme KW - Netzwerke Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429168 ER - TY - THES A1 - Perlich, Anja T1 - Digital collaborative documentation in mental healthcare T1 - Digitale Mittel zur kooperativen Dokumentation im Bereich der psychischen Gesundheit N2 - With the growth of information technology, patient attitudes are shifting – away from passively receiving care towards actively taking responsibility for their well- being. Handling doctor-patient relationships collaboratively and providing patients access to their health information are crucial steps in empowering patients. In mental healthcare, the implicit consensus amongst practitioners has been that sharing medical records with patients may have an unpredictable, harmful impact on clinical practice. In order to involve patients more actively in mental healthcare processes, Tele-Board MED (TBM) allows for digital collaborative documentation in therapist-patient sessions. The TBM software system offers a whiteboard-inspired graphical user interface that allows therapist and patient to jointly take notes during the treatment session. Furthermore, it provides features to automatically reuse the digital treatment session notes for the creation of treatment session summaries and clinical case reports. This thesis presents the development of the TBM system and evaluates its effects on 1) the fulfillment of the therapist’s duties of clinical case documentation, 2) patient engagement in care processes, and 3) the therapist-patient relationship. Following the design research methodology, TBM was developed and tested in multiple evaluation studies in the domains of cognitive behavioral psychotherapy and addiction care. The results show that therapists are likely to use TBM with patients if they have a technology-friendly attitude and when its use suits the treatment context. Support in carrying out documentation duties as well as fulfilling legal requirements contributes to therapist acceptance. Furthermore, therapists value TBM as a tool to provide a discussion framework and quick access to worksheets during treatment sessions. Therapists express skepticism, however, regarding technology use in patient sessions and towards complete record transparency in general. Patients expect TBM to improve the communication with their therapist and to offer a better recall of discussed topics when taking a copy of their notes home after the session. Patients are doubtful regarding a possible distraction of the therapist and usage in situations when relationship-building is crucial. When applied in a clinical environment, collaborative note-taking with TBM encourages patient engagement and a team feeling between therapist and patient. Furthermore, it increases the patient’s acceptance of their diagnosis, which in turn is an important predictor for therapy success. In summary, TBM has a high potential to deliver more than documentation support and record transparency for patients, but also to contribute to a collaborative doctor-patient relationship. This thesis provides design implications for the development of digital collaborative documentation systems in (mental) healthcare as well as recommendations for a successful implementation in clinical practice. N2 - Die Verbreitung von Informationstechnologie kann die Rolle von Patienten verändern: weg vom passiven Erhalt ärztlicher Zuwendung hin zur eigenverantwortlichen Mitwirkung an ihrer Genesung. Wesentliche Schritte zur Ermündigung von Patienten sind eine gute Zusammenarbeit mit dem behandelnden Arzt und der Zugang zu den eigenen Akten. Unter Psychotherapeuten gibt es jedoch einen impliziten Konsens darüber, dass die Einsicht in psychiatrische Akten unvorhersehbare, nachteilige Effekte auf die klinische Praxis hervorrufen könnte. Um auch Patienten aktiver an der Erhaltung und Wiederherstellung ihrer mentalen Gesundheit zu beteiligen, ermöglicht Tele-Board MED (TBM) das gemeinschaftliche Erstellen von digitalen Notizen. Diese Dissertation beschreibt die Entwicklung des TBM Software-Systems, das es Therapeut und Patient ermöglicht, gemeinsam während der Sitzung wie auf einem Whiteboard Notizen zu machen. Außerdem bietet TBM Funktionen, um auf Grundlage der digitalen Gesprächsnotizen automatisch Sitzungsprotokolle und klinische Fallberichte zu erstellen. Methodologisch basiert die Entwicklung und Evaluierung von TBM auf dem Paradigma für Design Research. Es wurden vielfältige Studien in den Bereichen der Verhaltens- und Suchttherapie durchgeführt, um die Auswirkungen auf folgende Aspekte zu evaluieren: 1) die Erfüllung der Dokumentationspflichten von Therapeuten, 2) das Engagement von Patienten in Behandlungsprozessen und 3) die Beziehung zwischen Patient und Therapeut. Die Studien haben gezeigt, dass Therapeuten dazu geneigt sind, TBM mit ihren Patienten zu nutzen, wenn sie technologie-freundlich eingestellt sind und wenn es zum Behandlungskontext passt. Zur Akzeptanz tragen auch die schnelle Erstellung von klinischen Dokumenten sowie die Erfüllung der gesetzlichen Forderung nach Aktentransparenz bei. Weiterhin schätzen Therapeuten TBM als Werkzeug, um Therapiegespräche zu strukturieren und während der Sitzung schnell auf Arbeitsblätter zuzugreifen. Therapeuten äußerten hingegen auch Skepsis gegenüber der Technologienutzung im Patientengespräch und vollständiger Aktentransparenz. Patienten erhoffen sich von TBM eine verbesserte Kommunikation mit ihrem Therapeuten und denken, dass sie sich besser an die Gesprächsinhalte erinnern können, wenn sie eine Kopie ihrer Akte erhalten. Patienten brachten Bedenken zum Ausdruck, TBM in Situationen zu nutzen, in denen der Beziehungsaufbau im Vordergrund steht, und darüber, dass Therapeuten sich abgelenkt fühlen könnten. Als TBM im klinischen Umfeld eingesetzt wurde, wurde ein erhöhtes Patientenengagement und ein gesteigertes Teamgefühl beobachtet. Außerdem stieg bei Patienten die Akzeptanz ihrer Diagnosen, welche wiederum ein wichtiger Prädiktor für Therapieerfolg ist. Zusammenfassend lässt sich festhalten, dass TBM großes Potential hat: Über die damit mögliche Dokumentationsunterstützung und Aktentransparenz hinaus wird auch die Zusammenarbeit von Therapeut und Patient unterstützt. Diese Dissertation fasst Kriterien zur Entwicklung von gemeinschaftlichen Dokumentationssystemen in der (psychischen) Gesundheitsfürsorge sowie Empfehlungen für eine erfolgreiche Implementierung in der klinischen Praxis zusammen. KW - medical documentation KW - psychotherapy KW - addiction care KW - computer-mediated therapy KW - digital whiteboard KW - patient empowerment KW - doctor-patient relationship KW - design research KW - user experience KW - evaluation KW - medizinische Dokumentation KW - Psychotherapie KW - Suchtberatung und -therapie KW - computervermittelte Therapie KW - digitales Whiteboard KW - Patientenermündigung KW - Arzt-Patient-Beziehung KW - Design-Forschung KW - User Experience KW - Evaluation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440292 ER - TY - THES A1 - Otte, Fabian T1 - C-Arylglykoside und Chalkone T1 - Aryl C-glycosides and chalcones BT - neue Wege zu heterozyklischen Wirkstoffen durch Ru- und Pd-katalysierte Reaktionen BT - new pathways to heterocyclic drugs by Ru- and Pd-catalyzed reactions N2 - Im bis heute andauernden Zeitalter der wissenschaftlichen Medizin, konnte ein breites Spektrum von Wirkstoffen zur Behandlung diverser Krankheiten zusammengetragen werden. Dennoch hat es sich die organische Synthesechemie zur Aufgabe gemacht, dieses Spektrum auf neuen oder bekannten Wegen und aus verschiedenen Gründen zu erweitern. Zum einen ist das Vorkommen bestimmter Verbindungen in der Natur häufig limitiert, sodass synthetische Methoden immer öfter an Stelle eines weniger nachhaltigen Abbaus treten. Zum anderen kann durch Derivatisierung und Wirkstoffanpassung die physiologische Wirkung oder die Bioverfügbarkeit eines Wirkstoffes erhöht werden. In dieser Arbeit konnten einige Vertreter der bekannten Wirkstoffklassen C-Arylglykoside und Chalkone durch den Schlüsselschritt der Palladium-katalysierten MATSUDA-HECK-Reaktion synthetisiert werden. Dazu wurden im Fall der C-Arylglykoside zunächst ungesättigte Kohlenhydrate (Glykale) über eine Ruthenium-katalysierte Zyklisierungsreaktion dargestellt. Diese wurden im Anschluss mit unterschiedlich substituierten Diazoniumsalzen in der oben erwähnten Palladium-katalysierten Kupplungsreaktion zur Reaktion gebracht. Bei der Auswertung der analytischen Daten konnte festgestellt werden, dass stets die trans-Diastereomere gebildet wurden. Im Anschluss konnte gezeigt werden, dass die Doppelbindungen dieser Verbindungen durch Hydrierung, Dihydroxylierung oder Epoxidierung funktionalisiert werden können. Auf diesem Wege konnte u. a. eine dem Diabetesmedikament Dapagliflozin ähnliche Verbindung hergestellt werden. Im zweiten Teil der Arbeit wurden Arylallylchromanone durch die MATSUDA-HECK-Reaktion von verschiedenen 8-Allylchromanonen mit Diazoniumsalzen dargestellt. Dabei konnte beobachtet werden, dass eine MOM-Schutzgruppe in 7-Position der Moleküle die Darstellung von Produktgemischen unterdrückt und jeweils nur eine der möglichen Verbindungen gebildet wird. Die Lage der Doppelbindung konnte mittels 2D-NMR-Untersuchungen lokalisiert werden. In Kooperation mit der theoretischen Chemie sollte durch Berechnungen untersucht werden, wie die beobachteten Verbindungen entstehen. Durch eine auftretende Wechselwirkung innerhalb des Moleküls konnte allerdings keine explizite Aussage getroffen werden. Im Anschluss sollten die erhaltenen Verbindungen in einer allylischen Oxidation zu Chalkonen umgesetzt werden. Die Ruthenium-katalysierten Methoden zeigten u. a. keine Eignung. Es konnte allerdings eine metallfreie, Mikrowellen-unterstützte Methode erfolgreich erprobt werden, sodass die Darstellung einiger Vertreter dieser physiologisch aktiven Stoffklasse gelang. N2 - The ongoing age of scientific medicine spawned a broad spectrum of drugs for the treatment of various diseases. Nonetheless, it is the task of synthetic organic chemistry to expand this spectrum in new or known pathways and for various reasons. On the one hand, the availability of certain compounds in nature is often limited, so that synthetic methods increasingly take the place of less sustainable extraction. On the other hand, the physiological effect or the bioavailability of a drug can be increased through derivatization and drug adaptation. In this work, several representatives of the known drug classes aryl C-glycosides and chalcones were synthesized by the key step of palladium-catalyzed MATSUDA-HECK reaction. In the case of aryl C-glycosides, unsaturated carbohydrates (glycals) were first prepared by a ruthenium-catalyzed cyclization reaction. These were subsequiently reacted with differently substituted diazonium salts in the above-mentioned palladium-catalyzed coupling reaction. When evaluating the analytical data, it was found that the trans-diastereomers were solitarily formed. Subsequiently, it was shown that the double bonds of these compounds can be functionalized by hydrogenation, dihydroxylation and epoxidation. By applying these methods an aryl C-glycoside similar to the diabetes drug Dapagliflozin was synthesized. The second part of this work, depicts the synthesis of aryl allyl chromanones by the Matsuda-Heck reaction of various 8-allyl chromanones and diazonium salts. It could be observed that a MOM-protection group in the 7-position of the chromanone ring suppresses the expression of product mixtures. In each case only one of the possible compounds is formed. The position of the double bond was localized by 2D NMR studies. In cooperation with theoretical chemistry, calculations were carried out to investigate how the observed compounds were formed. However, an explicit statement could not be made, due to an interaction within the molecule. Finally, the compounds obtained were converted into chalcones in an allylic oxidation reaction. Ru-catalyzed methods showed no suitability. However, a metal-free, microwave-assisted method could be successfully applied so that the synthesis of certain examples of this physiologically active substance class could be shown. KW - C-Arlyglykosid KW - Chalkon KW - Matsuda-Heck-Reaktion KW - Ringschlussmetathese KW - aryl C-glycoside KW - chalcon KW - Matsuda-Heck reaction KW - ring closing metathesis Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434305 ER - TY - THES A1 - Numberger, Daniela T1 - Urban wastewater and lakes as habitats for bacteria and potential vectors for pathogens T1 - Urbane Abwässer und Seen als Habitat für Bakterien und potentielle Vektoren für Krankheitserreger N2 - Wasser ist lebensnotwendig und somit eine essentielle Ressource. Jedoch sind unsere Süßwasser-Ressourcen begrenzt und ihre Erhaltung daher besonders wichtig. Verschmutzungen mit Chemikalien und Krankheitserregern, die mit einer wachsenden Bevölkerung und Urbanisierung einhergehen, verschlechtern die Qualität unseres Süßwassers. Außerdem kann Wasser als Übertragungsvektor für Krankheitserreger dienen und daher wasserbürtige Krankheiten verursachen. Der Leibniz-Forschungsverbund INFECTIONS‘21 untersuchte innerhalb der interdisziplinären Forschungsgruppe III - „Wasser", Gewässer als zentralen Mittelpunkt für Krankheiterreger. Dabei konzentrierte man sich auf Clostridioides difficile sowie aviäre Influenza A-Viren, von denen angenommen wird, dass sie in die Gewässer ausgeschieden werden. Ein weiteres Ziel bestand darin, die bakterielle Gemeinschaften eines Klärwerkes der deutschen Hauptstadt Berlin zu charakterisieren, um anschließend eine Bewertung des potentiellen Gesundheitsrisikos geben zu können. Bakterielle Gemeinschaften des Roh- und Klarwassers aus dem Klärwerk unterschieden sich signifikant voneinander. Der Anteil an Darm-/Fäkalbakterien war relativ niedrig und potentielle Darmpathogene wurden größtenteils aus dem Rohwasser entfernt. Ein potentielles Gesundheitsrisiko konnte allerdings von potentiell pathogenen Legionellen wie L. lytica festgestellt werden, deren relative Abundanz im Klarwasser höher war als im Rohwasser. Es wurden außerdem drei C. difficile-Isolate aus den Klärwerk-Rohwasser und einem städtischen Badesee in Berlin (Weisser See) gewonnen und sequenziert. Die beiden Isolate aus dem Klärwerk tragen keine Toxin-Gene, wohingegen das Isolat aus dem See Toxin-Gene besitzt. Alle drei Isolate sind sehr nah mit humanen Stämmen verwandt. Dies deutet auf ein potentielles, wenn auch sporadisches Gesundheitsrisiko hin. (Aviäre) Influenza A-Viren wurden in 38.8% der untersuchten Sedimentproben mittels PCR detektiert, aber die Virusisolierung schlug fehl. Ein Experiment mit beimpften Wasser- und Sedimentproben zeigte, dass für die Isolierung aus Sedimentproben eine relativ hohe Viruskonzentration nötig ist. In Wasserproben ist jedoch ein niedriger Titer an Influenza A-Viren ausreichend, um eine Infektion auszulösen. Es konnte zudem auch festgestellt werden, dass sich „Madin-Darby Canine Kidney (MDCK)―-Zellkulturen im Gegensatz zu embryonierten Hühnereiern besser eignen, um Influenza A-Viren aus Sediment zu isolieren. Zusammenfassend lässt sich sagen, dass diese Arbeit mögliche Gesundheitsrisiken aufgedeckt hat, wie etwa durch Legionellen im untersuchten Berliner Klärwerk, deren relative Abundanz in geklärtem Abwasser höher ist als im Rohwasser. Desweiteren wird indiziert, dass Abwasser und Gewässer als Reservoir und Vektor für pathogene Organismen dienen können, selbst für nicht-typische Wasser-Pathogene wie C. difficile. N2 - Water is essential to life and thus, an essential resource. However, freshwater resources are limited and their maintenance is crucial. Pollution with chemicals and pathogens through urbanization and a growing population impair the quality of freshwater. Furthermore, water can serve as vector for the transmission of pathogens resulting in water-borne illness. The Interdisciplinary Research Group III – "Water" of the Leibniz alliance project INFECTIONS‘21 investigated water as a hub for pathogens focusing on Clostridioides difficile and avian influenza A viruses that may be shed into the water. Another aim of this study was to characterize the bacterial communities in a wastewater treatment plant (WWTP) of the capital Berlin, Germany to further assess potential health risks associated with wastewater management practices. Bacterial communities of WWTP inflow and effluent differed significantly. The proportion of fecal/enteric bacteria was relatively low and OTUs related to potential enteric pathogens were largely removed from inflow to effluent. However, a health risk might exist as an increased relative abundance of potential pathogenic Legionella spp. such as L. lytica was observed. Three Clostridioides difficile isolates from wastewater inflow and an urban bathing lake in Berlin (‗Weisser See‘) were obtained and sequenced. The two isolates from the wastewater did not carry toxin genes, whereas the isolate from the lake was positive for the toxin genes. All three isolates were closely related to human strains. This indicates a potential, but rather sporadic health risk. Avian influenza A viruses were detected in 38.8% of sediment samples by PCR, but virus isolation failed. An experiment with inoculated freshwater and sediment samples showed that virus isolation from sediment requires relatively high virus concentrations and worked much better in Madin-Darby Canine Kidney (MDCK) cell cultures than in embryonated chicken eggs, but low titre of influenza contamination in freshwater samples was sufficient to recover virus. In conclusion, this work revealed potential health risks coming from bacterial groups with pathogenic potential such as Legionella spp. whose relative abundance is higher in the released effluent than in the inflow of the investigated WWTP. It further indicates that water bodies such as wastewater and lake sediments can serve as reservoir and vector, even for non-typical water-borne or water-transmitted pathogens such as C. difficile. KW - water KW - Wasser KW - bacteria KW - Bakterien KW - influenza A viruses KW - Influenza A Viren KW - pathogens KW - Krankheitserreger Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437095 ER - TY - THES A1 - Noack, Sebastian T1 - Poly(lactide)-based amphiphilic block copolymers T1 - Polylactid-basierte amphiphile Blockcopolymere BT - self-assembly and stereocomplexation in aqueous media BT - Selbstorganisation und Stereokomplexierung in wässrigem Medium N2 - Due to its bioavailability and (bio)degradability, poly(lactide) (PLA) is an interesting polymer that is already being used as packaging material, surgical seam, and drug delivery system. Dependent on various parameters such as polymer composition, amphiphilicity, sample preparation, and the enantiomeric purity of lactide, PLA in an amphiphilic block copolymer can affect the self-assembly behavior dramatically. However, sizes and shapes of aggregates have a critical effect on the interactions between biological and drug delivery systems, where the general understanding of these polymers and their ability to influence self-assembly is of significant interest in science. The first part of this thesis describes the synthesis and study of a series of linear poly(L-lactide) (PLLA) and poly(D-lactide) (PDLA)-based amphiphilic block copolymers with varying PLA (hydrophobic), and poly(ethylene glycol) (PEG) (hydrophilic) chain lengths and different block copolymer sequences (PEG-PLA and PLA-PEG). The PEG-PLA block copolymers were synthesized by ring-opening polymerization of lactide initiated by a PEG-OH macroinitiator. In contrast, the PLA-PEG block copolymers were produced by a Steglich-esterification of modified PLA with PEG-OH. The aqueous self-assembly at room temperature of the enantiomerically pure PLLA-based block copolymers and their stereocomplexed mixtures was investigated by dynamic light scattering (DLS), transmission electron microscopy (TEM), wide-angle X-ray diffraction (WAXD), and differential scanning calorimetry (DSC). Spherical micelles and worm-like structures were produced, whereby the obtained self-assembled morphologies were affected by the lactide weight fraction in the block copolymer and self-assembly time. The formation of worm-like structures increases with decreasing PLA-chain length and arises from spherical micelles, which become colloidally unstable and undergo an epitaxial fusion with other micelles. As shown by DSC experiments, the crystallinity of the corresponding PLA blocks increases within the self-assembly time. However, the stereocomplexed self-assembled structures behave differently from the parent polymers and result in irregular-shaped clusters of spherical micelles. Additionally, time-dependent self-assembly experiments showed a transformation, from already self-assembled morphologies of different shapes to more compact micelles upon stereocomplexation. In the second part of this thesis, with the objective to influence the self-assembly of PLA-based block copolymers and its stereocomplexes, poly(methyl phosphonate) (PMeP) and poly(isopropyl phosphonate) (PiPrP) were produced by ring-opening polymerization to implement an alternative to the hydrophilic block PEG. Although, the 1,8 diazabicyclo[5.4.0]unde 7 ene (DBU) or 1,5,7 triazabicyclo[4.4.0]dec-5-ene (TBD) mediated synthesis of the corresponding poly(alkyl phosphonate)s was successful, however, not so the polymerization of copolymers with PLA-based precursors (PLA-homo polymers, and PEG-PLA block copolymers). Transesterification, obtained by 1H-NMR spectroscopy, between the poly(phosphonate)- and PLA block caused a high-field shifted peak split of the methine proton in the PLA polymer chain, with split intensities depending on the used catalyst (DBU for PMeP, and TBD for PiPrP polymerization). An additional prepared block copolymer PiPrP-PLLA that wasn’t affected in its polymer sequence was finally used for self-assembly experiments with PLA-PEG and PEG-PLA mixing. This work provides a comprehensive study of the self-assembly behavior of PLA-based block copolymers influenced by various parameters such as polymer block lengths, self-assembly time, and stereocomplexation of block copolymer mixtures. N2 - Aufgrund seiner Bioverfügbarkeit und (biologischen) Abbaubarkeit stellt Polylactid (PLA) ein interessantes Polymer dar, welches bereits in Verpackungsmaterialien, chirurgische Fäden und in selbst organisierten Wirkstofftransportsystemen eingesetzt wird. Als ein Teil von amphiphilen Blockcopolymeren kann PLA die molekulare Selbstorganisation in wässrigen Lösungen wesentlich beeinflussen. Die gebildeten Strukturen sind dabei essenziell von Faktoren wie der Blockcopolymer Zusammensetzung, Amphiphilie, Proben Vorbereitung und der Enantiomerenreinheit des Monomers abhängig. Die Kenntnis über die beschriebenen Faktoren und das allgemeine Verständnis für die dazugehörigen Polymere sowie die Möglichkeit ihre Selbstorganisation zu beeinflussen, ist von entscheidender Bedeutung in biomedizinischen Anwendungen. Unterschiedliche Größen oder Formen der selbst organisierten Wirkstoffträgern haben einen erheblichen Effekt auf die Wechselwirkung mit dem entsprechenden biologischen System und somit einen essenziellen Einfluss auf den Ausgang der medikamentösen Therapie. Der erste Teil dieser Doktorarbeit beschreibt die Synthese und Untersuchung einer Serie von Poly(L-Lactid) (PLLA) und Poly(D-Lactid) (PDLA)-basierten amphiphilen Blockcopolymeren mit variierenden PLA (hydrophob) und Polyethylenglycol (PEG) (hydrophil) Kettenlägen, sowie unterschiedlichen Polymersequenzen (PEG-PLA und PLA-PEG). Die genannten PEG-PLA Blockcopolymere wurden mittels organokatalysierter ringöffnender Polymerisation (ROP) hergestellt, wobei das entsprechende PEG-OH als Makroinitiator diente. Im Gegensatz dazu mussten die entsprechenden PLA-PEG Blockcopolymere mittels Steglich Veresterung von modifizierten PLA mit PEG-OH hergestellt werden. Die Selbstorganisation der PLLA-basierten Blockcopolymeren und deren stereokomplexierten Mischungen in wässriger Lösung erfolgte unter Raumtemperatur und wurde mittels Dynamischer Lichtstreuung (DLS), Transmissionselektronenmikroskopie (TEM), Röntgenstrukturanalyse und Dynamische Differenzkalorimetrie (DSC) untersucht. Dabei wurden kugel- und wurmförmige Strukturen beobachtet, wobei die gebildeten Strukturen vom Lactid Gewichtsanteil im Polymer, sowie der Selbstorganisationszeit abhängig waren. Mit andauernder Selbstorganisation und zunehmender Kristallinität wurden die zuerst gebildeten kugelförmigen Strukturen kolloidal unstabil und es erfolgte ein epitaktisches Wachstum zu wurmförmigen Strukturen in Abhängigkeit der Lactid Kettenlänge. Die stereokomplexierten Blockcopolymer Mischungen hingegen bildeten, unabhängig von der Copolymersequenz der entsprechenden Polymer Partner, hauptsächlich unregelmäßige Ansammlungen kugelförmiger Strukturen welche den Eindruck einer Perlenkette erweckten. Mit dem Einsetzen der Stereokomplexierung zeigten zeitlich aufgelöste Selbstorganisationsexperimente eine Transformation von bereits gebildeten Strukturen verschiedenster Formen und Größen (Polymer abhängig) zu kompakten Mizellen. Im zweiten Teil dieser Doktorarbeit wurden, mit dem Ziel die Selbstorganisation von PLA-basierten Blockcopolymeren und deren Stereokomplexmischung vermehrt zu beeinflussen, zwei alternative Polymere zu PEG untersucht. Ähnlich wie PLA, konnten mittels organokatalysierter ROP Polymethylphosphonat (PMeP) und Polyisopropylphosphonat (PiPrP) erfolgreich hergestellt werden. Die Blockcopolymer Synthese mit PLA-basierten Polymervorgängern erwies sich jedoch als schwierig. Aufgrund einer Protonenpeakspaltung der Methingruppe in der PLA-Wiederholeinheit konnten mittels 1H-NMR Spektroskopie Umersterungsprozesse zwischen dem Polyalkylphosphonat- und PLA block nachgewiesen werden, welche in Abhängigkeit des verwendeten Katalysators (DBU oder TBD) unterschiedlich stark ausfielen. Das ebenfalls hergestellte PiPrP-PLLA Blockcopolymer wies keine Unregelmäßigkeiten in der Polymersequenz auf und wurde anschließend für Selbstorganisationsexperimente mit PLA-PEG und PEG-PLA genutzt. Diese Arbeit liefert eine umfangreiche Studie zur Selbstorganisation PLA-basierter Blockcopolymere und untersucht verschiedenste Einflussparameter wie Blocklängen, Selbstorganisationszeit und Stereokomplexierung in Polymermischungen. KW - polylactide KW - polymer KW - self-assembly KW - stereocomplexation KW - block copolymer KW - Polylactid KW - Polymer KW - Selbstorganisation KW - Stereokomplexierung KW - Block Copolymer Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436168 ER - TY - THES A1 - Nikkhoo, Mehdi T1 - Analytical and numerical elastic dislocation models of volcano deformation processes T1 - Analytische und numerische Dislokationsmodelle von Verformungsprozessen an Vulkanen N2 - The advances in modern geodetic techniques such as the global navigation satellite system (GNSS) and synthetic aperture radar (SAR) provide surface deformation measurements with an unprecedented accuracy and temporal and spatial resolutions even at most remote volcanoes on Earth. Modelling of the high-quality geodetic data is crucial for understanding the underlying physics of volcano deformation processes. Among various approaches, mathematical models are the most effective for establishing a quantitative link between the surface displacements and the shape and strength of deformation sources. Advancing the geodetic data analyses and hence, the knowledge on the Earth’s interior processes, demands sophisticated and efficient deformation modelling approaches. Yet the majority of these models rely on simplistic assumptions for deformation source geometries and ignore complexities such as the Earth’s surface topography and interactions between multiple sources. This thesis addresses this problem in the context of analytical and numerical volcano deformation modelling. In the first part, new analytical solutions for triangular dislocations (TDs) in uniform infinite and semi-infinite elastic media have been developed. Through a comprehensive investigation, the locations and causes of artefact singularities and numerical instabilities associated with TDs have been determined and these long-standing drawbacks have been addressed thoroughly. This approach has then been extended to rectangular dislocations (RDs) with full rotational degrees of freedom. Using this solution in a configuration of three orthogonal RDs a compound dislocation model (CDM) has been developed. The CDM can represent generalized volumetric and planar deformation sources efficiently. Thus, the CDM is relevant for rapid inversions in early warning systems and can also be used for detailed deformation analyses. In order to account for complex source geometries and realistic topography in the deformation models, in this thesis the boundary element method (BEM) has been applied to the new solutions for TDs. In this scheme, complex surfaces are simulated as a continuous mesh of TDs that may possess any displacement or stress boundary conditions in the BEM calculations. In the second part of this thesis, the developed modelling techniques have been applied to five different real-world deformation scenarios. As the first and second case studies the deformation sources associated with the 2015 Calbuco eruption and 2013–2016 Copahue inflation period have been constrained by using the CDM. The highly anisotropic source geometries in these two cases highlight the importance of using generalized deformation models such as the CDM, for geodetic data inversions. The other three case studies in this thesis involve high-resolution dislocation models and BEM calculations. As the third case, the 2013 pre-explosive inflation of Volcán de Colima has been simulated by using two ellipsoidal cavities, which locate zones of pressurization in the volcano’s lava dome. The fourth case study, which serves as an example for volcanotectonics interactions, the 3-D kinematics of an active ring-fault at Tendürek volcano has been investigated through modelling displacement time series over the 2003–2010 time period. As the fifth example, the deformation sources associated with North Korea’s underground nuclear test in September 2017 have been constrained. These examples demonstrate the advancement and increasing level of complexity and the general applicability of the developed dislocation modelling techniques. This thesis establishes a unified framework for rapid and high-resolution dislocation modelling, which in addition to volcano deformations can also be applied to tectonic and humanmade deformations. N2 - Fortschritte in modernen geodätischen Techniken wie dem globalen Navigationssatellitensystem (GNSS) und dem Synthetic Apertur Radar (SAR), liefern Messungen der Oberflächenverformung mit einer beispiellosen Genauigkeit sowie zeitlichen und räumlichen Auflösungen, selbst an abgelegensten Vulkanen. Die Modellierung von hochqualitativen geodätischen Daten ist entscheidend für das Verständnis der zugrundeliegenden Physik der Verformungsprozesse an diesen Vulkanen. Um eine quantitative Verbindung zwischen den Oberflächenverschiebungen und der Form und Stärke von Verformungsquellen herzustellen, sind mathematische Modelle am effektivsten. Die Fortschnitte in geodätischen Datenanalysen und damit das Wissen über die Prozesse im Inneren der Erde erfordern ausgefeilte und effiziente Ansätze der Verformungsmodellierung. Die meisten dieser Modelle beruhen jedoch auf vereinfachten Annahmen der Geometrien der Verformungsquellen und ignorieren Komplexitäten wie die Erdoberflächentopographie und Wechselwirkungen zwischen mehreren Quellen. Diese Doktorarbeit befasst sich mit diesem Problem im Kontext der analytischen und numerischen Vulkanverformungsmodellierung. Im ersten Schritt wurden neue analytische Lösungen für dreieckige Dislokationen (triangular dislocation-TD) im gleichförmigen elastischen Voll- und Halbraum entwickelt. Durch eine umfassende Untersuchung wurden die Orte und Ursachen von TDs verbundenen Artefaktsingularitäten und numerischen Instabilitäten identifiziert und diese Problematik gelöst. Dieser Ansatz wurde dann auf rechteckige Dislokationen (rectangular dislocation-RD) mit vollen Rotationsfreiheitsgraden erweitert. Unter Verwendung dieser Lösung in einer Konfiguration von drei orthogonalen RDs wurde ein “Zusammengesetztes Dislokationsmodel” (compound dislocation model-CDM) entwickelt. Das CDM kann verallgemeinerte volumetrische und planare Verformungsquellen effizient darstellen. Somit ist das CDM für schnelle Inversionen in Frühwarnungssystemen relevant und kann auch für detaillierte Verformungsanalysen verwendet werden. Um komplexe Quellengeometrien und eine realistische Topographie in den Verformungsmodellen dieser Untersuchung zu berücksichtigen, wurde die Randelementmethode (REM) auf die neuen Lösungen für TDs angewendet. In diesem Schema werden komplexe Oberflächen als ein kontinuierliches Netz von DVs simuliert, die in den REM-Berechnungen beliebige Verschiebungs- oder Spannungsgrenzbedingungen aufweisen können. Als Beispiele wurden die entwickelten Modellierungstechniken auf fünf verschiedene reale Verformungsszenarien angewendet. Das erste und zweite Beispiel, die Calbuco-Eruption 2015 und die 2013–2016 Copahue-Aufwölbungsperiode, wurden durch die Verwendung des CDM näher beschrieben. Die hoch anisotropen Quellengeometrien in diesen beiden Fällen unterstreichen die Bedeutung der Verwendung verallgemeinerter Verformungsmodelle wie dem CDM für geodätische Dateninversionen. Weitere Fallstudien dieser Doktorarbeit umfassen hochauflösende Versetzungsmodelle und REM-Berechnungen. Die Aufwölbung 2013 am Volcán de Colima wurde simuliert, indem zwei ellipsoidale Quellen verwendet wurden, die Druckzonen im Lavadom des Vulkans lokalisieren. Danach, als Beispiel für Vulkantektonik-Interaktionen, wurde die 3-D-Kinematik einer aktiven Ringstörung am Tendürek-Vulkan durch Modellierung von InSAR-Zeitreihen über die Zeitperiode 2003–2010 simuliert. Als letztes Beispiel wurden die Verformungsquellen, die im Zusammenhang mit Nordkoreas unterirdischem Atomtest im September 2017 stehen, simuliert und der Einsatz der verwendeten Methoden auch in nicht vulkanischen Terrain gezeigt. Diese Beispiele zeigen den Fortschritt und das zunehmende Niveau der Komplexität und die allgemeine Anwendbarkeit der entwickelten Dislokationsmodellierungstechniken. Diese Doktorarbeit unterstreicht die Anwendung von neuer schneller und hochauflösender Dislokationsmodellierung, die neben Vulkanverformungen auch auf tektonische und vom Menschen verursachte Verformungen angewendet werden kann. KW - Volcano deformation modelling KW - Triangular dislocations (TDs) KW - Compound dislocation models (CDMs) KW - Inverse modelling KW - crustal deformations KW - Vulkanverformungsmodellierung KW - dreieckige Dislokationen (TDs) KW - Zusammengesetztes Dislokationsmodel (CDM) KW - inverse Modellirung KW - Krustenverformungen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429720 ER - TY - THES A1 - Nikaj, Adriatik T1 - Restful choreographies T1 - REST-Choreografien N2 - Business process management has become a key instrument to organize work as many companies represent their operations in business process models. Recently, business process choreography diagrams have been introduced as part of the Business Process Model and Notation standard to represent interactions between business processes, run by different partners. When it comes to the interactions between services on the Web, Representational State Transfer (REST) is one of the primary architectural styles employed by web services today. Ideally, the RESTful interactions between participants should implement the interactions defined at the business choreography level. The problem, however, is the conceptual gap between the business process choreography diagrams and RESTful interactions. Choreography diagrams, on the one hand, are modeled from business domain experts with the purpose of capturing, communicating and, ideally, driving the business interactions. RESTful interactions, on the other hand, depend on RESTful interfaces that are designed by web engineers with the purpose of facilitating the interaction between participants on the internet. In most cases however, business domain experts are unaware of the technology behind web service interfaces and web engineers tend to overlook the overall business goals of web services. While there is considerable work on using process models during process implementation, there is little work on using choreography models to implement interactions between business processes. This thesis addresses this research gap by raising the following research question: How to close the conceptual gap between business process choreographies and RESTful interactions? This thesis offers several research contributions that jointly answer the research question. The main research contribution is the design of a language that captures RESTful interactions between participants---RESTful choreography modeling language. Formal completeness properties (with respect to REST) are introduced to validate its instances, called RESTful choreographies. A systematic semi-automatic method for deriving RESTful choreographies from business process choreographies is proposed. The method employs natural language processing techniques to translate business interactions into RESTful interactions. The effectiveness of the approach is shown by developing a prototypical tool that evaluates the derivation method over a large number of choreography models. In addition, the thesis proposes solutions towards implementing RESTful choreographies. In particular, two RESTful service specifications are introduced for aiding, respectively, the execution of choreographies' exclusive gateways and the guidance of RESTful interactions. N2 - Das Prozessmanagement hat sich zu einer wichtigen Methode zur Organisation von Arbeitsabläufen entwickelt, sodass viele Unternehmen ihre Tätigkeiten mittlerweile in Prozessmodellen darstellen. Unlängst wurden zudem im Kontext der Business Process Model and Notation Choreographiediagramme eingeführt, um Interaktionen zwischen Prozessen verschiedener Partner zu beschreiben. Im Web nutzen interagierende Dienste heutzutage den Representational State Transfer (REST) als primären Architekturstil. Idealerweise implementieren die REST-Interaktionen der Dienste also die Interaktionen, die im Choreographiediagramm definiert wurden. Allerdings besteht zwischen Choreographiediagrammen und RESTInteraktionen eine konzeptuelle Diskrepanz. Auf der einen Seite werden Choreographiediagramme von Domänenexperten mit dem Ziel modelliert, die Interaktionen zu erfassen, zu kommunizieren und, idealerweise, voranzutreiben. Auf der anderen Seite sind REST-Interaktionen abhängig von REST-Schnittstellen, welche von Web-Entwicklern mit dem Ziel entworfen werden, Interaktionen zwischen Diensten im Internet zu erleichtern. In den meisten Fällen sind sich Domänenexperten jedoch der Technologien, die Web-Schnittstellen zu Grunde liegen, nicht bewusst, wohingegenWeb-Entwickler die Unternehmensziele der Web-Dienste nicht kennen. Während es umfangreiche Arbeiten zur Implementierung von Prozessmodellen gibt, existieren nur wenige Untersuchungen zur Implementierung von interagierenden Prozessen auf Basis von Choreographiemodellen. Die vorliegende Dissertation adressiert diese Forschungslücke, indem sie die folgende Forschungsfrage aufwirft: Wie kann die konzeptuelle Diskrepanz zwischen Choreographiediagrammen und REST-Interaktionen beseitigt werden? Somit enthält diese Arbeit mehrere Forschungsbeiträge, um diese Frage zu adressieren. Der primäre Beitrag besteht in dem Design einer Modellierungssprache, um REST-Interaktionen zwischen Diensten zu erfassen—der RESTful Choreography Modeling Language. Formale Vollständigkeitseigenschaften (in Bezug auf REST) werden eingeführt, um Instanzen dieser Modelle, sogennante REST-Choreographien, zu validieren. Ferner wird eine systematische, halb-automatische Methode vorgestellt, um RESTChoreographien von Choreographiediagrammen abzuleiten. Diese Methode setzt Techniken des Natural Language Processing ein, um Interaktionen in REST-Interaktionen zu übersetzen. Die Wirksamkeit des Ansatzes wird durch die Entwicklung eines prototypischen Werkzeugs demonstriert, welches die Ableitungsmethode anhand einer großen Anzahl von Choreographiediagrammen evaluiert. Darüber hinaus stellt diese Arbeit Lösungen zur Implementierung von REST-Choreographien bereit. Insbesondere werden zwei REST-Dienstspezifikationen vorgestellt, welche die korrekte Ausführung von exklusiven Gateways eines Choreographiediagramms und die Führung der REST-Interaktionen unterstützen. KW - business process choreographies KW - RESTful interactions KW - Geschäftsprozess-Choreografien KW - REST-Interaktionen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-438903 ER - TY - THES A1 - Nguyen, Quyet Doan T1 - Electro-acoustical probing of space-charge and dipole-polarization profiles in polymer dielectrics for electret and electrical-insulation applications T1 - Elektroakustische Abtastung von elektrischen Ladungs- und Polarisationsprofilen in Polymerfolien für Elektret- und Isolations-Anwendungen N2 - Electrets are dielectrics with quasi-permanent electric charge and/or dipoles, sometimes can be regarded as an electric analogy to a magnet. Since the discovery of the excellent charge retention capacity of poly(tetrafluoro ethylene) and the invention of the electret microphone, electrets have grown out of a scientific curiosity to an important application both in science and technology. The history of electret research goes hand in hand with the quest for new materials with better capacity at charge and/or dipole retention. To be useful, electrets normally have to be charged/poled to render them electro-active. This process involves electric-charge deposition and/or electric dipole orientation within the dielectrics ` surfaces and bulk. Knowledge of the spatial distribution of electric charge and/or dipole polarization after their deposition and subsequent decay is crucial in the task to improve their stability in the dielectrics. Likewise, for dielectrics used in electrical insulation applications, there are also needs for accumulated space-charge and polarization spatial profiling. Traditionally, space-charge accumulation and large dipole polarization within insulating dielectrics is considered undesirable and harmful to the insulating dielectrics as they might cause dielectric loss and could lead to internal electric field distortion and local field enhancement. High local electric field could trigger several aging processes and reduce the insulating dielectrics' lifetime. However, with the advent of high-voltage DC transmission and high-voltage capacitor for energy storage, these are no longer the case. There are some overlapped between the two fields of electrets and electric insulation. While quasi-permanently trapped electric-charge and/or large remanent dipole polarization are the requisites for electret operation, stably trapped electric charge in electric insulation helps reduce electric charge transport and overall reduced electric conductivity. Controlled charge trapping can help in preventing further charge injection and accumulation as well as serving as field grading purpose in insulating dielectrics whereas large dipole polarization can be utilized in energy storage applications. In this thesis, the Piezoelectrically-generated Pressure Steps (PPSs) were employed as a nondestructive method to probe the electric-charge and dipole polarization distribution in a range of thin film (several hundred micron) polymer-based materials, namely polypropylene (PP), low-density polyethylene/magnesium oxide (LDPE/MgO) nanocomposites and poly(vinylidene fluoride-co- trifluoro ethylene) (P(VDF-TrFE)) copolymer. PP film surface-treated with phosphoric acid to introduce surfacial isolated nanostructures serves as example of 2-dimensional nano-composites whereas LDPE/MgO serves as the case of 3-dimensional nano-composites with MgO nano-particles dispersed in LDPE polymer matrix. It is evidenced that the nanoparticles on the surface of acid-treated PP and in the bulk of LDPE/MgO nanocomposites improve charge trapping capacity of the respective material and prevent further charge injection and transport and that the enhanced charge trapping capacity makes PP and LDPE/MgO nanocomposites potential materials for both electret and electrical insulation applications. As for PVDF and VDF-based copolymers, the remanent spatial polarization distribution depends critically on poling method as well as specific parameters used in the respective poling method. In this work, homogeneous polarization poling of P(VDF-TrFE) copolymers with different VDF-contents have been attempted with hysteresis cyclical poling. The behaviour of remanent polarization growth and spatial polarization distribution are reported and discussed. The Piezoelectrically-generated Pressure Steps (PPSs) method has proven as a powerful method for the charge storage and transport characterization of a wide range of polymer material from nonpolar, to polar, to polymer nanocomposites category. N2 - Elektrete sind Dielektrika mit quasi-permanenter elektrischer Ladung und/oder quasi-permanent ausgerichteten elektrischen Dipolen - das elektrische Analogon zu einem Magneten. Seit der Entdeckung der besonders hohen Stabilitaet negativer Raumladungen in Polytetrafluorethylen (PTFE, Handelsname Teflon) und der Erfindung des Elektretmikrofons ist aus der spannenden wissenschaftlichen Fragestellung nach den Ursachen der hervorragenden Ladungsspeicherung in Elektreten auch eine wichtige technische Anwendung geworden. In der Geschichte der Elektretforschung und der Elektretanwendungen geht es neben der Ursachenklaerung auch immer um die Suche nach neuen Materialien mit besserer Ladungsspeicherung und/oder Dipolpolarisation. Elektretmaterialien muessen in der Regel elektrisch aufgeladen oder gepolt werden, um die gewuenschten elektroaktiven Eigenschaften zu erhalten. Dabei werden entweder elektrische Ladungen auf der Oberflaeche oder im Volumen des Elektretmaterials deponiert und/oder elektrische Dipole im Material ausgerichtet. Genaue Informationen ueber die raeumliche Verteilung der elektrischen Ladungen und/oder der Dipolpolarisation sowie deren Entwicklung im Laufe der Zeit sind entscheidend fuer eine gezielte Verbesserung der Elektretstabilitaet. Dielektrika, die zur elektrischen Isolierung von Hochspannungsanlagen eingesetzt werden, koennen ebenfalls elektrische Raumladungen und/oder Dipolpolarisationen enthalten, deren Verteilungen entscheidend fuer die Beherrschung der damit einhergehenden Eigenschaftsaenderungen sind. Traditionell gelten Raumladungen und Dipolpolarisationen in elektrischen Isolierungen als unerwuenscht und schaedlich, da sie zu erheblichen Verlusten und zu Verzerrungen der inneren elektrischen Felder fuehren koennen. Hohe lokale Felder koennen Alterungsprozesse ausloesen und die Lebensdauer der isolierenden Dielektrika erheblich verkuerzen. Mit dem Aufkommen der Hochspannungs-Gleichstromuebertragung und des Hochspannungskondensators zur Energiespeicherung in den letzten Jahren hat sich die Situation jedoch grundlegend geaendert, da Raumladungen prinzipiell nicht mehr vermeidbar sind und bei entsprechender Gestaltung der Isolierung moeglicherweise sogar von Vorteil sein koennen. Hier ergeben sich nun Ueberschneidungen und Synergien zwischen Elektreten und elektrischen Isoliermaterialien, zumal in beiden Faellen hohe elektrische Gleichfelder auftreten. Waehrend quasi-permanent gespeicherte elektrische Ladungen und/oder stark quasi- permanente oder remanente Dipolpolarisationen das wesentliche Merkmal von Elektreten sind, koennen stabil gespeicherte elektrische Ladungen in elektrischen Isolierungen dazu beitragen, den schaedlichen Ladungstransport und damit die effektive elektrische Leitfaehigkeit der Dielektrika zu reduzieren. Ein kontrolliertes Einbringen von Raumladungen kann die Injektion und die Anhaeufung weiterer Ladungen verhindern, waehrend stark Dipolpolarisationen die Kapazitaet von elektrischen Energiespeichern wesentlich erhoehen koennen. In der vorliegenden Arbeit wurden piezoelektrisch erzeugte Druckstufen (Piezoelectrically generated Pressure Steps oder PPSs) eingesetzt, um die Verteilung elektrischer Ladungen und/oder ausgerichteter elektrischer Dipole in relativ duennen polymeren Dielektrika (Mikrometerbereich) zu untersuchen. Wesentliche Probenmaterialien waren Polypropylen (PP), Komposite aus Polyethylen mit Magnesiumoxid-Nanopartikeln in geringen Mengen (LDPE/MgO) sowie Poly(vinyliden fluorid-trifluorethylen)-Copolymere (P(VDF-TrFE)). PP-Folien, die mit Phosphorsaeure oberflaechenbehandelt wurden, um voneinander isolierte Nanostrukturen an der Oberflaeche zu erzeugen, sind ein Beispiel fuer ein zweidimensionales (2-D) Nanokomposit, waehrend LDPE/MgO ein dreidimensionales (3-D) Nanokomposit darstellt. Es konnte nachgewiesen werden, dass die Nanopartikel auf der Oberflaeche von saeurebehandeltem PP und im Volumen von LDPE/MgO-Nanokompositen die Ladungsspeicherfaehigkeit des jeweiligen Materials entscheidend verbessern. Damit werden weitere Ladungsinjektionen und der Ladungstransport verhindert, was die 2-D PP- und die 3-D LDPE/MgO-Nanokomposite zu geeigneten Kandidaten sowohl fuer Elektret- als auch fuer Isolationsanwendungen macht. Bei Polyvinylidenfluorid (PVDF) und Copolymeren auf der Basis von Vinylidenfluorid (VDF) haengt die remanente raeumliche Polarisationsverteilung entscheidend von der jeweiligen Polungsmethode sowie von den Parametern des jeweiligen Polungsvorgangs ab. Hier wurde versucht, eine homogene Polung von P(VDF-TrFE)-Copolymeren mit unterschiedlichen VDF-Gehalten mit dem Verfahren der zyklischen Polung (sogenannte Hysterese-Polung) zu erzeugen. Das Entstehen der remanenten Polarisation und deren raeumliche Verteilung konnten erfasst und interpretiert werden, um Hinweise für eine optimale Polung zu erhalten. An den genannten Beispielen konnte gezeigt werden, dass die Methode der piezoelektrisch erzeugten Druckstufen (PPS) ein leistungsfaehiges Verfahren zur Charakterisierung der Ladungsspeicherung und des Ladungstransports in Dielektrika ist und dass damit ein breites Spektrum von unpolaren Polymeren ueber polare Polymerdielektrika bis hin zu polaren Nanokompositen sinnvoll untersucht werden kann. Es wurden wesentliche Erkenntnisse zur Ladungsspeicherung und zur remanten Polarisation in den untersuchten Polymeren gewonnen. KW - electro-acoustic electric-charge and polarization profiling KW - space charge KW - polypropylene KW - polyethylene nanocomposites KW - magnesium oxide KW - polymer electrets KW - ferroelectrets KW - electrical insulation KW - piezoelectricity KW - ferroelectricity KW - poly(vinylidene fluoride) KW - hysteresis KW - elektroakustische Abtastung elektrischer Ladungen und Dipolpolarisationen KW - elektrische Raumladung KW - Polypropylen KW - Polyethylen-Nanokomposite KW - Magnesiumoxid KW - Polymerelektrete KW - Ferroelektrete KW - elektrische Isolierung KW - Piezoelektrizität KW - Ferroelektrizität KW - Poly(vinylidenfluorid) KW - Hysterese Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-445629 ER - TY - THES A1 - Nasery, Mustafa T1 - The success and failure of civil service reforms in Afghanistan T1 - Erfolg und Misserfolg der Reformen im öffentlichen Dienst Afghanistans BT - a critical study of reforms in a fragile and conflict-affected state BT - eine kritische Studie der Reformen in einem fragilen und konfliktbeladenen Staat N2 - The Government will create a motivated, merit-based, performance-driven, and professional civil service that is resistant to temptations of corruption and which provides efficient, effective and transparent public services that do not force customers to pay bribes. — (GoIRA, 2006, p. 106) We were in a black hole! We had an empty glass and had nothing from our side to fill it with! Thus, we accepted anything anybody offered; that is how our glass was filled; that is how we reformed our civil service. — (Former Advisor to IARCSC, personal communication, August 2015) How and under what conditions were the post-Taleban Civil Service Reforms of Afghanistan initiated? What were the main components of the reforms? What were their objectives and to which extent were they achieved? Who were the leading domestic and foreign actors involved in the process? Finally, what specific factors influenced the success and failure Afghanistan’s Civil Service Reforms since 2002? Guided by such fundamental questions, this research studies the wicked process of reforming the Afghan civil service in an environment where a variety of contextual, programmatic, and external factors affected the design and implementation of reforms that were entirely funded and technically assisted by the international community. Focusing on the core components of reforms—recruitment, remuneration, and appraisal of civil servants—the qualitative study provides a detailed picture of the pre-reform civil service and its major human resources developments in the past. Following discussions on the content and purposes of the main reform programs, it will then analyze the extent of changes in policies and practices by examining the outputs and effects of these reforms. Moreover, the study defines the specific factors that led the reforms toward a situation where most of the intended objectives remain unachieved. Doing so, it explores and explains how an overwhelming influence of international actors with conflicting interests, large-scale corruption, political interference, networks of patronage, institutionalized nepotism, culturally accepted cronyism and widespread ethnic favoritism created a very complex environment and prevented the reforms from transforming Afghanistan’s patrimonial civil service into a professional civil service, which is driven by performance and merit. N2 - Die Regierung wird einen motivierten, leistungsbasierten, leistungsorientierten und professionellen öffentlichen Dienst schaffen, der den Versuchungen der Korruption widersteht und effiziente, effektive und transparente öffentliche Dienstlesitungen anbietet, die Kundinnen und Kunden nicht dazu zwingt, Bestechungsgelder zu zahlen. — (GoIRA, 2006, p. 106) Wir waren in einem schwarzen Loch! Wir hatten ein leeres Glas und unsererseits nichts, um es zu füllen! Deshalb haben wir alles angenommen, was uns jemand anbot; so wurde unser Glas gefüllt; so haben wir unseren öffentlichen Dienst reformiert. — (Früherer Berater der IARCSC, persönliches Interview, August 2015) Wie und unter welchen Umständen wurden die Reformen des öffentlichen Dienstes in Afghanistan nach Ende der Taliban Zeit initiiert? Was waren die Ziele der Reformen und in welchem Maß wurden sie erreicht? Wer waren die führenden in- und ausländischen Akteure, die am Prozess beteiligt waren? Welche spezifischen Faktoren haben den Erfolg und Misserfolg der Reform des öffentlichen Dienstes Afghanistans seit 2002 beeinflusst? Diesen grundlegenden Fragen folgend, zeichnet diese Forschungsarbeit den verhängnisvollen Prozess der Reform des afghanischen öffentlichen Dienstes in einem Umfeld nach, in dem eine Vielzahl kontextueller, programmatischer und externer Faktoren die Ausgestaltung und Umsetzung der Reformen beeinflussten, die ausschließlich von internationalen Gemeinschaft finanziert und technisch unterstützt wurden. Die qualitative Untersuchung konzentriert sich auf drei Komponenten der Reform – Einstellung, Vergütung und Bewertung der Beamtinnen und Beamten – und liefert ein detailliertes Bild über den öffentlichen Dienst vor der Reform und der Hauptentwicklungen im Personalwesen in der Vergangenheit. Nach einer Diskussion über Inhalt und Zweck der wichtigsten Reformprogramme, zeigt die Studie das Ausmaß der Veränderungen in Politik und Praxis auf, indem sie die Ergebnisse und Auswirkungen der Reformen untersucht. Darüber hinaus definiert die Studie spezifische Faktoren, die dazu geführt haben, dass die meisten der angestrebten Reformziele nicht erreicht wurden. Dabei untersucht und erklärt sie, wie ein überwältigender Einfluss der internationalen Akteure mit widersprüchlichen Interessen zusammenwirkte mit großangelegter Korruption, politischer Einflussnahme, Netzwerken von Klientelismus, institutionalisiertem Nepotismus, kulturell akzeptierter Vetternwirtschaft und weit verbreiteter ethnischer Patronage. Dieses sehr komplexe Umfeld verhinderte grundlegende Reformen und die Transformation eines patrimonialen öffentlichen Dienstes in einen professionellen, leistungsorientierten öffentlichen Dienst in Afghanistan. KW - public administration KW - civil service reform KW - public administration reform KW - fragile and conflict-affected states KW - governance KW - international cooperation KW - Verwaltung KW - Reform des Öffentlichen Dienstes KW - Verwaltungsreform KW - fragile und konfliktbeladene Staaten KW - Governance KW - internationale Zusammenarbeit Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-444738 ER - TY - THES A1 - Nagel, Oliver T1 - Amoeboid cells as a transport system for micro-objects T1 - Amöboide Zellen als Transportsystem für Mikroobjekte N2 - Due to advances in science and technology towards smaller and more powerful processing units, the fabrication of micrometer sized machines for different tasks becomes more and more possible. Such micro-robots could revolutionize medical treatment of diseases and shall support to work on other small machines. Nevertheless, scaling down robots and other devices is a challenging task and will probably remain limited in near future. Over the past decade the concept of bio-hybrid systems has proved to be a promising approach in order to advance the further development of micro-robots. Bio-hybrid systems combine biological cells with artificial components, thereby benefiting from the functionality of living biological cells. Cell-driven micro-transport is one of the most prominent applications in the emerging field of these systems. So far, micrometer sized cargo has been successfully transported by means of swimming bacterial cells. The potential of motile adherent cells as transport systems has largely remained unexplored. This thesis concentrates on the social amoeba Dictyostelium discoideum as a potential candidate for an amoeboid bio-hybrid transport system. The use of this model organism comes with several advantages. Due to the unspecific properties of Dictyostelium adhesion, a wide range of different cargo materials can be used for transport. As amoeboid cells exceed bacterial cells in size by one order of magnitude, also the size of an object carried by a single cell can also be much larger for an amoeba. Finally it is possible to guide the cell-driven transport based on the chemotactic behavior of the amoeba. Since cells undergo a developmentally induced chemotactic aggregation, cargo could be assembled in a self-organized manner into a cluster. It is also possible to impose an external chemical gradient to guide the amoeboid transport system to a desired location. To establish Dictyostelium discoideum as a possible candidate for bio-hybrid transport systems, this thesis will first investigate the movement of single cells. Secondly, the interaction of cargo and cells will be studied. Eventually, a conceptional proof will be conducted, that the cheomtactic behavior can be exploited either to transport a cargo self-organized or through an external chemical source. N2 - Durch die Fortschritte in Wissenschaft und Technik hin zu kleineren und leistungsfähigeren Prozessoren wird die Herstellung von Maschinen mit einer Größe von wenigen Mikrometern immer wahrscheinlicher. Solche Mikro-Roboter könnten sowohl die medizinische Behandlung von Krankheiten revolutionieren als auch dabei helfen andere kleine Maschinen zu bauen. Nichts desto trotz ist es eine komplizierte Aufgabe Roboter sowie andere Maschinen zu verkleinern und wird in naher Zukunft wohl nur begrenzt möglich sein. Im Verlauf des letzten Jahrzehnts hat sich das Konzept der Bio-Hybridsysteme als ein vielversprechender Ansatz entwickelt, um Mikro-Roboter weiter zu entwickeln. Bio-Hybridsysteme kombinieren biologische Zellen mit künstlichen Komponenten, um so einen Vorteil aus der Funktionalität lebender biologischer Zellen zu ziehen. Der zellgetriebene Mikro-Transport ist eine der bekanntesten Anwendungen in dem wachsenden Feld dieser Systeme. Bisher wurde mikrometergroße Fracht erfolgreich mit Hilfe von schwimmenden Bakterien transportiert. Das Potential beweglicher, adhärenter Zellen als Transportsystem blieb bisher weitgehend unerforscht. Diese Arbeit beschäftigt sich mit der sozialen Amöbe Dictyostelium discoideum als einen potentiellen Kandidaten für ein auf Amöben basiertes Bio-Hybridtransportsystem. Die Nutzung dieses Modellorganismus bringt einige Vorteile mit sich. Auf Grund der unspezifischen Adhäsion von Dictyostelium ist es möglich eine Vielzahl von verschiedenen Frachtmaterialien für den Transport zu nutzen. Da Amöben um eine Größenordnung größer sind als Bakterien, können auch die Objekte, die eine einzelne Amöbe transportieren kann um einiges größer sein, als bei einer einzelnen Bakterie. Desweiteren ist noch möglich den zellgetrieben Transport durch das chemotaktische Verhalten der Amöben zu steuern. Da die Zellen im Verlauf ihres Lebenszyklus’ eine entwicklungsinduzierte chemotaktische Aggregation durchlaufen, ist es möglich, die Fracht in einer selbstorganisierten Art und Weise in Aggregate zusammen zu führen. Es ist auch möglich einen externen chemotaktischen Stimulus zu generieren, um das auf Amöben basierende Transportsystem zu einer gewünschten Position zu lenken. Um Dictyostelium discoideum als denkbaren Kandidaten für ein Bio-Hybridtransportsystem zu etablieren, wird in dieser Arbeit zuerst die Bewegung einzelner Zellen untersucht. Als zweites wird die Interaktion von Zellen und Fracht studiert. Zum Schluss wird ein konzeptioneller Beweis geführt, dass das chemotaktische Verhalten der Zellen genutzt werden kann, um eine Fracht entweder selbstorganisiert oder mit Hilfe eines externen Stimulus zu transportieren. KW - bio-hybrid KW - dicytostelium KW - chemotaxsis KW - Bio-Hybrid KW - Dicytostelium KW - Chemotaxsis Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442192 ER -