TY - THES A1 - Wettstein, Christoph T1 - Cytochrome c-DNA and cytochrome c-enzyme interactions for the construction of analytical signal chains N2 - Electron transfer (ET) reactions play a crucial role in the metabolic pathways of all organisms. In biotechnological approaches, the redox properties of the protein cytochrome c (cyt c), which acts as an electron shuttle in the respiratory chain, was utilized to engineer ET chains on electrode surfaces. With the help of the biopolymer DNA, the redox protein assembles into electro active multilayer (ML) systems, providing a biocompatible matrix for the entrapment of proteins. In this study the characteristics of the cyt c and DNA interaction were defined on the molecular level for the first time and the binding sites of DNA on cyt c were identified. Persistent cyt c/DNA complexes were formed in solution under the assembly conditions of ML architectures, i.e. pH 5.0 and low ionic strength. At pH 7.0, no agglomerates were formed, permitting the characterization of the NMR spectroscopy. Using transverse relaxation-optimized spectroscopy (TROSY)-heteronuclear single quantum coherence (HSQC) experiments, DNAs’ binding sites on the protein were identified. In particular, negatively charged AA residues, which are known interaction sites in cyt c/protein binding were identified as the main contact points of cyt c and DNA. Moreover, the sophisticated task of arranging proteins on electrode surfaces to create functional ET chains was addressed. Therefore, two different enzyme types, the flavin dependent fructose dehydrogenase (FDH) and the pyrroloquinoline quinone dependent glucose dehydrogenase (PQQ-GDH), were tested as reaction partners of freely diffusing cyt c and cyt c immobilized on electrodes in mono- and MLs. The characterisation of the ET processes was performed by means of electrochemistry and the protein deposition was monitored by microgravimetric measurements. FDH and PQQ-GDH were found to be generally suitable for combination with the cyt c/DNA ML system, since both enzymes interact with cyt c in solution and in the immobilized state. The immobilization of FDH and cyt c was achieved with the enzyme on top of a cyt c monolayer electrode without the help of a polyelectrolyte. Combining FDH with the cyt c/DNA ML system did not succeed, yet. However, the basic conditions for this protein-protein interaction were defined. PQQ-GDH was successfully coupled with the ML system, demonstrating that that the cyt c/DNA ML system provides a suitable interface for enzymes and that the creation of signal chains, based on the idea of co-immobilized proteins is feasible. Future work may be directed to the investigation of cyt c/DNA interaction under the precise conditions of ML assembly. Therefore, solid state NMR or X-ray crystallography may be required. Based on the results of this study, the combination of FDH with the ML system should be addressed. Moreover, alternative types of enzymes may be tested as catalytic component of the ML assembly, aiming on the development of innovative biosensor applications. N2 - In den Energiegewinnungsprozessen der Zellen spielen biochemische Reaktion, die auf Elektronentransfer (ET) basieren, eine wichtige Rolle. So sind die Proteinkomplexe der Atmungskette, welche an der inneren Membran der Mitochondrien abläuft, über eine ET-Kette miteinander verbunden. In biotechnologischen Anwendungen wird dieses Phänomen genutzt um Proteine auf der Oberfläche von Elektroden als funktionierende ET-Ketten zu arrangieren. Dabei kann der ET innerhalb dieser Kaskaden als elektrischer Strom gemessen und als Signal betrachtet werden. Dies ermöglicht die Anwendung von proteinmodifizierten Elektroden als Biosensoren und Biobrennstoffzellen. Ein geeigneter Baustein für den Aufbau vielschichtiger ET-Systeme ist das kleine, eisenhaltige Protein Cytochrom c (Cyt c), welches in der Lage ist Elektronen aufzunehmen, zu transportieren und wieder abzugeben. Als zweiter Baustein dient das lange, fadenartige Biomolekül DNA. DNA und Cyt c interagieren unter bestimmten Bedingungen aufgrund ihrer entgegengesetzten Oberflächenladungen. Dies ermöglicht den schichtweisen Aufbau stabiler Cyt c/DNA-Multischichten (MS) auf Elektrodenoberflächen, welche durch die sogenannte Layer-by-Layer (LbL) Technik aufgebaut werden. In diesen MS Systemen behält Cyt c trotz der Immobilisierung seine Beweglichkeit um die eigene Achse, wodurch der Selbstaustausch von Elektronen zwischen den Cyt c Molekülen sowie der ET zur Elektrode gewährleistet wird. Der molekulare Aufbau der Cyt c/DNA MS sowie die Interaktion zwischen den zwei biologischen Bausteine ist weitgehend unerforscht, daher wurden in der vorliegenden Studie die genauen Bedingungen der Cyt c/DNA Interaktion in Lösung untersucht. Außerdem wird die Eignung des MS Systems zur Einbettung von Enzymen getestet. Die Bausteine des MS-Systems, Cyt c und DNA bilden in Lösung stabile Komplexe unter den Assemblierungsbedingungen der MS (d.h. pH 5.0 und geringe Salzkonzentration). Im Vergleich dazu tritt bei pH 7.0 eine schwächere Interaktion auf, die für eine Komplexbildung nicht ausreicht. Dies ermöglicht die Untersuchung der Interaktion mittels Kernspinresonanzspektroskopie (NMR, engl. nuclear magnetic resonance spectroscopy), wobei die Interaktionsstellen des DNA-Moleküls auf Cyt c bestimmt werden. Im Vergleich zu pH 7.0 wird im leicht sauren pH-Bereich (6.0) eine erhöhte Anzahl an Interaktionspunkten gefunden, was Rückschlüsse auf eine erhöhte Interaktion zulässt. Dies resultiert schließlich in der starken Bindung bei pH 5.0, die den Aufbau stabiler Cyt c/DNA-MS auf Elektrodenoberflächen ermöglicht. Darüber hinaus spielen der Salzgehalt der Lösung sowie das Konzentrationsverhältnis von Cyt c und DNA eine wichtige Rolle. Auf der Grundlage des Cyt c/DNA-MS Aufbaus sollte durch die Kopplung eines Enzymes eine Signalkette mit sensorischen Eigenschaften geschaffen werden. Das Enzym dient dabei als Erkennungselement für bestimmte Moleküle in Lösung. Durch die Reaktion des Enzyms mit dem Molekül wird ein bioelektrisches Signal generiert, das durch elektrochemische Methoden gemessen wird. Dies wurde mit zwei verschiedenen Enzymen, der Glukose Dehydrogenase (GDH) und der Fruktose Dehydrogenase (FDH), untersucht. Beide Enzyme waren in der Lage mit einer Cyt c Monoschicht zu kommunizieren und konnten mit dem redox Protein auf der Elektrodenoberfläche immobilisiert werden. GDH konnte erfolgreich mit dem Cyt c/DNA-MS System gekoppelt und die Sensoreigenschaften der so aufgebauten Elektronentransferkette charakterisiert werden. Zusammenfassend charakterisiert diese Arbeit die Bedingungen der Cyt c/DNA-Komplexbildung und gibt einen Einblick in die bisher unbekannte Interaktion zwischen Cyt c und DNA auf der molekularen Ebene. Darüber hinaus wird die Nutzbarkeit des Cyt c/DNA MS Systems zur Einbettung von Enzymen am Beispiel der GDH gezeigt und schafft somit die Grundlage für das bessere Verständnis von ET Reaktionen zwischen Proteinen auf Elektrodenoberflächen. T2 - Cytochrom c-DNA und Cytochrom c-Enzym Interaktion für den Aufbau analytischer Signalketten KW - biosensor KW - protein KW - DNA KW - enzyme KW - interaction KW - DNA KW - Biosensor KW - Enzym KW - Interaktion KW - Protein Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78367 ER - TY - THES A1 - Westbury, Michael V. T1 - Unraveling evolution through Next Generation Sequencing T1 - Entschlüsselung von Evolution durch Sequenzierung der nächsten Generation N2 - The sequencing of the human genome in the early 2000s led to an increased interest in cheap and fast sequencing technologies. This interest culminated in the advent of next generation sequencing (NGS). A number of different NGS platforms have arisen since then all promising to do the same thing, i.e. produce large amounts of genetic information for relatively low costs compared to more traditional methods such as Sanger sequencing. The capabilities of NGS meant that researchers were no longer bound to species for which a lot of previous work had already been done (e.g. model organisms and humans) enabling a shift in research towards more novel and diverse species of interest. This capability has greatly benefitted many fields within the biological sciences, one of which being the field of evolutionary biology. Researchers have begun to move away from the study of laboratory model organisms to wild, natural populations and species which has greatly expanded our knowledge of evolution. NGS boasts a number of benefits over more traditional sequencing approaches. The main benefit comes from the capability to generate information for drastically more loci for a fraction of the cost. This is hugely beneficial to the study of wild animals as, even when large numbers of individuals are unobtainable, the amount of data produced still allows for accurate, reliable population and species level results from a small selection of individuals. The use of NGS to study species for which little to no previous research has been carried out on and the production of novel evolutionary information and reference datasets for the greater scientific community were the focuses of this thesis. Two studies in this thesis focused on producing novel mitochondrial genomes from shotgun sequencing data through iterative mapping, bypassing the need for a close relative to serve as a reference sequence. These mitochondrial genomes were then used to infer species level relationships through phylogenetic analyses. The first of these studies involved reconstructing a complete mitochondrial genome of the bat eared fox (Otocyon megalotis). Phylogenetic analyses of the mitochondrial genome confidently placed the bat eared fox as sister to the clade consisting of the raccoon dog and true foxes within the canidae family. The next study also involved reconstructing a mitochondrial genome but in this case from the extinct Macrauchenia of South America. As this study utilised ancient DNA, it involved a lot of parameter testing, quality controls and strict thresholds to obtain a near complete mitochondrial genome devoid of contamination known to plague ancient DNA studies. Phylogenetic analyses confidently placed Macrauchenia as sister to all living representatives of Perissodactyla with a divergence time of ~66 million years ago. The third and final study of this thesis involved de novo assemblies of both nuclear and mitochondrial genomes from brown and striped hyena and focussed on demographic, genetic diversity and population genomic analyses within the brown hyena. Previous studies of the brown hyena hinted at very low levels of genomic diversity and, perhaps due to this, were unable to find any notable population structure across its range. By incorporating a large number of genetic loci, in the form of complete nuclear genomes, population structure within the brown hyena was uncovered. On top of this, genomic diversity levels were compared to a number of other species. Results showed the brown hyena to have the lowest genomic diversity out of all species included in the study which was perhaps caused by a continuous and ongoing decline in effective population size that started about one million years ago and dramatically accelerated towards the end of the Pleistocene. The studies within this thesis show the power NGS sequencing has and its utility within evolutionary biology. The most notable capabilities outlined in this thesis involve the study of species for which no reference data is available and in the production of large amounts of data, providing evolutionary answers at the species and population level that data produced using more traditional techniques simply could not. N2 - Die Sequenzierung des ersten menschlichen Genoms Anfang der 2000er Jahre förderte das Interesse an kostengünstigen und gleichzeitig schnelleren Sequenziertechniken. Dieses Interesse erreichte seinen derzeitigen Höhepunkt in der Einführung des sogenannten Next Generation Sequencings (NGS). Seitdem wurden zahlreiche NGS-Plattformen entwickelt, die alle dem gleichen Prinzip folgen, nämlich das Erzeugen großer Mengen genetischer Information zu relativ geringen Preisen verglichen mit herkömmlichen Methoden wie der Sanger-Sequenzierung. Die neue Leistungsfähigkeit von NGS bedeutete, dass Forscher nicht mehr länger an Organismen gebunden waren an denen bereits seit Jahren geforscht wurde (bspw. Modellorganismen oder der Mensch), sondern ermöglichte eine Verschiebung in Richtung neuerer und unterschiedlicher Arten von Interesse. Dieses Potential hat viele Wissenschaftsfelder positiv beeinflusst innerhalb der Biowissenschaften, u.a. das Feld der Evolutionsbiologie. Forscher haben angefangen sich zunehmend von Modellorganismen in Laboratorien wegzubewegen hinzu wildlebenden, natürlich vorkommenden Populationen und Arten, was unser Verständnis von Evolution maßgeblich erweitert hat. NGS hat mehrere Vorteile aufzuweisen gegenüber den herkömmlichen Sequenziermethoden. Der wohl größte Vorteil ist die Gewinnung genetischer Daten für mehrere Genorte (Loci) gleichzeitig zu einem Bruchteil der bisherigen Kosten. Das ist besonders nützlich für die Untersuchung wildlebender Tiere da, selbst wenn nicht ausreichend viele Individuen vorliegen, die gewonnene Menge an Daten genaue und verlässliche Ergebnisse auf Populations- sowie Artebene für eine kleine Auswahl an Individuen liefert. Die Verwendung von NGS zur Untersuchung von Arten, für die bisher wenig oder gar keine vorherigen Forschungsergebnisse vorliegen sowie die Gewinnung neuartiger Informationen im Bereich Evolution ebenso wie die Erstellung eines Referenzdatensatzes, der der wissenschaftlichen Gemeinschaft zur Verfügung gestellt werden kann, waren der Fokus dieser Arbeit. Zwei Studien in dieser Arbeit setzten ihren Fokus in der Gewinnung noch nicht publizierter, mitochondrialer Genome, die mittels iterative mapping erstellt wurden und so das Vorhandensein einer Referenzsequenz eines nahen Verwandten der untersuchten Art unnötig machten. In beiden Fällen wurden Shotgun Sequenzierungsdaten verwendet. Die so gewonnenen mitochondrialen Genome wurden dann genutzt, um innerartliche Verwandtschaftsverhältnisse mit hilfe von phylogenetischen Analysen zu klären. Die erste Studie befasste sich mit der Rekonstruktion des kompletten mitochondrialen Genoms des Löffelhundes (Otocyon megalotis). Die phylogenetische Analyse des mitochondrialen Genoms positionierten den Löffelhund sicher als Schwestergruppe der Klade bestehend aus Marderhund und echten Füchsen innerhalb der Familie Canidae. Die zweite Studie hat sich ebenfalls mit der Rekonstruktion eines mitochondrialen Genoms auseinandergesetzt, diesmal von einer bereits ausgestorbenen Art Südamerikas, dem Macrauchenia. Da diese Studie auf sehr alter DNA (ancient DNA) basiert, schließt sie viele Parametertests, Qualitätskontrollen sowie strenge Filterkriterien ein um ein fast vollständiges mitochondriales Genom erhalten zu können, frei von den für ancient DNA typischen Kontaminationen. Phylogenetische Analysen positionieren Macrauchenia als Schwestergruppe zu allen anderen lebenden Vertretern der Perissodactyla mit einer Abspaltung vor ~66 Millionen Jahren. Die dritte und letzte Studie dieser Arbeit beinhaltet die de novo Konstruktionen von nukleären und mitochondrialen Genomen der Schabracken- und Streifenhyäne mit Fokus auf demographische, genetische Diversität sowie Populationsgenomische Analysen innerhalb der Schabrackenhyänen. Vorausgehende Studien an der Schabrackenhyäne gaben Hinweise für einen geringen Grad an genomischer Diversität und, waren vielleicht deshalb, bisher nicht in der Lage eine nennenswerte Populationsstruktur der Schabrackenhyäne aufzudecken. Zusätzlich wurde die genomische Diversität mit der von einer Reihe anderer Arten verglichen. Die Ergebnisse zeigen, dass die Schabrackenhyäne die niedrigste genomische Diversität aufweist im Vergleich zu den in dieser Studie verwendeten Arten, was vielleicht mit einem kontinuierlichen und fortschreitenden Rückgang der effektiven Populationsgröße dieser Spezies zu erklären ist, der vor ca. einer Million Jahre eingesetzt hat und dramatisch zugenommen hat zum Ende des Pleistozän. Die Studien dieser Arbeit zeigen das Potential von NGS Sequenzierung und ihren Nutzen innerhalb der Evolutionsbiologie. Die nennenswertesten Anwendungen von NGS, die in dieser Arbeit hervorgehoben wurden, sind zum Einen der Nutzen für Organismen bzw. Arten für die es keine verfügbaren Referenzdaten gibt sowie zum Anderen die Gewinnung von großen Datenmengen, die die Grundlage bilden zur Beantwortung evolutionsbiologischer Fragestellungen auf Art- und Populationsebene, was vorhergegangene, traditionelle Methoden bisher nicht leisten konnten. KW - Next generation sequencing KW - Evolution KW - Hyena KW - Evolution KW - Hyäne KW - Sequenzierung der nächsten Generation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409981 ER - TY - THES A1 - Werth, Susanna T1 - Calibration of the global hydrological model WGHM with water mass variations from GRACE gravity data T1 - Kalibrierung des globalen hydrologischen Modelles WGHM mit Wassermassenvariationen aus GRACE-Schwerefelddaten N2 - Since the start-up of the GRACE (Gravity Recovery And Climate Experiment) mission in 2002 time dependent global maps of the Earth's gravity field are available to study geophysical and climatologically-driven mass redistributions on the Earth's surface. In particular, GRACE observations of total water storage changes (TWSV) provide a comprehensive data set for analysing the water cycle on large scales. Therefore they are invaluable for validation and calibration of large-scale hydrological models as the WaterGAP Global Hydrology Model (WGHM) which simulates the continental water cycle including its most important components, such as soil, snow, canopy, surface- and groundwater. Hitherto, WGHM exhibits significant differences to GRACE, especially for the seasonal amplitude of TWSV. The need for a validation of hydrological models is further highlighted by large differences between several global models, e.g. WGHM, the Global Land Data Assimilation System (GLDAS) and the Land Dynamics model (LaD). For this purpose, GRACE links geodetic and hydrological research aspects. This link demands the development of adequate data integration methods on both sides, forming the main objectives of this work. They include the derivation of accurate GRACE-based water storage changes, the development of strategies to integrate GRACE data into a global hydrological model as well as a calibration method, followed by the re-calibration of WGHM in order to analyse process and model responses. To achieve these aims, GRACE filter tools for the derivation of regionally averaged TWSV were evaluated for specific river basins. Here, a decorrelation filter using GRACE orbits for its design is most efficient among the tested methods. Consistency in data and equal spatial resolution between observed and simulated TWSV were realised by the inclusion of all most important hydrological processes and an equal filtering of both data sets. Appropriate calibration parameters were derived by a WGHM sensitivity analysis against TWSV. Finally, a multi-objective calibration framework was developed to constrain model predictions by both river discharge and GRACE TWSV, realised with a respective evolutionary method, the ε-Non-dominated-Sorting-Genetic-Algorithm-II (ε-NSGAII). Model calibration was done for the 28 largest river basins worldwide and for most of them improved simulation results were achieved with regard to both objectives. From the multi-objective approach more reliable and consistent simulations of TWSV within the continental water cycle were gained and possible model structure errors or mis-modelled processes for specific river basins detected. For tropical regions as such, the seasonal amplitude of water mass variations has increased. The findings lead to an improved understanding of hydrological processes and their representation in the global model. Finally, the robustness of the results is analysed with respect to GRACE and runoff measurement errors. As a main conclusion obtained from the results, not only soil water and snow storage but also groundwater and surface water storage have to be included in the comparison of the modelled and GRACE-derived total water budged data. Regarding model calibration, the regional varying distribution of parameter sensitivity suggests to tune only parameter of important processes within each region. Furthermore, observations of single storage components beside runoff are necessary to improve signal amplitudes and timing of simulated TWSV as well as to evaluate them with higher accuracy. The results of this work highlight the valuable nature of GRACE data when merged into large-scale hydrological modelling and depict methods to improve large-scale hydrological models. N2 - Das Schwerefeld der Erde spiegelt die Verteilung von Massen auf und unter der Erdoberfläche wieder. Umverteilungen von Erd-, Luft- oder Wassermassen auf unserem Planeten sind damit über eine kontinuierliche Vermessung des Erdschwerefeldes beobachtbar. Besonders Satellitenmissionen sind hierfür geeignet, da deren Umlaufbahn durch zeitliche und räumliche Veränderung der Schwerkraft beeinflusst wird. Seit dem Start der Satellitenmission GRACE (Gravity Recovery And Climate Experiment) im Jahr 2002 stellt die Geodäsie daher globale Daten von zeitlichen Veränderungen des Erdschwerefeldes mit hoher Genauigkeit zur Verfügung. Mit diesen Daten lassen sich geophysikalische und klimatologische Massenumverteilungen auf der Erdoberfläche studieren. GRACE liefert damit erstmals Beobachtungen von Variationen des gesamten kontinentalen Wasserspeichers, welche außerordentlich wertvoll für die Analyse des Wasserkreislaufes über große Regionen sind. Die Daten ermöglichen die Überprüfung von großräumigen mathematischen Modellen der Hydrologie, welche den natürlichen Kreislauf des Wassers auf den Kontinenten, vom Zeitpunkt des Niederschlags bis zum Abfluss in die Ozeane, nachvollziehbar machen. Das verbesserte Verständnis über Transport- und Speicherprozesse von Süßwasser ist für genauere Vorhersagen über zukünftige Wasserverfügbarkeit oder potentielle Naturkatastrophen, wie z.B. Überschwemmungen, von enormer Bedeutung. Ein globales Modell, welches die wichtigsten Komponenten des Wasserkreislaufes (Boden, Schnee, Interzeption, Oberflächen- und Grundwasser) berechnet, ist das "WaterGAP Global Hydrology Model" (WGHM). Vergleiche von berechneten und beobachteten Wassermassenvariationen weisen bisher insbesondere in der jährlichen Amplitude deutliche Differenzen auf. Sehr große Unterschiede zwischen verschiedenen hydrologischen Modellen betonen die Notwendigkeit, deren Berechnungen zu verbessern. Zu diesem Zweck verbindet GRACE die Wissenschaftsbereiche der Geodäsie und der Hydrologie. Diese Verknüpfung verlangt von beiden Seiten die Entwicklung geeigneter Methoden zur Datenintegration, welche die Hauptaufgaben dieser Arbeit darstellten. Dabei handelt es sich insbesondere um die Auswertung der GRACE-Daten mit möglichst hoher Genauigkeit sowie um die Entwicklung einer Strategie zur Integration von GRACE Daten in das hydrologische Modell. Mit Hilfe von GRACE wurde das Modell neu kalbriert, d.h. Parameter im Modell so verändert, dass die hydrologischen Berechnungen besser mit den GRACE Beobachtungen übereinstimmen. Dabei kam ein multikriterieller Kalibrieralgorithmus zur Anwendung mit dem neben GRACE-Daten auch Abflussmessungen einbezogen werden konnten. Die Modellkalibierung wurde weltweit für die 28 größten Flusseinzugsgebiete durchgeführt. In den meisten Fällen konnte eine verbesserte Berechnung von Wassermassenvariationen und Abflüssen erreicht werden. Hieraus ergeben sich, z.B. für tropische Regionen, größere saisonale Variationen. Die Ergebnisse führen zu einem verbesserten Verständnis hydrologischer Prozesse. Zum Schluss konnte die Robustheit der Ergebnisse gegenüber Fehlern in GRACE- und Abflussmessungen erfolgreich getestet werden. Nach den wichtigsten Schlussfolgerungen, die aus den Ergebnissen abgeleitet werden konnten, sind nicht nur Bodenfeuchte- und Schneespeicher, sondern auch Grundwasser- und Oberflächenwasserspeicher in Vergleiche von berechneten und GRACE-beobachteten Wassermassenvariationen einzubeziehen. Weiterhin sind neben Abflussmessungen zusätzlich Beobachtungen von weiteren hydrologischen Prozessen notwendig, um die Ergebnisse mit größerer Genauigkeit überprüfen zu können. Die Ergebnisse dieser Arbeit heben hervor, wie wertvoll GRACE-Daten für die großräumige Hydrologie sind und eröffnen eine Methode zur Verbesserung unseres Verständnisses des globalen Wasserkreislaufes. KW - Schwerefeld KW - Hydrolgische Modellierung KW - Globaler Wasserkreislauf KW - Wassermassenvariationen KW - gravity KW - gydrological modelling KW - global water cycle KW - water mass variations Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41738 ER - TY - THES A1 - Werhahn, Maria T1 - Simulating galaxy evolution with cosmic rays: the multi-frequency view T1 - Galaxienentwicklung in Simulationen mit komischer Strahlung und deren Strahlungsprozessen N2 - Cosmic rays (CRs) constitute an important component of the interstellar medium (ISM) of galaxies and are thought to play an essential role in governing their evolution. In particular, they are able to impact the dynamics of a galaxy by driving galactic outflows or heating the ISM and thereby affecting the efficiency of star-formation. Hence, in order to understand galaxy formation and evolution, we need to accurately model this non-thermal constituent of the ISM. But except in our local environment within the Milky Way, we do not have the ability to measure CRs directly in other galaxies. However, there are many ways to indirectly observe CRs via the radiation they emit due to their interaction with magnetic and interstellar radiation fields as well as with the ISM. In this work, I develop a numerical framework to calculate the spectral distribution of CRs in simulations of isolated galaxies where a steady-state between injection and cooling is assumed. Furthermore, I calculate the non-thermal emission processes arising from the modelled CR proton and electron spectra ranging from radio wavelengths up to the very high-energy gamma-ray regime. I apply this code to a number of high-resolution magneto-hydrodynamical (MHD) simulations of isolated galaxies, where CRs are included. This allows me to study their CR spectra and compare them to observations of the CR proton and electron spectra by the Voyager-1 satellite and the AMS-02 instrument in order to reveal the origin of the measured spectral features. Furthermore, I provide detailed emission maps, luminosities and spectra of the non-thermal emission from our simulated galaxies that range from dwarfs to Milk-Way analogues to starburst galaxies at different evolutionary stages. I successfully reproduce the observed relations between the radio and gamma-ray luminosities with the far-infrared (FIR) emission of star-forming (SF) galaxies, respectively, where the latter is a good tracer of the star-formation rate. I find that highly SF galaxies are close to the limit where their CR population would lose all of their energy due to the emission of radiation, whereas CRs tend to escape low SF galaxies more quickly. On top of that, I investigate the properties of CR transport that are needed in order to match the observed gamma-ray spectra. Furthermore, I uncover the underlying processes that enable the FIR-radio correlation (FRC) to be maintained even in starburst galaxies and find that thermal free-free-emission naturally explains the observed radio spectra in SF galaxies like M82 and NGC 253 thus solving the riddle of flat radio spectra that have been proposed to contradict the observed tight FRC. Lastly, I scrutinise the steady-state modelling of the CR proton component by investigating for the first time the influence of spectrally resolved CR transport in MHD simulations on the hadronic gamma-ray emission of SF galaxies revealing new insights into the observational signatures of CR transport both spectrally and spatially. N2 - Kosmische Strahlung (CR) ist ein essentieller Bestandteil des interstellaren Mediums (ISM) von Galaxien und spielt eine wichtige Rolle in deren Entwicklung. Insbesondere ist sie in der Lage, die Dynamik einer Galaxie zu beeinflussen, indem sie galaktische Ausflüsse treibt oder das ISM aufheizt und sich dadurch auf die Effizienz der Sternentstehung auswirkt. Um Galaxienentstehung zu verstehen ist es daher notwendig, diesen nicht-thermischen Bestandteil des ISM genau zu modellieren. Aber außerhalb unserer lokalen Umgebung innerhalb der Milchstraße haben wir keine Möglichkeit, um CRs in anderen Galaxien direkt zu messen. Allerdings gibt es viele Möglichkeiten, CRs indirekt über die Strahlung zu beobachten, die sie auf Grund ihrer Interaktion mit Magnetfeldern und interstellarer Strahlung sowie mit dem ISM emittieren. In dieser Arbeit habe ich einen numerischen Code entwickelt, der die spektrale Verteilung der CRs in Simulationen von isolierten Galaxien berechnet, wobei ein stationäres Verhältnis zwischen Injektion und Kühlen angenommen wird. Des Weiteren berechnet er die nicht-thermischen Strahlungsprozesse, die aus den modellierten CR Protonen- und Elektronenspektren hervorgehen. Diese reichen von Radiowellenlängen bis hin zu hochenergetischer Gammastrahlung. Ich wende diesen Code auf eine Vielzahl von hoch aufgelösten, magneto-hydrodynamischen Simulationen von isolierten Galaxien an, die CRs beinhalten. Das ermöglicht es mir, ihre CR Spektren zu untersuchen und mit Beobachtungen des Voyager-1 Satelliten sowie des AMS-02 Instruments von CR Protonen- und Elektronenspektren zu vergleichen, um dem Ursprung von den gemessenen spektralen Besonderheiten nachzugehen. Außerdem lege ich detaillierte Emissionskarten, Leuchtkräfte und Spektren der nicht-thermischen Strahlung unserer simulierten Galaxien vor, die von Zwerggalaxien über Milchstraßen-ähnliche Galaxien bis hin zu Starburst-Galaxien bei verschiedensten Entwicklungsstadien reichen. Damit kann ich erfolgreich die beobachteten Zusammenhänge zwischen jeweils der Radio- und Gammastrahlungsleuchtkraft mit der Ferninfrarot (FIR) Strahlung der sternbildenden Galaxien reproduzieren, wobei die FIR Strahlung ein guter Indikator für die Rate der Sternentstehung ist. Dabei finde ich heraus, dass Galaxien mit einer hohen Rate an Sternentstehung sehr nah an dem Limit sind, in dem ihre CR Population all ihre Energie an die Produktion von Strahlung verlieren würde, während CRs dazu tendieren, Galaxien mit einer niedrigen Sternentstehungsrate schneller zu verlassen. Zusätzlich untersuche ich die Eigenschaften des Transports von CRs, die benötigt werden, um die beobachteten Spektren der Gammastrahlung zu reproduzieren. Außerdem decke ich die zugrundeliegenden physikalischen Prozesse auf, durch die die Korrelation zwischen der FIR- und Radioleuchtkraft auch in Starburst-Galaxien aufrecht erhalten werden kann und finde heraus, dass die thermische Emission natürlicherweise die beobachteten Radiospektren in Galaxien wie M82 und NGC 253 erklärt, wodurch sich das Rätsel der flachen Radiospektren löst, die scheinbar im Widerspruch zum beobachteten engen Zusammenhang zwischen der FIR- und Radioleuchtkraft standen. Zuletzt hinterfrage ich die Annahme eines stationären Zustandes bei der Modellierung der CR Protonenspektren, indem ich zum ersten Mal den Einfluss von spektral aufgelöstem Transport von CR Protonen in magneto-hydrodynamischen Simulationen auf die hadronische Gammastrahlung von sternbildenden Galaxien untersuche, was neue Einblicke in beobachtbare Signaturen, sowohl spektral als auch räumlich, von CR-Transport ermöglicht. KW - galaxies KW - cosmic rays KW - numerical astrophysics KW - kosmische Strahlung KW - Galaxien KW - numerische Astrophysik Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-572851 ER - TY - THES A1 - Wendi, Dadiyorto T1 - Recurrence Plots and Quantification Analysis of Flood Runoff Dynamics T1 - Rekurrenzplot und quantitativen Analyse von Hochwasserabflüssen Dynamik N2 - This paper introduces a novel measure to assess similarity between event hydrographs. It is based on Cross Recurrence Plots and Recurrence Quantification Analysis which have recently gained attention in a range of disciplines when dealing with complex systems. The method attempts to quantify the event runoff dynamics and is based on the time delay embedded phase space representation of discharge hydrographs. A phase space trajectory is reconstructed from the event hydrograph, and pairs of hydrographs are compared to each other based on the distance of their phase space trajectories. Time delay embedding allows considering the multi-dimensional relationships between different points in time within the event. Hence, the temporal succession of discharge values is taken into account, such as the impact of the initial conditions on the runoff event. We provide an introduction to Cross Recurrence Plots and discuss their parameterization. An application example based on flood time series demonstrates how the method can be used to measure the similarity or dissimilarity of events, and how it can be used to detect events with rare runoff dynamics. It is argued that this methods provides a more comprehensive approach to quantify hydrograph similarity compared to conventional hydrological signatures. N2 - Ziel dieser Arbeit ist es, eine Methode und einen umfassenden Index, die die Quantifizierung von Veränderungen in Hochwasserabflüssen über die Zeit ermöglichen, zu entwickeln. Als Proxydaten zur Detektion von Veränderungen dienen Abflusszeitreihen, da diese räumlich-zeitliche Änderungen von Prozessen im Einzugsgebiet integrieren. Einhergehend mit Veränderungen in den Rahmenbedingungen hydrologischer Systeme, beispielsweise Klimaänderungen, Veränderungen im Flussnetzwerk oder der Bodenbedeckung, sind Veränderungen in der Abflussdynamik zu erwarten. Urbanisierung, Klimawandel und veränderte wasserwirtschaftliche Nutzung können erheblichen Einfluss auf Hochwassercharakteristika haben, sodass die auf die abflussverursachenden Prozesse bezogene Hochwassertypologie obsolet wird. Außerdem kann es zur Überlagerung verschiedener Prozesse und der Bildung präzedenzloser Hochwasserdynamiken kommen. Üblicherweise wird seltenen Hochwasserereignissen eine über einen langen Zeitraum bestimmte Wiederkehrwahrscheinlichkeit zugewiesen. Allerdings wird die assoziierte Wiederkehrdauer häufig nur auf der Grundlage des Höchstwasserstandes ermittelt und ist nicht umfassend genug, um die unterschiedlichen Prozesstypen zu erfassen. Um umfassendere Abflussmerkmale in die Hochwassercharakterisierung aufzunehmen, wird die Charakterisierung der Abflussdynamik mittels der kontinuierlichen Gestalt des Hydrographen und als Kurve im Phasenraum empfohlen. Durch die Berücksichtigung des Taken‘schen Satzes zur Einbettung der Zeitverzögerung können ereignisbasierte Hydrographen weiter unterschieden werden. Dieser Ansatz nutzt die zeitliche Abfolge gemessener Abflusswerte, sodass der Einfluss der anfänglichen Werte auf das Hochwasserereignis als charakteristischer Vektor im multidimensionalen Phasenraum interpretiert werden kann. Im Rahmen dieser Arbeit wurden, erstmals im Bereich der Hydrologie, ‚Recurrence Plot‘ (RP) und ‚Recurrence Quantification Analysis‘ RQA eingesetzt, um die Seltenheit bzw. Ähnlichkeit von Abflussdynamiken zu visualisieren und identifizieren. Ebenso werden Anwendungsbeispiele im Bereich der Hydrologie, die das Konzept der Charakterisierung von Abflussdynamiken und den Nutzen des eingeführten Ähnlichkeitsindex verdeutlichen, vorgestellt. Außerdem wurde die Methodik weiterentwickelt und zeichnet sich nun durch erhöhte Robustheit gegenüber Störeinflüssen und eine bessere Anpassung an Abflussmessungen aus. Ein abschließendes Anwendungsbeispiel untersucht den in Dresden gemessenen Abfluss des ostdeutschen Elbe-Einzugsgebietes im Zeitraum von 1901 bis 2010. In dieser Studie werden Beispiele seltener und saisonunabhängiger Hochwasserereignisse, die durch ihre ungewöhnliche Abflussdynamik herausstechen, gezeigt und mit zugrundeliegenden abflussbildenden Prozessen in Verbindung gebracht. KW - Hydrograph Analysis KW - Time Embedded Phase Space KW - Rare and Unseasonal Flood KW - Non-stationary Flood Risk KW - Chaos Theory KW - Recurrence Plots KW - Flood Risk Big Data Mining KW - Flood Change KW - Non-linear Geoscience KW - Chaostheorie KW - Änderungen des Hochwassers KW - Big data mining zu Hochwasserrisiken KW - Analyse von Abflussganglinien KW - nichtlineare Geowissenschaften KW - nichtstationäres Hochwasserrisiko KW - seltenes und saisonunübliches Hochwasser KW - Rekurrenzplot KW - Phasenraum des Time Delay Embedding Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431915 ER - TY - THES A1 - Wen, Xi T1 - Distribution patterns and environmental drivers of methane-cycling microorganisms in natural environments and restored wetlands N2 - Methane is an important greenhouse gas contributing to global climate change. Natural environments and restored wetlands contribute a large proportion to the global methane budget. Methanogenic archaea (methanogens) and methane oxidizing bacteria (methanotrophs), the biogenic producers and consumers of methane, play key roles in the methane cycle in those environments. A large number of studies revealed the distribution, diversity and composition of these microorganisms in individual habitats. However, uncertainties exist in predicting the response and feedback of methane-cycling microorganisms to future climate changes and related environmental changes due to the limited spatial scales considered so far, and due to a poor recognition of the biogeography of these important microorganisms combining global and local scales. With the aim of improving our understanding about whether and how methane-cycling microbial communities will be affected by a series of dynamic environmental factors in response to climate change, this PhD thesis investigates the biogeographic patterns of methane-cycling communities, and the driving factors which define these patterns at different spatial scales. At the global scale, a meta-analysis was performed by implementing 94 globally distributed public datasets together with environmental data from various natural environments including soils, lake sediments, estuaries, marine sediments, hydrothermal sediments and mud volcanos. In combination with a global biogeographic map of methanogenic archaea from multiple natural environments, this thesis revealed that biogeographic patterns of methanogens exist. The terrestrial habitats showed higher alpha diversities than marine environments. Methanoculleus and Methanosaeta (Methanothrix) are the most frequently detected taxa in marine habitats, while Methanoregula prevails in terrestrial habitats. Estuary ecosystems, the transition zones between marine and terrestrial/limnic ecosystems, have the highest methanogenic richness but comparably low methane emission rates. At the local scale, this study compared two rewetted fens with known high methane emissions in northeastern Germany, a coastal brackish fen (Hütelmoor) and a freshwater riparian fen (Polder Zarnekow). Consistent with different geochemical conditions and land-use history, the two rewetted fens exhibit dissimilar methanogenic and, especially, methanotrophic community compositions. The methanotrophic community was generally under-represented among the prokaryotic communities and both fens show similarly low ratios of methanotrophic to methanogenic abundances. Since few studies have characterized methane-cycling microorganisms in rewetted fens, this study provides first evidence that the rapid and well re-established methanogenic community in combination with the low and incomplete re-establishment of the methanotrophic community after rewetting contributes to elevated sustained methane fluxes following rewetting. Finally, this thesis demonstrates that dispersal limitation only slightly regulates the biogeographic distribution patterns of methanogenic microorganisms in natural environments and restored wetlands. Instead, their existence, adaption and establishment are more associated with the selective pressures under different environmental conditions. Salinity, pH and temperature are identified as the most important factors in shaping microbial community structure at different spatial scales (global versus terrestrial environments). Predicted changes in climate, such as increasing temperature, changes in precipitation patterns and increasing frequency of flooding events, are likely to induce a series of environmental alterations, which will either directly or indirectly affect the driving environmental forces of methanogenic communities, leading to changes in their community composition and thus potentially also in methane emission patterns in the future. N2 - Methan ist ein wichtiges Treibhausgas, das zum globalen Klimawandel beiträgt. Bedeutend für das globale Methanbudget sind unter anderem natürliche und wiedervernäßte Moore. Methanogene Archaeen (Methanogene) und Methan-oxidierende Bakterien (Methanotrophe) sind die biogenen Produzenten und Konsumenten von Methan. Daher nehmen sie global, und speziell in Mooren, eine Schlüsselrolle für das Methanbudget ein. Eine Vielzahl von Studien hat die Verteilung, Vielfalt und Zusammensetzung dieser Mikroorganismen in einzelnen Lebensräumen untersucht. Es bestehen jedoch Unsicherheiten in der Vorhersage, wie sie auf den globalen Wandel und auf die damit verbundenen Umweltveränderungen reagieren werden. Diese Unsicherheiten basieren unter anderem auf bislang fehlenden biogeographischen Untersuchungen, die globale und lokale Skalen kombinieren, und auf einem unzureichenden Verständnis dazu, ob und welche Umweltfaktoren speziell methanogene Gemeinschaften beeinflussen. Zudem gibt es trotz der Bedeutung von Projekten zur Moorwiedervernässung für das regionale und globale Treibhausgasbudget nahezu keine Untersuchungen zur Zusammensetzung und Verbreitung von methanogenen und methanotrophen Gemeinschaften in degradierten wiedervernäßten, eutrophen Niedermooren. Das Ziel dieser Doktorarbeit ist es, unser Verständnis zur Reaktion der am Methanbudget beteiligten mikrobiellen Gemeinschaften auf den globalen Wandel und auf die damit einhergehenden Umweltänderungen zu verbessern. Die Arbeit untersucht daher zum einen die biogeographischen Muster methanogener Gemeinschaften und die ihnen zugrunde liegenden Umweltfaktoren auf verschiedenen räumlichen Skalen. Auf globaler Ebene wurde eine Meta-Analyse durchgeführt, die auf 94 global verteilten, öffentlichen Sequenzdatensätzen sowie den dazugehörigen Umweltdaten aus verschiedenen natürlichen Ökosystemen basiert. Hierzu gehören Böden, Seesedimente, Ästuare, marine Sedimente, hydrothermale Sedimente und Schlammvulkane. In Kombination mit einer globalen biogeographischen Karte zur Verbreitung methanogener Archaeen konnte diese Arbeit zeigen, dass biogeographische Muster von Methanogenen existieren. Terrestrische Ökosysteme zeigen zudem eine höhere Diversität als marine Ökosysteme. Ästuare, Übergangszonen zwischen marinen und terrestrischen/ limnischen Ökosystemen, weisen die größte methanogene Diversität bei jedoch vergleichsweise geringen Methanemissionen auf. Methanoculleus und Methanosaeta (Methanothrix) sind die am häufigsten nachgewiesenen Taxa in marinen Lebensräumen, während Methanoregula in terrestrischen Ökosystemen dominiert. Auf lokaler Ebene wurden in dieser Arbeit zwei wiedervernässte, eutrophe Niedermoore im Nordosten Deutschlands verglichen, das von der Ostsee beeinflusste „Hütelmoor“ und das Durchströmungsmoor „Polder Zarnekow“. Beide Moore sind durch hohe Methanemissionen infolge der Wiedervernässung charakterisiert. Einhergehend mit unterschiedlichen geochemischen Bedingungen und unterschiedlicher Nutzungshistorie weisen diese beiden wiedervernässten Standorte in ihrer Zusammensetzung unterschiedliche methanogene und methanotrophe Gemeinschaften auf lokaler Ebene auf. Zudem ist die Gruppe der Methanotrophen innerhalb der prokaryotischen Gemeinschaften jeweils unterrepräsentiert und beide Moore zeigen ein vergleichbar niedriges Verhältnis von Methanotrophen im Vergleich zu Methanogenen. Diese Arbeit liefert erste Hinweise darauf, dass die schnelle und erfolgreiche Wiederbesiedlung durch Methanogene in Kombination mit einer offenbar schlecht etablierten methanotrophen Gemeinschaft zu den erhöhten Methanflüssen in beiden Mooren nach Wiedervernässung beiträgt. Abschließend zeigt diese Arbeit, dass eine eingeschränkte Migration („dispersal limitation“) die biogeographischen Verteilungsmuster von Methanogenen in natürlichen Ökosystemen kaum beeinflusst. Stattdessen werden Vorkommen und Anpassung von methanogenen Gemeinschaften vor allem durch den selektiven Druck verschiedener Umweltbedingungen reguliert. Die Umweltparameter Salzgehalt, pH-Wert und Temperatur wurden dabei als wichtigste Faktoren identifiziert, die die Verbreitung methanogener Gemeinschaften global bzw. speziell in terrestrischen Standorten beeinflussen. Es ist daher wahrscheinlich, dass prognostizierte Klimaveränderungen wie steigende Temperatur, Änderungen der Niederschlagsmuster und zunehmende Häufigkeit von Überschwemmungsereignissen zu Änderungen in der Zusammensetzung methanogener Gemeinschaften führen, die möglicherweise auch die Methanemissionsmuster beeinflussen werden. T2 - Verteilungsmuster Methan produzierender und Methan oxidierender Mikroorganismen und deren Abhängigkeit von Umweltfaktoren in natürlichen Ökosystemen und wiedervernäßten Mooren KW - biogeography KW - Biogeographie KW - methanogens KW - methanotrophs KW - Methanogene KW - Methanotrophe KW - distribution pattern KW - Verteilungsmuster KW - methane KW - Methane Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471770 ER - TY - THES A1 - Welsch, Maryna T1 - Investigation of the stress tolerance regulatory network integration of the NAC transcription factor JUNGBRUNNEN1 (JUB1) T1 - Untersuchung des Stresstoleranz-Regulationsnetzwerks des NAC-Transkriptionsfaktors JUNGBRUNNEN1 (JUB1) N2 - The NAC transcription factor (TF) JUNGBRUNNEN1 (JUB1) is an important negative regulator of plant senescence, as well as of gibberellic acid (GA) and brassinosteroid (BR) biosynthesis in Arabidopsis thaliana. Overexpression of JUB1 promotes longevity and enhances tolerance to drought and other abiotic stresses. A similar role of JUB1 has been observed in other plant species, including tomato and banana. Our data show that JUB1 overexpressors (JUB1-OXs) accumulate higher levels of proline than WT plants under control conditions, during the onset of drought stress, and thereafter. We identified that overexpression of JUB1 induces key proline biosynthesis and suppresses key proline degradation genes. Furthermore, bZIP63, the transcription factor involved in proline metabolism, was identified as a novel downstream target of JUB1 by Yeast One-Hybrid (Y1H) analysis and Chromatin immunoprecipitation (ChIP). However, based on Electrophoretic Mobility Shift Assay (EMSA), direct binding of JUB1 to bZIP63 could not be confirmed. Our data indicate that JUB1-OX plants exhibit reduced stomatal conductance under control conditions. However, selective overexpression of JUB1 in guard cells did not improve drought stress tolerance in Arabidopsis. Moreover, the drought-tolerant phenotype of JUB1 overexpressors does not solely depend on the transcriptional control of the DREB2A gene. Thus, our data suggest that JUB1 confers tolerance to drought stress by regulating multiple components. Until today, none of the previous studies on JUB1´s regulatory network focused on identifying protein-protein interactions. We, therefore, performed a yeast two-hybrid screen (Y2H) which identified several protein interactors of JUB1, two of which are the calcium-binding proteins CaM1 and CaM4. Both proteins interact with JUB1 in the nucleus of Arabidopsis protoplasts. Moreover, JUB1 is expressed with CaM1 and CaM4 under the same conditions. Since CaM1.1 and CaM4.1 encode proteins with identical amino acid sequences, all further experiments were performed with constructs involving the CaM4 coding sequence. Our data show that JUB1 harbors multiple CaM-binding sites, which are localized in both the N-terminal and C-terminal regions of the protein. One of the CaM-binding sites, localized in the DNA-binding domain of JUB1, was identified as a functional CaM-binding site since its mutation strongly reduced the binding of CaM4 to JUB1. Furthermore, JUB1 transactivates expression of the stress-related gene DREB2A in mesophyll cells; this effect is significantly reduced when the calcium-binding protein CaM4 is expressed as well. Overexpression of both genes in Arabidopsis results in early senescence observed through lower chlorophyll content and an enhanced expression of senescence-associated genes (SAGs) when compared with single JUB1 overexpressors. Our data also show that JUB1 and CaM4 proteins interact in senescent leaves, which have increased Ca2+ levels when compared to young leaves. Collectively, our data indicate that JUB1 activity towards its downstream targets is fine-tuned by calcium-binding proteins during leaf senescence. N2 - Der NAC Transkriptionsfaktor (TF) JUNGBRUNNEN1 (JUB1) ist ein wichtiger negativer Regulator der Pflanzenseneszenz, Gibberellinsäure- (GA) und Brassinosteroid- (BR) Biosynthese in Arabidopsis thaliana. Die Überexpression von JUB1 fördert die Langlebigkeit und erhöht die Toleranz gegenüber Trockenheit und anderen abiotischen Belastungen. Bei anderen Pflanzenarten, einschließlich Tomaten und Bananen, wurde eine ähnliche Rolle von JUB1 beobachtet. Unsere Daten zeigen, dass JUB1 Überexpressionslinien im Vergleich zu WT-Pflanzen sowohl unter Kontrollbedingungen, als auch zu Beginn und während späterer Stadien von Trockenstress größere Mengen an Prolin akkumulieren. Wir haben festgestellt, dass die Überexpression von JUB1 die Schlüsselbiosynthese von Prolin induziert und Schlüsselgene für den Abbau von Prolin unterdrückt. Darüber hinaus wurde bZIP63, ein am Prolinstoffwechsel beteiligter Transkriptionsfaktor, mittels Yeast One-Hybrid-System (Y1H) und Chromatin-Immunopräzipitation (ChIP) als neues nachgeschaltetes Ziel von JUB1 identifiziert. Basierend auf dem Electrophoretic Mobility Shift Assay (EMSA) konnte die direkte Bindung von JUB1 an bZIP63 jedoch nicht bestätigt werden. Unsere Daten zeigen, dass JUB1-OXs unter Kontrollbedingungen eine niedrigere stomatale Leitfähigkeit aufweisen. Allerdings verbessert eine selektive Überexpression von JUB1 in den Schließzellen die Trockenstresstoleranz bei Arabidopsis nicht. Darüber hinaus hängt der trockenheitstolerante Phänotyp von JUB1 nicht allein von der transkriptionellen Kontrolle des DREB2A-Gens ab. Unsere Daten legen daher nahe, dass JUB1 durch die Regulierung mehrerer Komponenten Toleranz gegenüber Trockenstress verleiht. Bis heute konzentrierte sich keine der bisherigen Studien zum regulatorischen Netzwerk von JUB1 auf die Identifizierung von Protein-Protein-Interaktionen. Wir führten deshalb einen Hefe-Zwei-Hybrid-Screen (Y2H) durch, der mehrere Protein-Interaktoren von JUB1 identifizierte, von denen zwei Calcium-bindende Proteine sind (CaM1 und CaM4). Beide Proteine interagieren mit JUB1 im Kern von Arabidopsis-Protoplasten. Darüber hinaus wird JUB1 mit den CaM1- und CaM4-Genen unter den gleichen Bedingungen exprimiert und kolokalisiert mit den Proteinen im Zellkern von Arabidopsis thaliana-Protoplasten. Unsere Daten zeigen, dass JUB1 mehrere CaM-Bindungsstellen aufweist, die sowohl in der N-terminalen, als auch in der C-terminalen Region des Proteins lokalisiert sind. Eine der CaM-Bindungsstellen, die in der DNA-Bindungsdomäne von JUB1 lokalisiert ist, wurde als funktionelle und aktive CaM-Bindungsstelle identifiziert, da ihre Mutation die Bindung von CaM4 an JUB1 stark reduzierte. Darüber hinaus transaktiviert JUB1 die Expression des stressbezogenen Gens DREB2A in Mesophyllzellen. Dieser Effekt wird deutlich reduziert, wenn auch das Calcium-bindende Protein CaM4 exprimiert wird. Die Überexpression beider Gene in Arabidopsis führt zum frühen Seneszenz-Phänotyp, der durch einen verminderten Chlorophyllgehalt und eine veränderte SAGs-Expression im Vergleich zu einzelnen JUB1-Überexpressoren beobachtet wird. Unsere Daten zeigen auch, dass JUB1- und CaM4-Proteine in den seneszenten Blättern, die im Vergleich zu jungen Blättern erhöhte Ca2+-spiegel aufweisen, interagieren. Zusammenfassend weisen unsere Daten darauf hin, dass während der Blattseneszenz die Aktivität von JUB1 gegenüber seinen nachgeschalteten Zielen durch die Calcium-bindenden Proteine fein abgestimmt wird. KW - transcription factor KW - senescence KW - calmodulin KW - JUB1 KW - CaM4 KW - drought stress KW - CaM4 KW - JUB1 KW - calmodulin KW - Trockenstress KW - Seneszenz KW - Transkriptionsfaktor Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-547310 ER - TY - THES A1 - Wellmann, Caroline T1 - Early sensitivity to prosodic phrase boundary cues: Behavioral evidence from German-learning infants T1 - Frühkindliche Wahrnehmung prosodischer Grenzmarkierungen: Behaviorale Untersuchungen mit Deutsch lernenden Säuglingen N2 - This dissertation seeks to shed light on the relation of phrasal prosody and developmental speech perception in German-learning infants. Three independent empirical studies explore the role of acoustic correlates of major prosodic boundaries, specifically pitch change, final lengthening, and pause, in infant boundary perception. Moreover, it was examined whether the sensitivity to prosodic phrase boundary markings changes during the first year of life as a result of perceptual attunement to the ambient language (Aslin & Pisoni, 1980). Using the headturn preference procedure six- and eight-month-old monolingual German-learning infants were tested on their discrimination of two different prosodic groupings of the same list of coordinated names either with or without an internal IPB after the second name, that is, [Moni und Lilli] [und Manu] or [Moni und Lilli und Manu]. The boundary marking was systematically varied with respect to single prosodic cues or specific cue combinations. Results revealed that six- and eight-month-old German-learning infants successfully detect the internal prosodic boundary when it is signaled by all the three main boundary cues pitch change, final lengthening, and pause. For eight-, but not for six-month-olds, the combination of pitch change and final lengthening, without the occurrence of a pause, is sufficient. This mirrors an adult-like perception by eight-months (Holzgrefe-Lang et al., 2016). Six-month-olds detect a prosodic phrase boundary signaled by final lengthening and pause. The findings suggest a developmental change in German prosodic boundary cue perception from a strong reliance on the pause cue at six months to a differentiated sensitivity to the more subtle cues pitch change and final lengthening at eight months. Neither for six- nor for eight-month-olds the occurrence of pitch change or final lengthening as single cues is sufficient, similar to what has been observed for adult speakers of German (Holzgrefe-Lang et al., 2016). The present dissertation provides new scientific knowledge on infants’ sensitivity to individual prosodic phrase boundary cues in the first year of life. Methodologically, the studies are pathbreaking since they used exactly the same stimulus materials – phonologically thoroughly controlled lists of names – that have also been used with adults (Holzgrefe-Lang et al., 2016) and with infants in a neurophysiological paradigm (Holzgrefe-Lang, Wellmann, Höhle, & Wartenburger, 2018), allowing for comparisons across age (six/ eight months and adults) and method (behavioral vs. neurophysiological methods). Moreover, materials are suited to be transferred to other languages allowing for a crosslinguistic comparison. Taken together with a study with similar French materials (van Ommen et al., 2020) the observed change in sensitivity in German-learning infants can be interpreted as a language-specific one, from an initial language-general processing mechanism that primarily focuses on the presence of pauses to a language-specific processing that takes into account prosodic properties available in the ambient language. The developmental pattern is discussed as an interplay of acoustic salience, prosodic typology (prosodic regularity) and cue reliability. N2 - Die Dissertation befasst sich mit der Bedeutung individueller prosodischer Hinweise für die Wahrnehmung einer prosodischen Phrasengrenze bei deutschsprachig aufwachsenden Säuglingen. In drei Studien wurde mit behavioralen Untersuchungen der Frage nachgegangen, welche Bedeutung die akustischen Merkmale Tonhöhenveränderung, finale Dehnung und das Auftreten von Pausen für die Erkennung einer prosodischen Grenze haben. Zudem wurde hinterfragt, ob sich die Sensitivität für diese prosodischen Grenzmarkierungen im ersten Lebensjahr verändert und einer perzeptuellen Reorganisation, also einer Anpassung an die Muttersprache (Attunement Theorie, Aslin & Pisoni, 1980), unterliegt. Mithilfe der Headturn Preference Procedure wurde getestet, ob 6 und 8 Monate alte Deutsch lernende Säuglinge zwei verschiedene prosodische Gruppierungen einer Aufzählung von Namen diskriminieren können (mit oder ohne eine interne prosodische Grenze, [Moni und Lilli] [und Manu] vs. [Moni und Lilli und Manu]). Die Grenze wurde bezüglich des Auftretens einzelner prosodischer Hinweise oder Kombinationen von Hinweisen systematisch variiert. Die Ergebnisse zeigen, dass sowohl 6 als auch 8 Monate alte Deutsch lernende Säuglinge die interne prosodische Grenze in der Aufzählung erkennen, wenn sie durch alle drei Hinweise – Tonhöhenveränderung, finale Dehnung und das Auftreten einer Pause – markiert ist. Darüber hinaus zeigte sich, dass für 8, aber nicht für 6, Monate alte Säuglinge die Kombination aus Tonhöhe und finaler Dehnung ohne Pause ausreichend ist. 6 Monate alte Säuglinge erkennen eine Grenze, wenn sie durch eine Pause und finale Dehnung markiert ist. Damit zeigt sich eine Entwicklung der Sensitivität für prosodische Grenzmarkierungen von 6 zu 8 Monaten – weg von der Notwendigkeit der Pause hin zu einer differenzierten Wahrnehmung subtiler Hinweise wie Tonhöhe und finale Dehnung. Weder für 6 noch für 8 Monate alte Säuglinge ist die Markierung durch einen einzelnen Hinweis (Tonhöhe oder finale Dehnung) ausreichend. Dies deckt sich mit dem Verhaltensmuster erwachsener deutschsprachiger Hörer in einer Aufgabe zur prosodischen Strukturierung (Holzgrefe-Lang et al., 2016). Die vorgelegte Dissertation beleuchtet erstmalig für den frühen Erwerb des Deutschen die Bedeutung einzelner prosodischer Hinweise an Phrasengrenzen. Hierbei ist die Art der verwendeten Stimuli neu: phonologisch sorgfältig kontrollierte Aufzählungen von Namen, in denen einzelne prosodische Hinweise fein akustisch manipuliert werden können. Zudem kann dieses Material ideal in Untersuchungen mit anderen Methoden (z.B. EEG) eingesetzt werden und auf weitere Altersgruppen (Erwachsene) und andere Sprachen transferiert werden. Dies ermöglicht den direkten Vergleich der Ergebnisse zu denen anderer Studien mit ähnlichem Stimulusmaterial (Holzgrefe-Lang et al., 2016, 2018; van Ommen et al., 2020) und erlaubt die Interpretation einer sprachspezifischen Entwicklung. Das beobachtete Entwicklungsmuster wird als Produkt eines Wechselspiels von akustischer Salienz, prosodischer Typologie (prosodische Regularität) und Zuverlässigkeit eines prosodischen Hinweises (cue reliability) diskutiert. KW - prosody KW - language acquisition KW - infants KW - prosodic boundary cues KW - prosodic phrase boundary KW - perceptual attunement KW - Prosodie KW - Spracherwerb KW - Säuglinge KW - prosodische Grenzmarkierungen KW - prosodische Phrasengrenze KW - perzeptuelle Reorganisation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-573937 ER - TY - THES A1 - Weißhuhn, Peter T1 - Assessing biotope vulnerability to landscape changes T1 - Bewertung der Vulnerabilität von Biotopen gegenüber Landschaftsveränderungen N2 - Largescale patterns of global land use change are very frequently accompanied by natural habitat loss. To assess the consequences of habitat loss for the remaining natural and semi-natural biotopes, inclusion of cumulative effects at the landscape level is required. The interdisciplinary concept of vulnerability constitutes an appropriate assessment framework at the landscape level, though with few examples of its application for ecological assessments. A comprehensive biotope vulnerability analysis allows identification of areas most affected by landscape change and at the same time with the lowest chances of regeneration. To this end, a series of ecological indicators were reviewed and developed. They measured spatial attributes of individual biotopes as well as some ecological and conservation characteristics of the respective resident species community. The final vulnerability index combined seven largely independent indicators, which covered exposure, sensitivity and adaptive capacity of biotopes to landscape changes. Results for biotope vulnerability were provided at the regional level. This seems to be an appropriate extent with relevance for spatial planning and designing the distribution of nature reserves. Using the vulnerability scores calculated for the German federal state of Brandenburg, hot spots and clusters within and across the distinguished types of biotopes were analysed. Biotope types with high dependence on water availability, as well as biotopes of the open landscape containing woody plants (e.g., orchard meadows) are particularly vulnerable to landscape changes. In contrast, the majority of forest biotopes appear to be less vulnerable. Despite the appeal of such generalised statements for some biotope types, the distribution of values suggests that conservation measures for the majority of biotopes should be designed specifically for individual sites. Taken together, size, shape and spatial context of individual biotopes often had a dominant influence on the vulnerability score. The implementation of biotope vulnerability analysis at the regional level indicated that large biotope datasets can be evaluated with high level of detail using geoinformatics. Drawing on previous work in landscape spatial analysis, the reproducible approach relies on transparent calculations of quantitative and qualitative indicators. At the same time, it provides a synoptic overview and information on the individual biotopes. It is expected to be most useful for nature conservation in combination with an understanding of population, species, and community attributes known for specific sites. The biotope vulnerability analysis facilitates a foresighted assessment of different land uses, aiding in identifying options to slow habitat loss to sustainable levels. It can also be incorporated into planning of restoration measures, guiding efforts to remedy ecological damage. Restoration of any specific site could yield synergies with the conservation objectives of other sites, through enhancing the habitat network or buffering against future landscape change. Biotope vulnerability analysis could be developed in line with other important ecological concepts, such as resilience and adaptability, further extending the broad thematic scope of the vulnerability concept. Vulnerability can increasingly serve as a common framework for the interdisciplinary research necessary to solve major societal challenges. N2 - Weltweit wurden in den vergangenen Jahrzehnten massive Veränderungen in der Landnutzung vorgenommen. Diese gingen meistens mit dem Verlust natürlicher Habitate einher. Um die Folgen auf die verbliebenen naturnahen Biotope zu bewerten, sind Analyseinstrumente notwendig, die neben einzelnen Flächen auch kumulative Effekte auf der Landschaftsebene einbeziehen. Das interdisziplinäre Konzept der Vulnerabilität kann einem solchen Analyseinstrument den Rahmen bieten. Bisher wurde es kaum für die Bewertung ökologischer Systeme herangezogen. Dabei kann eine flächendeckende Biotop-Vulnerabilitätsanalyse jene Gebiete identifizieren, die vom Landschaftswandel am stärksten betroffen sind und die gleichzeitig die geringsten Erholungsaussichten aufweisen. Dazu wurde eine Reihe ökologischer Indikatoren gesichtet und entwickelt, um die drei Vulnerabilitätsgrößen Exposition, Sensitivität und Anpassungskapazität abzudecken. Dabei wurden die Lagebeziehungen einzelner Biotope sowie die Eigenschaften der jeweils ansässigen Artengemeinschaft ausgewertet. Der errechnete Index kombiniert sieben voneinander weitestgehend unabhängige Indikatoren und stellt eine Übersicht der Biotop-Vulnerabilität dar. Liegt eine flächendeckende Vulnerabilitätsbewertung vor, können räumliche Häufungen von hohen Werten sowie die Verteilung der besonders hohen und besonders niedrigen Werte über die Biotoptypen hinweg analysiert werden. Dies erscheint besonders sinnvoll für Flächengrößen mit Relevanz für die Raumplanung und die Verteilung der Naturschutzflächen. Es stellte sich heraus, dass in der Planungsregion Brandenburg vor allem die Biotope mit hoher Abhängigkeit von der Wasserverfügbarkeit, sowie die Gehölze enthaltenden Offenlandbiotope (z.B. Streuobstwiesen) besonders vulnerabel gegenüber Landschaftsveränderungen sind. Im Gegensatz dazu erscheint die Mehrheit der Waldbiotope weniger verwundbar zu sein. Trotz der Möglichkeit zur Ableitung solcher verallgemeinerten Aussagen für einige Biotoptypen legt die Werteverteilung nahe, Naturschutzmaßnahmen mehrheitlich spezifisch für einzelne Flächen zu entwerfen. Größe, Form und räumlicher Kontext einzelner Biotopflächen üben zusammengenommen häufig einen dominanten Einfluss auf die Vulnerabilität gegenüber Landschaftsveränderungen aus. Die Demonstration der Biotop-Vulnerabilitätsanalyse auf regionaler Ebene zeigt, dass mit Methoden der Geoinformatik auch große Biotop-Datensätze detailliert ausgewertet werden können. Die damit erzielte naturschutzfachliche Analyse basiert auf transparent berechneten qualitativen und quantitativen Indikatoren und ist damit vollständig nachvollziehbar. Sie bietet gleichzeitig einen großräumigen Überblick sowie Informationen zu den einzelnen Biotopflächen. Mit der Vulnerabilitätsanalyse von Biotopen wird die vorausschauende Abwägung zwischen verschiedenen Landnutzungen erleichtert. Dies kann dazu beitragen, dass der Habitatverlust in Zukunft auf ein nachhaltigeres Maß gebremst wird. Auch kann eine solche Biotopbewertung in die Planung von Renaturierungsmaßnahmen einfließen, um ökologische Schäden zunächst dort zu beheben, wo große Synergieeffekte im Biotopverbund und mit anderen Naturschutzzielen zu erwarten sind. Die Biotop-Vulnerabilitätsanalyse konnte im Einklang mit wichtigen ökologischen Konzepten wie Resilienz und Anpassungsfähigkeit entwickelt werden. Sie erweitert damit den ohnehin breiten thematischen Anwendungsbereich des Vulnerabilitätskonzepts. Somit kann Vulnerabilität zunehmend als Brückenkonzept dienen und der zur Lösung der großen gesellschaftlichen Herausforderungen notwendigen interdisziplinären Forschung einen gemeinsamen Rahmen geben. KW - vulnerability KW - biotope KW - habitat KW - index KW - landscape KW - spatial ecology KW - landscape ecology KW - Vulnerabilität KW - Biotop KW - Habitat KW - Index KW - Landschaft KW - raumbezogene Ökologie KW - Landschaftsökologie Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442777 ER - TY - THES A1 - Weißenberger, Martin T1 - Start-up subsidies for the unemployed - New evaluation approaches and insights T1 - Gründungsförderung für Arbeitslose - Neue Evaluationsansätze und -ergebnisse N2 - Start-up incentives targeted at unemployed individuals have become an important tool of the Active Labor Market Policy (ALMP) to fight unemployment in many countries in recent years. In contrast to traditional ALMP instruments like training measures, wage subsidies, or job creation schemes, which are aimed at reintegrating unemployed individuals into dependent employment, start-up incentives are a fundamentally different approach to ALMP, in that they intend to encourage and help unemployed individuals to exit unemployment by entering self-employment and, thus, by creating their own jobs. In this sense, start-up incentives for unemployed individuals serve not only as employment and social policy to activate job seekers and combat unemployment but also as business policy to promote entrepreneurship. The corresponding empirical literature on this topic so far has been mainly focused on the individual labor market perspective, however. The main part of the thesis at hand examines the new start-up subsidy (“Gründungszuschuss”) in Germany and consists of four empirical analyses that extend the existing evidence on start-up incentives for unemployed individuals from multiple perspectives and in the following directions: First, it provides the first impact evaluation of the new start-up subsidy in Germany. The results indicate that participation in the new start-up subsidy has significant positive and persistent effects on both reintegration into the labor market as well as the income profiles of participants, in line with previous evidence on comparable German and international programs, which emphasizes the general potential of start-up incentives as part of the broader ALMP toolset. Furthermore, a new innovative sensitivity analysis of the applied propensity score matching approach integrates findings from entrepreneurship and labor market research about the key role of an individual’s personality on start-up decision, business performance, as well as general labor market outcomes, into the impact evaluation of start-up incentives. The sensitivity analysis with regard to the inclusion and exclusion of usually unobserved personality variables reveals that differences in the estimated treatment effects are small in magnitude and mostly insignificant. Consequently, concerns about potential overestimation of treatment effects in previous evaluation studies of similar start-up incentives due to usually unobservable personality variables are less justified, as long as the set of observed control variables is sufficiently informative (Chapter 2). Second, the thesis expands our knowledge about the longer-term business performance and potential of subsidized businesses arising from the start-up subsidy program. In absolute terms, the analysis shows that a relatively high share of subsidized founders successfully survives in the market with their original businesses in the medium to long run. The subsidy also yields a “double dividend” to a certain extent in terms of additional job creation. Compared to “regular”, i.e., non-subsidized new businesses founded by non-unemployed individuals in the same quarter, however, the economic and growth-related impulses set by participants of the subsidy program are only limited with regard to employment growth, innovation activity, or investment. Further investigations of possible reasons for these differences show that differential business growth paths of subsidized founders in the longer run seem to be mainly limited by higher restrictions to access capital and by unobserved factors, such as less growth-oriented business strategies and intentions, as well as lower (subjective) entrepreneurial persistence. Taken together, the program has only limited potential as a business and entrepreneurship policy intended to induce innovation and economic growth (Chapters 3 and 4). And third, an empirical analysis on the level of German regional labor markets yields that there is a high regional variation in subsidized start-up activity relative to overall new business formation. The positive correlation between regular start-up intensity and the share among all unemployed individuals who participate in the start-up subsidy program suggests that (nascent) unemployed founders also profit from the beneficial effects of regional entrepreneurship capital. Moreover, the analysis of potential deadweight and displacement effects from an aggregated regional perspective emphasizes that the start-up subsidy for unemployed individuals represents a market intervention into existing markets, which affects incumbents and potentially produces inefficiencies and market distortions. This macro perspective deserves more attention and research in the future (Chapter 5). N2 - Die Gründungsförderung für Arbeitslose ist inzwischen in vielen Ländern fester Bestandteil der Aktiven Arbeitsmarktpolitik (ALMP) zur Bekämpfung der Arbeitslosigkeit. Im Gegensatz zu traditionellen ALMP-Instrumenten wie Fortbildungs- und Qualifikationsmaßnahmen, Lohnsubventionen oder Arbeitsbeschaffungsmaßnahmen ist das Ziel der Gründungsförderung keine Wiedereingliederung der Arbeitslosen in eine abhängige Beschäftigung, sondern ein Arbeitsmarktwiedereintritt in Selbständigkeit. Somit verfolgt dieses Instrument als ALMP-Maßnahme grundsätzlich nicht nur arbeitsmarkt- und sozialpolitische Ziele, sondern stellt indirekt auch eine Politik zur allgemeinen Förderung von Entrepreneurship und Existenzgründungen dar. Die zugehörige empirische Literatur war in der Vergangenheit jedoch hauptsächlich auf individuelle Arbeitsmarkteffekte dieser Programme konzentriert. Die vorliegende Dissertation beschäftigt sich eingehend mit dem deutschen Gründungszuschuss und besteht aus vier eigenständigen empirischen Studien, die die bestehende Evidenz zu Gründungsförderprogrammen für Arbeitslose durch folgende neue Erkenntnisse aus verschiedenen Perspektiven ergänzen und erweitern: Erstens zeigt die erstmalige kausale Wirkungsanalyse des Gründungszuschusses, dass das untersuchte Programm positive und langfristig anhaltende individuelle Fördereffekte auf Arbeitsmarktreintegration und Erwerbseinkommen für teilnehmende Arbeitslose aufweist. Die sehr vorteilhaften empirischen Befunde bestätigen ähnliche nationale und internationale Ergebnisse zu vergleichbaren Programmen und setzen sich damit von den insgesamt durchwachsenen Evaluationsergebnissen traditioneller ALMP-Maßnahmen ab. Dies unterstreicht das grundsätzliche Potential der Gründungsförderung von Arbeitslosen im Rahmen des ALMP-Instrumentariums. Eine innovative Sensitivitätsanalyse des verwendeten Propensity Score Matching Ansatzes ergibt zudem, dass die Ergebnisse der Programmevaluation nur geringfügig auf die (Nicht-)Berücksichtigung von üblicherweise unbeobachteten Persönlichkeitsvariablen reagieren, deren starker Einfluss auf Gründungsentscheidungen, Unternehmensentwicklungen und Arbeitsmarkterfolge in der Literatur breit dokumentiert ist. Die Gefahr und das Ausmaß einer potentiellen Verzerrung der Ergebnisse durch das Auslassen dieser Persönlichkeitsmerkmalen ist somit bei vergleichbaren Studien grundsätzlich als eher gering einzustufen, sofern die Liste der übrigen Kontrollvariablen informativ genug ist (Kapitel 2). Zweitens zeigt die empirische Analyse der Entrepreneurship-Perspektive, dass ein hoher Anteil an den durch den Gründungszuschuss geförderten Gründungen aus Arbeitslosigkeit auch mittel- bis langfristig erfolgreich im Markt etabliert ist und eine „doppelte Dividende“ der Förderung in Form von zusätzlicher Beschäftigung in den Unternehmen in begrenztem Umfang erzielt wird. Allerdings sind die geförderten Unternehmungen im Vergleich zu „regulären“ Gründungen, die von nicht-arbeitslosen Gründerpersonen im gleichen Quartal gegründet wurden, unterdurchschnittlich innovativ, investieren weniger und setzen geringere Impulse für Wachstum. Weiterführende Untersuchungen zeigen auf, dass mögliche Gründe dafür Restriktionen bei der Kapitalbeschaffung, weniger wachstums- und innovationsorientierte Unternehmensvorhaben und -strategien, sowie eine weniger stark ausgeprägte unternehmerische (subjektive) Persistenz bei einem Teil der arbeitslosen Gründer sind. Dies impliziert, dass sich die Gründungsförderung von Arbeitslosen nur in bedingtem Maße als Entrepreneurship-Maßnahme im engeren Sinne eignet, die Wachstums- und Innovationspotenziale freisetzt (Kapitel 3 und 4). Drittens lässt sich anhand einer empirischen Analyse auf Ebene regionaler Arbeitsmärkte feststellen, dass eine hohe regionale Variation in der relativen Bedeutung der Gründungsförderung am gesamten Gründungsgeschehen besteht. Die positive Korrelation zwischen regulärer Gründungsaktivität und dem Anteil arbeitsloser Gründerpersonen an allen potentiell teilnahmeberechtigten Arbeitslosen deutet darauf hin, dass positive Effekte von regionalem Entrepreneurshipkapital auch für arbeitslose Gründerpersonen wirksam sind. Zudem zeigt die empirische Analyse potentieller Mitnahme- und Verdrängungseffekte, dass Gründungsförderungen für Arbeitslose immer auch Eingriffe in bestehende Märkte sind, die direkte Auswirkungen auf existierende Unternehmen haben. Diese Makro-Ebene insbesondere ist noch untererforscht und verdient weitere Aufmerksamkeit (Kapitel 5). KW - Gründungsförderung KW - Arbeitslosigkeit KW - Arbeitsmarktpolitik KW - Entrepreneurship KW - Gründungszuschuss KW - business support KW - unemployment KW - labor market policy KW - entrepreneurship KW - start-up subsidy Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406362 ER - TY - THES A1 - Weiß, Katharina T1 - Three Essays on EFRAG T1 - Drei Studien zu EFRAG N2 - This cumulative doctoral thesis consists of three papers that deal with the role of one specific European accounting player in the international accounting standard-setting, namely the European Financial Reporting Advisory Group (EFRAG). The first paper examines whether and how EFRAG generally fulfills its role in articulating Europe’s interests toward the International Accounting Standards Board (IASB). The qualitative data from the conducted interviews reveal that EFRAG influences the IASB’s decision making at a very early stage, long before other constituents are officially asked to comment on the IASB’s proposals. The second paper uses quantitative data and investigates the formal participation behavior of European constituents that seek to determine EFRAG’s voice. More precisely, this paper analyzes the nature of the constituents’ participation in EFRAG’s due process in terms of representation (constituent groups and geographical distribution) and the drivers of their participation behavior. EFRAG’s official decision making process is dominated by some specific constituent groups (such as preparers and the accounting profession) and by constituents from some specific countries (e.g. those with effective enforcement regimes). The third paper investigates in a first step who of the European constituents choose which lobbying channel (participation only at IASB, only at EFRAG, or at both institutions) and unveils in a second step possible reasons for their lobbying choices. The paper comprises quantitative and qualitative data. It reveals that English skills, time issues, the size of the constituent, and the country of origin are factors that can explain why the majority participates only in the IASB’s due process. N2 - Die vorliegende kumulative Doktorarbeit umfasst drei Arbeiten, die sich mit der Rolle der Europäischen Beratungsgruppe zur Rechnungslegung (European Financial Reporting Advisory Group (EFRAG)) beschäftigen. Die erste Arbeit untersucht, ob EFRAG ihre Rolle bei der Beteiligung am Standardsetzungsprozess des International Accounting Standards Board (IASB) erfüllt. Da EFRAG konkret Europäische Sichtweisen beim IASB nicht nur vertreten, sondern auch dafür Sorge tragen soll, dass diese beim IASB berücksichtigt werden, ist die zweite Fragestellung dieser Arbeit wie EFRAG ihre Rolle erfüllt. Die qualitativen Daten aus den durchgeführten Interviews zeigen, dass EFRAG den Standardsetzungsprozess des IASB in einer sehr frühen Phase beeinflusst, lange bevor die interessierte Öffentlichkeit offiziell zur Stellungnahme aufgefordert wird. Die zweite Arbeit untersucht mit quantitativen Daten das formale Teilnahmeverhalten von Europäern am Meinungsbildungsprozess der EFRAG. Hier wird insbesondere untersucht, welche Interessengruppen und welche Länder in dem Konsultationsverfahren der EFRAG vertreten sind und was jeweils Gründe für ein intensives (bzw. weniger intensives) Teilnahmeverhalten sind. EFRAG’s offizieller Meinungsbildungsprozess ist von Teilnehmern bestimmter Interessengruppen (wie z.B. Erstellern von Jahresabschlüssen und Vertretern aus der Wirtschaftsprüfungsbranche) und von Teilnehmers aus bestimmten Ländern (z.B. solche mit effektivem Enforcement-Systemen) dominiert. Die dritte Arbeit untersucht zunächst die Nutzung verschiedener Lobbyingkanäle der Europäischen interessierten Öffentlichkeit (Teilnahme nur beim IASB, nur bei der EFRAG oder an beiden Kanälen) und im zweiten Schritt werden mögliche Gründe für deren Wahl ergründet. Diese Arbeit umfasst quantitative und qualitative Daten. Sie zeigt, dass Sprachdefizite, zeitliche Engpässe, die Größe bzw. Sichtbarkeit eines Teilnehmers sowie das Herkunftsland erklärende Faktoren sind, warum der Großteil der Europäer nur am Due Prozess des IASB teilnimmt. KW - EFRAG KW - IASB KW - lobbying KW - standard-setting KW - EFRAG KW - IASB KW - Lobbying KW - Standardsetzungsverfahren Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-415355 ER - TY - THES A1 - Weiß, Jan T1 - Synthesis and self-assembly of multiple thermoresponsive amphiphilic block copolymers T1 - Synthese und Selbstorganisation von mehrfach thermisch schaltbaren amphiphilen Blockcopolymeren N2 - In the present thesis, the self-assembly of multi thermoresponsive block copolymers in dilute aqueous solution was investigated by a combination of turbidimetry, dynamic light scattering, TEM measurements, NMR as well as fluorescence spectroscopy. The successive conversion of such block copolymers from a hydrophilic into a hydrophobic state includes intermediate amphiphilic states with a variable hydrophilic-to-lipophilic balance. As a result, the self-organization is not following an all-or-none principle but a multistep aggregation in dilute solution was observed. The synthesis of double thermoresponsive diblock copolymers as well as triple thermoresponsive triblock copolymers was realized using twofold-TMS labeled RAFT agents which provide direct information about the average molar mass as well as residual end group functionality from a routine proton NMR spectrum. First a set of double thermosensitive diblock copolymers poly(N-n-propylacrylamide)-b-poly(N-ethylacrylamide) was synthesized which differed only in the relative size of the two blocks. Depending on the relative block lengths, different aggregation pathways were found. Furthermore, the complementary TMS-labeled end groups served as NMR-probes for the self-assembly of these diblock copolymers in dilute solution. Reversible, temperature sensitive peak splitting of the TMS-signals in NMR spectroscopy was indicative for the formation of mixed star-/flower-like micelles in some cases. Moreover, triple thermoresponsive triblock copolymers from poly(N-n-propylacrylamide) (A), poly(methoxydiethylene glycol acrylate) (B) and poly(N-ethylacrylamide) (C) were obtained from sequential RAFT polymerization in all possible block sequences (ABC, BAC, ACB). Their self-organization behavior in dilute aqueous solution was found to be rather complex and dependent on the positioning of the different blocks within the terpolymers. Especially the localization of the low-LCST block (A) had a large influence on the aggregation behavior. Above the first cloud point, aggregates were only observed when the A block was located at one terminus. Once placed in the middle, unimolecular micelles were observed which showed aggregation only above the second phase transition temperature of the B block. Carrier abilities of such triple thermosensitive triblock copolymers tested in fluorescence spectroscopy, using the solvatochromic dye Nile Red, suggested that the hydrophobic probe is less efficiently incorporated by the polymer with the BAC sequence as compared to ABC or ACB polymers above the first phase transition temperature. In addition, due to the problem of increasing loss of end group functionality during the subsequent polymerization steps, a novel concept for the one-step synthesis of multi thermoresponsive block copolymers was developed. This allowed to synthesize double thermoresponsive di- and triblock copolymers in a single polymerization step. The copolymerization of different N-substituted maleimides with a thermosensitive styrene derivative (4-vinylbenzyl methoxytetrakis(oxyethylene) ether) led to alternating copolymers with variable LCST. Consequently, an excess of this styrene-based monomer allowed the synthesis of double thermoresponsive tapered block copolymers in a single polymerization step. N2 - Die Selbstorganisation von mehrfach thermisch schaltbaren Blockcopolymeren in verdünnter wässriger Lösung wurde mittels Trübungsphotometer, dynamischer Lichtstreuung, TEM Messungen, NMR sowie Fluoreszenzspektroskopie untersucht. Die schrittweise Überführung eines hydrophilen in ein hydrophobes Blockcopolymer beinhaltet ein oder mehr amphiphile Zwischenstufen mit einstellbarem hydrophilen zu lipophilen Anteil (HLB). Dies führt dazu, dass die Selbstorganisation solcher Polymere in Lösung nicht nur einem Alles-oder-nichts-Prinzip folgt sondern ein mehrstufiges Aggregationsverhalten beobachtet wird. Die Synthese von doppelt thermisch schaltbaren Diblockcopolymeren und dreifach thermisch schaltbaren Triblockcopolymeren wurde durch sequenzielle RAFT Polymerisation realisiert. Dazu wurden zweifach TMS-markierte RAFT Agentien verwendet, welche die Bestimmung der molaren Masse sowie der verbliebenen Endgruppenfunktionalität direkt aus einem Protonen NMR Spektrum erlauben. Mit diesen RAFT Agentien wurde zunächst eine Serie von doppelt thermisch schaltbaren Diblockcopolymeren aus Poly(N-n-propylacrylamid)-b-Poly(N-ethylacrylamid), welche sich lediglich durch die relativen Blocklängen unterscheiden, hergestellt. In Abhängigkeit von der relativen Blocklänge wurde ein unterschiedliches Aggregationsverhalten der Diblockcopolymere in verdünnter wässriger Lösung beobachtet. Des Weiteren wirken die komplementär TMS-markierten Endgruppen als NMR-Sonden während der schrittweisen Aggregation dieser Polymere. Reversible, temperaturabhängige Peakaufspaltung der TMS-Signale in der NMR Spektroskopie spricht für eine Aggregation in gemischte stern-/blumenartige Mizellen, in denen ein Teil der hydrophoben Endgruppen in den hyrophoben Kern zurückfaltet. Obendrein wurden dreifach thermisch schaltbare Triblockcopolymere aus Poly(N-n-propylacrylamid) (A), Poly(methoxydiethylen glycol acrylat) (B) und Poly(N-ethylacrylamid) (C) in allen möglichen Blocksequenzen (ABC, BAC, ACB) durch schrittweisen Aufbau mittels RAFT Polymerisation erhalten. Das Aggregationsverhalten dieser Polymere in verdünnter wässriger Lösung war relativ komplex und hing stark von der Position der einzelnen Blöcke in den Triblockcopolymeren ab. Besonders die Position des Blocks mit der niedrigsten LCST (A) war ausschlaggebend für die resultierenden Aggregate. So wurde oberhalb der ersten Phasenübergangstemperatur nur Aggregation der Triblockcopolymere beobachtet, wenn der A Block an einem der beiden Enden der Polymere lokalisiert war. Wurde der A Block hingegen in der Mitte der Polymere positioniert, entstanden unimere Mizellen zwischen der ersten und zweiten Phasenübergangstemperatur, welche erst aggregierten, nachdem der zweite Block (B) seinen Phasenübergang durchlief. Die Transportereigenschaften dieser Triblockcopolymere wurden mittels Fluoreszenzspektroskopie getestet. Dazu wurde die Einlagerung eines hydrophoben, solvatochromen Fluoreszenzfarbstoffes, Nilrot, in Abhängigkeit der Temperatur untersucht. Im Gegensatz zu den Polymeren mit der Blocksequenz ABC oder ACB, zeigten die Polymere mit der Sequenz BAC eine verminderte Aufnahmefähigkeit des hydrophoben Farbstoffes oberhalb des ersten Phasenübergangs, was auf die fehlende Aggregation und die damit verbundenen relativ kleinen hydrophoben Domänen der unimolekularen Mizellen zwischen der ersten und zweiten Phasenübergangstemperatur zurückzuführen ist. Aufgrund des zunehmenden Verlustes von funktionellen Endgruppen während der RAFT Synthese von Triblockcopolymeren wurde ein neuartiges Konzept zur Einschrittsynthese von mehrfach schaltbaren Blockcopolymeren entwickelt. Dieses erlaubt die Synthese von mehrfach schaltbaren Diblock- und Triblockcopoylmeren in einem einzelnen Reaktionsschritt. Die Copolymeriation von verschiedenen N-substituierten Maleimiden mit einem thermisch schaltbaren Styrolderivat (4-Vinylbenzylmethoxytetrakis(oxyethylene) ether) ergab alternierende Copolymere mit variabler LCST. Die Verwendung eines Überschusses dieses styrolbasierten Monomers erlaubt ferner die Synthese von Gradientenblockcopolymeren in einem einzelnen Polymerisationsschritt. KW - Selbstorganisation KW - Blockcopolymer KW - RAFT KW - temperaturschaltbar KW - Mizelle KW - self-assembly KW - block copolymer KW - RAFT KW - thermoresponsive KW - micelle Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53360 ER - TY - THES A1 - Weidlich, Matthias T1 - Behavioural profiles : a relational approach to behaviour consistency T1 - Verhaltensprofile : ein relationaler Ansatz zur Verhaltenskonsistenz N2 - Business Process Management (BPM) emerged as a means to control, analyse, and optimise business operations. Conceptual models are of central importance for BPM. Most prominently, process models define the behaviour that is performed to achieve a business value. In essence, a process model is a mapping of properties of the original business process to the model, created for a purpose. Different modelling purposes, therefore, result in different models of a business process. Against this background, the misalignment of process models often observed in the field of BPM is no surprise. Even if the same business scenario is considered, models created for strategic decision making differ in content significantly from models created for process automation. Despite their differences, process models that refer to the same business process should be consistent, i.e., free of contradictions. Apparently, there is a trade-off between strictness of a notion of consistency and appropriateness of process models serving different purposes. Existing work on consistency analysis builds upon behaviour equivalences and hierarchical refinements between process models. Hence, these approaches are computationally hard and do not offer the flexibility to gradually relax consistency requirements towards a certain setting. This thesis presents a framework for the analysis of behaviour consistency that takes a fundamentally different approach. As a first step, an alignment between corresponding elements of related process models is constructed. Then, this thesis conducts behavioural analysis grounded on a relational abstraction of the behaviour of a process model, its behavioural profile. Different variants of these profiles are proposed, along with efficient computation techniques for a broad class of process models. Using behavioural profiles, consistency of an alignment between process models is judged by different notions and measures. The consistency measures are also adjusted to assess conformance of process logs that capture the observed execution of a process. Further, this thesis proposes various complementary techniques to support consistency management. It elaborates on how to implement consistent change propagation between process models, addresses the exploration of behavioural commonalities and differences, and proposes a model synthesis for behavioural profiles. N2 - Das Geschäftsprozessmanagement umfasst Methoden zur Steuerung, Analyse sowie Optimierung von Geschäftsprozessen. Es stützt sich auf konzeptionelle Modelle, Prozessmodelle, welche den Ablauf zur Erreichung eines Geschäftszieles beschreiben. Demnach ist ein Prozessmodell eine Abbildung eines Geschäftsprozesses, erstellt hinsichtlich eines Modellierungsziels. Unterschiedliche Modellierungsziele resultieren somit in unterschiedlichen Modellen desselben Prozesses. Beispielsweise unterscheiden sich zwei Modelle erheblich, sofern eines für die strategische Entscheidungsfindung und eines für die Automatisierung erstellt wurde. Trotz der in unterschiedlichen Modellierungszielen begründeten Unterschiede sollten die entsprechenden Modelle konsistent, d.h. frei von Widersprüchen sein. Die Striktheit des Konsistenzbegriffs steht hierbei in Konflikt mit der Eignung der Prozessmodelle für einen bestimmten Zweck. Existierende Ansätze zur Analyse von Verhaltenskonsistenz basieren auf Verhaltensäquivalenzen und nehmen an, dass Prozessmodelle in einer hierarchischen Verfeinerungsrelation stehen. Folglich weisen sie eine hohe Berechnungskomplexität auf und erlauben es nicht, den Konsistenzbegriff graduell für einen bestimmten Anwendungsfalls anzupassen. Die vorliegende Arbeit stellt einen Ansatz für die Analyse von Verhaltenskonsistenz vor, welcher sich fundamental von existierenden Arbeiten unterscheidet. Zunächst werden korrespondierende Elemente von Prozessmodellen, welche den gleichen Geschäftsprozess darstellen, identifiziert. Auf Basis dieser Korrespondenzen wird ein Ansatz zur Konsistenzanalyse vorgestellt. Jener basiert auf einer relationalen Verhaltensabstraktion, dem Verhaltensprofil eines Prozessmodells. Die Arbeit führt verschiedene Varianten dieses Profils ein und zeigt wie sie für bestimmte Modellklassen effizient berechnet werden. Mithilfe von Verhaltensprofilen werden Konsistenzbegriffe und Konsistenzmaße für die Beurteilung von Korrespondenzen zwischen Prozessmodellen definiert. Weiterhin werden die Konsistenzmaße auch für den Anwendungsfall der Konformität angepasst, welcher sich auf beobachtete Abläufe in Form von Ausführungsdaten bezieht. Darüber hinaus stellt die Arbeit eine Reihe von Methoden vor, welche die Analyse von Verhaltenskonsistenz ergänzen. So werden Lösungen für das konsistente Übertragen von Änderungen eines Modells auf ein anderes, die explorative Analyse von Verhaltensgemeinsamkeiten, sowie eine Modellsynthese für Verhaltensprofile vorgestellt. KW - Verhaltensanalyse KW - Prozessmodellierung KW - Modellkonsistenz KW - Behaviour Analysis KW - Process Modelling KW - Model Consistency Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55590 ER - TY - THES A1 - Weidenfeld, Andrea T1 - Interpretation of and reasoning with conditionals : probabilities, mental models, and causality T1 - Interpretation von und Schlussfolgern mit Konditionalaussagen : Wahrscheinlichkeiten, Mentale Modelle und Kausalität N2 - In everyday conversation "if" is one of the most frequently used conjunctions. This dissertation investigates what meaning an everyday conditional transmits and what inferences it licenses. It is suggested that the nature of the relation between the two propositions in a conditional might play a major role for both questions. Thus, in the experiments reported here conditional statements that describe a causal relationship (e.g., "If you touch that wire, you will receive an electric shock") were compared to arbitrary conditional statements in which there is no meaningful relation between the antecedent and the consequent proposition (e.g., "If Napoleon is dead, then Bristol is in England"). Initially, central assumptions from several approaches to the meaning and the reasoning from causal conditionals will be integrated into a common model. In the model the availability of exceptional situations that have the power to generate exceptions to the rule described in the conditional (e.g., the electricity is turned off), reduces the subjective conditional probability of the consequent, given the antecedent (e.g., the probability of receiving an electric shock when touching the wire). This conditional probability determines people's degree of belief in the conditional, which in turn affects their willingness to accept valid inferences (e.g., "Peter touches the wire, therefore he receives an electric shock") in a reasoning task. Additionally to this indirect pathway, the model contains a direct pathway: Cognitive availability of exceptional situations directly reduces the readiness to accept valid conclusions. The first experimental series tested the integrated model for conditional statements embedded in pseudo-natural cover stories that either established a causal relation between the antecedent and the consequent event (causal conditionals) or did not connect the propositions in a meaningful way (arbitrary conditionals). The model was supported for the causal, but not for the arbitrary conditional statements. Furthermore, participants assigned lower degrees of belief to arbitrary than to causal conditionals. Is this effect due to the presence versus absence of a semantic link between antecedent and consequent in the conditionals? This question was one of the starting points for the second experimental series. Here, the credibility of the conditionals was manipulated by adding explicit frequency information about possible combinations of presence or absence of antecedent and consequent events to the problems (i.e., frequencies of cases of 1. true antecedent with true consequent, 2. true antecedent with false consequent, 3. false antecedent with true consequent, 4. false antecedent with false consequent). This paradigm allows testing different approaches to the meaning of conditionals (Experiment 4) as well as theories of conditional reasoning against each other (Experiment 5). The results of Experiment 4 supported mainly the conditional probability approach to the meaning of conditionals (Edgington, 1995) according to which the degree of belief a listener has in a conditional statement equals the conditional probability that the consequent is true given the antecedent (e.g., the probability of receiving an electric shock when touching the wire). Participants again assigned lower degrees of belief to the arbitrary than the causal conditionals, although the conditional probability of the consequent given the antecedent was held constant within every condition of explicit frequency information. This supports the hypothesis that the mere presence of a causal link enhances the believability of a conditional statement. In Experiment 5 participants solved conditional reasoning tasks from problems that contained explicit frequency information about possible relevant cases. The data favored the probabilistic approach to conditional reasoning advanced by Oaksford, Chater, and Larkin (2000). The two experimental series reported in this dissertation provide strong support for recent probabilistic theories: for the conditional probability approach to the meaning of conditionals by Edgington (1995) and the probabilistic approach to conditional reasoning by Oaksford et al. (2000). In the domain of conditional reasoning, there was additionally support for the modified mental model approaches by Markovits and Barrouillet (2002) and Schroyens and Schaeken (2003). Probabilistic and mental model approaches could be reconciled within a dual-process-model as suggested by Verschueren, Schaeken, and d'Ydewalle (2003). N2 - Im Laufe eines Tages verwenden die meisten Menschen mehrfach Konditionalsätze: Das Wörtchen "wenn" gehört zu den häufigsten Konjunktionen in Alltag, Wissenschaft und Literatur. Die vorliegende Dissertation beschäftigt sich mit der Frage, welche Bedeutung ein Konditionalsatz im alltäglichen Sprachgebrauch übermittelt und welche Inferenzen er erlaubt. Es wird die Vermutung aufgestellt, dass dabei die Art der Relation zwischen den zwei Propositionen in einem Konditional eine bedeutsame Rolle spielen könnte. Daher werden in den Experimenten Konditionalsätze, die eine kausale Beziehung beschreiben (z.B. "Wenn Du das Kabel berührst, bekommst Du einen elektrischen Schlag") mit arbiträren Konditionalen verglichen, in denen keinerlei sinnvolle Relation zwischen Antezedens und Konsequens besteht (z.B. "Wenn Napoleon tot ist, liegt Bristol in England"). Als erstes werden zentrale Annahmen von mehreren Ansätzen zur Bedeutung und zum Schlußfolgern mit kausalen Konditionalsätzen in ein gemeinsames Modell integriert. In dem Modell reduziert die kognitive Verfügbarkeit von Situationen, die zu Ausnahmen von der Regel im Konditionalsatz führen können (z.B. der Strom ist abgestellt), die subjektive bedingte Wahrscheinlichkeit des Konsequens gegeben das Antezedens (z.B. die Wahrscheinlichkeit, einen Schlag zu bekommen gegeben, dass man das Kabel berührt). Diese subjektive bedingte Wahrscheinlichkeit bestimmt die Glaubwürdigkeit des Konditionals, die wiederum die Bereitwilligkeit beeinflußt, mit der gültige Schlußfolgerungen (z.B. "Peter berührt das Kabel, daher erhält er einen elektrischen Schlag") in einer Schlußfolgerungsaufgabe akzeptiert werden. Zusätzlich zu dem gerade beschriebenen indirekten Pfad enthält das integrierte Modell zusätzlich einen direkten Pfad: Die kognitive Verfügbarkeit von Ausnahme-Situationen reduziert unmittelbar die Bereitschaft, gültige Schlüsse zu akzeptieren. Die erste Experimentalreihe testete das entwickelte integrierte Model für Konditionalsätze, die in pseudo-natürliche Kontextgeschichten eingebettet wurden. Die Kontextgeschichten stellten entweder eine kausale Relation zwischen Antezedens und Konsequens her (kausale Konditionale) oder stellten die Propositionen in keinerlei sinnvollen Zusammenhang (arbiträre Konditionale). Die empirischen Daten stützen das Modell für die kausalen, aber nicht für die arbiträren Konditionale. Außerdem schätzten die TeilnehmerInnen die arbiträren Konditionalsätzen als weniger glaubwürdig ein als die kausalen Konditionale. Es stellt sich die Frage, ob dieser Unterschied in der Glaubwürdigkeit auf die An- bzw. Abwesenheit einer bedeutungshaltigen Relation zwischen Antezedens und Konsequens im Konditional zurückgeführt werden kann. Diese Frage war einer der Ausgangspunkte für die zweite Experimentalreihe. In dieser wurde die Glaubwürdigkeit der Konditionalsätze kontrolliert manipuliert, indem in den Kontextgeschichten explizite Häufigkeitsinformationen über die vier möglichen Kombinationen von An- bzw. Abwesenheit von Antezedens und Konsequens gegeben wurden (d.h. die Häufigkeit von Fällen mit 1. wahrem Antezedens und wahrem Konsequens, 2. wahrem Antezedens und falschem Konsequens, 3. falschem Antezedens und wahrem Konsequens, 4. falschem Antezedens und falschem Konsequens). Dieses Paradigma ermöglichte ferner, unterschiedliche Ansätze zur Bedeutung des Konditionals (Experiment 4) ebenso wie Theorien zum konditionalen Schlußfolgern gegeneinander zu testen (Experiment 5). Die Befunde aus Experiment 4 stützen im wesentlichen Edgingtons Ansatz zur Bedeutung von Konditionalen (Edgington, 1995). Nach diesem Ansatz entspricht die Glaubwürdigkeit, die ein Zuhörer einem Konditionalsatz einräumt, der bedingten Wahrscheinlichkeit, dass das Konsequens wahr ist gegeben das Antezedens (z.B. die Wahrscheinlichkeit, einen Schlag zu bekommen gegeben, dass man das Kabel berührt). Erneut schrieben die TeilnehmerInnen den arbiträren Konditionalsätzen geringere Glaubwürdigkeit zu als den kausalen Sätzen, obwohl diesmal innerhalb jeder Häufigkeitsbedingung die bedingte Wahrscheinlichkeit des Konsequens gegeben das Antezedens konstant gehalten wurde. Dieses Ergebnis stützt die Hypothese, dass die bloße Anwesenheit einer kausalen Beziehung die Glaubwürdigkeit eines Konditionalsatzes erhöht. In Experiment 5 lösten die TeilnehmerInnen konditionale Schlußfolgerungsaufgaben, dabei wurden die Kontextgeschichten um explizite Häufigkeitsangaben ergänzt. Die Ergebnisse favorisieren die probabilistische Theorie zum konditionalen Schließen, die von Oaksford, Chater, und Larkin (2000) vorgeschlagen wurde. Beide Experimentalreihen lieferten deutliche Evidenz für probabilistische Theorien: für Edgingtons Ansatz zur Bedeutung von Konditionalsätzen (Edgington, 1995) und für die probabilistische Theorie des konditionalen Schließens von Oaksford et al. (2000). Im Bereich des konditionalen Schließens stützen die Daten gleichzeitig die modifizierten mentalen Modell-Theorien von Markovits und Barrouillet (2002) und Schroyens und Schaeken (2003). Probabilistische und mentale Modell-Theorien könnten im Rahmen eines Dualen-Prozeß-Modells wie es von Verschueren, Schaeken und d'Ydewalle (2003) vorgeschlagen wurde, miteinander versöhnt werden. KW - Konditional KW - Konditionalsatz KW - Kausalität KW - Bedeutung KW - Glaubwürdigkeit KW - Schlussfolgern KW - bedingte Wahrscheinlichkeit KW - mentale Modelle KW - probabilistisch KW - Mental Models Theory KW - conditional reasoning KW - probabilistic Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5207 ER - TY - THES A1 - Wegerich, Franziska T1 - Engineered human cytochrome c : investigation of superoxide and protein-protein interaction and application in bioelectronic systems T1 - Gentechnisch verändertes humanes Cytochrom c :Untersuchungen von Superoxid und Protein-Protein-Interaktionen sowie der Anwendung in bioelektronischen Systemen N2 - The aim of this thesis is the design, expression and purification of human cytochrome c mutants and their characterization with regard to electrochemical and structural properties as well as with respect to the reaction with the superoxide radical and the selected proteins sulfite oxidase from human and fungi bilirubin oxidase. All three interaction partners are studied here for the first time with human cyt c and with mutant forms of cyt c. A further aim is the incorporation of the different cyt c forms in two bioelectronic systems: an electrochemical superoxide biosensor with an enhanced sensitivity and a protein multilayer assembly with and without bilirubin oxidase on electrodes. The first part of the thesis is dedicated to the design, expression and characterization of the mutants. A focus is here the electrochemical characterization of the protein in solution and immobilized on electrodes. Further the reaction of these mutants with superoxide was investigated and the possible reaction mechanisms are discussed. In the second part of the work an amperometric superoxide biosensor with selected human cytochrome c mutants was constructed and the performance of the sensor electrodes was studied. The human wild-type and four of the five mutant electrodes could be applied successfully for the detection of the superoxide radical. In the third part of the thesis the reaction of horse heart cyt c, the human wild-type and seven human cyt c mutants with the two proteins sulfite oxidase and bilirubin oxidase was studied electrochemically and the influence of the mutations on the electron transfer reactions was discussed. Finally protein multilayer electrodes with different cyt form including the mutant forms G77K and N70K which exhibit different reaction rates towards BOD were investigated and BOD together with the wild-type and engineered cyt c was embedded in the multilayer assembly. The relevant electron transfer steps and the kinetic behavior of the multilayer electrodes are investigated since the functionality of electroactive multilayer assemblies with incorporated redox proteins is often limited by the electron transfer abilities of the proteins within the multilayer. The formation via the layer-by-layer technique and the kinetic behavior of the mono and bi-protein multilayer system are studied by SPR and cyclic voltammetry. In conclusion this thesis shows that protein engineering is a helpful instrument to study protein reactions as well as electron transfer mechanisms of complex bioelectronic systems (such as bi-protein multilayers). Furthermore, the possibility to design tailored recognition elements for the construction of biosensors with an improved performance is demonstrated. N2 - Ziel dieser Arbeit ist es genetisch veränderte Formen von humanem Cytochrom c herzustellen und diese einerseits hinsichtlich der Reaktion mit dem Sauerstoff-Radikal Superoxid aber auch mit anderen Proteinen zu untersuchen. Zusätzlich sollen die verschiedenen Protein-Mutanten in neuartige bioelektronische Systeme eingebracht werden. Es wurden insgesamt 20 Cytochrome c Mutanten designt, rekombinant exprimiert und aufgereinigt. Es konnte in dieser Arbeit gezeigt werden, dass sich die Reaktion von Cytochrom c mit dem negativ geladenen Superoxid durch gezielte Mutationen, die zusätzliche positive Ladungen in das Molekül bringen, um bis zu 30 % erhöhen lässt. Es wurde aber auch deutlich, dass andere Eigenschaften des Proteins sowie dessen Struktur durch die Mutationen geändert werden können. Cytochrom c Mutanten mit einer erhöhten Reaktionsrate mit Superoxid konnten erfolgreich in einen Superoxid-Biosensor mit erhöhter Sensitivität eingebracht werden. Weiterhin wurde einige Mutanten hinsichtlich Ihrer Interaktion mit den zwei Enzymen Sulfitoxidase und Bilirubinoxidase untersucht. Hier konnten ebenfalls unterschiedliche Reaktivitäten festgestellt werden. Schließlich wurden ausgewählte Protein-Varianten mit und ohne den zuvor untersuchten Enzymen in ein Multischicht-Elektroden-System eingebettet und dessen kinetisches Verhalten untersucht. Es wurde gefunden, dass die Schnelligkeit mit der Cytochrom c mit sich selbst Elektronen austauschen kann, eine Limitierung der Größenordnung der katalytischen Ströme darstellt. Diese Selbstaustausschrate wurde durch die eingeführten Mutationen verändert. So verdeutlicht diese Arbeit, dass „Protein-Engineering“ ein gutes Hilfsmittel sein kann, um einerseits Proteinreaktionen und komplexe Elektronentransferreaktionen in Multischichten zu untersuchen, aber auch ein potentes Werkzeug darstellt mit dem zugeschnittene Biokomponenten für Sensoren mit erhöhter Leistungsfähigkeit generiert werden können. KW - Cytochrom c KW - Protein-Engineering KW - Elektrochemie KW - Biosensor KW - Superoxid KW - cytochrome c KW - protein engineering KW - electrochemistry KW - biosensor KW - superoxide Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50782 ER - TY - THES A1 - Weger Coenen, Lindsey T1 - Exploring potential impacts from transitions in German and European energy on GHG and air pollutant emissions and on ozone air quality N2 - Energy is at the heart of the climate crisis—but also at the heart of any efforts for climate change mitigation. Energy consumption is namely responsible for approximately three quarters of global anthropogenic greenhouse gas (GHG) emissions. Therefore, central to any serious plans to stave off a climate catastrophe is a major transformation of the world's energy system, which would move society away from fossil fuels and towards a net-zero energy future. Considering that fossil fuels are also a major source of air pollutant emissions, the energy transition has important implications for air quality as well, and thus also for human and environmental health. Both Europe and Germany have set the goal of becoming GHG neutral by 2050, and moreover have demonstrated their deep commitment to a comprehensive energy transition. Two of the most significant developments in energy policy over the past decade have been the interest in expansion of shale gas and hydrogen, which accordingly have garnered great interest and debate among public, private and political actors. In this context, sound scientific information can play an important role by informing stakeholder dialogue and future research investments, and by supporting evidence-based decision-making. This thesis examines anticipated environmental impacts from possible, relevant changes in the European energy system, in order to impart valuable insight and fill critical gaps in knowledge. Specifically, it investigates possible future shale gas development in Germany and the United Kingdom (UK), as well as a hypothetical, complete transition to hydrogen mobility in Germany. Moreover, it assesses the impacts on GHG and air pollutant emissions, and on tropospheric ozone (O3) air quality. The analysis is facilitated by constructing emission scenarios and performing air quality modeling via the Weather Research and Forecasting model coupled with chemistry (WRF-Chem). The work of this thesis is presented in three research papers. The first paper finds that methane (CH4) leakage rates from upstream shale gas development in Germany and the UK would range between 0.35% and 1.36% in a realistic, business-as-usual case, while they would be significantly lower - between 0.08% and 0.15% - in an optimistic, strict regulation and high compliance case, thus demonstrating the value and potential of measures to substantially reduce emissions. Yet, while the optimistic case is technically feasible, it is unlikely that the practices and technologies assumed would be applied and accomplished on a systematic, regular basis, owing to economics and limited monitoring resources. The realistic CH4 leakage rates estimated in this study are comparable to values reported by studies carried out in the US and elsewhere. In contrast, the optimistic rates are similar to official CH4 leakage data from upstream gas production in Germany and in the UK. Considering that there is a lack of systematic, transparent and independent reports supporting the official values, this study further highlights the need for more research efforts in this direction. Compared with national energy sector emissions, this study suggests that shale gas emissions of volatile organic compounds (VOCs) could be significant, though relatively insignificant for other air pollutants. Similar to CH4, measures could be effective for reducing VOCs emissions. The second paper shows that VOC and nitrogen oxides (NOx) emissions from a future shale gas industry in Germany and the UK have potentially harmful consequences for European O3 air quality on both the local and regional scale. The results indicate a peak increase in maximum daily 8-hour average O3 (MDA8) ranging from 3.7 µg m-3 to 28.3 µg m-3. Findings suggest that shale gas activities could result in additional exceedances of MDA8 at a substantial percentage of regulatory measurement stations both locally and in neighboring and distant countries, with up to circa one third of stations in the UK and one fifth of stations in Germany experiencing additional exceedances. Moreover, the results reveal that the shale gas impact on the cumulative health-related metric SOMO35 (annual Sum of Ozone Means Over 35 ppb) could be substantial, with a maximum increase of circa 28%. Overall, the findings suggest that shale gas VOC emissions could play a critical role in O3 enhancement, while NOx emissions would contribute to a lesser extent. Thus, the results indicate that stringent regulation of VOC emissions would be important in the event of future European shale gas development to minimize deleterious health outcomes. The third paper demonstrates that a hypothetical, complete transition of the German vehicle fleet to hydrogen fuel cell technology could contribute substantially to Germany's climate and air quality goals. The results indicate that if the hydrogen were to be produced via renewable-powered water electrolysis (green hydrogen), German carbon dioxide equivalent (CO2eq) emissions would decrease by 179 MtCO2eq annually, though if electrolysis were powered by the current electricity mix, emissions would instead increase by 95 MtCO2eq annually. The findings generally reveal a notable anticipated decrease in German energy emissions of regulated air pollutants. The results suggest that vehicular hydrogen demand is 1000 PJ annually, which would require between 446 TWh and 525 TWh for electrolysis, hydrogen transport and storage. When only the heavy duty vehicle segment (HDVs) is shifted to green hydrogen, the results of this thesis show that vehicular hydrogen demand drops to 371 PJ, while a deep emissions cut is still realized (-57 MtCO2eq), suggesting that HDVs are a low-hanging fruit for contributing to decarbonization of the German road transport sector with hydrogen energy. N2 - Energie ist der Kern der Klimakrise—aber auch der Kern jeglicher Bemühungen zur Eindämmung des Klimawandels. Der Energieverbrauch ist heute für ungefähr drei Viertel der weltweiten Treibhausgasemissionen verantwortlich. Grundlegend für einen ernsthaft gemeinten Plan eine Klimakatastrophe abzuwenden ist daher eine umfassende Umgestaltung des weltweiten Energiesystems von fossilen Brennstoffen weg in Richtung zukünftige Netto-Null-Emissionen. Angesichts der Tatsache, dass fossile Brennstoffe auch eine Hauptquelle für Luftschadstoffemissionen sind, hat die Energiewende wichtige Auswirkungen auf die Luftqualität und damit auch auf die Gesundheit von Mensch und Umwelt. Sowohl Europa als auch Deutschland haben sich zum Ziel gesetzt, bis 2050 treibhausgasneutral zu werden und zeigen darüber hinaus ihr tiefes Engagement für eine umfassende Energiewende. Zwei der wichtigsten Entwicklungen in der Energiepolitik im letzten Jahrzehnt waren das Interesse an der Ausweitung von Schiefergas und Wasserstoff, das entsprechend großes Interesse und große Diskussionen in der Öffentlichkeit, im Privaten und in der Politik erzeugt hat. In diesem Zusammenhang können fundierte wissenschaftliche Informationen eine wichtige Rolle spielen, indem sie Interessenvertreter und zukünftige Forschungsinvestitionen informieren und evidenzbasierte Entscheidungen unterstützen. Diese Doktorarbeit untersucht die Umweltauswirkungen möglicher, relevanter Veränderungen im europäischen Energiesystem, um wertvolle Erkenntnisse zu vermitteln und kritische Wissenslücken zu schließen. Insbesondere werden mögliche zukünftige Schiefergasentwicklungen in Deutschland und im Vereinigten Königreich (UK) sowie ein hypothetischer, vollständiger Übergang zur Wasserstoffmobilität in Deutschland untersucht. Darüber hinaus werden die Auswirkungen auf die Treibhausgas- und Luftschadstoffemissionen sowie auf die Luftqualität von troposphärischem Ozon (O3) bewertet. Die Analyse wird durch die Erstellung von Emissionsszenarien und die Durchführung von Luftqualitätsmodellen über die Chemie-Version des "Weather Research and Forecasting Model" (WRF-Chem) erleichtert. Die Forschung dieser Doktorarbeit wird in drei wissenschaftlichen Artikeln vorgestellt. Der erste Artikel beschreibt, dass die Methan (CH4)-Leckraten aus einer vorgelagerten Schiefergasproduktion in Deutschland und Großbritannien in einem gewöhnlichen Fall zwischen 0.35% und 1.36% liegen würden, während sie in einem optimistischen, streng regulierten Fall signifikant zwischen 0.08% und 0.15% niedriger wären, und zeigt damit die Bedeutung und das Potenzial von Maßnahmen zur wesentlichen Reduzierung der Emissionen auf. Obwohl der optimistische Fall technisch machbar ist, ist es aufgrund der Wirtschaftlichkeit und der begrenzten Überwachungsressourcen unwahrscheinlich, dass die angenommenen Praktiken und Technologien systematisch und regelmäßig angewendet und durchgeführt werden. Die in dieser Studie geschätzten realistischen CH4-Leckraten sind vergleichbar mit Werten, die in Studien in den USA und anderswo angegeben wurden. Im Gegensatz dazu ähneln die optimistischen Raten den offziellen CH4- Leckraten aus der vorgelagerten Gasproduktion in Deutschland und Großbritannien. In Anbetracht des Mangels an systematischen, transparenten und unabhängigen Berichten, die die offziellen Werte stützen, unterstreicht diese Studie die Notwendigkeit weiterer Forschungsanstrengungen in diese Richtung. Im Vergleich zu den Emissionen des nationalen Energiesektors deutet diese Studie darauf hin, dass die Schiefergasemissionen flüchtiger organischer Verbindungen (VOC) erheblich sein könnten, andere Luftschadstoffe jedoch relativ unbedeutend bleiben. Ähnlich wie bei CH4 könnten Maßnahmen zur Reduzierung der VOC-Emissionen wirksam sein. Der zweite Artikel beschreibt, dass VOC- und Stickoxidemissionen (NOx) einer zukünftigen Schiefergasindustrie in Deutschland und Großbritannien potenziell schädliche Folgen für die europäische O3-Luftqualität sowohl auf lokaler als auch auf regionaler Ebene haben. Die Ergebnisse zeigen einen Spitzenanstieg des maximalen täglichen 8-Stunden-Durchschnitts von O3 (MDA8) im Bereich von 3.7 µg m-3 bis 28.3 µg m-3. Die Ergebnisse deuten darauf hin, dass Schiefergasaktivitäten zu zusätzlichen Grenzwertüberschreitungen des MDA8 bei einem erheblichen Prozentsatz der regulatorischen Messstationen sowohl vor Ort als auch in Nachbar- und entfernten Ländern führen können, wobei bei bis zu etwa einem Drittel der Stationen in Großbritannien und einem Fünftel der Stationen in Deutschland zusätzliche Überschreitungen auftreten. Darüber hinaus zeigen die Ergebnisse, dass die Auswirkungen von Schiefergas auf die kumulative gesundheitsbezogene Metrik SOMO35 (jährliche Summe des Ozonmittel über 35 ppb) mit einem maximalen Anstieg von ca. 28% erheblich sein könnten. Insgesamt deuten die Ergebnisse darauf hin, dass die VOC-Emissionen von Schiefergas eine entscheidende Rolle bei der O3-Erhöhung spielen könnten, während die NOx-Emissionen in geringerem Maße dazu beitragen würden. Unsere Ergebnisse zeigen daher, dass eine strenge Regulierung der VOC-Emissionen im Falle einer künftigen europäischen Schiefergasentwicklung wichtig ist, um schädliche gesundheitliche Folgen zu minimieren. Der dritte Artikel beschreibt, dass ein hypothetischer, vollständiger Übergang der deutschen Fahrzeugflotte zur Wasserstoff-Brennstoffzellentechnologie wesentlich zu Deutschlands Klima- und Luftqualitätszielen beitragen kann. Die Ergebnisse deuten darauf hin, dass bei einer Erzeugung des Wasserstoffs durch erneuerbare Wasserelektrolyse (grüner Wasserstoff) die Emissionen des deutschen Kohlendioxidäquivalents (CO2eq) jährlich um 179 MtCO2eq sinken würden. Wenn die Elektrolyse jedoch mit dem aktuellen Strommix betrieben würde, würden sich die Emissionen stattdessen um jährlich 95 MtCO2eq erhöhen. Die Ergebnisse zeigen im Allgemeinen einen bemerkenswerten Rückgang der Luftschadstoffemissionen in Deutschland. Weiterhin legen sie nahe, dass der Wasserstoffbedarf von Fahrzeugen 1000 PJ pro Jahr beträgt, was zwischen 446 TWh und 525 TWh für Elektrolyse, Wasserstofftransport und -speicherung erfordern würde. Wenn nur das Segment der Schwerlastfahrzeuge (HDVs) auf grünen Wasserstoff umgestellt wird, zeigen unsere Ergebnisse, dass der Wasserstoffbedarf der Fahrzeuge auf 371 PJ sinkt, während immer noch eine tiefgreifende Emissionsreduzierung erzielt wird (-57 MtCO2eq). Dies zeigt, dass die Umstellung der HDVs auf grünen Wasserstoff einen entscheidenden Beitrag zur Dekarbonisierung des deutschen Straßenverkehrs leisten kann. T2 - Erforschung möglicher Auswirkungen von Veränderungen deutscher und europäischer Energie auf Treibhausgas- und Luftschadstoffemissionen sowie auf die Ozonluftqualität KW - European energy KW - Emission scenarios KW - Greenhouse gas mitigation KW - Air quality modeling KW - Air pollution KW - Ozone KW - Shale gas KW - Hydrogen economy KW - German road transport KW - Fuel cell electric vehicle KW - Europäische Energie KW - Emissionsszenarien KW - Treibhausgasminderung KW - Luftqualitätsmodellen KW - Luftverschmutzung KW - Ozon KW - Schiefergas KW - Wasserstoffwirtschaft KW - Deutscher Straßenverkehr KW - Brennstoffzellenfahrzeug Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-496986 ER - TY - THES A1 - Weege, Stefanie T1 - Climatic drivers of retrogressive thaw slump activity and resulting sediment and carbon release to the nearshore zone of Herschel Island, Yukon Territory, Canada T1 - Einfluss des Klimas auf das Auftauen einer rückschreitenden Erosionsfront und die daraus resultierende Sediment- und Kohlenstofffreigabe in den Küstenbereich von Herschel Island, Kanada N2 - The Yukon Coast in Canada is an ice-rich permafrost coast and highly sensitive to changing environmental conditions. Retrogressive thaw slumps are a common thermoerosion feature along this coast, and develop through the thawing of exposed ice-rich permafrost on slopes and removal of accumulating debris. They contribute large amounts of sediment, including organic carbon and nitrogen, to the nearshore zone. The objective of this study was to 1) identify the climatic and geomorphological drivers of sediment-meltwater release, 2) quantify the amount of released meltwater, sediment, organic carbon and nitrogen, and 3) project the evolution of sediment-meltwater release of retrogressive thaw slumps in a changing future climate. The analysis is based on data collected over 18 days in July 2013 and 18 days in August 2012. A cut-throat flume was set up in the main sediment-meltwater channel of the largest retrogressive thaw slump on Herschel Island. In addition, two weather stations, one on top of the undisturbed tundra and one on the slump floor, measured incoming solar radiation, air temperature, wind speed and precipitation. The discharge volume eroding from the ice-rich permafrost and retreating snowbanks was measured and compared to the meteorological data collected in real time with a resolution of one minute. The results show that the release of sediment-meltwater from thawing of the ice-rich permafrost headwall is strongly related to snowmelt, incoming solar radiation and air temperature. Snowmelt led to seasonal differences, especially due to the additional contribution of water to the eroding sediment-meltwater from headwall ablation, lead to dilution of the sediment-meltwater composition. Incoming solar radiation and air temperature were the main drivers for diurnal and inter-diurnal fluctuations. In July (2013), the retrogressive thaw slump released about 25 000 m³ of sediment-meltwater, containing 225 kg dissolved organic carbon and 2050 t of sediment, which in turn included 33 t organic carbon, and 4 t total nitrogen. In August (2012), just 15 600 m³ of sediment-meltwater was released, since there was no additional contribution from snowmelt. However, even without the additional dilution, 281 kg dissolved organic carbon was released. The sediment concentration was twice as high as in July, with sediment contents of up to 457 g l-1 and 3058 t of sediment, including 53 t organic carbon and 5 t nitrogen, being released. In addition, the data from the 36 days of observations from Slump D were upscaled to cover the main summer season of 1 July to 31 August (62 days) and to include all 229 active retrogressive thaw slumps along the Yukon Coast. In total, all retrogressive thaw slumps along the Yukon Coast contribute a minimum of 1.4 Mio. m³ sediment-meltwater each thawing season, containing a minimum of 172 000 t sediment with 3119 t organic carbon, 327 t nitrogen and 17 t dissolved organic carbon. Therefore, in addition to the coastal erosion input to the Beaufort Sea, retrogressive thaw slumps additionally release 3 % of sediment and 8 % of organic carbon into the ocean. Finally, the future evolution of retrogressive thaw slumps under a warming scenario with summer air temperatures increasing by 2-3 °C by 2081-2100, would lead to an increase of 109-114% in release of sediment-meltwater. It can be concluded that retrogressive thaw slumps are sensitive to climatic conditions and under projected future Arctic warming will contribute larger amounts of thawed permafrost material (including organic carbon and nitrogen) into the environment. N2 - Die Yukon Küste in Kanada ist eine eisreiche Permafrost Küste und reagiert hoch sensibel auf verändernde Umweltbedingungen. Rückschreitende auftaubedingte Rutschungen sind vielzählig entlang der Küste und entstehen, wenn exponierter eisreicher Permafrost an Hängen auftaut und der daraus resultierende Schlamm abtransportiert wird. Diese Rutschungen tragen große Mengen von Sediment, inklusive organischen Kohlenstoff und Stickstoff, in den küstennahen Bereich. Das Ziel dieser Studie war 1) die klimatischen und geomorphologischen Antriebskräfte für die Freisetzung von Sediment-Schmelzwasser zu identifizieren 2) die Mengen an Schmelzwasser, Sediment, organischen Kohlenstoff und Stickstoff zu quantifizieren und 3) die Entwicklung der Sediment-Schmelzwasser-Freigabe von rückschreitenden Rutschungen unter zukünftigen klimatischen Veränderungen abzuschätzen. Die größte rückschreitende Rutschung auf Herschel Island wird als „Slump D“ bezeichnet und steht im Fokus dieser Arbeit. Die Analysen basierten auf den Daten, die über 18 Tage im Juli (2013) und 18 Tage im August (2012) erhoben wurden. Eine Abfluss-Messrinne wurde in den Haupt-Sediment-Schmelzwasser-Kanal eingebaut, um die Sediment-Schmelzwassermassen zu erfassen. Zusätzlich wurden zwei Wetterstationen aufgebaut (auf der unberührten Tundra und innerhalb der Erosionsfläche), die Sonneneinstrahlung, Lufttemperatur, Windgeschwindigkeit und Niederschlagsmenge aufzeichneten. Das Abflussvolumen, das vom auftauenden, eisreichen Permafrost und den schmelzenden Schneebänken ablief, wurde gemessen und mit den meteorologischen Daten in Echtzeit mit einer Auflösung von einer Minute verglichen. Die Ergebnisse zeigen, dass eine Freigabe von Sediment-Schmelzwasser beim Auftauen der eisreichen Permafrost-Steilklippe stark von Schneeschmelze, Sonneneinstrahlung und Lufttemperatur abhängen. Die Schneeschmelze führt zu saisonalen Unterschieden, besonders durch den zusätzlichen Betrag von Wasser zu dem erodierenden Sediment-Schmelzwasser der auftauenden Steilklippe. Dies führt zu einer Verdünnung des Sediment-Schmelzwassers. Sonneneinstrahlung und Lufttemperaturen waren die Hauptantriebskräfte für die Schwankungen im Tagesverlauf und die Unterschiede zwischen den Tagen. Die rückschreitende Rutschung gab im Juli (2013) ungefähr 25 000 m³ Sediment-Schmelzwasser frei, welches 225 kg gelösten organischen Kohlenstoff, 2050 t Sediment, inklusive 33 t organischen Kohlenstoff und 4 t Stickstoff enthielt. Im August (2012) fehlte der zusätzliche Eintrag der Schneeschmelze und das Sediment-Schmelzwasser-Volumen war geringer mit 15 600 m³. Dennoch, ohne die zusätzliche Verdünnung, wurden 281 kg gelöster organischer Kohlenstoff freigesetzt. Die Sedimentkonzentration war doppelt so hoch und führte zu einem Sedimentgehalt mit bis zu 457 g l-1 zu 3058 t Sediment, inklusive 53 t organischen Kohlenstoff und 5 t Stickstoff. Zusätzlich wurden die Daten der 36-tägigen Abflussmessung der rückschreitenden Rutschung auf 62 Tage, von 1. Juli bis 31. August auf alle 229 aktiven Rutschungen entlang der Yukon Küste hochgerechnet. Es wurde diskutiert, dass alle rückschreitenden Rutschungen entlang der Yukon Küste zusammen mindestens 1,4 Mio. m³ Sediment-Schmelzwasser während jeder Auftausaison freigeben. Diese enthalten ein Minimum von 172 000 t Sediment, 3119 t organischen Kohlenstoff, 327 t Stickstoff und 17 t gelösten organischen Kohlenstoff. Daher kann zusammengefasst werden, dass zusätzlich zur Küstenerosion von allen Rutschungen noch ein zusätzlicher Beitrag von 3 % Sediment und 8 % organischen Kohlenstoff in die Beaufort See eingetragen wird. Schließlich wurde die zukünftige Entwicklung dieser rückschreitenden Rutschungen bei einem Temperaturanstieg von 2-3 °C bis 2081-2100 diskutiert. Dies könnte zu einem Anstieg der Sediment-Schmelzwasser-Freigabe von 109-114 % führen. Es kann daraus geschlossen werden, dass rückschreitende Rutschungen sensibel auf Klimabedingungen reagieren und mit der Arktischen Erwärmung größere Mengen an auftauenden Permafrost (inklusive organischen Kohlenstoff und Stickstoff) in die Umwelt freigeben werden. KW - permafrost KW - arctic KW - Canada KW - coast KW - erosion KW - Permafrost KW - Arktik KW - Kanada KW - Küste KW - Erosion Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397947 ER - TY - THES A1 - Wechakama, Maneenate T1 - Multi-messenger constraints and pressure from dark matter annihilation into electron-positron pairs T1 - Multi-Messenger-Grenzen und Druck von Dunkler Materie-Annihilation in Elektron-Positron-Paaren N2 - Despite striking evidence for the existence of dark matter from astrophysical observations, dark matter has still escaped any direct or indirect detection until today. Therefore a proof for its existence and the revelation of its nature belongs to one of the most intriguing challenges of nowadays cosmology and particle physics. The present work tries to investigate the nature of dark matter through indirect signatures from dark matter annihilation into electron-positron pairs in two different ways, pressure from dark matter annihilation and multi-messenger constraints on the dark matter annihilation cross-section. We focus on dark matter annihilation into electron-positron pairs and adopt a model-independent approach, where all the electrons and positrons are injected with the same initial energy E_0 ~ m_dm*c^2. The propagation of these particles is determined by solving the diffusion-loss equation, considering inverse Compton scattering, synchrotron radiation, Coulomb collisions, bremsstrahlung, and ionization. The first part of this work, focusing on pressure from dark matter annihilation, demonstrates that dark matter annihilation into electron-positron pairs may affect the observed rotation curve by a significant amount. The injection rate of this calculation is constrained by INTEGRAL, Fermi, and H.E.S.S. data. The pressure of the relativistic electron-positron gas is computed from the energy spectrum predicted by the diffusion-loss equation. For values of the gas density and magnetic field that are representative of the Milky Way, it is estimated that the pressure gradients are strong enough to balance gravity in the central parts if E_0 < 1 GeV. The exact value depends somewhat on the astrophysical parameters, and it changes dramatically with the slope of the dark matter density profile. For very steep slopes, as those expected from adiabatic contraction, the rotation curves of spiral galaxies would be affected on kiloparsec scales for most values of E_0. By comparing the predicted rotation curves with observations of dwarf and low surface brightness galaxies, we show that the pressure from dark matter annihilation may improve the agreement between theory and observations in some cases, but it also imposes severe constraints on the model parameters (most notably, the inner slope of the halo density profile, as well as the mass and the annihilation cross-section of dark matter particles into electron-positron pairs). In the second part, upper limits on the dark matter annihilation cross-section into electron-positron pairs are obtained by combining observed data at different wavelengths (from Haslam, WMAP, and Fermi all-sky intensity maps) with recent measurements of the electron and positron spectra in the solar neighbourhood by PAMELA, Fermi, and H.E.S.S.. We consider synchrotron emission in the radio and microwave bands, as well as inverse Compton scattering and final-state radiation at gamma-ray energies. For most values of the model parameters, the tightest constraints are imposed by the local positron spectrum and synchrotron emission from the central regions of the Galaxy. According to our results, the annihilation cross-section should not be higher than the canonical value for a thermal relic if the mass of the dark matter candidate is smaller than a few GeV. In addition, we also derive a stringent upper limit on the inner logarithmic slope α of the density profile of the Milky Way dark matter halo (α < 1 if m_dm < 5 GeV, α < 1.3 if m_dm < 100 GeV and α < 1.5 if m_dm < 2 TeV) assuming a dark matter annihilation cross-section into electron-positron pairs (σv) = 3*10^−26 cm^3 s^−1, as predicted for thermal relics from the big bang. N2 - Trotz vieler Hinweise auf die Existenz von dunkler Materie durch astrophysikalische Beobachtungen hat sich die dunkle Materie bis heute einem direkten oder indirekten Nachweis entzogen. Daher gehrt der Nachweis ihrer Existenz und die Enthüllung ihrer Natur zu einem der faszinierensten Herausforderungen der heutigen Kosmologie und Teilchenphysik. Diese Arbeit versucht die Natur von dunkler Materie durch indirekte Signaturen von der Paarzerstrahlung dunkler Materie in Elektron-Positronpaare auf zwei verschiedene Weisen zu untersuchen, nämlich anhand des Drucks durch die Paarzerstrahlung dunkler Materie und durch Grenzen des Wirkungsquerschnitts für die Paarzerstrahlung dunkler Materie aus verschiedenen Beobachtungsbereichen. Wir konzentrieren uns dabei auf die Zerstrahlung dunkler Materie in Elektron-Positron-Paare und betrachten einen modellunabhängigen Fall, bei dem alle Elektronen und Positronen mit der gleichen Anfangsenergie E_0 ~ m_dm*c^2 injiziert werden. Die Fortbewegung dieser Teilchen wird dabei bestimmt durch die Lösung der Diffusions-Verlust-Gleichung unter Berücksichtigung von inverser Compton-Streuung, Synchrotronstrahlung, Coulomb-Streuung, Bremsstrahlung und Ionisation. Der erste Teil dieser Arbeit zeigt, dass die Zerstrahlung dunkler Materie in Elektron-Positron-Paare die gemessene Rotationskurve signifikant beeinflussen kann. Die Produktionsrate ist dabei durch Daten von INTEGRAL, Fermi und H.E.S.S. begrenzt. Der Druck des relativistischen Elektron-Positron Gases wird aus dem Energiespektrum errechnet, welches durch die Diffusions-Verlust-Gleichung bestimmt ist. Für Werte der Gasdichte und des magnetischen Feldes, welche für unsere Galaxie repräsentativ sind, lässt sich abschätzen, dass für E_0 < 1 GeV die Druckgradienten stark genug sind, um Gravitationskräfte auszugleichen. Die genauen Werte hängen von den verwendeten astrophysikalischen Parametern ab, und sie ändern sich stark mit dem Anstieg des dunklen Materie-Profils. Für sehr große Anstiege, wie sie für adiabatische Kontraktion erwartet werden, werden die Rotationskurven von Spiralgalaxien auf Skalen von einegen Kiloparsek für die meisten Werte von E_0 beeinflusst. Durch Vergleich der erwarteten Rotationskurven mit Beobachtungen von Zwerggalaxien und Galaxien geringer Oberflächentemperatur zeigen wir, dass der Druck von Zerstrahlung dunkler Materie die Übereinstimmung von Theorie und Beobachtung in einigen Fällen verbessern kann. Aber daraus resultieren auch starke Grenzen für die Modellparameter - vor allem für den inneren Anstieg des Halo-Dichteprofils, sowie die Masse und den Wirkungsquerschnitt der dunklen Materie-Teilchen. Im zweiten Teil werden obere Grenzen für die Wirkungsquerschnitte der Zerstrahlung der dunkler Materie in Elektron-Positron-Paare erhalten, indem die beobachteten Daten bei unterschiedlichen Wellenlängen (von Haslam, WMAP und Fermi) mit aktuellen Messungen von Elektron-Positron Spektren in der solaren Nachbarschaft durch PAMELA, Fermi und H.E.S.S. kombiniert werden. Wir betrachten Synchrotronemission bei Radiound Mikrowellenfrequenzen, sowie inverse Compton-Streuung und Final-State-Strahlung bei Energien im Bereich der Gamma-Strahlung. Für die meisten Werte der Modellparameter werden die stärksten Schranken durch das lokale Positron-Spektrum und die Synchrotronemission im Zentrum unser Galaxie bestimmt. Nach diesen Ergebnissen sollte der Wirkungsquerschnitt für die Paarzerstrahlung nicht größer als der kanonische Wert für thermische Relikte sein, wenn die Masse der dunklen Materie-Kandidaten kleiner als einige GeV ist. Zusätzlich leiten wir eine obere Grenze für den inneren logarithmische Anstieg α des Dichteprofiles des dunklen Materie Halos unserer Galaxie ab. KW - dunkle Materie KW - Astroteilchenphysik KW - Strahlung Mechanismen KW - Galaxy Struktur KW - Rotationskurven KW - dark matter KW - astroparticle physics KW - radiation mechanisms KW - galaxy structure KW - rotation curves Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67401 ER - TY - THES A1 - Weber, Michael H. T1 - Robotic telescopes & Doppler imaging : measuring differential rotation on long-period active stars N2 - Auf der Sonne sind viele Phänomene zu sehen die mit der solaren magnetischen Aktivität zusammenhängen. Das dafür zuständige Magnetfeld wird durch einen Dynamo erzeugt, der sich vermutlich am Boden der Konvektionszone in der sogenannten Tachocline befindet. Angetrieben wird der Dynamo teils von der differenziellen Rotation, teils von den magnetischen Turbulenzen in der Konvektionszone. Die differentielle Rotation kann an der Sonnenoberfläche durch beobachten der Sonnenfleckbewegungen gemessen werden.Um einen größeren Parameterraum zum Testen von Dynamotheorien zu erhalten, kann man diese Messungen auch auf andere Sterne ausdehnen. Das primäre Problem dabei ist, dass die Oberflächen von Sternen nicht direkt beobachtet werden können. Indirekt kann man dies jedoch mit Hilfe der Doppler-imaging Methode erreichen, die die Doppler-Verbreitung der Spektrallinien von schnell rotierenden Sternen benützt. Um jedoch ein Bild der Sternoberfläche zu erhalten, bedarf es vieler hochaufgelöster spektroskopischer Beobachtungen, die gleichmäßig über eine Sternrotation verteilt sein müssen. Für Sterne mit langen Rotationsperioden sind diese Beobachtungen nur schwierig durchzuführen. Das neue robotische Observatorium STELLA adressiert dieses Problem und bietet eine auf Dopplerimaging abgestimmte Ablaufplanung der Beobachtungen an. Dies wird solche Beobachtungen nicht nur leichter durchführbar machen, sondern auch effektiver gestalten.Als Vorschau welche Ergebnisse mit STELLA erwartet werden können dient eine Studie an sieben Sternen die allesamt eine lange (zwischen sieben und 25 Tagen) Rotationsperiode haben. Alle Sterne zeigen differentielle Rotation, allerdings sind die Messfehler aufgrund der nicht zufriedenstellenden Datenqualität von gleicher Größenordnung wie die Ergebnisse, ein Problem das bei STELLA nicht auftreten wird. Um die Konsistenz der Ergebnisse zu prüfen wurde wenn möglich sowohl eine Kreuzkorrelationsanalyse als auch die sheared-image Methode angewandt. Vier von diesen sieben Sternen weisen eine differentielle Rotation in umgekehrter Richtung auf als auf der Sonne zu sehen ist. Die restlichen drei Sterne weisen schwache, aber in der Richtung sonnenähnliche differentielle Rotation auf.Abschließend werden diese neuen Messungen mit bereits publizierten Werten kombiniert, und die so erhaltenen Daten auf Korrelationen zwischen differentieller Rotation, Rotationsperiode, Evolutionsstaus, Spektraltyp und Vorhandensein eines Doppelsterns überprüft. Alle Sterne zusammen zeigen eine signifikante Korrelation zwischen dem Betrag der differenziellen Rotation und der Rotationsperiode. Unterscheidet man zwischen den Richtungen der differentiellen Rotation, so bleibt nur eine Korrelation der Sterne mit antisolarem Verhalten. Darüberhinaus zeigt sich auch, dass Doppelsterne schwächer differentiell rotieren. N2 - The sun shows a wide variety of magnetic-activity related phenomena. The magnetic field responsible for this is generated by a dynamo process which is believed to operate in the tachocline, which is located at the bottom of the convection zone. This dynamo is driven in part by differential rotation and in part by magnetic turbulences in the convection zone. The surface differential rotation, one key ingredient of dynamo theory, can be measured by tracing sunspot positions.To extend the parameter space for dynamo theories, one can extend these measurements to other stars than the sun. The primary obstacle in this endeavor is the lack of resolved surface images on other stars. This can be overcome by the Doppler imaging technique, which uses the rotation-induced Doppler-broadening of spectral lines to compute the surface distribution of a physical parameter like temperature. To obtain the surface image of a star, high-resolution spectroscopic observations, evenly distributed over one stellar rotation period are needed. This turns out to be quite complicated for long period stars. The upcoming robotic observatory STELLA addresses this problem with a dedicated scheduling routine, which is tailored for Doppler imaging targets. This will make observations for Doppler imaging not only easier, but also more efficient.As a preview of what can be done with STELLA, we present results of a Doppler imaging study of seven stars, all of which show evidence for differential rotation, but unfortunately the errors are of the same order of magnitude as the measurements due to unsatisfactory data quality, something that will not happen on STELLA. Both, cross-correlation analysis and the sheared image technique where used to double check the results if possible. For four of these stars, weak anti-solar differential rotation was found in a sense that the pole rotates faster than the equator, for the other three stars weak differential rotation in the same direction as on the sun was found.Finally, these new measurements along with other published measurements of differential rotation using Doppler imaging, were analyzed for correlations with stellar evolution, binarity, and rotation period. The total sample of stars show a significant correlation with rotation period, but if separated into antisolar and solar type behavior, only the subsample showing anti-solar differential rotation shows this correlation. Additionally, there is evidence for binary stars showing less differential rotation as single stars, as is suggested by theory. All other parameter combinations fail to deliver any results due to the still small sample of stars available. T2 - Robotic telescopes & Doppler imaging : measuring differential rotation on long-period active stars KW - Teleskop KW - Robotik KW - Differentielle Rotation KW - Tomographie KW - Sternoberfläche KW - Sternaktivität KW - telescope KW - robotic KW - differential rotation KW - tomography KW - stellar surface KW - stellar activity Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001834 ER - TY - THES A1 - Wattenbach, Martin T1 - The hydrological effects of changes in forest area and species composition in the federal state of Brandenburg, Germany T1 - Die hydrologischen Effekte von Veränderungen der Waldfläche und Artenzusammensetzung im Land Brandenburg, Deutschland N2 - This thesis aims to quantify the human impact on the natural resource water at the landscape scale. The drivers in the federal state of Brandenburg (Germany), the area under investigation, are land-use changes induced by policy decisions at European and federal state level. The water resources of the federal state are particularly sensitive to changes in land-use due to low precipitation rates in the summer combined with sandy soils and high evapotranspiration rates. Key elements in landscape hydrology are forests because of their unique capacity to transport water from the soil to the atmosphere. Given these circumstances, decisions made at any level of administration that may have effects on the forest sector in the state are critical in relation to the water cycle. It is therefore essential to evaluate any decision that may change forest area and structure in such a sensitive region. Thus, as a first step, it was necessary to develop and implement a model able to simulate possible interactions and feedbacks between forested surfaces and the hydrological cycle at the landscape scale. The result is a model for simulating the hydrological properties of forest stands based on a robust computation of the temporal and spatial LAI (leaf area index) dynamics. The approach allows the simulation of all relevant hydrological processes with a low parameter demand. It includes the interception of precipitation and transpiration of forest stands with and without groundwater in the rooting zone. The model also considers phenology, biomass allocation, as well as mortality and simple management practices. It has been implemented as a module in the eco-hydrological model SWIM (Soil and Water Integrated Model). This model has been tested in two pre-studies to verify the applicability of its hydrological process description for the hydrological conditions typical for the state. The newly implemented forest module has been tested for Scots Pine (Pinus sylvestris) and in parts for Common Oak (Quercus robur and Q. petraea) in Brandenburg. For Scots Pine the results demonstrate a good simulation of annual biomass increase and LAI in addition to the satisfactory simulation of litter production. A comparison of the simulated and measured data of the May sprout for Scots pine and leaf unfolding for Oak, as well as the evaluation against daily transpiration measurements for Scots Pine, does support the applicability of the approach. The interception of precipitation has also been simulated and compared with weekly observed data for a Scots Pine stand which displays satisfactory results in both the vegetation periods and annual sums. After the development and testing phase, the model is used to analyse the effects of two scenarios. The first scenario is an increase in forest area on abandoned agricultural land that is triggered by a decrease in European agricultural production support. The second one is a shift in species composition from predominant Scots Pine to Common Oak that is based on decisions of the regional forestry authority to support a more natural species composition. The scenario effects are modelled for the federal state of Brandenburg on a 50m grid utilising spatially explicit land-use patterns. The results, for the first scenario, suggest a negative impact of an increase in forest area (9.4% total state area) on the regional water balance, causing an increase in mean long-term annual evapotranspiration of 3.7% at 100% afforestation when compared to no afforestation. The relatively small annual change conceals a much more pronounced seasonal effect of a mean long-term evapotranspiration increase by 25.1% in the spring causing a pronounced reduction in groundwater recharge and runoff. The reduction causes a lag effect that aggravates the scarcity of water resources in the summer. In contrast, in the second scenario, a change in species composition in existing forests (29.2% total state area) from predominantly Scots Pine to Common Oak decreases the long-term annual mean evapotranspiration by 3.4%, accompanied by a much weaker, but apparent, seasonal pattern. Both scenarios exhibit a high spatial heterogeneity because of the distinct natural conditions in the different regions of the state. Areas with groundwater levels near the surface are particularly sensitive to changes in forest area and regions with relatively high proportion of forest respond strongly to the change in species composition. In both cases this regional response is masked by a smaller linear mean effect for the total state area. Two critical sources of uncertainty in the model results have been investigated. The first one originates from the model calibration parameters estimated in the pre-study for lowland regions, such as the federal state. The combined effect of the parameters, when changed within their physical meaningful limits, unveils an overestimation of the mean water balance by 1.6%. However, the distribution has a wide spread with 14.7% for the 90th percentile and -9.9% for the 10th percentile. The second source of uncertainty emerges from the parameterisation of the forest module. The analysis exhibits a standard deviation of 0.6 % over a ten year period in the mean of the simulated evapotranspiration as a result of variance in the key forest parameters. The analysis suggests that the combined uncertainty in the model results is dominated by the uncertainties of calibration parameters. Therefore, the effect of the first scenario might be underestimated because the calculated increase in evapotranspiration is too small. This may lead to an overestimation of the water balance towards runoff and groundwater recharge. The opposite can be assumed for the second scenario in which the decrease in evapotranspiration might be overestimated. N2 - Das übergreifende Ziel der vorliegenden Arbeit ist es, die Interaktion zwischen Landnutzungsänderung und dem Landschaftswasserhaushalt zu quantifizieren. Das Untersuchungsgebiet für die Analyse ist das Land Brandenburg. Bedingt durch seine Kombination geringer Sommerniederschläge mit der Dominanz sandiger Böden und hoher Verdunstungsraten, insbesondere von den großflächigen Wäldern und Forsten, ist es besonders empfindlich gegenüber Landnutzungsänderung. Waldflächen sind Schlüsselelemente im Landschaftswasserhaushalt, da sie den Bodenwasserspeicher effizienter mit der Atmosphäre koppeln als die meisten anderen Vegetationsformen. Im ersten Teil der Arbeit war es daher notwendig, ein geeignetes Modellkonzept zu finden. Der Ansatz sollte in der Lage sein, die hydrologischen Effekte auf Landschaftsebene zu modellieren, ohne dabei die Datenverfügbarkeit in diesem Anwendungsbereich zu überschreiten. Das entwickelte Modellkonzept wurde in das ökohydrologische Einzugsgebietsmodell SWIM (Soil Water Integrated Model) integriert. Nach einer Test- und Entwicklungsphase konnte das Modell für die integrierte Analyse der Wirkung von zwei Szenarien auf den Landeswasserhaushalt verwendet werden. Das erste Szenario beschäftigt sich mit der möglichen Zunahme der Waldfläche als Folge der Neuausrichtung der Agrarsubventionspolitik der Europäischen Union. Die Waldflächenzunahme führt zu einer Steigerung der Evapotranspiration im langjährigen Mittel. Das zweite Szenario behandelt die Auswirkung des Brandenburger Waldumbauprogramms und hat eine vergleichsweise geringe Abnahme der langjährigen mittleren Verdunstung zur Folge. Der lineare mittlere Verlauf überdeckt ein ausgeprägtes räumliches und saisonales Muster der Veränderung. Die Zonen starker Effekte der beider Szenarien überlappen sich nur in einigen Fällen, so ist es möglich, dass die positiven Wirkungen des Waldumbauprogramms in einigen Regionen durch eine mögliche Ausweitung der Waldfläche aufgehoben werden. Die vorgestellten Ergebnisse zeigen deutlich, dass Landnutzungsänderungen, die durch politische oder administrative Entscheidungen ausgelöst werden, Auswirkungen auf elementare Landschaftsfunktionen wie den Wasserhaushalt haben. Es wird deutlich, dass ein integrativer Modellierungsansatz, der die wahrscheinlichen Wirkungen administrativer Entscheidungen in Betracht zieht, Grundlagen für eine nachhaltige Entwicklung liefern kann. Diese Ergebnisse werden umso relevanter, je stärker die betroffene Ressource bereits eingeschränkt ist. In Bezug auf die Wasserressourcen im Land Brandenburg ist das der Fall und aktuelle Studien zum Globalen Wandel in der Region prognostizieren eine Verschärfung dieser Situation. KW - Pinus sylvestris KW - Quercus KW - SWIM KW - Grundwasser KW - Globaler Wandel KW - global change KW - CAP KW - water balance KW - ground water KW - forestry Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-27394 ER - TY - THES A1 - Wattebled, Laurent T1 - Oligomeric surfactants as novel type of amphiphiles : structure - property relationships and behaviour with additives T1 - Oligomere Tenside als neuer Typ von Amphiphilen : Struktur-Eigenschaft-Beziehungen und Verhalten mit Additiven. N2 - The properties of a series of well-defined new surfactant oligomers (dimers to tetramers)were examined. From a molecular point of view, these oligomeric surfactants consist of simple monomeric cationic surfactant fragments coupled via the hydrophilic ammonium chloride head groups by spacer groups (different in nature and length). Properties of these cationic surfactant oligomers in aqueous solution such as solubility, micellization and surface activity, micellar size and aggregation number were discussed with respect to the two new molecular variables introduced, i.e. degree of oligomerization and spacer group, in order to establish structure – property relationships. Thus, increasing the degree of oligomerization results in a pronounced decrease of the critical micellization concentration (CMC). Both reduced spacer length and increased spacer hydrophobicity lead to a decrease of the CMC, but to a lesser extent. For these particular compounds, the formed micelles are relatively small and their aggregation number decreases with increasing the degree of oligomerization, increasing spacer length and sterical hindrance. In addition, pseudo-phase diagrams were established for the dimeric surfactants in more complex systems, namely inverse microemulsions, demonstrating again the important influence of the spacer group on the surfactant behaviour. Furthermore, the influence of additives on the property profile of the dimeric compounds was examined, in order to see if the solution properties can be improved while using less material. Strong synergistic effects were observed by adding special organic salts (e.g. sodium salicylate, sodium vinyl benzoate, etc.) to the surfactant dimers in stoichiometric amounts. For such mixtures, the critical aggregation concentration is strongly shifted to lower concentration, the effect being more pronounced for dimers than for analogous monomers. A sharp decrease of the surface tension can also be attained. Many of the organic anions produce viscoelastic solutions when added to the relatively short-chain dimers in aqueous solution, as evidenced by rheological measurements. This behaviour reflects the formation of entangled wormlike micelles due to strong interactions of the anions with the cationic surfactants, decreasing the curvature of the micellar aggregates. It is found that the associative behaviour is enhanced by dimerization. For a given counterion, the spacer group may also induce a stronger viscosifying effect depending on its length and hydrophobicity. Oppositely charged surfactants were combined with the cationic dimers, too. First, some mixtures with the conventional anionic surfactant SDS revealed vesicular aggregates in solution. Also, in view of these catanionic mixtures, a novel anionic dimeric surfactant based on EDTA was synthesized and studied. The synthesis route is relatively simple and the compound exhibits particularly appealing properties such as low CMC and σCMC values, good solubilization capacity of hydrophobic probes and high tolerance to hard water. Noteworthy, mixtures with particular cationic dimers gave rise to viscous solutions, reflecting the micelle growth. N2 - Die Eigenschaften einer Reihe gut definierter neuer oligomerer Tenside (von Dimeren bis zu Tetrameren) wurden untersucht. Strukturell bestehen diese oligomeren Tenside aus einfachen monomeren kationischen Tensidfragmenten, die über die hydrophile Kopfgruppe (Tetraalkyl-Ammoniumchlorid) durch „Spacer“-Gruppen unterschiedlicher Natur und Länge miteinander verbunden/gekoppelt sind. Die Eigenschaften dieser kationischen oligomeren Tenside in wässriger Lösung wie Löslichkeit, kritische Mizellbildungskonzentration und Oberflächenaktivität, Mizellgröße und Aggregationszahl werden in Bezug auf die zwei neuen molekularen Variabeln (d.h. dem Oligomerisationsgrad und der Spacer-Gruppe) untersucht, um Struktur-Eigenschafts-Beziehungen abzuleiten. Die Erhöhung des Oligomerizationsgrads verringert stark die kritische Mizellbildungskonzentration (CMC). Eine kurze Spacer-Länge oder ein erhöhte Hydrophobie des Spacers erniedrigt die CMC ebenfalls, aber in einem geringeren Umfang. Die gebildeten Mizellen sind relativ klein und ihre Aggregationszahl nimmt mit zunehmendem Oligomerisationsgrad ab, genau wie mit zunehmender Spacerlänge oder sterischer Behinderung. Außerdem wurden Pseudo-Phasendiagramme für die Gemini-Tenside in komplexen Systemen, nämlich in inversen Mikroemulsionen untersucht. Auch hier zeigt die Spacer-Gruppe einen großen Einfluß auf das Tensidverhalten. Weiterhin wurde der Einfluss von Zusätzen auf das Eigenschaftsprofil der dimeren Tenside untersucht. Starke Synergien wurden beobachtet, wenn man spezielle organische Anionen (z.B. Natriumsalicylat, Natriumvinylbenzoat, etc.) zu den dimeren Tensiden in stöchiometrischen Mengen hinzugibt. Für solche Mischungen wird die Mizellbildungskonzentration stark zu niedrigen Konzentrationen verschoben, wobei der Effekt für die Dimere ausgeprägter als für die analogen Monomere ist. Eine Verringerung der Oberflächenspannung wird ebenfalls erreicht. Gemini-Tenside mit geeigneten Spacer-Gruppen bilden nach Zugabe ausgewählter organischer Anionen viskoelastische Lösungen, selbst wenn die dimeren Tenside nur über relativ kurz Alkylketten verfügen. Dies wurde mittels rheologischer Messungen gezeigt. Dieses Verhalten resultiert aus der Bildung langer Zylinder-Mizellen aufgrund der starken Wechselwirkung der Anionen mit den kationischen Tensiden, die die Krümmung der mizellaren Strukturen verringern. Es wurde auch festgestellt, dass das assoziative Verhalten durch die Dimerisation erhöht wird. Für ein gegebenes Gegenion kann die Spacer-Gruppe den verdickenden Effekt verstärken, in Abhängichkeit von seiner Länge und Hydrophobie. Als weitere Zusätze wurden entgegengesetzt geladene Tenside wurden mit den kationischen Dimeren kombiniert. Einige Mischungen mit dem käuflichen anionischen Tensid SDS bilden Vesikel in Lösung. Mit Blick auf diese katanionischen Mischungen wurde ein neues anionisches Gemini-Tensid, das auf EDTA basiert ist, synthetisiert und charakterisiert. Der Syntheseweg ist relativ einfach und das Tensid zeigt interessante Eigenschaften wie niedrige CMC- und scmc-Werte, gute Solubilisierungskapazität von hydrophoben Substanzen und hohe Toleranz gegen hartes Wasser. Mischungen dieses anionischen Tensids mit bestimmten kationischen Dimeren bilden visköse Lösungen, was ein starkes Mizell-Wachstum widerspiegelt. KW - Tenside KW - Oligomere KW - "Spacer"-Gruppe KW - Mizellbildung KW - Hydrotrope KW - surfactants KW - oligomers KW - spacer group KW - micellization KW - hydrotropes Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-12855 ER - TY - THES A1 - Wasiolka, Bernd T1 - The impact of overgrazing on reptile diversity and population dynamics of Pedioplanis l. lineoocellata in the southern Kalahari T1 - Der Einfluss von Überweidung auf Reptiliendiversität und die Poplationsdynamik von Pedioplanis l. lineoocellata in der südlichen Kalahari N2 - Die Vegetationskomposition und –struktur, beispielsweise die unterschiedliche Architektur von Bäumen, Sträuchern, Gräsern und Kräutern, bietet ein großes Spektrum an Habitaten und Nischen, die wiederum eine hohe Tierdiversität in den Savannensystemen des südlichen Afrikas ermöglichen. Dieses Ökosystem wurde jedoch über Jahrzehnte weltweit durch intensive anthropogene Landnutzung (z.B. Viehwirtschaft) nachhaltig verändert. Dabei wurden die Zusammensetzung, Diversität und Struktur der Vegetation stark verändert. Überweidung in Savannensystemen führt zu einer Degradation des Habitates einhergehend mit dem Verlust von perennierenden Gräsern und krautiger Vegetation. Dies führt zu einem Anstieg an vegetationsfreien Bodenflächen. Beides, sowohl der Verlust an perennierenden Gräsern und krautiger Vegetation sowie der Anstieg an vegetationsfreien Flächen führt zu verbesserten Etablierungsbedingungen für Sträucher (z.B. Rhigozum trichotomum, Acacia mellifera) und auf lange Sicht zu stark verbuschten Flächen. Die Tierdiversität in Savannen ist hiervon entscheidend beeinflusst. Mit sinkender struktureller Diversität verringert sich auch die Tierdiversität. Während der Einfluss von Überweidung auf die Vegetation relativ gut untersucht ist sind Informationen über den Einfluss von Überweidung auf die Tierdiversität, speziell für Reptilien, eher spärlich vorhanden. Zusätzlich ist sehr wenig bekannt zum Einfluss auf die Populationsdynamik (z.B. Verhaltensanpassungen, Raumnutzung, Überlebensrate, Sterberate) einzelner Reptilienarten. Ziel meiner Doktorarbeit ist es den Einfluss von Überweidung durch kommerzielle Farmnutzung auf die Reptiliengemeinschaft und auf verschiedene Aspekte der Populationsdynamik der Echse Pedioplanis lineoocellata lineoocellata zu untersuchen. Hinsichtlich bestimmter Naturschutzmaßnahmen ist es einerseits wichtig zu verstehen welchen Auswirkungen Überweidung auf die gesamte Reptiliengemeinschaft hat. Und zum anderen wie entscheidende Faktoren der Populationsdynamik beeinflusst werden. Beides führt zu einem besseren Verständnis der Reaktion von Reptilien auf Habitatdegradation zu erlangen. Die Ergebnisse meiner Doktorarbeit zeigen eindeutig einen negativen Einfluss der Überweidung und der daraus resultierende Habitatdegradation auf (1) die gesamte Reptiliengemeinschaft und (2) auf einzelne Aspekte der Populationsdynamik von P. lineoocellata. Im Teil 1 wird die signifikante Reduzierung der Reptiliendiversität und Abundanz in degradierten Habitaten beschrieben. Im zweiten Teil wird gezeigt, dass P. lineoocellata das Verhalten an die verschlechterten Lebensbedingungen anpassen kann. Die Art bewegt sich sowohl häufiger als auch über einen längeren Zeitraum und legt dabei größere Distanzen zurück. Zusätzlich vergrößerte die Art ihr Revier (home range) (Teil 3). Im abschließenden Teil wird der negative Einfluss von Überweidung auf die Populationsdynamik von P. lineoocellata beschrieben: In degradierten Habitaten nimmt die Populationsgröße von adulten und juvenilen Echsen ab, die Überlebens- und Geburtenrate sinken, währen zusätzlich das Prädationsrisiko ansteigt. Verantwortlich hierfür ist zum einen die ebenfalls reduzierte Nahrungsverfügbarkeit (Arthropoden) auf degradierten Flächen. Dies hat zur Folge, dass die Populationsgröße abnimmt und die Fitness der Individuen verringert wird, welches sich durch eine Reduzierung der Überlebens- und Geburtenrate bemerkbar macht. Und zum anderen ist es die Reduzierung der Vegetationsbedeckung und der Rückgang an perennierenden Gräsern welche sich negativ auswirken. Als Konsequenz hiervon gehen Nischen und Mikrohabitate verloren und die Möglichkeiten der Reptilien zur Thermoregulation sind verringert. Des Weiteren hat dieser Verlust an perennierender Grasbedeckung auch ein erhöhtes Prädationsrisikos zur Folge. Zusammenfassend lässt sich sagen, dass nicht nur Bäume und Sträucher, wie in anderen Studien gezeigt, eine bedeutende Rolle für die Diversität spielen, sondern auch das perennierende Gras eine wichtige Rolle für die Faunendiversität spielt. Weiterhin zeigte sich, dass Habitatdegradation nicht nur die Population als gesamtes beeinflusst, sondern auch das Verhalten und Populationsparameter einzelner Arten. Des Weiteren ist es Reptilien möglich durch Verhaltensflexibilität auf verschlechterte Umweltbedingen zu reagieren. N2 - In semi-arid savannah ecosystems, the vegetation structure and composition, i.e. the architecture of trees, shrubs, grass tussocks and herbaceous plants, offer a great variety of habitats and niches to sustain animal diversity. In the last decades intensive human land use practises like livestock farming have altered the vegetation in savannah ecosystems worldwide. Extensive grazing leads to a reduction of the perennial and herbaceous vegetation cover, which results in an increased availability of bare soil. Both, the missing competition with perennial grasses and the increase of bare soils favour shrub on open ground and lead to area-wide shrub encroachment. As a consequence of the altered vegetation structure and composition, the structural diversity declines. It has been shown that with decreasing structural diversity animal diversity decline across a variety of taxa. Knowledge on the effects of overgrazing on reptiles, which are an important part of the ecosystem, are missing. Furthermore, the impact of habitat degradation on factors of a species population dynamic and life history, e.g., birth rate, survival rate, predation risk, space requirements or behavioural adaptations are poorly known. Therefore, I investigated the impact of overgrazing on the reptile community in the southern Kalahari. Secondly I analysed population dynamics and the behaviour of the Spotted Sand Lizard, Pedioplanis l. lineoocellata. All four chapters clearly demonstrate that habitat degradation caused by overgrazing had a severe negative impact upon (i) the reptile community as a whole and (ii) on population parameters of Pedioplanis l. lineoocellata. Chapter one showed a significant decline of regional reptile diversity and abundance in degraded habitats. In chapter two I demonstrated that P. lineoocellata moves more frequently, spends more time moving and covers larger distances in degraded than in non-degraded habitats. In addition, home range size of the lizard species increases in degraded habitats as shown by chapter three. Finally, chapter four showed the negative impacts of overgrazing on several population parameters of P. lineoocellata. Absolute population size of adult and juvenile lizards, survival rate and birth rate are significantly lower in degraded habitats. Furthermore, the predation risk was greatly increased in degraded habitats. A combination of a variety of aspects can explain the negative impact of habitat degradation on reptiles. First, reduced prey availability negatively affects survival rate, the birth rate and overall abundance. Second, the loss of perennial plant cover leads to a loss of niches and to a reduction of opportunities to thermoregulate. Furthermore, a loss of cover and is associated with increased predation risk. A major finding of my thesis is that the lizard P. lineoocellata can alter its foraging strategy. Species that are able to adapt and change behaviour, such as P. lineoocellata can effectively buffer against changes in their environment. Furthermore, perennial grass cover can be seen as a crucial ecological component of the vegetation in the semi-arid savannah system of the southern Kalahari. If perennial grass cover is reduced to a certain degree reptile diversity will decline and most other aspects of reptile life history will be negatively influenced. Savannah systems are characterised by a mixture of trees, shrubs and perennial grasses. These three vegetation components determine the composition and structure of the vegetation and accordingly influence the faunal diversity. Trees are viewed as keystone structures and focal points of animal activity for a variety of species. Trees supply animals with shelter, shade and food and act as safe sites, nesting sites, observation posts and foraging sites. Recent research demonstrates a positive influence of shrub patches on animal diversity. Moreover, it would seem that intermediate shrub cover can also sustain viable populations in savannah landscapes as has been demonstrated for small carnivores and rodent species. The influence of perennial grasses on faunal diversity did not receive the same attention as the influence of trees and shrubs. In my thesis I didn’t explicitly measure the direct effects of perennial grasses but my results strongly imply that it has an important role. If the perennial grass cover is significantly depleted my results suggest it will negatively influence reptile diversity and abundance and on several populations parameters of P. lineoocellata. Perennial grass cover is associated with the highest prey abundance, reptile diversity and reptile abundance. It provides reptiles both a refuge from predators and opportunities to optimise thermoregulation. The relevance of each of the three vegetation structural elements is different for each taxa and species. In conclusion, I can all three major vegetation structures in the savannah system are important for faunal diversity. KW - Shrub encroachment KW - overgrazing KW - biodiversity KW - reptiles Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-16611 ER - TY - THES A1 - Washüttl, Albert T1 - EI Eridani and the art of doppler imaging : a long-term study N2 - Das Verständnis magnetisch verursachter Aktivität auf Sternen sowie der zugrundeliegenden Dynamoprozesse ist von fundamentaler Bedeutung für das Verständnis von Entstehung und Entwicklung von Sternen sowie des Lebens im Universum. Sichtbare Erscheinungen dieser stellaren Aktivität sind u.a. Sternflecken, welche als Indikatoren des zugrundeliegenden Magnetfeldes dienen. Solche Flecken können auf anderen Sternen als der Sonne nicht direkt beobachtet werden, zumal mit den heutigen technischen Mitteln eine Auflösung der Oberfläche selbst der benachbarten Sterne unmöglich ist. Eine indirekte Rekonstruktionsmethode namens 'Doppler Imaging' erlaubt es jedoch, auf die Temperaturverteilung auf der Sternoberfläche zu schließen. Für diese Arbeit wurden elf Jahre kontinuierlicher spektroskopischer Beobachtungen des aktiven Doppelsterns EI Eridani herangezogen, um insgesamt 34 Dopplerkarten zu erstellen. In der Folge wird versucht, eine Grundlage zu schaffen für die Analyse des zweidimensionalen Informationsgehalts dieser Karten. Drei Oberflächenkartenparameter werden vorgeschlagen: gemittelte Temperatur, getrennt für verschiedenen stellare Breitenbänder; relative Fleckenhäufigkeit; und, zum Zwecke der Auswertung der strukturellen Temperaturverteilung, Längen- und Breiten-Ortsfunktion der Sternfleckenhäufung. Die resultierenden Werte zeigen deutlich, daß kein zeitlicher Zusammenhang mit dem photometrischen Aktivitätszyklus besteht. Die Morphologie der Fleckenverteilung bleibt während des kompletten Beobachtungszeitraums im wesentlichen konstant. Im Gegensatz zur Sonne gibt es also, im beobachteten Zeitraum und innerhalb der bestehenden Genauigkeit, keinen Fleckenzyklus auf dem aktiven Stern EI Eri. Darüberhinaus wurde eine ausführliche Studie der stellaren Parameter von EI Eri und eine vorläufige Abschätzung der differentiellen Rotation auf EI Eri durchgeführt, die eine anti-solare Ausrichtung aufzuweisen scheint, d.h. der Pol rotiert schneller als der Äquator. N2 - Understanding stars, their magnetic activity phenomena and the underlying dynamo action is the foundation for understanding 'life, the universe and everything' - as stellar magnetic fields play a fundamental role for star and planet formation and for the terrestrial atmosphere and climate. Starspots are the fingerprints of magnetic field lines and thereby the most important sign of activity in a star's photosphere. However, they cannot be observed directly, as it is not (yet) possible to spacially resolve the surfaces of even the nearest neighbouring stars. Therefore, an indirect approach called 'Doppler imaging' is applied, which allows to reconstruct the surface spot distribution on rapidly rotating, active stars. In this work, data from 11 years of continuous spectroscopic observations of the active binary star EI Eridani are reduced and analysed. 34 Doppler maps are obtained and the problem of how to parameterise the information content of Doppler maps is discussed. Three approaches for parameter extraction are introduced and applied to all maps: average temperature, separated for several latitude bands; fractional spottedness; and, for the analysis of structural temperature distribution, longitudinal and latitudinal spot-occurrence functions. The resulting values do not show a distinct correlation with the proposed activity cycle as seen from photometric long-term observations, thereby suggesting that the photometric activity cycle is not accompanied by a spot cycle as seen on the Sun. The general morphology of the spot pattern on EI Eri remains persistent for the whole period of 11 years. In addition, a detailed parameter study is performed. Improved orbital parameters suggest that EI Eri might be complemented by a third star in a wide orbit of about 19 years. Preliminary differential rotation measurements are carried out, indicating an anti-solar orientation. T2 - EI Eridani and the art of doppler imaging : a long-term study KW - Sterne KW - Aktivität KW - Sternflecken KW - Zyklus KW - stars KW - activity KW - spots KW - cycle KW - binaries KW - late-type Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001714 ER - TY - THES A1 - Wang, Yongbo T1 - Late glacial to Holocene climate and vegetation changes on the Tibetan Plateau inferred from fossil pollen records in lacustrine sediments T1 - Pollenanalytische Ableitung der spätglazialen und holozänen Klima- und Vegetationsveränderungen auf dem tibetischen Hochland anhand von Seesedimenten N2 - The past climate in central Asia, and especially on the Tibetan Plateau (TP), is of great importance for an understanding of global climate processes and for predicting the future climate. As a major influence on the climate in this region, the Asian Summer Monsoon (ASM) and its evolutionary history are of vital importance for accurate predictions. However, neither the evolutionary pattern of the summer monsoon nor the driving mechanisms behind it are yet clearly understood. For this research, I first synthesized previously published Late Glacial to Holocene climatic records from monsoonal central Asia in order to extract the general climate signals and the associated summer monsoon intensities. New climate and vegetation sequences were then established using improved quantitative methods, focusing on fossil pollen records recovered from Tibetan lakes and also incorporating new modern datasets. The pollen-vegetation and vegetation-climate relationships on the TP were also evaluated in order to achieve a better understanding of fossil pollen records. The synthesis of previously published moisture-related palaeoclimate records in monsoonal central Asia revealed generally different temporal patterns for the two monsoonal subsystems, i.e. the Indian Summer Monsoon (ISM) and East Asian Summer Monsoon (EASM). The ISM appears to have experienced maximum wet conditions during the early Holocene, while many records from the area affected by the EASM indicate relatively dry conditions at that time, particularly in north-central China where the maximum moisture levels occurred during the middle Holocene. A detailed consideration of possible driving factors affecting the summer monsoon, including summer solar insolation and sea surface temperatures, revealed that the ISM was primarily driven by variations in northern hemisphere solar insolation, and that the EASM may have been constrained by the ISM resulting in asynchronous patterns of evolution for these two subsystems. This hypothesis is further supported by modern monsoon indices estimated using the NCEP/NCAR Reanalysis data from the last 50 years, which indicate a significant negative correlation between the two summer monsoon subsystems. By analogy with the early Holocene, intensification of the ISM during coming decades could lead to increased aridification elsewhere as a result of the asynchronous nature of the monsoon subsystems, as can already be observed in the meteorological data from the last 15 years. A quantitative climate reconstruction using fossil pollen records was achieved through analysis of sediment core recovered from Lake Donggi Cona (in the north-eastern part of the TP) which has been dated back to the Last Glacial Maximum (LGM). A new data-set of modern pollen collected from large lakes in arid to semi-arid regions of central Asia is also presented herein. The concept of "pollen source area" was introduced to modern climate calibration based on pollen from large lakes, and was applied to the fossil pollen sequence from Lake Donggi Cona. Extremely dry conditions were found to have dominated the LGM, and a subsequent gradually increasing trend in moisture during the Late Glacial period was terminated by an abrupt reversion to a dry phase that lasted for about 1000 years and coincided with the first Heinrich Event of the northern Atlantic region. Subsequent periods corresponding to the warm Bølling-Allerød period and the Younger Dryas cold event were followed by moist conditions during the early Holocene, with annual precipitation of up to about 400 mm. A slightly drier trend after 9 cal ka BP was then followed by a second wet phase during the middle Holocene that lasted until 4.5 cal ka BP. Relatively steady conditions with only slight fluctuations then dominated the late Holocene, resulting in the present climatic conditions. In order to investigate the relationship between vegetation and climate, temporal variations in the possible driving factors for vegetation change on the northern TP were examined using a high resolution late Holocene pollen record from Lake Kusai. Moving-window Redundancy Analyses (RDAs) were used to evaluate the correlations between pollen assemblages and individual sedimentary proxies. These analyses have revealed frequent fluctuations in the relative abundances of alpine steppe and alpine desert components, and in particular a decrease in the total vegetation cover at around 1500 cal a BP. The climate was found to have had an important influence on vegetation changes when conditions were relatively wet and stable. However, after the 1500 cal a BP threshold in vegetation cover was crossed the vegetation appears to have been affected more by extreme events such as dust storms or fluvial erosion than by the general climatic trends. In addition, pollen spectra over the last 600 years have been revealed by Procrustes analysis to be significantly different from those recovered from older samples, which is attributed to an increased human impact that resulted in unprecedented changes to the composition of the vegetation. Theoretical models that have been developed and widely applied to the European area (i.e. the Extended R-Value (ERV) model and the Regional Estimates of Vegetation Abundance from Large Sites (REVEALS) model) have been applied to the high alpine TP ecosystems in order to investigate the pollen-vegetation relationships, as well as for quantitative reconstructions of vegetation abundance. The modern pollen–vegetation relationships for four common pollen species on the TP have been investigated using Poaceae as the reference taxa. The ERV Submodel 2 yielded relatively high PPEs for the steppe and desert taxa (Artemisia Chenopodiaceae), and low PPEs for the Cyperaceae that are characteristic of the alpine Kobresia meadows. The plant abundances on the central and north-eastern TP were quantified by applying these PPEs to four post-Late Glacial fossil pollen sequences. The reconstructed vegetation assemblages for the four pollen sequences always yielded smaller compositional species turnovers than suggested by the pollen spectra, indicating that the strength of the previously-reported vegetation changes may therefore have been overestimated. In summary, the key findings of this thesis are that (a) the two ASM subsystems show asynchronous patterns during both the Holocene and modern time periods, (b) fossil pollen records from large lakes reflect regional signals for which the pollen source areas need to be taken into account, (c) climate is not always the main driver for vegetation change, and (d) previously reported vegetation changes on the TP may have been overestimated because they ignored inter-species variations in pollen productivity. N2 - Das Paläoklima in Zentralasien, besonders in der Hochebene von Tibet (HT), ist von großer Bedeutung um globale Klimaprozesse zu verstehen und mögliche Voraussagung für die zukunft zu treffen. Als wichtigstes Klimaphänomen nehmen der asiatische Sommermonsun (ASM) und seine Entwicklungsgeschichte eine Schlüsselposition ein. Dennoch sind derzeit weder das Entwicklungsschema noch der antreibende Vorgang ausreichend verstanden. Dies gilt insbesondere für das Holozän, für welches große Kimaschwankungen und regionale Diskrepanzen weithin belegt sind. Deshalb habe ich zuerst holozäne Klimadaten zusammengefasst. Bereits veröffentlichte Publikationen aus den Monsungebieten Zentralasiens dienten als Grundlage, um die wichtigsten Klimasignale und die zugehörigen Intensitäten des Sommermonsuns heraus zu arbeiten. Anhand von Pollensequenzen aus tibetischen Seen erzeugte ich neue Klima- und Vegetationssequenzen, welche auf verbesserten quantitativen Methoden und rezenten Datensätzen beruhen. Außerdem wurden die Verhältnisse Pollen-Vegetation und Vegetation-Klima bewertet, um Schlussfolgerungen fossiler Pollensequenzen zu verbessern. Die Zusammenfassung der zuvor veröffentlichten, niederschlagsbezogenen Paläoklimadaten im Monsungebiet Zentralasiens ergab generell unterschiedliche Muster für die zwei Teilsysteme des ASMs, den Indischen Sommermonsun (ISM) und den Ostasiatischen Sommermonsun (OASM). Der ISM weist maximale feuchte Bedingungen während des frühen Holozöns auf, während viele Datensätze aus dem Gebiet des OASMs einen relativ trockenen Zustand anzeigen, besonders im nördlichen Zentralchina, wo maximale Niederschläge während des mittleren Holozäns registriert wurden. Genaue Betrachtungen der Antriebsfaktoren des Sommermonsuns ergaben, dass der ISM hauptsächlich durch Veränderungen der Sonneneinstrahlung auf der Nordhemisphäre angetrieben wird, während der OASM potentiell durch den ISM beherrscht wird - dies führt zu asynchronen Entwicklungen. Diese Hypothese wird durch rezente Monsunindizes gestützt. Sie weisen eine signifikant negative Korrelation zwischen den beiden Sommermonsun-Teilsystemen auf. Für die quantitative Klimarekonstruktion von Pollensequenzen wurde ein Sedimentkern aus dem See Donggi Cona im Nordosten der HT analysiert, der bis zum letzten glazialen Maximum (LGM) zurückdatiert wurde. Aufgrund der Tatsache, dass Donggi Cona ein relativ großer See ist, wird hiermit ein neuer Pollen-Klima-Kalibrierungsdatensatz auf Grundlage großer Seen in ariden und semiariden Regionen Zentralasiens vorgelegt. Das Konzept des Pollenherkunftsgebietes wurde in diese rezente, pollenbasierte Klimakalibrierung eingebracht und auf die Pollensequenz von Donggi Cona angewendet. Die Auswertung ergab, dass extrem trockene Bedingungen während des LGM (ca. 100 mm/yr) vorherrschten. Ein ansteigender Trend von Niederschlägen während des späten Glazials wurde durch einen abrupten Rückgang zu einer etwa 1000-jährigen Trockenphase beendet, welche mit Heinrich-Ereignis 1 in der Nordatlantik-Region übereinstimmt. Danach entsprechen die Klimaperioden dem warmen Bølling/Allerød und dem Kälteereignis der Jüngeren Dryas. Anschließend herrschten feuchte Bedingungen im frühen Holozän (bis zu 400 mm/yr). Ein etwas trockenerer Trend nach dem Holozänen Klimaoptimum wurde dann von einer zweiten Feuchtphase abgelöst, welche bis 4,5 cal. ka vor heute andauerte. Relativ gleichmäßige Bedingungen dominierten das späte Holozän bis heute. Die Klimadynamik seit dem LGM wurde vor allem durch Entgletscherung und Intensitätsschwankungen des ASM bestimmt. Bei der Betrachtung des Vegetation-Klima-Verhältnisses habe ich die zeitlichen Variationen der bestimmenden Faktoren hinsichtlich der Vegetationsdynamik auf der nördlichen HT untersucht. Dabei wurden hochauflösende holozäne Pollendaten des Kusai-Sees verwendet. Eine Redundanzanalyse (RDA) wurde angewendet um die Korrelation zwischen Pollenvergesellschaftungen und individuellen sedimentären Klimaanzeigern als auch die damit verbundene Signifikanz zu bewerten. Es stellte sich heraus, dass das Klima einen wichtigen Einfluss auf den Veränderungen in der Vegetation besaß, wenn die Bedingungen relativ warm und feucht waren. Trotzdem scheint es, dass, dass die Vegetation bei zu geringer Bedeckung stärker durch Extremereignisse wie Staubstürme oder fluviale Erosion beeinflusst wurde. Pollenspektren der vergangen 600 Jahre erwiesen sich als signifikant unterschiedlich verglichen mit den älterer Proben, was auf verstärkten anthropogenen Einfluss hindeutet. Dieser resultierte in einem beispiellosen Wandel in der Zusammensetzung der Vegetation. In Hinsicht auf das Pollen-Vegetation-Verhältnis und der quantitativen Rekonstruktion der Vegetationshäufigkeit habe ich theoretische Modelle, welche für europäische Regionen entwickelt und weithin angewendet wurden, respektive die Modelle "Extended R-Value" (ERV) sowie "Regional Estimates of Vegetation Abundance from Large Sites" (REVEALS), auf die hochalpinen Ökosysteme der HT überführt. Dafür wurden rezente Pollen-Vegetations-Verhältnisse von vier weit verbreiteten Pollen-Arten der HT überprüft. Poaceae wurden als Referenztaxa verwendet. Bei der Anwendung dieser Verhältnisse auf vier Pollensequenzen, welche die Paläoumweltbedingungen seit dem letzten Glazial widerspiegeln, wurden die Häufigkeiten von Pflanzen auf der zentralen und nordöstlichen HT quantifiziert. Anteile von Artimisia und Chenopodiaceae waren dabei im Vergleich zu ihren ursprünglichen Pollenprozenten deutlich verringert. Cyperaceae hingegen wies eine relative Zunahme in dieser Vegetationsrekonstruktion auf. Die rekonstruierten Vegetationsvergesellschaftungen an den Standorten der vier Pollensequenzen ergaben stets geringere Umwälzungen in der Artenzusammensetzung, als durch die Pollenspektren zu vermuten gewesen wäre. Dies kann ein Hinweis darauf sein, dass die Intensität der bislang angenommenen Vegetationsveränderungen überschätzt worden ist. Zusammengefasst sind die Hauptresultate dieser Dissertation, dass (a) die zwei ASM Teilsysteme asynchrone Muster während des Holozäns und heute aufweisen, dass (b) fossile Pollensequenzen großer Seen regionale Klimasignale widerspiegeln sofern die Herkunftsgebiete der Pollen berücksichtigt werden, dass (c) Klima nicht immer der Haupteinflussfaktor für Vegetationswandel ist und dass (d) das Ausmaß von Vegetationsveränderungen in zuvor veröffentlichten Studien auf der Hochebene von Tibet überschätzt worden sein kann, weil Diskrepanzen der Pollenproduktivität zwischen den Arten nicht einbezogen wurden. KW - Asiatischer Sommermonsun KW - ASM KW - Holozän KW - Seesedimente KW - Pollen KW - Hochland von Tibet KW - Asian Summer Monsoon KW - Holocene KW - Lake sediments KW - Pollen KW - Tibetan Plateau Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63155 ER - TY - THES A1 - Wang, Xia T1 - Reef ecosystem recovery following the Middle Permian (Capitanian) mass extinction T1 - Die Erholung des Ökosystems von Riffen nach dem mittelpermischen Massenaussterben im Capitanium BT - a multi-scale analysis from South China BT - eine skalenübergreifende Analyse aus Südchina N2 - To find out the future of nowadays reef ecosystem turnover under the environmental stresses such as global warming and ocean acidification, analogue studies from the geologic past are needed. As a critical time of reef ecosystem innovation, the Permian-Triassic transition witnessed the most severe demise of Phanerozoic reef builders, and the establishment of modern style symbiotic relationships within the reef-building organisms. Being the initial stage of this transition, the Middle Permian (Capitanian) mass extinction coursed a reef eclipse in the early Late Permian, which lead to a gap of understanding in the post-extinction Wuchiapingian reef ecosystem, shortly before the radiation of Changhsingian reefs. Here, this thesis presents detailed biostratigraphic, sedimentological, and palaeoecological studies of the Wuchiapingian reef recovery following the Middle Permian (Capitanian) mass extinction, on the only recorded Wuchiapingian reef setting, outcropping in South China at the Tieqiao section. Conodont biostratigraphic zonations were revised from the Early Permian Artinskian to the Late Permian Wuchiapingian in the Tieqiao section. Twenty main and seven subordinate conodont zones are determined at Tieqiao section including two conodont zone below and above the Tieqiao reef complex. The age of Tieqiao reef was constrained as early to middle Wuchiapingian. After constraining the reef age, detailed two-dimensional outcrop mapping combined with lithofacies study were carried out on the Wuchiapingian Tieqiao Section to investigate the reef growth pattern stratigraphically as well as the lateral changes of reef geometry on the outcrop scale. Semi-quantitative studies of the reef-building organisms were used to find out their evolution pattern within the reef recovery. Six reef growth cycles were determined within six transgressive-regressive cycles in the Tieqiao section. The reefs developed within the upper part of each regressive phase and were dominated by different biotas. The timing of initial reef recovery after the Middle Permian (Capitanian) mass extinction was updated to the Clarkina leveni conodont zone, which is earlier than previous understanding. Metazoans such as sponges were not the major components of the Wuchiapingian reefs until the 5th and 6th cycles. So, the recovery of metazoan reef ecosystem after the Middle Permian (Capitanian) mass extinction was obviously delayed. In addition, although the importance of metazoan reef builders such as sponges did increase following the recovery process, encrusting organisms such as Archaeolithoporella and Tubiphytes, combined with microbial carbonate precipitation, still played significant roles to the reef building process and reef recovery after the mass extinction. Based on the results from outcrop mapping and sedimentological studies, quantitative composition analysis of the Tieqiao reef complex were applied on selected thin sections to further investigate the functioning of reef building components and the reef evolution after the Middle Permian (Capitanian) mass extinction. Data sets of skeletal grains and whole rock components were analyzed. The results show eleven biocommunity clusters/eight rock composition clusters dominated by different skeletal grains/rock components. Sponges, Archaeolithoporella and Tubiphytes were the most ecologically important components within the Wuchiapingian Tieqiao reef, while the clotted micrites and syndepositional cements are the additional important rock components for reef cores. The sponges were important within the whole reef recovery. Tubiphytes were broadly distributed in different environments and played a key-role in the initial reef communities. Archaeolithoporella concentrated in the shallower part of reef cycles (i.e., the upper part of reef core) and was functionally significant for the enlargement of reef volume. In general, the reef recovery after the Middle Permian (Capitanian) mass extinction has some similarities with the reef recovery following the end-Permian mass extinction. It shows a delayed recovery of metazoan reefs and a stepwise recovery pattern that was controlled by both ecological and environmental factors. The importance of encrusting organisms and microbial carbonates are also similar to most of the other post-extinction reef ecosystems. These findings can be instructive to extend our understanding of the reef ecosystem evolution under environmental perturbation or stresses. N2 - Um die zukünftige Entwicklung der aktuell sehr dramatischen Änderungen des Ökosystems von Riffen vorherzusagen, welche durch Umweltbelastungen wie die globale Erwärmung und die zunehmende Versauerung der Ozeane verursacht wird, müssen analoge Beispiele aus der geologischen Vergangenheit genauer unter die Lupe genommen werden. Als eine wichtige Zeit der Neugestaltung von Riffsystemen beinhaltet der Übergang vom Perm in die Trias den wohl einschneidendsten Rückgang von phanerozoischen Riffbildnern, und die dauerhafte Festsetzung von modernen symbiotischen Wechselbeziehungen zwischen den einzelnen riffbildenden Organismen. Zu Beginn dieses Übergangs und nach dem mittelpermischen Massenaussterben im Capitanium fand eine langsame Erholung der Riffe im Wuchiapingium statt, welche sich vor der Radiation der Riffe im Changhsingium bildeten, deren Ursache aber immer noch nicht vollends verstanden wurde. In dieser Arbeit wird eine detaillierte biostratigraphische, sedimentologische und paläoökologische Untersuchung der Rifferholung im Wuchiapingium nach dem mittelpermischen Massenaussterben vorgestellt. Dies wird an den einzigen jemals in Südchina dokumentierten Riffsedimenten aus dieser Zeit im sogenannten Tieqiao-Riffkomplex durchgeführt. Biostratigraphische Einteilungen anhand von Konodonten zwischen dem frühpermischen Artinskium bis zum spätpermischen Wuchiapingium im Tieqiao-Riffkomplex wurden überarbeitet. Zwanzig Haupt- und sieben untergeordnete Konodontenzonen wurden definiert, wobei sich zwei Zonen oberhalb und unterhalb des Riffkomplexes befinden. Das Alter des Tieqiao-Riffkomplexes wurde dabei auf das frühe bis mittlere Wuchiapingium festgelegt. Nachdem das Alter des Tieqiao-Riffes bestimmt wurde, führte die zweidimensionale Kartierung des Aufschluss sowie die detaillierte Untersuchung der Lithofazies zu einem besseren Verständnis des stratigraphischen Riffwachstums und der lateralen Änderung der Riffmorphologie im Aufschlussmaßstab. Eine semiquantitative Analyse der riffbildenden Organismen wurde angewandt, um deren Entwicklungsmuster während der Erholungsphase des Riffes zu verstehen. Sechs Wachstumszyklen der Riffe innerhalb von sechs regressiven Zyklen der Tieqiao wurden dabei bestimmt. Die Riffe entwickelten sich überwiegend im oberen Teil der regressiven Phase und wurden von unterschiedlichsten Arten dominiert. Der Zeitpunkt der initialen Erholung der Riffe nach dem mittelpermischen Massenaussterben im Capitanium wurde auf die Clarkina leveni Konodontenzone aktualisiert, also älter als bisher angenommen. Metazoen wie Schwämme waren bis zum 5. und 6. Zyklus nicht die Hauptbildner des Riffes. Folglich war die Erholung des metazoischen Riff-Ökosystems nach dem mittelpermischen Massenaussterben verzögert. Auch wenn die Wichtigkeit von metazoischen Riffbildnern während des Erholungsprozesses zunahm, spielten enkrustierende Organismen wie Archaeolithoporella und Tubiphytes zusammen mit mikrobiellen Mikriten immer noch eine signifikante Rolle im Prozess der Rifferholung und des -aufbaus. Anhand der Resultate der Kartierung und der sedimentologischen Untersuchung wurden quantitative Analysen der einzelnen Bestandteile an Dünnschliffen ausgeführt. Dies ermöglichte die weiterführende Untersuchung der riffbildenden Bestandteile und die Entwicklung des Riffes nach dem mittelpermischen Massenaussterben. Dafür wurden Daten der einzelnen fossilen Bestandteile und des gesamten Gesteins analysiert. Dabei wurden elf Fossilvergesellschaftungen identifiziert, welche jede von unterschiedlichen fossilen Bestandteilen dominiert wurde. Schwämme, Archaeolithoporella und Tubiphytes waren die ökologisch wichtigsten Komponenten im Tieqiao-Riff, während mikrobielle Mikrite und syndepositionale Zemente zusätzliche Bausteine der Riffe darstellen. Schwämme waren dabei besonders wichtig für die Rifferholung. Tubiphytes war in den verschiedenen Ablagerungsräumen weit verbreitet und spielte eine Hauptrolle in den ersten Riffzyklen. Archaeolithoporella dagegen konzentrierte sich in den flacheren Bereichen des Riffzyklus (d.h. im oberen Teil des Riffes) und war maßgeblich daran beteiligt, das Riffvolumen zu erweitern. Grundsätzlich besitzt die Erholung der Riffe nach dem mittelpermischen Massenaussterben große Ähnlichkeit mit der die dem Massenaussterben an der Perm-Trias Grenze folgte. Typisch dafür ist eine verzögerte Erholung der metazoischen Riffe und ein Muster der schrittweisen Erholung, die ihrerseits durch ökologische und umweltbedingte Faktoren kontrolliert wird. Die Wichtigkeit von enkrustierenden Organismen und mikrobiellen Karbonaten sind ebenfalls vergleichbar zu den meisten anderen Riffsystemen, die sich nach einem Massenaussterben entwickelten. Diese Ergebnisse sind äußerst wichtig um unser Wissen über die Entwicklung von Riffsystemen nach Massenaussterben zu erweitern. KW - mass extinction KW - reef KW - Permian KW - Wuchiapingian KW - Archaeolithoporella KW - Massenaussterben KW - Riff KW - Perm KW - Wuchiapingium KW - Archaeolithoporella Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-487502 ER - TY - THES A1 - Wang, Weishi T1 - Influence of river reconstruction at a bank filtration site T1 - Wasserqualität und 3D-Modellierung des Grundwasserflusses und des Wärmetransports BT - water quality field investigation and 3D modelling of groundwater flow and heat transport N2 - Bank filtration is an effective water treatment technique and is widely adopted in Europe along major rivers. It is the process where surface water penetrates the riverbed, flows through the aquifer, and then is extracted by near-bank production wells. By flowing in the subsurface flow passage, the water quality can be improved by a series of beneficial processes. Long-term riverbank filtration also produces colmation layers on the riverbed. The colmation layer may act as a bioactive zone that is governed by biochemical and physical processes owing to its enrichment of microbes and organic matter. Low permeability may strongly limit the surface water infiltration and further lead to a decreasing recoverable ratio of production wells.The removal of the colmation layer is therefore a trade-off between the treatment capacity and treatment efficiency. The goal of this Ph.D. thesis is to focus on the temporal and spatial change of the water quality and quantity along the flow path of a hydrogeological heterogeneous riverbank filtration site adjacent to an artificial-reconstructed (bottom excavation and bank reconstruction) canal in Potsdam, Germany. To quantify the change of the infiltration rate, travel time distribution, and the thermal field brought by the canal reconstruction, a three-dimensional flow and heat transport model was created. This model has two scenarios, 1) ‘with’ canal reconstruction, and 2) ‘without’ canal reconstruction. Overall, the model calibration results of both water heads and temperatures matched those observed in the field study. In comparison to the model without reconstruction, the reconstruction model led to more water being infiltrated into the aquifer on that section, on average 521 m3/d, which corresponded to around 9% of the total pumping rate. Subsurface travel-time distribution substantially shifted towards shorter travel times. Flow paths with travel times <200 days increased by ~10% and those with <300 days by 15%. Furthermore, the thermal distribution in the aquifer showed that the seasonal variation in the scenario with reconstruction reaches deeper and laterally propagates further. By scatter plotting of δ18O versus δ 2H, the infiltrated river water could be differentiated from water flowing in the deep aquifer, which may contain remnant landside groundwater from further north. In contrast, the increase of river water contribution due to decolmation could be shown by piper plot. Geological heterogeneity caused a substantial spatial difference in redox zonation among different flow paths, both horizontally and vertically. Using the Wilcoxon rank test, the reconstruction changed the redox potential differently in observation wells. However, taking the small absolute concentration level, the change is also relatively minor. The treatment efficiency for both organic matter and inorganic matter is consistent after the reconstruction, except for ammonium. The inconsistent results for ammonium could be explained by changes in the Cation Exchange Capacity (CEC) in the newly paved riverbed. Because the bed is new, it was not yet capable of keeping the newly produced ammonium by sorption and further led to the breakthrough of the ammonium plume. By estimation, the peak of the ammonium plume would reach the most distant observation well before February 2024, while the peaking concentration could be further dampened by sorption and diluted by the afterward low ammonium flow. The consistent DOC and SUVA level suggests that there was no clear preference for the organic matter removal along the flow path. N2 - Die Uferfiltration, eine wirksame Wasseraufbereitungstechnik, ist an Europas großen Flüssen weit verbreitet. Es bezieht sich dabei hauptsächlich auf einen Prozess, wobei das Oberflächenwasser in das Flussbett eindringt, durch den Grundwasserleiter fließt und schließlich durch ufernahe Brunnen gewonnen wird. Beim Einströmen in den unterirdischen Aquifer verbessert sich die Wasserqualität durch eine Reihe von vorteilhaften Reaktionen, die jedoch langfristig zum Auftreten von Kolmation des Flussbetts führen. Aufgrund der Anreicherung von Mikroben und organischen Substanzen bildet sich die Kolmationsschicht einerseits als bioaktive Zone für zahlreiche biochemische Reaktionen; andererseits kann ihre geringe Permeabilität die Infiltration von Oberflächenwasser behindern, welches zur Produktivitätseinschränkung von Brunnen führt. Daher ist das Entfernen der Kolmationsschicht immer ein Kompromiss zwischen Behandlungskapazität und Effizienz. Diese Doktorarbeit zielt darauf ab, die zeitlichen und räumlichen Veränderungen der Wasserqualität und -menge entlang des Fließwegs eines hydrogeologisch heterogenen Uferfiltrat-Standorts nahe einem baulich vertieften Kanal (Ausbaggerung und Ufersanierung) in Potsdam zu untersuchen. Zur Quantifizierung der durch die Kanalvertiefung hervorgerufenen Änderung auf die Infiltrationsrate, die Laufzeitverteilung und das thermische Feld wurde ein dreidimensionales Strömungs- und Wärmetransportmodell mit zwei Modellszenarien (mit und ohne Baumaßnahmen) erstellt. Insgesamt stimmten die Kalibrierungsergebnisse der Wasserstände und der Temperaturen mit den Beobachtungen überein. Die Modellierungsergebnisse zweier Szenarien zeigten, dass durch die Vertiefung durchschnittlich 521 m3/d, was etwa 9% der Gesamtpumprate entspricht, mehr Wasser in den Grundwasserleiter geflossen ist. Die unterirdische Fliesszeit verkürzte sich. Die Anzahl der Fliesswege mit Fliesszeiten <200 Tage erhöhten sich um ca. 10% und jene mit <300 Tage um 15%. Darüber hinaus breitete sich die Wärme im Grundwasserleiter tiefer und weiter im Modell mit Baumaßnahmen aus. Mittels Streudiagrammen von d18O und d2H konnte das infiltrierte Flusswasser vom landseitigen Grundwasser unterschieden werden, während eine dekolmationsbedingte Erhöhung des Flusswasseranteils in Brunnen durch Piper-Diagramme nachgewiesen werden konnte. Die geologische Heterogenität verursachte erhebliche horizontale und vertikale Unterschiede in der Redox-Zonierung zwischen verschiedenen Strömungsbahnen. Das Redoxniveau verändert sich in verschiedenen Brunnen durch die Baumaßnahme. Die Behandlungseffizienz für organische und anorganische Stoffe blieb unabhänig von der Baumaßnahme erhalten, mit Ausnahme von Ammonium. Dies ist wohl auf die Änderung der Kationenaustauschkapazität im neu ausgebaggerten Flussbett zurückzuführen, das noch nicht in der Lage war, neu entstehendes Ammonium zu absorbieren, was zu einem Fortschreiten der Ammonium-Fahne führt. Schätzungsweise erreicht das Maximum der Ammonium-Fahne den entferntesten Brunnen vor Februar 2024, wobei sich die Konzentration durch Sorption und Vermischung mit nachströmendem Wassser verringern sollte. Das gleichbleibende DOC- und SUVA-Niveau deutete darauf hin, dass es keine Bevorzugung beim Abbau organischer Substanzen entlang des Fließwegs gab. KW - Bank filtration KW - Groundwater modelling KW - Heat transport KW - Geological heterogeneity KW - Decolmation KW - Wärmetransport KW - Uferfiltration KW - Grundwassermodellierung KW - Geologische Heterogenität KW - Dekolmation Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-490234 ER - TY - THES A1 - Wang, Victor-C. T1 - Injury and illness risk factors for elite athletes in training environment T1 - Verletzung und Krankheit Risikofaktoren für Elite-Athleten im Trainingsumfeld BT - a comparison between Germany and Taiwan BT - ein Vergleich zwischen Deutschland und Taiwan N2 - Since 1998, elite athletes’ sport injuries have been monitored in single sport event, which leads to the development of first comprehensive injury surveillance system in multi-sport Olympic Games in 2008. However, injury and illness occurred in training phases have not been systematically studied due to its multi-facets, potentially interactive risk related factors. The present thesis aim to address issues of feasibility of establishing a validated measure for injury/illness, training environment and psychosocial risk factors by creating the evaluation tool namely risk of injury questionnaire (Risk-IQ) for elite athletes, which based on IOC consensus statement 2009 recommended content of preparticipation evaluation(PPE) and periodic health exam (PHE). A total of 335 top level athletes and a total of 88 medical care providers from Germany and Taiwan participated in tow “cross-sectional plus longitudinal” Risk-IQ and MCPQ surveys respectively. Four categories of injury/illness related risk factors questions were asked in Risk-IQ for athletes while injury risk and psychological related questions were asked in MCPQ for MCP cohorts. Answers were quantified scales wise/subscales wise before analyzed with other factors/scales. In addition, adapted variables such as sport format were introduced for difference task of analysis. Validated with 2-wyas translation and test-retest reliabilities, the Risk-IQ was proved to be in good standard which were further confirmed by analyzed results from official surveys in both Germany and Taiwan. The result of Risk-IQ revealed that elite athletes’ accumulated total injuries, in general, were multi-factor dependent; influencing factors including but not limited to background experiences, medical history, PHE and PPE medical resources as well as stress from life events. Injuries of different body parts were sport format and location specific. Additionally, medical support of PPE and PHE indicated significant difference between German and Taiwan. The result of the present thesis confirmed that it is feasible to construct a comprehensive evalua-tion instrument for heterogeneous elite athletes cohorts’ risk factor analysis for injury/illness oc-curred during their non-competition periods. In average and with many moderators involved, Ger-man elite athletes have superior medical care support yet suffered more severe injuries than Tai-wanese counterparts. Opinions of injury related psychological issues reflected differently on vari-ous MCP groups irrespective of different nationalities. In general, influencing factors and interac-tions existed among relevant factors in both studies which implied further investigation with multiple regression analysis is needed for better understanding. N2 - Seit 1998 werden Sportverletzungen von Elitesportlern in Einzeldisziplinen untersucht und überwacht. Daraus entwickelte sich das erste Überwachungssystem von Sportverletzungen für verschiedene Sportdisziplinen, das zum ersten Mal 2008 bei den Olympischen Spielen zum Einsatz kam. Verletzungen und Krankheiten, die aus dem Training resultieren können, wurden bisher noch nicht systematisch beschrieben, da die potentiellen Verletzungsfaktoren vielfältig sein können. Die vorliegende Dissertation hat zum Ziel, Fragen der Zweckmäßigkeit einer validierten Maßnahme zum Verletzungsrisiko und den damit verbundenen psychosozialen Faktoren zu untersuchen. Ausgangspunkt für die Untersuchung ist das IOC consensus statement aus dem Jahr 2009 mit den beiden Bereichen PPE und PHE. 335 Elitesportler und 88 sportmedizinische Versorger aus Deutschland und Taiwan nahmen (zwischen Oktober 2013 und Februar 2014) an einer Querschnitts- und Längsstudie (Risk-IQ und MCPQ) teil. In der Risk-IQ-Umfrage unter den Elitesportlern wurden Fragen zu vier Kategorien von Verletzungsfaktoren gestellt. Die sportmedizinischen Versorger beantworteten Fragen zu Verletzungsrisiken und psychologische Fragen. Die Antworten wurden in Skalen und Unterskalen quantifiziert, bevor sie mit anderen Faktoren analysiert wurden. Darüber hinaus wurden angepasste Variablen wie zum Beispiel das Sportformat eingeführt. Im Vorfeld der Studie wurden die Übersetzungen der Umfragefragen validiert und Reliabilitäts-Test und Retests durchgeführt, bevor die Umfragen in Deutschland und Taiwan durchgeführt wurden. Das Ergebnis der Umfrage unter den Elitesportlern zeigt, dass die Sportverletzungen im Allgemeinen von verschiedenen Faktoren abhängig sind: Trainingserfahrungen, Leistungsniveau, medizinische Vorgeschichte, PHE und PPE Ressourcen sowie von psychosozialem Stress, der durch bestimmte Erlebnisse oder Schicksalsschläge ausgelöst werden kann. Die Art der Verletzungen werden durch die Sportart und den Trainingsort beeinflusst. Auch die medizinische Versorgung im Rahmen der PPE und PHE ist signifikant verschieden zwischen Deutschland und Taiwan. Im Ergebnis zeigt sich, dass es anhand eines umfassenden Erhebungsinstruments möglich ist, Verletzungsfaktoren für Elite-Athleten zu identifizieren. Zusammenfassend lässt sich sagen, dass deutsche Elitesportler eine bessere medizinische Versorgung genießen als taiwanische Elitesportler. Allerdings sind sie auch von schwereren Verletzungen betroffen. Die Antworten zu den psychosozialen Einflussfaktoren gehen auseinander und lassen sich nicht auf Sportler einer Nationalität beschränken. KW - injury and illness KW - risk factors KW - elite athlete KW - sport training KW - Germany KW - Taiwan KW - Risikofaktoren KW - Verletzung KW - Elite-Athleten KW - Deutschland KW - Taiwan KW - injury surveillance KW - multi-sports KW - IOC KW - Olympic Games KW - national Olympic committees (NOCs) KW - international sport federations (IFs) KW - international competition participation KW - training phases KW - interaction KW - feasibility KW - validated measure KW - training environment KW - psychosocial KW - evaluation tool KW - sport injury KW - questionnaire KW - Risk-IQ KW - IOC consensus statement 2009 KW - pre-participation evaluation (PPE) KW - periodic health exam (PHE) KW - medical care providers (MCP) KW - medical care providers questionnaire (MCPQ) KW - cross-sectional KW - longitudinal KW - intra-class correlation coefficient (ICC) KW - factor analysis KW - scales KW - sport format KW - sport location KW - 2-wyas translation KW - forward and backward translation KW - test-retest reliabilities KW - multi-factor KW - medical history KW - medical resources KW - stress KW - inventory of life events (ILE) KW - perceived stress scale (PSS) KW - overtraining syndrome KW - body parts KW - medical education KW - medical support KW - comprehensive evaluation instrument KW - heterogeneous cohorts KW - non-competition periods KW - moderators KW - severe injury KW - opinions KW - nationalities KW - interactions KW - multiple logistic regression KW - Colorado injury report system (CIRS) KW - sport injury risk factors model KW - TRIPP model KW - stress and injury model KW - Bland and Altman plot Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100925 ER - TY - THES A1 - Wang, Long T1 - X-tracking the usage interest on web sites T1 - X-tracking des Nutzungsinteresses für Webseiten N2 - The exponential expanding of the numbers of web sites and Internet users makes WWW the most important global information resource. From information publishing and electronic commerce to entertainment and social networking, the Web allows an inexpensive and efficient access to the services provided by individuals and institutions. The basic units for distributing these services are the web sites scattered throughout the world. However, the extreme fragility of web services and content, the high competence between similar services supplied by different sites, and the wide geographic distributions of the web users drive the urgent requirement from the web managers to track and understand the usage interest of their web customers. This thesis, "X-tracking the Usage Interest on Web Sites", aims to fulfill this requirement. "X" stands two meanings: one is that the usage interest differs from various web sites, and the other is that usage interest is depicted from multi aspects: internal and external, structural and conceptual, objective and subjective. "Tracking" shows that our concentration is on locating and measuring the differences and changes among usage patterns. This thesis presents the methodologies on discovering usage interest on three kinds of web sites: the public information portal site, e-learning site that provides kinds of streaming lectures and social site that supplies the public discussions on IT issues. On different sites, we concentrate on different issues related with mining usage interest. The educational information portal sites were the first implementation scenarios on discovering usage patterns and optimizing the organization of web services. In such cases, the usage patterns are modeled as frequent page sets, navigation paths, navigation structures or graphs. However, a necessary requirement is to rebuild the individual behaviors from usage history. We give a systematic study on how to rebuild individual behaviors. Besides, this thesis shows a new strategy on building content clusters based on pair browsing retrieved from usage logs. The difference between such clusters and the original web structure displays the distance between the destinations from usage side and the expectations from design side. Moreover, we study the problem on tracking the changes of usage patterns in their life cycles. The changes are described from internal side integrating conceptual and structure features, and from external side for the physical features; and described from local side measuring the difference between two time spans, and global side showing the change tendency along the life cycle. A platform, Web-Cares, is developed to discover the usage interest, to measure the difference between usage interest and site expectation and to track the changes of usage patterns. E-learning site provides the teaching materials such as slides, recorded lecture videos and exercise sheets. We focus on discovering the learning interest on streaming lectures, such as real medias, mp4 and flash clips. Compared to the information portal site, the usage on streaming lectures encapsulates the variables such as viewing time and actions during learning processes. The learning interest is discovered in the form of answering 6 questions, which covers finding the relations between pieces of lectures and the preference among different forms of lectures. We prefer on detecting the changes of learning interest on the same course from different semesters. The differences on the content and structure between two courses leverage the changes on the learning interest. We give an algorithm on measuring the difference on learning interest integrated with similarity comparison between courses. A search engine, TASK-Moniminer, is created to help the teacher query the learning interest on their streaming lectures on tele-TASK site. Social site acts as an online community attracting web users to discuss the common topics and share their interesting information. Compared to the public information portal site and e-learning web site, the rich interactions among users and web content bring the wider range of content quality, on the other hand, provide more possibilities to express and model usage interest. We propose a framework on finding and recommending high reputation articles in a social site. We observed that the reputation is classified into global and local categories; the quality of the articles having high reputation is related with the content features. Based on these observations, our framework is implemented firstly by finding the articles having global or local reputation, and secondly clustering articles based on their content relations, and then the articles are selected and recommended from each cluster based on their reputation ranks. N2 - Wegen des exponentiellen Ansteigens der Anzahl an Internet-Nutzern und Websites ist das WWW (World Wide Web) die wichtigste globale Informationsressource geworden. Das Web bietet verschiedene Dienste (z. B. Informationsveröffentlichung, Electronic Commerce, Entertainment oder Social Networking) zum kostengünstigen und effizienten erlaubten Zugriff an, die von Einzelpersonen und Institutionen zur Verfügung gestellt werden. Um solche Dienste anzubieten, werden weltweite, vereinzelte Websites als Basiseinheiten definiert. Aber die extreme Fragilität der Web-Services und -inhalte, die hohe Kompetenz zwischen ähnlichen Diensten für verschiedene Sites bzw. die breite geographische Verteilung der Web-Nutzer treiben einen dringenden Bedarf für Web-Manager und das Verfolgen und Verstehen der Nutzungsinteresse ihrer Web-Kunden. Die Arbeit zielt darauf ab, dass die Anforderung "X-tracking the Usage Interest on Web Sites" erfüllt wird. "X" hat zwei Bedeutungen. Die erste Bedeutung ist, dass das Nutzungsinteresse von verschiedenen Websites sich unterscheidet. Außerdem stellt die zweite Bedeutung dar, dass das Nutzungsinteresse durch verschiedene Aspekte (interne und externe, strukturelle und konzeptionelle) beschrieben wird. Tracking zeigt, dass die Änderungen zwischen Nutzungsmustern festgelegt und gemessen werden. Die Arbeit eine Methodologie dar, um das Nutzungsinteresse gekoppelt an drei Arten von Websites (Public Informationsportal-Website, E-Learning-Website und Social-Website) zu finden. Wir konzentrieren uns auf unterschiedliche Themen im Bezug auf verschieden Sites, die mit Usage-Interest-Mining eng verbunden werden. Education Informationsportal-Website ist das erste Implementierungsscenario für Web-Usage-Mining. Durch das Scenario können Nutzungsmuster gefunden und die Organisation von Web-Services optimiert werden. In solchen Fällen wird das Nutzungsmuster als häufige Pagemenge, Navigation-Wege, -Strukturen oder -Graphen modelliert. Eine notwendige Voraussetzung ist jedoch, dass man individuelle Verhaltensmuster aus dem Verlauf der Nutzung (Usage History) wieder aufbauen muss. Deshalb geben wir in dieser Arbeit eine systematische Studie zum Nachempfinden der individuellen Verhaltensweisen. Außerdem zeigt die Arbeit eine neue Strategie, dass auf Page-Paaren basierten Content-Clustering aus Nutzungssite aufgebaut werden. Der Unterschied zwischen solchen Clustern und der originalen Webstruktur ist der Abstand zwischen Zielen der Nutzungssite und Erwartungen der Designsite. Darüber hinaus erforschen wir Probleme beim Tracking der Änderungen von Nutzungsmustern in ihrem Lebenszyklus. Die Änderungen werden durch mehrere Aspekte beschrieben. Für internen Aspekt werden konzeptionelle Strukturen und Funktionen integriert. Der externe Aspekt beschreibt physische Eigenschaften. Für lokalen Aspekt wird die Differenz zwischen zwei Zeitspannen gemessen. Der globale Aspekt zeigt Tendenzen der Änderung entlang des Lebenszyklus. Eine Plattform "Web-Cares" wird entwickelt, die die Nutzungsinteressen findet, Unterschiede zwischen Nutzungsinteresse und Website messen bzw. die Änderungen von Nutzungsmustern verfolgen kann. E-Learning-Websites bieten Lernmaterialien wie z.B. Folien, erfaßte Video-Vorlesungen und Übungsblätter an. Wir konzentrieren uns auf die Erfoschung des Lerninteresses auf Streaming-Vorlesungen z.B. Real-Media, mp4 und Flash-Clips. Im Vergleich zum Informationsportal Website kapselt die Nutzung auf Streaming-Vorlesungen die Variablen wie Schauzeit und Schautätigkeiten während der Lernprozesse. Das Lerninteresse wird erfasst, wenn wir Antworten zu sechs Fragen gehandelt haben. Diese Fragen umfassen verschiedene Themen, wie Erforschung der Relation zwischen Teilen von Lehrveranstaltungen oder die Präferenz zwischen den verschiedenen Formen der Lehrveranstaltungen. Wir bevorzugen die Aufdeckung der Veränderungen des Lerninteresses anhand der gleichen Kurse aus verschiedenen Semestern. Der Differenz auf den Inhalt und die Struktur zwischen zwei Kurse beeinflusst die Änderungen auf das Lerninteresse. Ein Algorithmus misst die Differenz des Lerninteresses im Bezug auf einen Ähnlichkeitsvergleich zwischen den Kursen. Die Suchmaschine „Task-Moniminer“ wird entwickelt, dass die Lehrkräfte das Lerninteresse für ihre Streaming-Vorlesungen über das Videoportal tele-TASK abrufen können. Social Websites dienen als eine Online-Community, in den teilnehmenden Web-Benutzern die gemeinsamen Themen diskutieren und ihre interessanten Informationen miteinander teilen. Im Vergleich zur Public Informationsportal-Website und E-Learning Website bietet diese Art von Website reichhaltige Interaktionen zwischen Benutzern und Inhalten an, die die breitere Auswahl der inhaltlichen Qualität bringen. Allerdings bietet eine Social-Website mehr Möglichkeiten zur Modellierung des Nutzungsinteresses an. Wir schlagen ein Rahmensystem vor, die hohe Reputation für Artikel in eine Social-Website empfiehlt. Unsere Beobachtungen sind, dass die Reputation in globalen und lokalen Kategorien klassifiziert wird. Außerdem wird die Qualität von Artikeln mit hoher Reputation mit den Content-Funktionen in Zusammenhang stehen. Durch die folgenden Schritte wird das Rahmensystem im Bezug auf die Überwachungen implementiert. Der erste Schritt ist, dass man die Artikel mit globalen oder lokalen Reputation findet. Danach werden Artikel im Bezug auf ihre Content-Relationen in jeder Kategorie gesammelt. Zum Schluß werden die ausgewählten Artikel aus jedem basierend auf ihren Reputation-Ranking Cluster empfohlen. KW - Tracking KW - Nutzungsinteresse KW - Webseite KW - Tracking KW - Usage Interest KW - Web Sites Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51077 ER - TY - THES A1 - Wang, Jingwen T1 - Electret properties of polypropylene with surface chemical modification and crystalline reconstruction N2 - As one of the most-produced commodity polymers, polypropylene draws considerable scientific and commercial interest as an electret material. In the present thesis, the influence of the surface chemical modification and crystalline reconstruction on the electret properties of the polypropylene thin films will be discussed. The chemical treatment with orthophosphoric acid can significantly improve the surface charge stability of the polypropylene electrets by introducing phosphorus- and oxygen-containing structures onto the modified surface. The thermally stimulated discharge measurement and charge profiling by means of piezoelectrically generated pressure steps are used to investigate the electret behaviour. It is concluded that deep traps of limited number density are created during the treatment with inorganic chemicals. Hence, the improvement dramatically decreases when the surface-charge density is substantially higher than ±1.2×10^(-3) C·m^(-2). The newly formed traps also show a higher trapping energy for negative charges. The energetic distributions of the traps in the non-treated and chemically treated samples offer an insight regarding the surface and foreign-chemical dominance on the charge storage and transport in the polypropylene electrets. Additionally, different electret properties are observed on the polypropylene films with the spherulitic and transcrystalline structures. It indicates the dependence of the charge storage and transport on the crystallite and molecular orientations in the crystalline phase. In general, a more diverse crystalline growth in the spherulitic samples can result in a more complex energetic trap distribution, in comparison to that in a transcrystalline polypropylene. The double-layer transcrystalline polypropylene film with a crystalline interface in the middle can be obtained by crystallising the film in contact with rough moulding surfaces on both sides. A layer of heterocharges appears on each side of the interface in the double-layer transcrystalline polypropylene electrets after the thermal poling. However, there is no charge captured within the transcrystalline layers. The phenomenon reveals the importance of the crystalline interface in terms of creating traps with the higher activation energy in polypropylene. The present studies highlight the fact that even slight variations in the polypropylene film may lead to dramatic differences in its electret properties. N2 - Als eines der meistproduzierten Polymere stößt Polypropylen (PP) auch als Elektretmaterial auf großes wissenschaftliches und kommerzielles Interesse. In der vorliegenden Arbeit wird der Einfluss chemischer Oberflächen-Modifikationen und kristalliner Rekonstruktionen auf die Elektreteigenschaften von dünnen Polypropylen-Schichten untersucht und diskutiert. Die nasschemische Behandlung mit Orthophosphorsäure kann die Oberflächenladungsstabilität der PP-Elektrete deutlich verbessern, indem phosphor- und sauerstoffhaltige Strukturen auf der modifizierten Oberfläche erzeugt und verankert werden. Aus thermisch stimulierten Entladungsexperimenten und Ladungsmessungen mit piezoelektrisch erzeugten Druckstufen ergibt sich, dass die Oberflächenbehandlung eine begrenzte Anzahl tiefer Haftstellen vor allem für negative Ladungen erzeugt. Daher nimmt die Verbesserung drastisch ab, wenn die Oberflächenladungsdichte einen wesentlich höheren Wert als ±1.2×10-3 C·m-2 hat. Die energetischen Verteilungen der Ladungsfallen in unbehandelten und in chemisch behandelten Proben ermöglichen Rückschlüsse auf die Oberfläche und auf die wesentliche Rolle der aufgebrachten chemischen Spezies für Ladungsspeicherung und -transport in PP-Elektreten. Darüber hinaus werden an dünnen Polypropylenfolien mit entweder sphärolithischen oder transkristallinen Strukturen deutlich unterschiedliche Elektreteigenschaften beobachtet, was den starken Einfluss von Kristallstruktur und Molekülorientierung auf Ladungsspeicherung und -transport in der kristallinen Phase anzeigt. Generell führt das vielfältigere kristalline Wachstum in sphärolithischen Proben oft zu komplexeren energetischen Verteilungen der Ladungsfallen als in transkristallinen PP-Schichten. Zweischichtige transkristalline PP-Folien mit einer kristallinen Grenzfläche in der Mitte können durch beidseitige Kristallisation auf rauen Formgussoberflächen erzeugt werden. Auf jeder Seite der Grenzfläche in der Mitte der zweischichtigen transkristallinen PP-Elektrete findet sich nach thermischer Polung eine Schicht von Heteroladungen, während innerhalb der transkristallinen Schichten keine Ladungen beobachtet werden. Daraus wird die Bedeutung der kristallinen Grenzfläche für das Auftreten von Ladungsfallen mit hohen Aktivierungsenergien in Polypropylen deutlich. Die vorliegenden Studien zeigen, dass bereits geringe Variationen in der Nanostruktur der Polypropylenfolien zu dramatisch unterschiedlichen Elektreteigenschaften führen können. KW - electret KW - polypropylene KW - charge storage and transport KW - surface chemical treatment KW - transcrystalline polypropylene KW - Elektret KW - Polypropylen KW - Ladungsspeicherung und -transport KW - chemische Oberflächen-Modifikationen KW - transkristallines Polypropylen Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470271 ER - TY - THES A1 - Wallenta, Daniel T1 - Sequences of compact curvature T1 - Sequenzen mit kompakter Krümmung N2 - By perturbing the differential of a (cochain-)complex by "small" operators, one obtains what is referred to as quasicomplexes, i.e. a sequence whose curvature is not equal to zero in general. In this situation the cohomology is no longer defined. Note that it depends on the structure of the underlying spaces whether or not an operator is "small." This leads to a magical mix of perturbation and regularisation theory. In the general setting of Hilbert spaces compact operators are "small." In order to develop this theory, many elements of diverse mathematical disciplines, such as functional analysis, differential geometry, partial differential equation, homological algebra and topology have to be combined. All essential basics are summarised in the first chapter of this thesis. This contains classical elements of index theory, such as Fredholm operators, elliptic pseudodifferential operators and characteristic classes. Moreover we study the de Rham complex and introduce Sobolev spaces of arbitrary order as well as the concept of operator ideals. In the second chapter, the abstract theory of (Fredholm) quasicomplexes of Hilbert spaces will be developed. From the very beginning we will consider quasicomplexes with curvature in an ideal class. We introduce the Euler characteristic, the cone of a quasiendomorphism and the Lefschetz number. In particular, we generalise Euler's identity, which will allow us to develop the Lefschetz theory on nonseparable Hilbert spaces. Finally, in the third chapter the abstract theory will be applied to elliptic quasicomplexes with pseudodifferential operators of arbitrary order. We will show that the Atiyah-Singer index formula holds true for those objects and, as an example, we will compute the Euler characteristic of the connection quasicomplex. In addition to this we introduce geometric quasiendomorphisms and prove a generalisation of the Lefschetz fixed point theorem of Atiyah and Bott. N2 - Die Theorie der Sequenzen mit kompakter Krümmung, sogenannter Quasikomplexe, ist eine Verallgemeinerung der Theorie der Fredholm Komplexe. Um ein Verständnis für (Quasi-)Komplexe zu gewinnen, müssen Inhalte aus verschiedenen Teilgebieten der Mathematik kombiniert werden. Alle hierfür wesentlichen Grundlagen sind im ersten Kapitel dieser Dissertation zusammengefasst. Dies betrifft unter anderem gewisse Elemente der Funktionalanalysis und der Differentialgeometrie, sowie die Theorie der klassischen Pseudodifferentialoperatoren. Im zweiten Kapitel wird anschließend die abstrakte Theorie der Quasikomplexe und zugehöriger Quasimorphismen im Kontext der Funktionalanalysis entwickelt. Dabei werden verschiedene Typen von Quasikomplexen und Quasimorphismen klassifiziert, deren Eigenschaften analysiert und Beispiele betrachtet. Ein zentraler Punkt hierbei ist die Lösung des Problems, für welche dieser Objekte sich eine besondere charakteristische Zahl, die sogenannte Lefschetz-Zahl, definieren lässt. Die dargestellten Resultate zeigen, dass die in dieser Arbeit gegebene Definition eine natürliche Erweiterung der klassischen Lefschetz-Zahl darstellt. Abschließend wird die entwickelte Theorie im dritten Kapitel auf elliptische Quasikomplexe von Pseudodifferentialoperatoren angewendet. Dabei werden insbesondere Verallgemeinerungen der berühmten Atiyah-Singer-Index-Formel und des Lefschetz-Fixpunkt-Theorems von Atiyah and Bott bewiesen. KW - Index Theorie KW - Fredholm Komplexe KW - Elliptische Komplexe KW - Index theory KW - Elliptic complexes KW - Fredholm complexes Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87489 ER - TY - THES A1 - Walczak, Ralf T1 - Molecular design of nitrogen-doped nanoporous noble carbon materials for gas adsorption T1 - Molekulares Design Stickstoffdotierter, Nanoporöser, und Edler Kohlenstoffmaterialien für Gasadsorption N2 - In den modernen Gesellschaften führt ein stetig steigender Energiebedarf zu dem zunehmenden Verbrauch fossiler Brennstoffe wie Kohle, Öl, und Gas. Die Verbrennung dieser kohlenstoffbasierten Brennstoffe führt unweigerlich zur Freisetzung von Treibhausgasen, vor allem von CO2. Die CO2 Aufnahme unmittelbar bei den Verbrennungsanlagen oder direkt aus der Luft, zusammen mit Regulierung von CO2 produzierenden Energiesektoren (z.B. Kühlanlagen), können den CO2 Ausstoß reduzieren. Allerdings führen insbesondere bei der CO2 Aufnahme die geringen CO2 Konzentrationen und die Aufnahme konkurrierender Gase zu niedrigen CO2 Kapazitäten und Selektivitäten. Das Zusammenspiel der Gastmoleküle mit porösen Materialien ist dabei essentiell. Poröse Kohlenstoffmaterialien besitzen attraktive Eigenschaften, unter anderem elektrische Leitfähigkeit, einstellbare Porosität, als auch chemische und thermische Stabilität. Allerdings führt die zu geringe Polarisierbarkeit dieser Materialien zu einer geringen Affinität zu polaren Molekülen (z.B. CO2, H2O, oder NH3). Diese Affinität kann durch den Einbau von Stickstoff erhöht werden. Solche Materialien sind oft „edler“ als reine Kohlenstoffe, dies bedeutet, dass sie eher oxidierend wirken, als selbst oxidiert zu werden. Die Problematik besteht darin, einen hohen und gleichmäßig verteilten Stickstoffgehalt in das Kohlenstoffgerüst einzubauen. Die Zielsetzung dieser Dissertation ist die Erforschung neuer Synthesewege für stickstoffdotierte edle Kohlenstoffmaterialien und die Entwicklung eines grundlegenden Verständnisses für deren Anwendung in Gasadsorption und elektrochemischer Energiespeicherung. Es wurde eine templatfreie Synthese für stickstoffreiche, edle, und mikroporöse Kohlenstoffmaterialien durch direkte Kondensation eines stickstoffreichen organischen Moleküls als Vorläufer erarbeitet. Dadurch konnten Materialien mit hohen Adsorptionskapazitäten für H2O und CO2 bei niedrigen Konzentrationen und moderate CO2/N2 Selektivitäten erzielt werden. Um die CO2/N2 Selektivitäten zu verbessern, wurden mittels der Einstellung des Kondensationsgrades die molekulare Struktur und Porosität der Kohlenstoffmaterialien kontrolliert. Diese Materialien besitzen die Eigenschaften eines molekularen Siebs für CO2 über N2, das zu herausragenden CO2/N2 Selektivitäten führt. Der ultrahydrophile Charakter der Porenoberflächen und die kleinen Mikroporen dieser Kohlenstoffmaterialien ermöglichen grundlegende Untersuchungen für die Wechselwirkungen mit Molekülen die polarer sind als CO2, nämlich H2O und NH3. Eine weitere Reihe stickstoffdotierter Kohlenstoffmaterialien wurde durch Kondensation eines konjugierten mikroporösen Polymers synthetisiert und deren strukturelle Besonderheiten als Anodenmaterial für die Natriumionen Batterie untersucht. Diese Dissertation leistet einen Beitrag zur Erforschung stickstoffdotierter Kohlenstoffmaterialien und deren Wechselwirkungen mit verschiedenen Gastmolekülen. N2 - The growing energy demand of the modern economies leads to the increased consumption of fossil fuels in form of coal, oil, and natural gases, as the mains sources. The combustion of these carbon-based fossil fuels is inevitably producing greenhouse gases, especially CO2. Approaches to tackle the CO2 problem are to capture it from the combustion sources or directly from air, as well as to avoid CO2 production in energy consuming sources (e.g., in the refrigeration sector). In the former, relatively low CO2 concentrations and competitive adsorption of other gases is often leading to low CO2 capacities and selectivities. In both approaches, the interaction of gas molecules with porous materials plays a key role. Porous carbon materials possess unique properties including electric conductivity, tunable porosity, as well as thermal and chemical stability. Nevertheless, pristine carbon materials offer weak polarity and thus low CO2 affinity. This can be overcome by nitrogen doping, which enhances the affinity of carbon materials towards acidic or polar guest molecules (e.g., CO2, H2O, or NH3). In contrast to heteroatom-free materials, such carbon materials are in most cases “noble”, that is, they oxidize other matter rather than being oxidized due to the very positive working potential of their electrons. The challenging task here is to achieve homogenous distribution of significant nitrogen content with similar bonding motives throughout the carbon framework and a uniform pore size/distribution to maximize host-guest interactions. The aim of this thesis is the development of novel synthesis pathways towards nitrogen-doped nanoporous noble carbon materials with precise design on a molecular level and understanding of their structure-related performance in energy and environmental applications, namely gas adsorption and electrochemical energy storage. A template-free synthesis approach towards nitrogen-doped noble microporous carbon materials with high pyrazinic nitrogen content and C2N-type stoichiometry was established via thermal condensation of a hexaazatriphenylene derivative. The materials exhibited high uptake of guest molecules, such as H2O and CO2 at low concentrations, as well as moderate CO2/N2 selectivities. In the following step, the CO2/N2 selectivity was enhanced towards molecular sieving of CO2 via kinetic size exclusion of N2. The precise control over the condensation degree, and thus, atomic construction and porosity of the resulting materials led to remarkable CO2/N2 selectivities, CO2 capacities, and heat of CO2 adsorption. The ultrahydrophilic nature of the pore walls and the narrow microporosity of these carbon materials served as ideal basis for the investigation of interface effects with more polar guest molecules than CO2, namely H2O and NH3. H2O vapor physisorption measurements, as well as NH3-temperature programmed desorption and thermal response measurements showed exceptionally high affinity towards H2O vapor and NH3 gas. Another series of nitrogen-doped carbon materials was synthesized by direct condensation of a pyrazine-fused conjugated microporous polymer and their structure-related performance in electrochemical energy storage, namely as anode materials for sodium-ion battery, was investigated. All in all, the findings in this thesis exemplify the value of molecularly designed nitrogen-doped carbon materials with remarkable heteroatom content implemented as well-defined structure motives. The simultaneous adjustment of the porosity renders these materials suitable candidates for fundamental studies about the interactions between nitrogen-doped carbon materials and different guest species. KW - carbon materials KW - nitrogen-doped KW - gas adsorption KW - porosity KW - Porösität KW - Gasadsorption KW - Stickstoffdotiert KW - Kohlenstoffmaterialien Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-435241 ER - TY - THES A1 - Waha, Katharina T1 - Climate change impacts on agricultural vegetation in sub-Saharan Africa T1 - Auswirkungen von Klimaänderungen auf die landwirtschaftliche Vegetation in Afrika südlich der Sahara N2 - Agriculture is one of the most important human activities providing food and more agricultural goods for seven billion people around the world and is of special importance in sub-Saharan Africa. The majority of people depends on the agricultural sector for their livelihoods and will suffer from negative climate change impacts on agriculture until the middle and end of the 21st century, even more if weak governments, economic crises or violent conflicts endanger the countries’ food security. The impact of temperature increases and changing precipitation patterns on agricultural vegetation motivated this thesis in the first place. Analyzing the potentials of reducing negative climate change impacts by adapting crop management to changing climate is a second objective of the thesis. As a precondition for simulating climate change impacts on agricultural crops with a global crop model first the timing of sowing in the tropics was improved and validated as this is an important factor determining the length and timing of the crops´ development phases, the occurrence of water stress and final crop yield. Crop yields are projected to decline in most regions which is evident from the results of this thesis, but the uncertainties that exist in climate projections and in the efficiency of adaptation options because of political, economical or institutional obstacles have to be considered. The effect of temperature increases and changing precipitation patterns on crop yields can be analyzed separately and varies in space across the continent. Southern Africa is clearly the region most susceptible to climate change, especially to precipitation changes. The Sahel north of 13° N and parts of Eastern Africa with short growing seasons below 120 days and limited wet season precipitation of less than 500 mm are also vulnerable to precipitation changes while in most other part of East and Central Africa, in contrast, the effect of temperature increase on crops overbalances the precipitation effect and is most pronounced in a band stretching from Angola to Ethiopia in the 2060s. The results of this thesis confirm the findings from previous studies on the magnitude of climate change impact on crops in sub-Saharan Africa but beyond that helps to understand the drivers of these changes and the potential of certain management strategies for adaptation in more detail. Crop yield changes depend on the initial growing conditions, on the magnitude of climate change, and on the crop, cropping system and adaptive capacity of African farmers which is only now evident from this comprehensive study for sub-Saharan Africa. Furthermore this study improves the representation of tropical cropping systems in a global crop model and considers the major food crops cultivated in sub-Saharan Africa and climate change impacts throughout the continent. N2 - Landwirtschaft ist eine der wichtigsten menschlichen Aktivitäten, sie stellt Nahrungsmittel und andere landwirtschaftliche Produkte für weltweit 7 Milliarden Menschen zur Verfügung und ist in den Ländern Afrikas südlich der Sahara von besonderer Bedeutung. Die Mehrheit der afrikanischen Bevölkerung bestreitet ihren Lebensunterhalt in der Landwirtschaft und wird von Klimaänderungen stark betroffen sein. Die Doktorarbeit ist durch die Frage motiviert, wie sich von Klimamodellen vorhergesagte Temperaturerhöhungen und sich verändernde Niederschlagsverteilungen auf die landwirtschaftliche Vegetation auswirken werden. Die Forschungsfragen in diesem Kontext beschäftigen sich mit regionalen Unterschieden von Klimaänderungen und ihren Auswirkungen auf die Landwirtschaft und mit möglichen Anpassungsstrategien die mit geringem technischem Aufwand genutzt werden können. In diesem Zusammenhang wird schnell deutlich, dass Daten über die komplexen landwirtschaftlichen Systeme in Afrika südlich der Sahara häufig nur selten vorhanden sind, aus fragwürdigen Quellen stammen oder von schlechter Qualität sind. Die Methoden und Modelle zur Untersuchung der Auswirkungen von Klimaänderungen auf die Landwirtschaft werden zudem ausschließlich in Europa oder Nordamerika entwickelt and häufig in den temperierten Breiten aber seltener in tropischen Gebieten angewendet. Vor allem werden globale, dynamische Vegetationsmodelle in Kombination mit Klimamodellen eingesetzt um Änderungen in der landwirtschaftlichen Produktion auf Grund von Klimaänderungen in der zweiten Hälfte des 21.Jahrhunderts abzuschätzen. Die Ergebnisse der Arbeit zeigen einen mittleren Ertragsrückgang für die wichtigsten landwirtschaftlichen Pflanzen um 6% bis 24% bis 2090 je nach Region, Klimamodell und Anpassungsstrategie. Dieses Ergebnis macht deutlich, dass Landwirte die negativen Folgen von Klimaänderungen abschwächen können, wenn sie die Wahl der Feldfrucht, die Wahl des Anbausystems und den Aussaattermin an geänderte Klimabedingungen anpassen. Die Arbeit stellt methodische Ansätze zur Berechung des Aussaattermins in temperierten und tropischen Gebieten (Kapitel 2) sowie zur Simulation von Mehrfachanbausystemen in den Tropen vor (Kapitel 3). Dabei werden wichtige Parameter für das globale, dynamische Vegetationsmodell LPJmL überprüft und neu berechnet. Es zeigt sich, dass das südliche Afrika und die Sahelregion die am stärksten betroffenen Regionen sind, vor allem aufgrund von Niederschlagsänderungen, weniger aufgrund von Temperaturerhöhungen. In den meisten anderen Teilen, vor allem Zentral- und Ostafrikas bedingen Temperaturerhöhungen Rückgänge der Erträge (Kapitel 4). Diese Arbeit leistet einen wichtigen und umfassenden Beitrag zum Verständnis der Auswirkung von Klimaänderung auf die landwirtschaftliche Vegetation und damit zu einem großen Teil auf die Lebensgrundlage von afrikanischen Landwirten. KW - Klimawandel KW - Anpassung KW - Afrika KW - Pflanzenwachstum KW - Landwirtschaft KW - climate change KW - Africa KW - crop modeling KW - adapation KW - agriculture Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64717 ER - TY - THES A1 - Vásquez Parra, Mónica Fernanda T1 - Mafic magmatism in the Eastern Cordillera and Putumayo Basin, Colombia : causes and consequences T1 - Mafischer Magmatismus in der östlichen Kordilliere und des Putumayo Beckens, Kolumbien : Gründe und Folgen N2 - The Eastern Cordillera of Colombia is mainly composed of sedimentary rocks deposited since early Mesozoic times. Magmatic rocks are scarce. They are represented only by a few locally restricted occurrences of dykes and sills of mafic composition presumably emplaced in the Cretaceous and of volcanic rocks of Neogene age. This work is focused on the study of the Cretaceous magmatism with the intention to understand the processes causing the genesis of these rocks and their significance in the regional tectonic setting of the Northern Andes. The magmatic rocks cut the Cretaceous sedimentary succession of black shales and marlstones that crop out in both flanks of the Eastern Cordillera. The studied rocks were classified as gabbros (Cáceres, Pacho, Rodrigoque), tonalites (Cáceres, La Corona), diorites and syenodiorites (La Corona), pyroxene-hornblende gabbros (Pacho), and pyroxene-hornblendites (Pajarito). The gabbroic samples are mainly composed of plagioclase, clinopyroxene, and/or green to brown hornblende, whereas the tonalitic rocks are mainly composed of plagioclase and quartz. The samples are highly variable in crystal sizes from fine- to coarse-grained. Accessory minerals such as biotite, titanite and zircon are present. Some samples are characterized by moderate to strong alteration, and show the presence of epidote, actinolite and chlorite. Major and trace element compositions of the rocks as well as the rock-forming minerals show significant differences in the geochemical and petrological characteristics for the different localities, suggesting that this magmatism does not result from a single melting process. The wide compositional spectrum of trace elements in the intrusions is characteristic for different degrees of mantle melting and enrichment of incompatible elements. MORB- and OIB-like compositions suggest at least two different sources of magma with tholeiitic and alkaline affinity, respectively. Evidence of slab-derived fluids can be recognized in the western part of the basin reflected in higher Ba/Nb and Sr/P ratios and also in the Sr radiogenic isotope ratios, which is possible a consequence of metasomatism in the mantle due to processes related to the presence of a previously subducted slab. The trace element patterns evidence an extensional setting in the Cretaceous basin producing a continental rift, with continental crust being stretched until oceanic crust was generated in the last stages of this extension. Electron microprobe analyses (EMPA) of the major elements and synchrotron radiation micro-X-ray fluorescence (μ-SRXRF) analyses of the trace element composition of the early crystallized minerals of the intrusions (clinopyroxenes and amphiboles) reflect the same dual character that has been found in the bulk-rock analyses. Despite the observed alteration of the rocks, the mineral composition shows evidences for an enriched and a relative depleted magma source. Even the normalization of the trace element concentrations of clinopyroxenes and amphiboles to the whole rock nearly follows the pattern predicted by published partition coefficients, suggesting that the alteration did not change the original trace element compositions of the investigated minerals. Sr-Nd-Pb isotope data reveal a large isotopic variation but still suggest an initial origin of the magmas in the mantle. Samples have moderate to highly radiogenic compositions of 143Nd/144Nd and high 87Sr/86Sr ratios and follow a trend towards enriched mantle compositions, like the local South American Paleozoic crust. The melts experienced variable degrees of contamination by sediments, crust, and seawater. The age corrected Pb isotope ratios show two separated groups of samples. This suggests that the chemical composition of the mantle below the Northern Andes has been modified by the interaction with other components resulting in a heterogeneous combination of materials of diverse origins. Although previous K/Ar age dating have shown that the magmatism took place in the Cretaceous, the high error of the analyses and the altered nature of the investigated minerals did preclude reliable interpretations. In the present work 40Ar/39Ar dating was carried out. The results show a prolonged history of magmatism during the Cretaceous over more than 60 Ma, from ~136 to ~74 Ma (Hauterivian to Campanian). Pre-Cretaceous rifting phases occurred in the Triassic-Jurassic for the western part of the basin and in the Paleozoic for the eastern part. Those previous rifting phases are decisive mechanisms controlling the localization and composition of the Cretaceous magmatism. Therefore, it is the structural position and not the age of the intrusions which preconditions the kind of magmatism and the degree of melting. The divergences on ages are the consequence of the segmentation of the basin in several sub-basins which stretching, thermal evolution and subsidence rate evolved independently. The first hypothesis formulated at the beginning of this investigation was that the Cretaceous gabbroic intrusions identified in northern Ecuador could be correlated with the intrusions described in the Eastern Cordillera. The mafic occurrences should mark the location of the most subsiding places of the large Cretaceous basin in northern South America. For this reason, the gabbroic intrusions cutting the Cretaceous succession in the Putumayo Basin, southern Colombia, were investigated. The results of the studies were quite unexpected. The petrologic and geochemical character of the magmatic rocks indicates subduction-related magmatism. K/Ar dating of amphibole yields a Late Miocene to Pliocene age (6.1 ± 0.7 Ma) for the igneous event in the basin. Although there is no correlation between this magmatic event and the Cretaceous magmatic event, the data obtained has significant tectonic and economic implications. The emplacement of the Neogene gabbroic rocks coincides with the late Miocene/Pliocene Andean orogenic uplift as well as with a significant pulse of hydrocarbon generation and expulsion. N2 - Die östliche Kordilliere Kolumbiens besteht hauptsächlich aus sedimentären Gesteinen, die seit dem frühen Mesozoikum angelagert wurden. Magmatische Gesteine sind rar und zeigen sich nur in Form von mafischen Gängen und Lagen die in kreidezeitliches Gestein intrudierten. Diese Arbeit untersucht den kretazischen Magmatismus um die Prozesse zu verstehen, die die Bildung dieser Gesteine ermöglichte. Die magmatischen Gesteine durchschlagen die kretazischen sedimentären Einheiten aus schwarzen Schiefern und Mergeln, die auf beiden Seiten der östlichen Kordilliere aufgeschlossen sind. Die untersuchten Gesteine wurden als Gabbros (Cáceres, Pacho, Rodrigoque), Tonalite (Cáceres, La Corona), Diorite und syenitische Diorite (La Corona), Pyroxen-Hornblende Gabbros (Pacho) und Pyroxen-Hornblendite eingestuft. Die gabbroiden Proben bestehen hauptsächlich aus Plagioklas, Klinopyroxen und/ oder grüner und brauner Hornblende. Die Tonalite sind aus Plagioklas und Quarz zusammengesetzt. Die Proben sind im Bezug auf ihre Kristallgröße sehr variabel. Biotit, Titanit und Zirkon sind in Form von Akzessorien enthalten. Die Proben sind mäßig bis stark überprägt. Diese enthalten zusätzlich Epidot, Aktinolit und Chlorit. Die Haupt- und Nebenelementzusammensetzung der Gesteine wie die Mineralassoziation an sich zeigen deutliche Unterschiede abhängig von der jeweiligen Lokalität. Das deutet auf mehrere Schmelzprozesse die zur Bildung der magmatischen Gesteine führten. Das breite Spektrum an Spurenelementen in den Intrusionen ist charakteristisch für verschiedene Grade der Mantelaufschmelzung und der Anreicherung dieser Schmelzen mit inkompatiblen Elementen. MORB und OIB Zusammensetzungen deuten auf mindestens zwei verschiedene Quellen des tholeiitischen und alkalinen Magmas hin. Im westlichen Teil des Kreidebeckens weisen höhere Ba/Nd und Sr/P Verhältnisse auf subduktionsinduzierte Fluide hin, die eventuell eine Metasomatose des Mantels nach sich zog. Die Verhältnisse der radiogenen Isotope von Sr spiegeln ebenfalls einen Fluideintrag wieder. Aufgrund der Spurenelementmuster kann davon ausgegangen werden, dass im kretazischen Becken extensionale Bewegungen zu einer Ausdünnung der kontinentalen Kruste führte bis im letzten Stadium ozeanische Kruste generiert wurde. Mikrosondenanalysen (EMPA) der Hauptelemente und Röntgenfluoreszenzanalyse mittels Synchrotonstrahlung (μ-SRXRF) der Spurenelemente von früh kristallisierten Mineralen der Intrusionen (Klinopyroxene und Amphibole) reflektieren den selben dualen Charakter wie die Gesamtgesteinsanalysen. Trotz Überprägung mancher Gesteine zeigen die Mineralkompositionen sowohl eine angereicherte als auch eine relativ verarmte Magmaquelle. Durch die Normalisierung der Spurenelemente von Klinopyroxen und Amphibol zum Gesamtgestein konnte gezeigt werden, dass die Überprägung keine Auswirkung auf die originalen Spurenelementkompositionen hatte. Sr-Nd-Pb Daten zeigen eine große Variationsbreite in den Isotopen, trotzdem ist noch der Mantel als initiale Quelle des Magmas sichtbar. Die Proben zeigen mäßige bis hohe radiogene Mengen an 143Nd/144Nd und hohe Verhältnisse von 87Sr/86Sr. Beides spricht für angereicherten Mantel als Ausgangsmaterial der mafischen Intrusiva. Sedimente, Kruste und Meerwasser kontaminieren das Gestein in variablen Anteilen. Korrigierte Pb Isotopenverhältnisse zeigen zwei unterschiedliche Probengruppen. Damit kann vermutet werden, dass die Chemie des Mantels unter den nördlichen Anden durch Interaktionen mit anderen Komponenten modifiziert wurde und so ein heterogenes Material entstand. Frühere K/Ar Datierungen zeigen, dass die Intrusionen der mafischen Gesteine in der Kreide erfolgten. Aufgrund des hohen Fehlers in den Analysen und den Alterationen an den untersuchten Mineralien, sollten derartige Interpretationen mit Vorsicht betrachtet werden. Diese Arbeit zeigt anhand von Ar/Ar Daten, dass sich der Zeitraum der magmatischen Ereignisse über 60Ma hinzieht. Es wurden Alter von 136 Ma bis 74 Ma ermittelt (Hauterivium/Campanium). Extensionsprozesse traten im östlichen Teil des Kreidebeckens bereits im Paleozoikum auf, der westliche Teil wurde an der Trias-Jura-Grenze von der Entwicklung erfasst. Diese frühen Riftprozesse haben maßgeblichen Einfluss auf die Lokalität und Komposition des kretazischen Magmatismus. Daher ist die strukturelle Position und nicht das Alter ausschlaggebend, wenn es um die Art des Magmatismus und den Grad der Aufschmelzung des Mantels geht. Die Spannbreite der ermittelten Alter steht im Zusammenhang mit der Segmentierung des Beckens. Diese Subbecken zeigen eine unterschiedliche thermische Entwicklung sowie eine unabhängige Evolution in Extension und Subsidenz. Eine erste Hypothese die zu Beginn der Arbeit formuliert wurde, ging davon aus, dass die kretazischen gabbroiden Intrusionen im nördlichen Equador mit den Intrusionen in der östlichen Kordilliere korrelierbar sind. Die mafischen Gesteine definieren ein Areal des nördlichen Südamerika, dass wohl die größte Subsidenz erfahren hat. Darum wurden die gabbroiden Gänge in den kretazischen Abfolgen des Putumayo Beckens, Süd-Kolumbien, erforscht. Diese Arbeit zeigt neue Resultate und Ergebnisse, die so nicht erwartet wurden. Der petrologische und geochemische Charakter der Magmatite zeigt subduktionsbezogenen Magmatismus. K/Ar Datierungen von Amphibolen zeigen ein spates Miozänes bis Pliozänes Alter (6.1 ± 0.7 Ma) für das Intrusionsereignis im Kreidebecken. Obwohl es keine Korrelation zwischen diesem magmatischen Ereignis und dem Kretazischen gibt, zeigen die Daten doch tektonische und ökonomische Zusammenhänge auf. Die Intrusion der neogenen Gabbroide überschneidet sich mit der späten miozänen/pliozänen andinen Hebung ebenso wie mit der signifikanten Bildung von Kohlenwasserstoffen und deren Einlagerung. KW - Kolumbien KW - Magmatismus KW - Kreide KW - Geochemie KW - Anden KW - Colombia KW - magmatism KW - Cretaceous KW - geochemistry KW - Andes Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-13183 ER - TY - THES A1 - Vu, Thi Thanh Van T1 - Local government on the way to good governance T1 - Lokale Regierung auf dem Weg zu Good Governance BT - the case of Hanoi and Berlin BT - Fallstudie in Berlin und Hanoi N2 - Bad governance causes economic, social, developmental and environmental problems in many developing countries. Developing countries have adopted a number of reforms that have assisted in achieving good governance. The success of governance reform depends on the starting point of each country – what institutional arrangements exist at the out-set and who the people implementing reforms within the existing institutional framework are. This dissertation focuses on how formal institutions (laws and regulations) and informal institutions (culture, habit and conception) impact on good governance. Three characteristics central to good governance - transparency, participation and accountability are studied in the research. A number of key findings were: Good governance in Hanoi and Berlin represent the two extremes of the scale, while governance in Berlin is almost at the top of the scale, governance in Hanoi is at the bottom. Good governance in Hanoi is still far from achieved. In Berlin, information about public policies, administrative services and public finance is available, reliable and understandable. People do not encounter any problems accessing public information. In Hanoi, however, public information is not easy to access. There are big differences between Hanoi and Berlin in the three forms of participation. While voting in Hanoi to elect local deputies is formal and forced, elections in Berlin are fair and free. The candidates in local elections in Berlin come from different parties, whereas the candidacy of local deputies in Hanoi is thoroughly controlled by the Fatherland Front. Even though the turnout of voters in local deputy elections is close to 90 percent in Hanoi, the legitimacy of both the elections and the process of representation is non-existent because the local deputy candidates are decided by the Communist Party. The involvement of people in solving local problems is encouraged by the government in Berlin. The different initiatives include citizenry budget, citizen activity, citizen initiatives, etc. Individual citizens are free to participate either individually or through an association. Lacking transparency and participation, the quality of public service in Hanoi is poor. Citizens seldom get their services on time as required by the regulations. Citizens who want to receive public services can bribe officials directly, use the power of relationships, or pay a third person – the mediator ("Cò" - in Vietnamese). In contrast, public service delivery in Berlin follows the customer-orientated principle. The quality of service is high in relation to time and cost. Paying speed money, bribery and using relationships to gain preferential public service do not exist in Berlin. Using the examples of Berlin and Hanoi, it is clear to see how transparency, participation and accountability are interconnected and influence each other. Without a free and fair election as well as participation of non-governmental organisations, civil organisations, and the media in political decision-making and public actions, it is hard to hold the Hanoi local government accountable. The key differences in formal institutions (regulative and cognitive) between Berlin and Hanoi reflect the three main principles: rule of law vs. rule by law, pluralism vs. monopoly Party in politics and social market economy vs. market economy with socialist orientation. In Berlin the logic of appropriateness and codes of conduct are respect for laws, respect of individual freedom and ideas and awareness of community development. People in Berlin take for granted that public services are delivered to them fairly. Ideas such as using money or relationships to shorten public administrative procedures do not exist in the mind of either public officials or citizens. In Hanoi, under a weak formal framework of good governance, new values and norms (prosperity, achievement) generated in the economic transition interact with the habits of the centrally-planned economy (lying, dependence, passivity) and traditional values (hierarchy, harmony, family, collectivism) influence behaviours of those involved. In Hanoi “doing the right thing” such as compliance with law doesn’t become “the way it is”. The unintended consequence of the deliberate reform actions of the Party is the prevalence of corruption. The socialist orientation seems not to have been achieved as the gap between the rich and the poor has widened. Good governance is not achievable if citizens and officials are concerned only with their self-interest. State and society depend on each other. Theoretically to achieve good governance in Hanoi, institutions (formal and informal) able to create good citizens, officials and deputies should be generated. Good citizens are good by habit rather than by nature. The rule of law principle is necessary for the professional performance of local administrations and People’s Councils. When the rule of law is applied consistently, the room for informal institutions to function will be reduced. Promoting good governance in Hanoi is dependent on the need and desire to change the government and people themselves. Good governance in Berlin can be seen to be the result of the efforts of the local government and citizens after a long period of development and continuous adjustment. Institutional transformation is always a long and complicated process because the change in formal regulations as well as in the way they are implemented may meet strong resistance from the established practice. This study has attempted to point out the weaknesses of the institutions of Hanoi and has identified factors affecting future development towards good governance. But it is not easy to determine how long it will take to change the institutional setting of Hanoi in order to achieve good governance. N2 - Bad governance (schlechte Regierungsführung) verursacht neben wirtschaftlichen und sozialen Schäden auch Umwelt- und Entwicklungsprobleme in vielen Entwicklungsländern. Entwicklungsländer haben zahlreiche Reformen in Angriff genommen, welche sie in der Entwicklung von good governance (gute Regierungsführung) unterstützen sollen. Der Erfolg solcher Reformen staatlicher Steuerungs- und Regelsysteme hängt jedoch maßgeblich von der Ausgangssituation in den einzelnen Ländern ab. Einfluss auf den Erfolg haben Faktoren wie z. B. die existierende institutionelle Ordnung, auf die zu Beginn solcher Reformen zurückgegriffen werden kann. Auch der verantwortliche Personenkreis, der mit der Umsetzung der Reformen beauftragt wird, ist für deren Erfolg maßgeblich. Diese Dissertation befasst sich damit, wie sich formelle Institutionen (Gesetze und Regeln) sowie informelle Institutionen (Kultur, Gewohnheit und Wahrnehmung) auf good governance auswirken können. Im Rahmen dieser Forschungsarbeit werden drei Merkmale mit besonderem Bezug zu good governance untersucht: Transparenz, Partizipation und Rechenschaftspflicht. Folgende Untersuchungsergebnisse sind hervorzuheben: In Bezug auf good governance stellen Berlin und Hanoi zwei Extreme dar. Während Berlin auf einer „good-governance-Skala“ im positiven oberen Bereich anzusiedeln wäre, müsste sich Hanoi eher im unteren Bereich wiederfinden. Good governance im Sinne von verantwortungsvoller Regierungsführung ist in Hanoi bei weitem noch nicht erreicht. So sind in Berlin Informationen sowohl über die Ziele und die Entscheidungen der am Politikprozess beteiligten Akteure und über Dienstleistungen der Verwaltung als auch über die öffentlichen Finanzen allgemein abrufbar, verlässlich und verständlich. Dies ist nicht der Fall in Hanoi. Während in Berlin die BürgerInnen keine Schwierigkeiten im Zugang zu öffentlichen Informationen haben, so sind diese Informationen in Hanoi nicht oder nur schwer erhältlich. Weiterhin gibt es zwischen Hanoi und Berlin erhebliche Unterschiede in den drei Arten der Partizipation. Während die Wahlen kommunaler Vertreter in Hanoi rein formell und erzwungen sind, so sind Wahlen in Berlin gleich, geheim und frei. Bei den Berliner Kommunalwahlen entstammen die VertreterInnen den unterschiedlichen Parteien und Wählervereinigungen, während die Kandidatur der KommunalvertreterInnen in Hanoi weitgehend durch die Volksfront bestimmt wird. Obwohl die Wahlbeteiligung bei den lokalen Wahlen in Hanoi bei fast 90% liegt, so ist die Legitimität sowohl der Wahlen selbst als auch des Vertretungsprozesses so gut wie nicht vorhanden. Die zu wählenden VolksvertreterInnen werden ausschließlich durch die Kommunistische Partei bestimmt. In Berlin wird die Teilhabe der BürgerInnen bei der Lösung kommunaler Probleme durch die Regierung gefördert. Hierzu werden unterschiedliche Methoden genutzt, u. a. der Bürgerhaushalt, Bürgerportale, Bürgerinitiativen etc. Einzelne BürgerInnen können entscheiden, ob sie sich individuell oder auch kollektiv einbringen. Durch das Fehlen von Transparenz und bürgerlicher Teilhabe ist die Qualität öffentlicher Dienstleistungen in Hanoi gering. So werden Dienstleistungen selten innerhalb der Fristerbracht, die gesetzlich vorgegeben ist. BürgerInnen, die dennoch öffentliche Dienstleistungen in Anspruch nehmen und zeitnah erhalten wollen, können die verantwortlichen Beamten direkt bestechen, ihre persönlichen Beziehungen nutzen oder eine dritte Person gegen Bezahlung beauftragen – einen „Mediator“ (Vietnamesisch: „Cò“). Im Gegensatz hierzu werden Dienstleistungen in Berlin kundenorientiert erbracht. Die Qualität der Dienstleistungen ist in Bezug auf Zeit und Kosten hochwertig. Schmiergeldzahlungen, Bestechung sowie das Nutzen persönlicher Beziehungen im Austausch für „bessere“ öffentliche Dienstleistungen sind in Berlin unüblich. Die Analyse der Fallstudien in Berlin und Hanoi verdeutlichen, wie Transparenz, bürgerliche Teilhabe sowie Rechenschaftspflicht miteinander verflochten sind und sich gegenseitig beeinflussen. Es ist schwierig die Kommunalverwaltung in Hanoi zur Rechenschaft zu ziehen. Hierzu fehlt es an geeigneten Instrumenten, wie z.B. freie und gleiche Wahlen. Es fehlt ebenfalls die Beteiligung von Akteuren wie freien Medien, Nichtregierungsorganisationen und zivilgesellschaftlichen Organisationen. Der wesentliche Unterschied formeller regulativer und kognitiver Institutionen zwischen Berlin und Hanoi wird anhand von drei Prinzipien dargestellt: Rechtsstaatlichkeit (Rule of Law) vs. Herrschaft durch Recht (rule by law), Pluralismus vs. Einheitspartei innerhalb der Politik sowie Marktwirtschaft vs. Marktwirtschaft sozialistischer Prägung. In Berlin gelten Verhaltensnormen, welche das Gesetz und die individuelle Freiheit respektieren. Ebenso herrscht das Bewusstsein vor, die Gemeinschaft zu fördern. EinwohnerInnen Berlins erachten es als selbstverständlich, dass sie öffentliche Dienstleistungen gerecht in Anspruch nehmen können. Die Vorstellung, Geld oder Beziehungen auf unrechtmäßige Art zu nutzen, um Verwaltungsvorgänge abzukürzen, herrschen weder bei Verwaltung noch bei den BürgerInnen vor. Innerhalb eines schwachen formellen Rahmens von good governance in Hanoi interagieren neue Werte und Normen einer Volkswirtschaft im Umbruch (Wohlstand, Erfolg) mit denen einer Planwirtschaft (Lügen, Abhängigkeit, Passivität) sowie mit denen traditioneller Gesellschaften (Hierarchie, Harmonie, Familie, Kollektivismus) und beeinflussen die Handlungen der Akteure. In Hanoi wird es nicht als selbstverständlich angesehen, das zu tun, was in Berlin als „das Richtige“ angesehen würde, z. B. Gesetze einzuhalten. Unbeabsichtigte Konsequenzen willkürlicher Reformaktivitäten der Partei zeigen sich im Fortbestehen von Korruption. Die sozialistische Orientierung der Marktwirtschaft scheint nicht erreicht worden zu sein, da sich die Schere zwischen Reich und Arm geweitet hat. Good governance ist unerreichbar, wenn BürgerInnen, Verwaltung und PolitikerInnen hauptsächlich von Eigeninteressen gelenkt werden. Der Staat und die Gesellschaft hängen voneinander ab. Um theoretisch good governance in Hanoi zu erreichen, müssten (formelle und informelle) Institutionen geschaffen werden, die positiven Einfluss auf BürgerInnen, Verwaltung und VolksvertreterInnen haben. BürgerInnen sind „gut“ aufgrund von Lernprozessen und Gewöhnung und nicht aufgrund ihrer Natur. Das Rechtstaatlichkeitsprinzip ist notwendig, um die Leistungsbereitschaft lokaler Verwaltungen sowie der Volksvertretungen zu stärken. Sobald Rechtstaatlichkeit konsequente Anwendung findet, verringert sich auch der Raum, in dem informelle Institutionen angewendet werden können. Die Förderung von good governance in Hanoi hängt im Wesentlichen vom Verlangen ab, die Regierung und die Menschen zu verändern. Good governance in Berlin sollte als Ergebnis eines andauernden Prozesses von Entwicklung und Änderung von Lokalregierung und BürgerInnen angesehen werden. Institutionelle Transformation ist ein langwieriger und komplizierter Prozess. Veränderungen formeller Regelungen sowie die Art der Implementierung solch neuer Regelungen trifft möglicherweise auf starken Widerstand seitens etablierter Akteure mit ihren Gewohnheiten. In dieser Studie wurde gezeigt, welches die Schwachpunkte der Institutionen in Hanoi sind. Ebenso wurden jene Faktoren identifiziert, welche die zukünftige Entwicklung in Richtung von good governance beeinflussen können. Es ist jedoch schwierig einzuschätzen, wie lange es dauern wird, das institutionelle Gefüge in Hanoi hin zu verantwortungsvoller Regierungsführung zu ändern. KW - local governance KW - Hanoi KW - Berlin KW - good governance KW - gute Regierungsführung KW - schlechte Regierungsführung KW - Hanoi KW - Berlin KW - Transparenz KW - Partizipation KW - Rechenschaftspflicht KW - Rechtsstaatlichkeit KW - Korruption KW - neuer Institutionalismus KW - Kultur KW - Institution KW - kulturell-kognitive Institution KW - regulative Institution KW - formale Institution KW - informelle Institution KW - Teilhabe der BürgerInnen KW - sozialistische Orientierung der Marktwirtschaft Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93943 ER - TY - THES A1 - Vu, Nils Leif T1 - A task-based parallel elliptic solver for numerical relativity with discontinuous Galerkin methods N2 - Elliptic partial differential equations are ubiquitous in physics. In numerical relativity---the study of computational solutions to the Einstein field equations of general relativity---elliptic equations govern the initial data that seed every simulation of merging black holes and neutron stars. In the quest to produce detailed numerical simulations of these most cataclysmic astrophysical events in our Universe, numerical relativists resort to the vast computing power offered by current and future supercomputers. To leverage these computational resources, numerical codes for the time evolution of general-relativistic initial value problems are being developed with a renewed focus on parallelization and computational efficiency. Their capability to solve elliptic problems for accurate initial data must keep pace with the increasing detail of the simulations, but elliptic problems are traditionally hard to parallelize effectively. In this thesis, I develop new numerical methods to solve elliptic partial differential equations on computing clusters, with a focus on initial data for orbiting black holes and neutron stars. I develop a discontinuous Galerkin scheme for a wide range of elliptic equations, and a stack of task-based parallel algorithms for their iterative solution. The resulting multigrid-Schwarz preconditioned Newton-Krylov elliptic solver proves capable of parallelizing over 200 million degrees of freedom to at least a few thousand cores, and already solves initial data for a black hole binary about ten times faster than the numerical relativity code SpEC. I also demonstrate the applicability of the new elliptic solver across physical disciplines, simulating the thermal noise in thin mirror coatings of interferometric gravitational-wave detectors to unprecedented accuracy. The elliptic solver is implemented in the new open-source SpECTRE numerical relativity code, and set up to support simulations of astrophysical scenarios for the emerging era of gravitational-wave and multimessenger astronomy. N2 - Elliptische partielle Differentialgleichungen sind in der Physik allgegenwärtig. Das elektrische Feld einer Ladung, die Gravitation der Erde, die Statik einer Brücke, oder die Temperaturverteilung auf einer heißen Herdplatte folgen trotz verschiedenster zugrundeliegender Physik elliptischen Gleichungen ähnlicher Struktur, denn es sind statische, also zeitunabhängige Effekte. Elliptische Gleichungen beschreiben auch astrophysikalische Szenarien von kataklysmischen Ausmaßen, die jegliche Gegebenheiten auf der Erde weit überschreiten. So werden Schwarze Löcher und Neutronensterne -- zwei mögliche Endstadien von massereichen Sternen -- ebenfalls von elliptischen Gleichungen beschrieben. In diesem Fall sind es Einstein's Feldgleichungen von Raum, Zeit, Gravitation und Materie. Da Schwarze Löcher und Neutronensterne mehr Masse als unsere Sonne auf die Größe einer Stadt wie Potsdam komprimieren übernimmt die Gravitation, und damit Einstein's allgemeine Relativitätstheorie, die Kontrolle. Es ist die Aufgabe der numerischen Relativität, Szenarien wie die Kollision solcher gewaltigen Objekte mithilfe von Supercomputern zu simulieren und damit die Gravitationswellensignale vorherzusagen, die von Detektoren auf der Erde gemessen werden können. Jede dieser Simulationen beginnt mit Anfangsdaten, die elliptische Gleichungen erfüllen müssen. In dieser Dissertation entwickle ich neue numerische Methoden um elliptische partielle Differentialgleichungen auf Supercomputern zu lösen, mit besonderem Augenmerk auf Anfangsdaten für Simulationen von Schwarzen Löchern und Neutronensternen. Ich entwickle dafür eine sogenannte discontinuous Galerkin Methode um elliptische Gleichungen auf Computern zu repräsentieren, sowie eine Reihe von Algorithmen um diese Gleichungen anschließend schrittweise numerisch zu lösen bis sie die notwendige Präzision erfüllen. Die Besonderheit dieser Algorithmen liegt in ihrer Eigenschaft, in viele Teilprobleme zerlegt auf einer großen Zahl von Rechenkernen parallel arbeiten zu können. Dieses task-based parallelism ermöglicht die effektive Verwendung von Supercomputern. Ich demonstriere die Fähigkeit meiner Algorithmen, Berechnungen von über 200 Millionen Unbekannten mit hoher Effizienz auf mindestens einige Tausend Rechenkerne verteilen zu können, und Anfangsdaten zweier sich umkreisender Schwarzer Löcher bereits etwa zehnmal schneller zu lösen als der langjährig verwendete Computercode SpEC. Außerdem zeige ich, dass mein neuer Code auch außerhalb der Relativitätstheorie anwendbar ist. Dazu simuliere ich thermisches Rauschen in den Beschichtungen von Spiegeln, das ebenfalls von elliptischen Gleichungen beschrieben wird. Solche Spiegel sind Objekt großen Forschungsinteresses, da sie ein zentrales Element von Gravitationswellendetektoren darstellen. Mein Code zur numerischen Lösung elliptischer Gleichungen ist Teil des kollaborativen und quelloffenen SpECTRE Forschungsprojekts zur Simulation astrophysikalischer Szenarien für die aufstrebende Ära der Gravitationswellen- und Multimessenger-Astronomie. KW - numerical relativity KW - task-based parallelism KW - discontinuous Galerkin methods KW - elliptic partial differential equations KW - black holes KW - initial data KW - high-performance computing KW - iterative methods for sparse linear systems KW - gravitational waves KW - thermal noise in mirror coatings KW - numerische Relativität KW - elliptische partielle Differentialgleichungen KW - schwarze Löcher KW - Anfangsdaten KW - Hochleistungscomputer KW - iterative Methoden zur Lösung linearer Systeme KW - Gravitationswellen KW - thermisches Rauschen in Spiegelbeschichtungen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562265 ER - TY - THES A1 - Vu, Dinh Phuong T1 - Using video study to investigate eighth-grade mathematics classrooms in Vietnam T1 - Die Nutzung von Videostudien zur Untersuchung des Mathematikunterrichts in der 8. Klasse in Vietnam N2 - The International Project for the Evaluation of Educational Achievement (IEA) was formed in the 1950s (Postlethwaite, 1967). Since that time, the IEA has conducted many studies in the area of mathematics, such as the First International Mathematics Study (FIMS) in 1964, the Second International Mathematics Study (SIMS) in 1980-1982, and a series of studies beginning with the Third International Mathematics and Science Study (TIMSS) which has been conducted every 4 years since 1995. According to Stigler et al. (1999), in the FIMS and the SIMS, U.S. students achieved low scores in comparison with students in other countries (p. 1). The TIMSS 1995 “Videotape Classroom Study” was therefore a complement to the earlier studies conducted to learn “more about the instructional and cultural processes that are associated with achievement” (Stigler et al., 1999, p. 1). The TIMSS Videotape Classroom Study is known today as the TIMSS Video Study. From the findings of the TIMSS 1995 Video Study, Stigler and Hiebert (1999) likened teaching to “mountain ranges poking above the surface of the water,” whereby they implied that we might see the mountaintops, but we do not see the hidden parts underneath these mountain ranges (pp. 73-78). By watching the videotaped lessons from Germany, Japan, and the United States again and again, they discovered that “the systems of teaching within each country look similar from lesson to lesson. At least, there are certain recurring features [or patterns] that typify many of the lessons within a country and distinguish the lessons among countries” (pp. 77-78). They also discovered that “teaching is a cultural activity,” so the systems of teaching “must be understood in relation to the cultural beliefs and assumptions that surround them” (pp. 85, 88). From this viewpoint, one of the purposes of this dissertation was to study some cultural aspects of mathematics teaching and relate the results to mathematics teaching and learning in Vietnam. Another research purpose was to carry out a video study in Vietnam to find out the characteristics of Vietnamese mathematics teaching and compare these characteristics with those of other countries. In particular, this dissertation carried out the following research tasks: - Studying the characteristics of teaching and learning in different cultures and relating the results to mathematics teaching and learning in Vietnam - Introducing the TIMSS, the TIMSS Video Study and the advantages of using video study in investigating mathematics teaching and learning - Carrying out the video study in Vietnam to identify the image, scripts and patterns, and the lesson signature of eighth-grade mathematics teaching in Vietnam - Comparing some aspects of mathematics teaching in Vietnam and other countries and identifying the similarities and differences across countries - Studying the demands and challenges of innovating mathematics teaching methods in Vietnam – lessons from the video studies Hopefully, this dissertation will be a useful reference material for pre-service teachers at education universities to understand the nature of teaching and develop their teaching career. N2 - Das International Project for the Evaluation of Educational Achievement (IEA) wurde in den 1950er Jahren gegründet. Seitdem führte das IEA viele Studien in Bereich mathematischer Bildung durch, insbesondere die First International Mathematics Study (FIMS) im Jahre 1964, die Second International Mathematics Study (SIMS) in den Jahren 1980–1982 und eine Reihe von Studien, die mit der Third International Mathematics and Science Study (TIMSS) begann und seit 1995 alle vier Jahre durchgeführt wird. Nach Stigler et al. (1999) erreichten US-amerikanische Studenten bei FIMS und SIMS niedrigere Ergebnisse als Schüler anderer Länder (S. 1). Daher wurde TIMSS 1995 erweitert um eine ‘Videotape Classroom Study’ mit dem Ziel, „mehr über die unterrichtlichen und kulturellen Prozesse, die mit Leistung zusammenhängen“, zu erfahren (S. 1; Übersetzung vom engl. Original). Von den Ergebnissen der TIMMS 1995 Video Study ausgehend verglichen Stigler und Hiebert (1999) Unterricht mit „Gebirgszügen, die die Wasseroberfläche durchstoßen“, womit sie ausdrücken sollten, was die Bergspitzen sichtbar, große Teile des Gebirges aber unter dem Wasser verborgen sind (S. 73–78; Übersetzung vom engl. Original). Durch die wiederholte Analyse videographierter Unterrichtsstunden aus Deutschland, Japan und den USA entdeckten sie, dass „die Arten des Unterrichts innerhalb jedes Landes von Stunde zu Stunde ähnlich sind. Zumindest gibt es bestimmte wiederkehrende Aspekte [oder Skripte], welche für viele Stunden eines Landes typisch sind und die Stunden gegenüber anderen Ländern abgrenzen“ (S. 77f.). Sie entdeckten außerdem, dass Unterricht eine „kulturelle Aktivität“ ist, Unterrichtsarten also „verstanden werden müssen in Relation zu den kulturellen Überzeugungen und Annahmen, die sie umgeben“ (S. 85, 88). Hierauf aufbauend war es ein Ziel der Dissertation, kulturelle Aspekte des Mathematikunterricht zu untersuchen und die Ergebnisse mit Mathematikunterricht in Vietnam zu vergleichen. Ein weiteres Ziel war die Erhebung der Charakteristika vietnamesischen Mathematikunterricht durch eine Videostudie in Vietnam und der anschließende Vergleich dieser Charakteristika mit denen anderer Länder. Im Einzelnen befasste sich diese Dissertation mit den folgenden Forschungszielen: - Untersuchung der Charakteristika von Lehren und Lernen in unterschiedlichen Kulturen und vorläufiger Vergleich der Resultate mit dem Lehren und Lernen von Mathematik in Vietnam - Einführung der TIMSS und der TIMSS Video Study und der methodologischen Vorteile von Videostudien für die Untersuchung von Mathematikunterricht in Vietnam - Durchführung der Videostudie in Vietnam, um Unterrichtsskripte des Mathematikunterrichts in 8. Klassen in Vietnam zu identifizieren - Vergleich ausgewählter Aspekte des Mathematikunterrichts in Vietnam mit denen anderer Länder auf der Grundlage der Videostudie in Vietnam und Diskussion von Ähnlichkeiten und Unterschieden zwischen Ländern - Untersuchung der Herausforderungen für eine Innovation der Unterrichtsmethoden im Mathematikunterricht Vietnams Diese Dissertation entstand in der Hoffnung, dass sie eine nützliche Referenz für Lehramtsstudenten zum Verständnis der Natur des Unterrichts und zur Entwicklung der eigenen Lehrerpersönlichkeit darstellen möge. KW - Videostudie KW - Mathematikunterricht KW - Unterrichtsmethode KW - TIMSS KW - Kulturelle Aktivität KW - video study KW - mathematics education KW - teaching methods KW - TIMSS KW - Vietnam Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72464 ER - TY - THES A1 - Vranic, Marija T1 - 3D Structure of the biomarker hepcidin-25 in its native state T1 - 3D-Struktur des Biomarkers Hepcidin-25 im eigenen nativen Zustand N2 - Hepcidin-25 (Hep-25) plays a crucial role in the control of iron homeostasis. Since the dysfunction of the hepcidin pathway leads to multiple diseases as a result of iron imbalance, hepcidin represents a potential target for the diagnosis and treatment of disorders of iron metabolism. Despite intense research in the last decade targeted at developing a selective immunoassay for iron disorder diagnosis and treatment and better understanding the ferroportin-hepcidin interaction, questions remain. The key to resolving these underlying questions is acquiring exact knowledge of the 3D structure of native Hep-25. Since it was determined that the N-terminus, which is responsible for the bioactivity of Hep-25, contains a small Cu(II)-binding site known as the ATCUN motif, it was assumed that the Hep-25-Cu(II) complex is the native, bioactive form of the hepcidin. This structure has thus far not been elucidated in detail. Owing to the lack of structural information on metal-bound Hep-25, little is known about its possible biological role in iron metabolism. Therefore, this work is focused on structurally characterizing the metal-bound Hep-25 by NMR spectroscopy and molecular dynamics simulations. For the present work, a protocol was developed to prepare and purify properly folded Hep-25 in high quantities. In order to overcome the low solubility of Hep-25 at neutral pH, we introduced the C-terminal DEDEDE solubility tag. The metal binding was investigated through a series of NMR spectroscopic experiments to identify the most affected amino acids that mediate metal coordination. Based on the obtained NMR data, a structural calculation was performed in order to generate a model structure of the Hep-25-Ni(II) complex. The DEDEDE tag was excluded from the structural calculation due to a lack of NMR restraints. The dynamic nature and fast exchange of some of the amide protons with solvent reduced the overall number of NMR restraints needed for a high-quality structure. The NMR data revealed that the 20 Cterminal Hep-25 amino acids experienced no significant conformational changes, compared to published results, as a result of a pH change from pH 3 to pH 7 and metal binding. A 3D model of the Hep-25-Ni(II) complex was constructed from NMR data recorded for the hexapeptideNi(II) complex and Hep-25-DEDEDE-Ni(II) complex in combination with the fixed conformation of 19 C-terminal amino acids. The NMR data of the Hep-25-DEDEDE-Ni(II) complex indicates that the ATCUN motif moves independently from the rest of the structure. The 3D model structure of the metal-bound Hep-25 allows for future works to elucidate hepcidin’s interaction with its receptor ferroportin and should serve as a starting point for the development of antibodies with improved selectivity. N2 - Hepcidin-25 (Hep-25) spielt eine entscheidende Rolle bei der Kontrolle der Eisenhomöostase. Da die Dysfunktion des Hepcidin-Signalweges aufgrund des Eisenungleichgewichts zu mehreren Krankheiten führt, stellt Hepcidin ein potenzielles Ziel für die Diagnose und Behandlung von Störungen des Eisenstoffwechsels dar. Trotz intensiver Forschung in den letzten zehn Jahren, die darauf abzielte, einen selektiven Immunoassay für die Diagnose und Behandlung von Eisenerkrankungen zu entwickeln und die Ferroportin-Hepcidin-Interaktion besser zu verstehen, bleiben Fragen offen. Der Schlüssel zur Lösung dieser grundlegenden Fragen liegt darin, genaue Kenntnisse über die 3D-Struktur des nativen Hep-25 zu erlangen. Da festgestellt wurde, dass der N-Terminus, der für die Bioaktivität von Hep-25 verantwortlich ist, eine kleine Cu(II)-Bindungsstelle enthält, die als ATCUN-Motiv bekannt ist, wurde angenommen, dass der Hep-25- Cu(II)-Komplex die native, bioaktive Form des Hepcidins ist. Diese Struktur ist bisher noch nicht im Detail untersucht worden. Aufgrund fehlender Strukturinformationen über metallgebundenes Hep-25 ist wenig über seine mögliche biologische Rolle im Eisenstoffwechsel bekannt. Daher konzentriert sich diese Arbeit auf die strukturelle Charakterisierung des metallgebundenen Hep-25 mittels NMR-Spektroskopie und Molekulardynamik Simulationen. In der vorliegenden Arbeit wurde ein Protokoll zur Präparation und Reinigung von korrekt gefaltetem Hep-25 in hohen Mengen entwickelt. Um das Problem der geringen Löslichkeit von Hep-25 bei neutralem pH-Wert zu überwinden, haben wir einen C-terminalen DEDEDEDE Löslichkeits-Tag eingeführt. Die Metallbindung wurde durch eine Reihe von NMRspektroskopischen Experimenten untersucht, um die Aminosäuren zu identifizieren, welche an der Metallkoordination beteiligt sind. Basierend auf den erhaltenen NMR-Daten wurde eine Strukturberechnung durchgeführt, um eine Modellstruktur des Hep-25-Ni(II)-Komplexes zu erzeugen. Der DEDEDE-Tag wurde aufgrund fehlender NMR- restraints von der Strukturberechnung ausgeschlossen. Die dynamische Natur und der schnelle Austausch eines Teils der Amid-Protonen mit dem Lösungsmittel reduzierten die Gesamtzahl der NMR- restraints, die für eine hochwertige Struktur erforderlich waren. Die NMR-Daten zeigten, dass die 20 C-terminalen Hep-25-Aminosäuren keine signifikanten Konformationsänderungen als Folge eines pH-Wechsels von pH 3 auf pH 7 und einer Metallbindung erfuhren. Ein 3D-Modell des Hep-25-Ni(II)-Komplexes wurde aus den NMR-Daten des Hexapeptid-Ni(II)-Komplexes und des Hep-25-DEDEDE-Ni(II)-Komplexes in Kombination mit der bekannten Konformation der 19 C-terminalen Aminosäuren erstellt. Die NMR-Daten des Hep-25-DEDEDE-Ni(II)Komplexes zeigen, dass sich das Ni-ATCUN-Motiv unabhängig vom C-Terminus bewegt. Die 3D-Modellstruktur des metallgebundenen Hep-25 ermöglicht es, in Zukunft die Interaktion von Hepcidin mit seinem Rezeptor Ferroportin zu untersuchen und soll als Ausgangspunkt für die Entwicklung von Antikörpern mit verbesserter Selektivität dienen. KW - iron KW - hepcidin KW - peptide KW - metal KW - binding KW - NMR KW - Eisen KW - Hepcidin KW - Peptid KW - Metall KW - Bindung KW - NMR Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459295 ER - TY - THES A1 - Voß, Rebecca T1 - Mesoporous organosilica materials with amine functions : surface characteristics and chirality T1 - Mesoporöse Amin-funktionalisierte Organo-Silik ate : Oberflächen Eigenschaften und Chiralität N2 - In this work mesoporous organisilica materials are synthesized through the silica sol-gel process. For this a new class of precursors which are also surfactant are synthesized and self-assembled. This leads to a high surface area functionality which is analysized with copper (II) and water adsorption. N2 - Im Rahmen dieser Arbeit werden mesoporöse Amin-funktionalisierte Organo-Silikate durch den Silika Sol-Gel Prozess hergestellt. Dabei werden neue Alkoxysilyl-Precursoren synthetisiert und condensiert die die gewünschte Funktion auf die Oberfläche dirigieren. Herstellt werden primäre, secundäre und chirale Amine. Die Oberflächenfunktionalität wird mit Kupfer (II) und Wasser Adsorption analysiert. T2 - Mesoporous organosilica materials with amine functions : surface characteristics and chirality KW - Silicate KW - Chiralität KW - Adsorption KW - Poröser Stoff KW - Hydroborierung KW - Amine KW - Mesoporöse Materialien KW - Organo-Silikate KW - mesoporous materials KW - organosilica Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5287 ER - TY - THES A1 - Vossenkuhl, Birgit T1 - Transmission of MRSA along the meat supply chain BT - A methodological concept from farm to fork N2 - Methicillin-resistente Staphylococcus aureus (MRSA) zählen zu den bedeutendsten antibiotikaresistenten Pathogenen, die vor allem in Krankenhäusern aber auch außerhalb von Einrichtungen des Gesundheitswesens weit verbreitet sind. Seit einigen Jahren ist eine neue Generation von MRSA auf dem Vormarsch, die vor allem Nutztierbestände als neue Nische besiedelt. Diese sogenannten Nutztier-assoziierten MRSA wurden wiederholt bei wirtschaftlich bedeutenden Nutztieren sowie daraus gewonnenem Fleisch nachgewiesen. Im Rahmen der vorliegenden Arbeit wurde ein methodischer Ansatz verfolgt, um die Hypothese einer möglichen Übertragung von Nutztier-assoziierten MRSA entlang der Lebensmittelkette vom Tier auf dessen Fleisch zu bestätigen. Angepasst an die Unterschiede in den verfügbaren Daten wurden dafür zwei neue Konzepte erstellt. Zur Analyse der Übertragung von MRSA entlang der Schlachtkette wurde ein mathematisches Modell des Schweineschlachtprozesses entwickelt, welches dazu geeignet ist, den Verlauf der MRSA-Prävalenz entlang der Schlachtkette zu quantifizieren sowie kritische Prozessschritte für eine MRSA-Übertragung zu identifizieren. Anhand von Prävalenzdaten ist es dem Modell möglich, die durchschnittlichen MRSA-Eliminations- und Kontaminationsraten jedes einzelnen Prozessschrittes zu schätzen, die anschließend in eine Monte-Carlo-Simulation einfließen. Im Ergebnis konnte gezeigt werden, dass es generell möglich ist, die MRSA Prävalenz im Laufe des Schlachtprozesses auf ein niedriges finales Niveau zwischen 0,15 bis 1,15% zu reduzieren. Vor allem das Brühen und Abflämmen der Schlachtkörper wurden als kritische Prozesse im Hinblick auf eine MRSA-Dekontamination identifiziert. In Deutschland werden regelmäßig MRSA-Prävalenz und Typisierungsdaten auf allen Stufen der Lebensmittelkette verschiedener Nutztiere erfasst. Um die MRSA-Daten dieser Querschnittstudie hinsichtlich einer möglichen Übertragung entlang der Kette zu analysieren, wurde ein neuer statistischer Ansatz entwickelt. Hierfür wurde eine Chi-Quadrat-Statistik mit der Berechnung des Czekanowski-Ähnlichkeitsindex kombiniert, um Unterschiede in der Verteilung stammspezifischer Eigenschaften zwischen MRSA aus dem Stall, von Karkassen nach der Schlachtung und aus Fleisch im Einzelhandel zu quantifizieren. Die Methode wurde am Beispiel der Putenfleischkette implementiert und zudem bei der Analyse der Kalbfleischkette angewendet. Die durchgehend hohen Ähnlichkeitswerte zwischen den einzelnen Proben weisen auf eine mögliche Übertragung von MRSA entlang der Lebensmittelkette hin. Die erarbeiteten Methoden sind nicht spezifisch bezüglich Prozessketten und Pathogenen. Sie bieten somit einen großen Anwendungsbereich und erweitern das Methodenspektrum zur Bewertung bakterieller Übertragungswege. N2 - Methicillin resistant Staphylococcus aureus (MRSA) is one of the most important antibiotic-resistant pathogens in hospitals and the community. Recently, a new generation of MRSA, the so called livestock associated (LA) MRSA, has emerged occupying food producing animals as a new niche. LA-MRSA can be regularly isolated from economically important live-stock species including corresponding meats. The present thesis takes a methodological approach to confirm the hypothesis that LA-MRSA are transmitted along the pork, poultry and beef production chain from animals at farm to meat on consumers` table. Therefore two new concepts were developed, adapted to differing data sets. A mathematical model of the pig slaughter process was developed which simulates the change in MRSA carcass prevalence during slaughter with special emphasis on identifying critical process steps for MRSA transmission. Based on prevalences as sole input variables the model framework is able to estimate the average value range of both the MRSA elimination and contamination rate of each of the slaughter steps. These rates are then used to set up a Monte Carlo simulation of the slaughter process chain. The model concludes that regardless of the initial extent of MRSA contamination low outcome prevalences ranging between 0.15 and 1.15 % can be achieved among carcasses at the end of slaughter. Thus, the model demonstrates that the standard procedure of pig slaughtering in principle includes process steps with the capacity to limit MRSA cross contamination. Scalding and singeing were identified as critical process steps for a significant reduction of superficial MRSA contamination. In the course of the German national monitoring program for zoonotic agents MRSA prevalence and typing data are regularly collected covering the key steps of different food production chains. A new statistical approach has been proposed for analyzing this cross sectional set of MRSA data with regard to show potential farm to fork transmission. For this purpose, chi squared statistics was combined with the calculation of the Czekanowski similarity index to compare the distributions of strain specific characteristics between the samples from farm, carcasses after slaughter and meat at retail. The method was implemented on the turkey and veal production chains and the consistently high degrees of similarity which have been revealed between all sample pairs indicate MRSA transmission along the chain. As the proposed methods are not specific to process chains or pathogens they offer a broad field of application and extend the spectrum of methods for bacterial transmission assessment. KW - MRSA KW - Antibiotikaresistenz KW - Modell KW - Lebensmittelkette KW - Übertragung KW - MRSA KW - Resistance KW - Model KW - Food Chain KW - Transmission Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85918 ER - TY - THES A1 - Vosloh, Daniel T1 - Subcellular compartmentation of primary carbon metabolism in mesophyll cells of Arabidopsis thaliana T1 - Subzelluläre Kompartimentierung des primären Kohlenstoffmetabolismus in Mesophyllzellen von Arabidopsis thaliana N2 - Metabolismus in Pflanzenzellen ist stark kompartimentiert. Viele Stoffwechselwege haben Reaktionen in mehr als einem Kompartiment. Zum Beispiel wird während der Photosynthese in pflanzlichen Mesophyllzellen Kohlenstoff in Form von Stärke in den Chloroplasten synthetisiert, während es im Zytosol in Form von Sacharose gebildet und in der Vakuole gespeichert wird. Diese Reaktionen sind strikt reguliert um ein Gleichgewicht der Kohlenstoffpools der verschiedenen Kompartimente aufrecht zu erhalten und die Energieversorgung aller Teile der Zelle für anabolische Reaktionen sicher zu stellen. Ich wende eine Methode an, bei der die Zellen unter nicht-wässrigen Bedingungen fraktioniert werden und daher der metabolische Status der während der Ernte herrschte über den ganzen Zeitraum der Auftrennung beibehalten wird. Durch die Kombination von nichtwässriger Fraktionierung und verschiedener Massenspektrometrietechniken (Flüssigchromotagraphie- und Gaschromotagraphie basierende Massenspekrometrie) ist es möglich die intrazelluläre Verteilung der meisten Intermediate des photosynthetischen Kohlenstoffstoffwechsels und der Produkte der nachgelagerten metabolischen Reaktionen zu bestimmen. Das Wissen über die in vivo Konzentrationen dieser Metabolite wurde genutzt um die Änderung der freien Gibbs Energie in vivo zu bestimmen. Mit Hilfe dessen kann bestimmt werden, welche Reaktion sich in einem Gleichgewichtszustand befinden und welche davon entfernt sind. Die Konzentration der Enzyme und der Km Werte wurden mit den Konzentrationen der Metabolite in vivo verglichen, um festzustellen, welche Enzyme substratlimitiert sind und somit sensitiv gegenüber Änderungen der Substratkonzentration sind. Verschiedene Intermediate des Calvin-Benson Zyklus sind gleichzeitig Substrate für andere Stoffwechselwege, als da wären Dihyroxyaceton-phosphat (DHAP, Saccharosesynthese), Fructose 6-phosphat (Fru6P, Stärkesynthese), Erythrose 4-phosphat (E4P, Shikimat Stoffwechselweg) und Ribose 5-phosphat (R5P, Nukleotidbiosynthese). Die Enzyme, die diese Intermediate verstoffwechseln, liegen an den Abzweigungspunkten zu diesen Stoffwechselwegen. Diese sind Trisose phosphat isomerase (DHAP), Transketolase (E4P), Sedoheptulose-1,7 biphosphat aldolase (E4P) und Ribose-5-phosphat isomerase (R5P), welche nicht mit ihren Substraten gesättigt sind, da die jeweilige Substratkonzentration geringer als der zugehörige Km Wert ist. Für metabolische Kontrolle bedeutet dies, dass diese Schritte am sensitivsten gegenüber Änderungen der Substratkonzentrationen sind. Im Gegensatz dazu sind die regulierten irreversiblen Schritte von Fructose-1,6.biphosphatase und Sedoheptulose-1,7-biphosphatase relativ insensitiv gegenüber Änderungen der Substratkonzentration. Für den Stoffwechselweg der Saccharosesynthese konnte gezeigt werden, dass die zytosolische Aldolase eine geringer Bindeseitenkonzentration als Substratkonzentration (DHAP) aufweist, und dass die Konzentration von Saccharose-6-phosphat geringer als der Km Wert des synthetisierenden Enzyms Saccharose-phosphatase ist. Sowohl die Saccharose-phosphat-synthase, also auch die Saccharose-phosphatase sind in vivo weit von einem Gleichgewichtszustand entfernt. In Wildtyp Arabidopsis thaliana Columbia-0 Blättern wurde der gesamte Pool von ADPGlc im Chloroplasten gefunden. Das Enzyme ADPGlc pyrophosphorylase ist im Chloroplasten lokalisiert und synthetisiert ADPGlc aus ATP und Glc1P. Dieses Verteilungsmuster spricht eindeutig gegen die Hypothese von Pozueta-Romero und Kollegen, dass ADPGlc im Zytosol durch ADP vermittelte Spaltung von Saccharose durch die Saccharose Synthase erzeugt wird. Basierend auf dieser Beobachtung und anderen veröffentlichten Ergebnissen wurde geschlußfolgert, dass der generell akzeptierte Stoffwechselweg der Stärkesynthese durch ADPGlc Produktion via ADPGlc pyrophosphorylase in den Chloroplasten korrekt ist, und die Hypothese des alternativen Stoffwechselweges unhaltbar ist. Innerhalb des Stoffwechselweges der Saccharosesynthsese wurde festgestellt, dass die Konzentration von ADPGlc geringer als der Km Wert des Stärkesynthase ist, was darauf hindeutet, dass das Enzym substratlimitiert ist. Eine generelle Beobachtung ist, dass viele Enzmye des Calvin-Benson Zyklus ähnliche Bindeseitenkonzentrationen wie Metabolitkonzentrationen aufweisen, wohingegen in den Synthesewegen von Saccharose und Stärke die Bindeseitenkonzentrationen der Enzyme viel geringer als die Metabolitkonzentrationen sind. N2 - Metabolism in plant cells is highly compartmented, with many pathways involving reactions in more than one compartment. For example, during photosynthesis in leaf mesophyll cells, primary carbon fixation and starch synthesis take place in the chloroplast, whereas sucrose is synthesized in the cytosol and stored in the vacuole. These reactions are tightly regulated to keep a fine balance between the carbon pools of the different compartments and to fulfil the energy needs of the organelles. I applied a technique which fractionates the cells under non-aqueous conditions, whereby the metabolic state is frozen at the time of harvest and held in stasis throughout the fractionation procedure. With the combination of non-aqueous fractionation and mass spectrometry based metabolite measurements (LC-MS/MS, GC-MS) it was possible to investigate the intracellular distributions of the intermediates of photosynthetic carbon metabolism and its products in subsequent metabolic reactions. With the knowledge about the in vivo concentrations of these metabolites under steady state photosynthesis conditions it was possible to calculate the mass action ratio and change in Gibbs free energy in vivo for each reaction in the pathway, to determine which reactions are near equilibrium and which are far removed from equilibrium. The Km value and concentration of each enzyme were compared with the concentrations of its substrates in vivo to assess which reactions are substrate limited and so sensitive to changes in substrate concentration. Several intermediates of the Calvin-Benson cycle are substrates for other pathways, including dihydroxyacetone-phosphate (DHAP,sucrose synthesis), fructose 6-phosphate (Fru6P, starch synthesis), erythrose 4-phosphate (E4P,shikimate pathway) and ribose 5-phosphate (R5P, nucleotide synthesis). Several of the enzymes that metabolise these intermediates, and so lie at branch points in the pathway, are triose-phosphate isomerase (DHAP), transketolase (E4P, Fru6P), sedoheptulose-1,7-bisphosphate aldolase (E4P) and ribose-5-phosphate isomerase (R5P) are not saturated with their respective substrate as the metabolite concentration is lower than the respective Km value. In terms of metabolic control these are the steps that are most sensitive to changes in substrate availability, while the regulated irreversible reactions of fructose-1,6-bisphosphatase and sedoheptulose-1,7-bisphosphatase are relatively insensitive to changes in the concentrations of their substrates. In the pathway of sucrose synthesis it was shown that the concentration of the catalytic binding site of the cytosolic aldolase is lower than the substrate concentration of DHAP, and that the concentration of Suc6P is lower than the Km of sucrose-phosphatase for this substrate. Both the sucrose-phosphate synthase and sucrose-phosphatase reactions are far removed from equilibrium in vivo. In wild type A. thaliana Columbia-0 leaves, all of the ADPGlc was found to be localised in the chloroplasts. ADPglucose pyrophosphorylase is localised to the chloroplast and synthesises ADPGlc from ATP and Glc1P. This distribution argues strongly against the hypothesis proposed by Pozueta-Romero and colleagues that ADPGlc for starch synthesis is produced in the cytosol via ADP-mediated cleavage of sucrose by sucrose synthase. Based on this observation and other published data it was concluded that the generally accepted pathway of starch synthesis from ADPGlc produced by ADPglucose pyrophosphorylase in the chloroplasts is correct, and that the alternative pathway is untenable. Within the pathway of starch synthesis the concentration of ADPGlc was found to be well below the Km value of starch synthase for ADPGlc, indicating that the enzyme is substrate limited. A general finding in the comparison of the Calvin-Benson cycle with the synthesis pathways of sucrose and starch is that many enzymes in the Calvin Benson cycle have active binding site concentrations that are close to the metabolite concentrations, while for nearly all enzymes in the synthesis pathways the active binding site concentrations are much lower than the metabolite concentrations. KW - Pflanze KW - Kohlenstoffmetabolismus KW - Mesophyll KW - Zelle KW - plant KW - carbon metabolism KW - mesophyll KW - cell Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55534 ER - TY - THES A1 - Voroshnin, Vladimir T1 - Control over spin and electronic structure of MoS₂ monolayer via interactions with substrates T1 - Kontrolle der Spin- und elektronischen Strukturen von MoS₂-Monolagen durch Wechselwirkungen mit Substraten N2 - The molybdenum disulfide (MoS2) monolayer is a semiconductor with a direct bandgap while it is a robust and affordable material. It is a candidate for applications in optoelectronics and field-effect transistors. MoS2 features a strong spin-orbit coupling which makes its spin structure promising for acquiring the Kane-Mele topological concept with corresponding applications in spintronics and valleytronics. From the optical point of view, the MoS2 monolayer features two valleys in the regions of K and K' points. These valleys are differentiated by opposite spins and a related valley-selective circular dichroism. In this study we aim to manipulate the MoS2 monolayer spin structure in the vicinity of the K and K' points to explore the possibility of getting control over the optical and electronic properties. We focus on two different substrates to demonstrate two distinct routes: a gold substrate to introduce a Rashba effect and a graphene/cobalt substrate to introduce a magnetic proximity effect in MoS2. The Rashba effect is proportional to the out-of-plane projection of the electric field gradient. Such a strong change of the electric field occurs at the surfaces of a high atomic number materials and effectively influence conduction electrons as an in-plane magnetic field. A molybdenum and a sulfur are relatively light atoms, thus, similar to many other 2D materials, intrinsic Rashba effect in MoS2 monolayer is vanishing small. However, proximity of a high atomic number substrate may enhance Rashba effect in a 2D material as it was demonstrated for graphene previously. Another way to modify the spin structure is to apply an external magnetic field of high magnitude (several Tesla), and cause a Zeeman splitting, the conduction electrons. However, a similar effect can be reached via magnetic proximity which allows us to reduce external magnetic fields significantly or even to zero. The graphene on cobalt interface is ferromagnetic and stable for MoS2 monolayer synthesis. Cobalt is not the strongest magnet; therefore, stronger magnets may lead to more significant results. Nowadays most experimental studies on the dichalcogenides (MoS2 included) are performed on encapsulated heterostructures that are produced by mechanical exfoliation. While mechanical exfoliation (or scotch-tape method) allows to produce a huge variety of structures, the shape and the size of the samples as well as distance between layers in heterostructures are impossible to control reproducibly. In our study we used molecular beam epitaxy (MBE) methods to synthesise both MoS2/Au(111) and MoS2/graphene/Co systems. We chose to use MBE, as it is a scalable and reproducible approach, so later industry may adapt it and take over. We used graphene/cobalt instead of just a cobalt substrate because direct contact of MoS2\ monolayer and a metallic substrate may lead to photoluminescence (PL) quenching in the metallic substrate. Graphene and hexagonal boron nitride monolayer are considered building blocks of a new generation of electronics also commonly used as encapsulating materials for PL studies. Moreover graphene is proved to be a suitable substrate for the MBE growth of transitional metal dichalcogenides (TMDCs). In chapter 1, we start with an introduction to TMDCs. Then we focus on MoS2 monolayer state of the art research in the fields of application scenario; synthesis approaches; electronic, spin, and optical properties; and interactions with magnetic fields and magnetic materials. We briefly touch the basics of magnetism in solids and move on to discuss various magnetic exchange interactions and magnetic proximity effect. Then we describe MoS2 optical properties in more detail. We start from basic exciton physics and its manifestation in the MoS2 monolayer. We consider optical selection rules in the MoS2 monolayer and such properties as chirality, spin-valley locking, and coexistence of bright and dark excitons. Chapter 2 contains an overview of the employed surface science methods: angle-integrated, angle-resolved, and spin-resolved photoemission; low energy electron diffraction and scanning tunneling microscopy. In chapter 3, we describe MoS2 monolayer synthesis details for two substrates: gold monocrystal with (111) surface and graphene on cobalt thin film with Co(111) surface orientation. The synthesis descriptions are followed by a detailed characterisation of the obtained structures: fingerprints of MoS2 monolayer formation; MoS2 monolayer symmetry and its relation to the substrate below; characterisation of MoS2 monolayer coverage, domain distribution, sizes and shapes, and moire structures. In chapter~4, we start our discussion with MoS2/Au(111) electronic and spin structure. Combining density functional theory computations (DFT) and spin-resolved photoemission studies, we demonstrate that the MoS2 monolayer band structure features an in-plane Rashba spin splitting. This confirms the possibility of MoS2 monolayer spin structure manipulation via a substrate. Then we investigate the influence of a magnetic proximity in the MoS2/graphene/Co system on the MoS2 monolayer spin structure. We focus our investigation on MoS2 high symmetry points: G and K. First, using spin-resolved measurements, we confirm that electronic states are spin-split at the G point via a magnetic proximity effect. Second, combining spin-resolved measurements and DFT computations for MoS2 monolayer in the K point region, we demonstrate the appearance of a small in-plane spin polarisation in the valence band top and predict a full in-plane spin polarisation for the conduction band bottom. We move forward discussing how these findings are related to the MoS2 monolayer optical properties, in particular the possibility of dark exciton observation. Additionally, we speculate on the control of the MoS2 valley energy via magnetic proximity from cobalt. As graphene is spatially buffering the MoS2 monolayer from the Co thin film, we speculate on the role of graphene in the magnetic proximity transfer by replacing graphene with vacuum and other 2D materials in our computations. We finish our discussion by investigating the K-doped MoS2/graphene/Co system and the influence of this doping on the electronic and spin structure as well as on the magnetic proximity effect. In summary, using a scalable MBE approach we synthesised MoS2/Au(111) and MoS2/graphene/Co systems. We found a Rashba effect taking place in MoS2/Au(111) which proves that the MoS2 monolayer in-plane spin structure can be modified. In MoS2/graphene/Co the in-plane magnetic proximity effect indeed takes place which rises the possibility of fine tuning the MoS2 optical properties via manipulation of the the substrate magnetisation. N2 - Die Molybdändisulfid-Monolage MoS2 ist ein mechanisch und chemisch robuster Direktband-Halbleiter. Seine Valley-Eigenschaften versprechen spin- und valleybezogene spintronische, valleytronische und optoelektronische Anwendungen. Hier wurde die Möglichkeit untersucht, die elektronische und Spin-Struktur von MoS2 durch Wechselwirkung mit einem Substrat zu beeinflussen. Eine Kontrolle der elektronischen Struktur und der Spinstruktur ist unerlässlich, wenn man die optischen Eigenschaften kontrollieren will. Wir haben zwei Methoden angewandt, um die Spinentartung aufzuheben. Zum einen haben wir die MoS2-Monolage einem elektrischen Potentialgradienten ausgesetzt, zum anderen einem starken Magnetfeld in der Ebene, das durch einen magnetischen Proximity-Effekt erzeugt wurde. Zu diesem Zweck haben wir zwei Systeme hergestellt: eine MoS2-Monolage auf einem Gold-Einkristall und eine MoS2-Monolage auf Graphen auf einer dünnen Kobalt-Schicht. Wir modifizierten ein zuvor vorgeschlagenes Verfahren zur Synthese der MoS2-Monolage auf der Au(111)-Oberfläche und erzielten mit der MBE-Methode eine Bedeckung von ≈0,4 MoS2-Monolage. Die Bedeckung wies eine 10×10-Überstruktur auf und bestand aus gleichmäßig verteilten und ähnlich orientierten Domänen von ≈30 nm Größe. Die Kombination aus DFT-Simulationen und spinaufgelöster Photoemissionsspektroskopie bestätigte das Vorhandensein einer Rashba-ähnlichen Spinaufspaltung in der Ebene der MoS2-Valenzbandzustände in Bereichen mit k ⃗≠0, aus Symmetriegründen mit Ausnahme des K ̅-Punktes. Wir untersuchten die Möglichkeit, die Spinstruktur der MoS2-Monolage durch den magnetischen Proximity-Effekt zu manipulieren, einschließlich der Bereiche um Hochsymmetriepunkte. Die Regionen der K ̅ und (K') ̅ Punkte sind am interessantesten, da sich dort die direkte Bandlücke der MoS2-Monolage befindet. Eine energetische Verschiebung der Valenz- und Leitungsbandzustände relativ zueinander in diesen Bereichen sollte die Kontrolle über die Valley-Aufspaltung der MoS2-Monolage ermöglichen. Andererseits sollte eine Neigung der Spinrichtung dieser Zustände in Richtung der Spinrichtung in der Ebene die optischen Auswahlregeln drastisch ändern und ein dunkles Exziton aufhellen. Wir haben ein Kobalt-Dünnschichtsubstrat aufgrund seiner in der Ebene liegenden magnetischen Anisotropie als Testobjekt für den magnetischen Proximity-Effekt gewählt. Wir benutzten die CVD-Methode, um es zunächst mit Graphen zu beschichten, und dann die MBE-Methode, um eine ≈0,4 MoS2-Monolage auf dem Substrat herzustellen. Wir platzierten das Graphen zwischen der MoS2-Monolage und der Kobalt-Dünnschicht, um zu verhindern, dass die Exzitonen von MoS2 durch das metallische Substrat ausgelöscht werden. Für die Herstellung der MoS2-Monolage auf dem Graphen/Co-Substrat haben wir ein Verfahren modifiziert, das für die Herstellung von MoS2 auf einem Graphen/Ir-Substrat vorgeschlagen wurde. Die einschichtige MoS2-Bedeckung von ≈0,4 Atomlagen zeigt eine große Fläche kristalliner Domänen von mehr als 200 nm Größe. Vier MoS2-Einheitszellen entsprechen fünf Graphen-Einheitszellen. Dies lässt auf eine 5×5-Überstruktur schließen, was durch die LEED-Bilder bestätigt wird. Andererseits zeigt die STM-Abbildung mit atomarer Auflösung eine quasi-periodische Struktur mit mehreren Arten von Moiré-Mustern. Da das epitaktische Wachstum von MoS2 entlang der Graphen-Untergitter A und B gleich wahrscheinlich ist, weist die MoS2-Monolage eine gleiche Anzahl von um 180° gedrehten Domänen (Spiegeldomänen) auf. Wir bestätigten zunächst das Vorhandensein des magnetischen Proximity-Effekts, indem wir ≈20 meV Zeeman in-plane Spinaufspaltung von MoS2-Valenzbandzuständen im Bereich von Γ ̅ sowohl in DFT-Berechnungen als auch in spinaufgelösten Photoemissionsmessungen beobachteten. Im Bereich von K ̅ stimmen Berechnungen und Messungen in Bezug auf die Spinpolarisation der Valenzbandzustände von 15% überein. Im Gegensatz dazu deuten die DFT-Berechnungen für die Leitungsbandzustände auf eine 100%ige Spinpolarisierung der Zustände hin. Dieses Ergebnis impliziert die Aufhellung der dunklen Exzitonen der MoS2-Monolage. Im Falle der Magnetisierung von Kobalt senkrecht zur Ebene sagen DFT-Berechnungen eine Spinaufspaltung von ≈16 meV bei Γ ̅ und ≈8 meV bei K ̅ und (K') ̅ voraus. Um die Leitungsbandzustände von MoS2 zu untersuchen, haben wir MoS2/Graphen/Co mit Kaliumatomen dotiert. Das resultierende System zeichnet sich dadurch aus, dass Kaliumatome unter MoS2 interkaliert sind, was den Abstand zwischen der MoS2-Monolage und dem Kobaltfilm vergrößert. Spinaufgelöste Messungen zeigten keine in-plane Spinaufspaltung der MoS2-Valenzbandzustände im Bereich von Γ ̅ und der MoS2-Leitungsbandzustände im Bereich von K ̅. Da Graphen eine Pufferschicht zwischen der MoS2-Monolage und der Kobaltschicht bildet, um ein mögliches Exzitonen-Löschen zu verhindern, untersuchten wir die Rolle von Graphen für den magnetischen Proximity-Effekt. In unseren Berechnungen ersetzten wir Graphen durch eine Graphen-Doppelschicht, h-BN, Vakuum und eine Kupfer-Monolage und kamen zu dem Schluss, dass der Effekt stark vom Orbitalüberlapp abhängt. MoS2/h-BN/Co zeigen ähnliche Ergebnisse, während MoS2-Graphen-Doppelschicht/Co und MoS2/Vakuum/Co fast keinen magnetischen Proximity-Effekt aufweisen. Zusammenfassend haben wir mittels spektroskopischer Methoden und DFT-Berechnungen bewiesen, dass die Spinstruktur einer MoS2-Monolage durch Wechselwirkung mit einem Substrat manipuliert werden kann. Wir blicken daher mit Zuversicht auf zukünftige optische Untersuchungen zur optischen Kontrolle von MoS2 und Dichalcogeniden der Gruppe VI durch den magnetischen Proximity-Effekt. KW - MoS₂ KW - Au(111) KW - gold substrate KW - magnetic proximity effect KW - dark exciton KW - Molybdenum sulfide monolayer KW - graphene KW - spin structure KW - valence band structure KW - Cobalt thin film KW - ARPES KW - Angle- and spin-resolved photoemission spectroscopy KW - MBE KW - Molecular Beam Epitaxy KW - CVD KW - Chemical Vapour Deposition KW - synthesis KW - XPS KW - X-rays Photoemission Spectroscopy KW - LEED KW - Low Energy Electron Diffraction KW - MoS₂ KW - Molybdänsulfid Monolagen KW - Graphene KW - Au(111) KW - Goldsubstrat KW - magnetischer Näherungseffekt KW - dunkles Exziton KW - Spinstruktur KW - Leitungsbandstruktur KW - Kobalt-Dünnfilm KW - Photoelektronenspektroskopie KW - Molekularstrahlepitaxie KW - chemische Gasphasenabscheidung KW - Synthese KW - Beugung niederenergetischer Elektronen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-590709 ER - TY - THES A1 - Vorogushyn, Sergiy T1 - Analysis of flood hazard under consideration of dike breaches T1 - Analyse der Hochwassergefährdung unter Berücksichtigung von Deichbrüchen N2 - River reaches protected by dikes exhibit high damage potential due to strong value accumulation in the hinterland areas. While providing an efficient protection against low magnitude flood events, dikes may fail under the load of extreme water levels and long flood durations. Hazard and risk assessments for river reaches protected by dikes have not adequately considered the fluvial inundation processes up to now. Particularly, the processes of dike failures and their influence on the hinterland inundation and flood wave propagation lack comprehensive consideration. This study focuses on the development and application of a new modelling system which allows a comprehensive flood hazard assessment along diked river reaches under consideration of dike failures. The proposed Inundation Hazard Assessment Model (IHAM) represents a hybrid probabilistic-deterministic model. It comprises three models interactively coupled at runtime. These are: (1) 1D unsteady hydrodynamic model of river channel and floodplain flow between dikes, (2) probabilistic dike breach model which determines possible dike breach locations, breach widths and breach outflow discharges, and (3) 2D raster-based diffusion wave storage cell model of the hinterland areas behind the dikes. Due to the unsteady nature of the 1D and 2D coupled models, the dependence between hydraulic load at various locations along the reach is explicitly considered. The probabilistic dike breach model describes dike failures due to three failure mechanisms: overtopping, piping and slope instability caused by the seepage flow through the dike core (micro-instability). The 2D storage cell model driven by the breach outflow boundary conditions computes an extended spectrum of flood intensity indicators such as water depth, flow velocity, impulse, inundation duration and rate of water rise. IHAM is embedded in a Monte Carlo simulation in order to account for the natural variability of the flood generation processes reflected in the form of input hydrographs and for the randomness of dike failures given by breach locations, times and widths. The model was developed and tested on a ca. 91 km heavily diked river reach on the German part of the Elbe River between gauges Torgau and Vockerode. The reach is characterised by low slope and fairly flat extended hinterland areas. The scenario calculations for the developed synthetic input hydrographs for the main river and tributary were carried out for floods with return periods of T = 100, 200, 500, 1000 a. Based on the modelling results, probabilistic dike hazard maps could be generated that indicate the failure probability of each discretised dike section for every scenario magnitude. In the disaggregated display mode, the dike hazard maps indicate the failure probabilities for each considered breach mechanism. Besides the binary inundation patterns that indicate the probability of raster cells being inundated, IHAM generates probabilistic flood hazard maps. These maps display spatial patterns of the considered flood intensity indicators and their associated return periods. Finally, scenarios of polder deployment for the extreme floods with T = 200, 500, 1000 were simulated with IHAM. The developed IHAM simulation system represents a new scientific tool for studying fluvial inundation dynamics under extreme conditions incorporating effects of technical flood protection measures. With its major outputs in form of novel probabilistic inundation and dike hazard maps, the IHAM system has a high practical value for decision support in flood management. N2 - Entlang eingedeichter Flussabschnitte kann das Hinterland ein hohes Schadenspotential, aufgrund der starken Akkumulation der Werte, aufweisen. Obwohl Deiche einen effizienten Schutz gegen kleinere häufiger auftretende Hochwässer bieten, können sie unter der Last hoher Wasserstände sowie langer Anstaudauer versagen. Gefährdungs- und Risikoabschätzungsmethoden für die eingedeichten Flussstrecken haben bisher die fluvialen Überflutungsprozesse nicht hinreichend berücksichtigt. Besonders, die Prozesse der Deichbrüche und deren Einfluss auf Überflutung im Hinterland und Fortschreiten der Hochwasserwelle verlangen eine umfassende Betrachtung. Die vorliegende Studie setzt ihren Fokus auf die Entwicklung und Anwendung eines neuen Modellierungssystems, das eine umfassende Hochwassergefährdungsanalyse entlang eingedeichter Flussstrecken unter Berücksichtigung von Deichbrüchen ermöglicht. Das vorgeschlagene Inundation Hazard Assessment Model (IHAM) stellt ein hybrides probabilistisch-deterministisches Modell dar. Es besteht aus drei laufzeitgekoppelten Modellen: (1) einem 1D instationären hydrodynamisch-numerischen Modell für den Flussschlauch und die Vorländer zwischen den Deichen, (2) einem probabilistischen Deichbruchmodell, welches die möglichen Bruchstellen, Breschenbreiten und Breschenausflüsse berechnet, und (3) einem 2D raster-basierten Überflutungsmodell für das Hinterland, das auf dem Speiherzellenansatz und der Diffusionswellengleichung basiert ist. Das probabilistische Deichbruchmodell beschreibt Deichbrüche, die infolge von drei Bruchmechanismen auftreten: dem Überströmen, dem Piping im Deichuntergrund und dem Versagen der landseitigen Böschung als Folge des Sickerflusses und der Erosion im Deichkörper (Mikro-Instabilität). Das 2D Speicherzellenmodell, angetrieben durch den Breschenausfluss als Randbedingung, berechnet ein erweitertes Spektrum der Hochwasserintensitätsindikatoren wie: Überflutungstiefe, Fliessgeschwindigkeit, Impuls, Überflutungsdauer und Wasseranstiegsrate. IHAM wird im Rahmen einer Monte Carlo Simulation ausgeführt und berücksichtigt die natürliche Variabilität der Hochwasserentstehungsprozesse, die in der Form der Hydrographen und deren Häufigkeit abgebildet wird, und die Zufälligkeit des Deichversagens, gegeben durch die Lokationen der Bruchstellen, der Zeitpunkte der Brüche und der Breschenbreiten. Das Modell wurde entwickelt und getestet an einem ca. 91 km langen Flussabschnitt. Dieser Flussabschnitt ist durchgängig eingedeicht und befindet sich an der deutschen Elbe zwischen den Pegeln Torgau und Vockerode. Die Szenarioberechnungen wurden von synthetischen Hydrographen für den Hauptstrom und Nebenfluss angetrieben, die für Hochwässer mit Wiederkehrintervallen von 100, 200, 500, und 1000 Jahren entwickelt wurden. Basierend auf den Modellierungsergebnissen wurden probabilistische Deichgefährdungskarten generiert. Sie zeigen die Versagenswahrscheinlichkeiten der diskretisierten Deichabschnitte für jede modellierte Hochwassermagnitude. Die Deichgefährdungskarten im disaggregierten Darstellungsmodus zeigen die Bruchwahrscheinlichkeiten für jeden betrachteten Bruchmechanismus. Neben den binären Überflutungsmustern, die die Wahrscheinlichkeit der Überflutung jeder Rasterzelle im Hinterland zeigen, generiert IHAM probabilistische Hochwassergefährdungskarten. Diese Karten stellen räumliche Muster der in Betracht gezogenen Hochwasserintensitätsindikatoren und entsprechende Jährlichkeiten dar. Schließlich, wurden mit IHAM Szenarien mit Aktivierung vom Polder bei extremen Hochwässern mit Jährlichkeiten von 200, 500, 1000 Jahren simuliert. Das entwickelte IHAM Modellierungssystem stellt ein neues wissenschaftliches Werkzeug für die Untersuchung fluvialer Überflutungsdynamik in extremen Hochwassersituationen unter Berücksichtigung des Einflusses technischer Hochwasserschutzmaßnahmen dar. Das IHAM System hat eine hohe praktische Bedeutung für die Entscheidungsunterstützung im Hochwassermanagement aufgrund der neuartigen Deichbruch- und Hochwassergefährdungskarten, die das Hauptprodukt der Simulationen darstellen. KW - Hochwasser KW - Deichbruch KW - Unsicherheitsanalyse KW - Gefährdungskarten KW - Polder KW - Flood KW - dike breach KW - uncertainty analysis KW - hazard maps KW - polder Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-27646 ER - TY - THES A1 - von Nordheim, Danny T1 - Dielectric non-linearities of P(VDF-TrFE) single and multilayers for memory applications T1 - Dielektrische Nichtlinearitäten in P(VDF-TrFE) Einzel- und Mehrfachschichten für Speicheranwendungen N2 - Poly(vinylidene fluoride-trifluoroethylene) (P(VDF-TrFE)) ferroelectric thin films of different molar ratio have been studied with regard to data memory applications. Therefore, films with thicknesses of 200 nm and less have been spin coated from solution. Observations gained from single layers have been extended to multilayer capacitors and three terminal transistor devices. Besides conventional hysteresis measurements, the measurement of dielectric non-linearities has been used as a main tool of characterisation. Being a very sensitive and non-destructive method, non-linearity measurements are well suited for polarisation readout and property studies. Samples have been excited using a high quality, single-frequency sinusoidal voltage with an amplitude significantly smaller than the coercive field of the samples. The response was then measured at the excitation frequency and its higher harmonics. Using the measurement results, the linear and non-linear dielectric permittivities ɛ₁, ɛ₂ and ɛ₃ have been determined. The permittivities have been used to derive the temperature-dependent polarisation behaviour as well as the polarisation state and the order of the phase transitions. The coercive field in VDF-TrFE copolymers is high if compared to their ceramic competitors. Therefore, the film thickness had to be reduced significantly. Considering a switching voltage of 5 V and a coercive field of 50 MV/m, the film thickness has to be 100 nm and below. If the thickness becomes substantially smaller than the other dimensions, surface and interface layer effects become more pronounced. For thicker films of P(VDF-TrFE) with a molar fraction of 56/44 a second-order phase transition without a thermal hysteresis for an ɛ₁(T) temperature cycle has been predicted and observed. This however, could not be confirmed by the measurements of thinner films. A shift of transition temperatures as well as a temperature independent, non-switchable polarisation and a thermal hysteresis for P(VDF-TrFE) 56/44 have been observed. The impact of static electric fields on the polarisation and the phase transition has therefore been studied and simulated, showing that all aforementioned phenomena including a linear temperature dependence of the polarisation might originate from intrinsic electric fields. In further experiments the knowledge gained from single layer capacitors has been extended to bilayer copolymer thin films of different molar composition. Bilayers have been deposited by succeeding cycles of spin coating from solution. Single layers and their bilayer combination have been studied individually in order to prove the layers stability. The individual layers have been found to be physically stable. But while the bilayers reproduced the main ɛ₁(T) properties of the single layers qualitatively, quantitative numbers could not be explained by a simple serial connection of capacitors. Furthermore, a linear behaviour of the polarisation throughout the measured temperature range has been observed. This was found to match the behaviour predicted considering a constant electric field. Retention time is an important quantity for memory applications. Hence, the retention behaviour of VDF-TrFE copolymer thin films has been determined using dielectric non-linearities. The polarisation loss in P(VDF-TrFE) poled samples has been found to be less than 20% if recorded over several days. The loss increases significantly if the samples have been poled with lower amplitudes, causing an unsaturated polarisation. The main loss was attributed to injected charges. Additionally, measurements of dielectric non-linearities have been proven to be a sensitive and non-destructive tool to measure the retention behaviour. Finally, a ferroelectric field effect transistor using mainly organic materials (FerrOFET) has been successfully studied. DiNaphtho[2,3-b:2',3'-f]Thieno[3,2-b]Thiophene (DNTT) has proven to be a stable, suitable organic semiconductor to build up ferroelectric memory devices. Furthermore, an oxidised aluminium bottom electrode and additional dielectric layers, i.e. parylene C, have proven to reduce the leakage current and therefore enhance the performance significantly. N2 - Ferroelektrika eignen sich generell gut zur Realisierung von Datenspeichern, da einige dieser Materialien bei Raumtemperatur und darüber hinaus eine spontane Polarisation besitzen. Diese lässt sich durch Anlegen einer ausreichend großen Spannung definiert schalten. Die unterschiedlichen Zustände der Polarisation können dann ausgelesen und verschiedenen Speicherzuständen, insbesondere 0 und 1, zugeordnet werden. Da der Polarisationszustand auch nach Abschaltung der zur Polarisation verwendeten Spannung erhalten bleibt, bezeichnet man diese Speicher als nicht flüchtig, ähnlich wie herkömmliche Flash-Speicher (z.B. USB-Sticks). Bisher wurden vor allem ferroelektrische Speicher aus keramischen Materialien untersucht und implementiert. Ferroelektrische Speicher aus Polymeren bieten u.U. eine größere Freiheit bei der Formgebung. Weiterhin können Polymere einfacher verarbeitet werden. In der vorliegenden Arbeit wurden dünne Schichten des ferroelektrischen Copolymers VDF-TrFE mit verschiedenen Zusammensetzungen, 56/44 und 70/30 bezogen auf das molare Verhältnis von VDF und TrFE, hinsichtlich ihrer Eigenschaften für die Verwendung in Datenspeichern untersucht. Da die zum Schalten zwischen den Polarisationszuständen benötigte Feldstärke bei den verwendeten Copolymeren sehr hoch ist, musste die Schichtdicke reduziert werden. Auf diese Art und Weise war es möglich, auch mit kleinen, computer-typischen Arbeitsspannungen wie bspw. 5 Volt den Polarisationszustand bzw. Speicherzustand zu ändern. Dazu wurden Schichten mit einer Dicke von 200 Nanometern und weniger durch Aufschleudern einer Lösung (Polymer-Granulat in Lösungsmittel) abgeschieden. Nach der Charakterisierung von Einzelschichten wurden die Untersuchungen auf Doppelschichten und organische Feldeffekttransistoren ausgeweitet. Aus vorherigen Untersuchungen an dünnen VDF-TrFE Copolymer-Schichten mit einer Dicke von einigen Mikrometern war bereits bekannt, dass die Messung der Nichtlinearitäten ein nützliches Werkzeug zur Charakterisierung dieser Schichten ist. Besonders der bereits erwähnte Schaltzustand lässt sich gut auslesen. Weiterhin können auch das temperatur- und das zeitabhängige Verhalten der Polarisation bestimmt werden. Ersteres ist besonders für den Temperaturbereich ausschlaggebend, in welchem die Speicher eingesetzt werden. Ab einer gewissen Temperatur, der sogenannten Phasenübergangstemperatur, verlieren die Materialien ihre Polarisation und damit jegliche gespeicherte Information. Der zeitliche Verlauf der Polarisation ist für das sogenannte Retentionsverhalten eines nichtflüchtigen Speichers von Bedeutung. Es definiert, wie lange eine gespeicherte Information fehlerfrei erhalten bleibt bzw. ausgelesen werden kann. Bei der Auswertung der Ergebnisse zeigt sich, dass die hergestellten Schichten selbst bei einer Dicke von 30 Nanometern und weniger eine schaltbare Polarisation aufwiesen. Es konnte auch beobachtet werden, dass einige Charakteristika, wie z.B. der absolute Wert der Polarisation, die Phasenübergangstemperaturen sowie das Verhalten in der Nähe des Phasenübergangs von denen dickerer Schichten abwichen. Die Polarisation blieb, abhängig von der Zusammensetzung, bis ca. 60°C bzw. 80°C stabil. In Bezug auf das Retentionsverhalten der dünnen Schichten konnte festgestellt werden, dass die Polarisation nach einem anfänglichen Verlust auch über mehrere Tage stabil blieb. Weiterhin wurden Doppelschichten untersucht. Hierzu wurden zwei Schichten unterschiedlicher molarer Zusammensetzung aufeinander abgeschieden. Unter, zwischen und auf den Schichten wurden jeweils Elektroden abgeschieden. Diese wurden so platziert, dass sowohl die Schichten einzeln als auch das Schichtsystem gemessen werden konnten. Bei der Messung der Schichtsysteme und ihrer individuellen Schichten wurde festgestellt, dass Letztere das in vorherigen Messungen an Einzelschichten beobachtete Verhalten aufwiesen. Bei den Schichtsystemen hingegen wurde eine lineare Abhängigkeit der Polarisation von der Temperatur beobachtet. Abschließend wurden ferroelektrische organische Transistoren (FerrOFET) untersucht. Dabei erwies sich der organische Halbleiter DNTT als geeignetes Material für den leitfähigen Kanal. Weiterhin zeigte sich, dass sich mithilfe von zusätzlich oxidierten Aluminium-Grundelektroden sowie zusätzlichen Schichten von Parylene C die Funktionsfähigkeit der Bauelemente verbessern ließ. KW - Ferroelektrika KW - Speicheranwendungen KW - Dielektrische Nichtlinearitäten KW - Ferroelektrische Polymere KW - P(VDF-TrFE) KW - ferroelectrics KW - ferroelectric polymers KW - dielectric non-linearities KW - memory applications KW - P(VDF-TrFE) Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421778 ER - TY - THES A1 - von Kaphengst, Dragana T1 - Project’s management quality in development cooperation T1 - Managementqualität von Projekten in der Entwicklungszusammenarbeit N2 - In light of the debate on the consequences of competitive contracting out of traditionally public services, this research compares two mechanisms used to allocate funds in development cooperation—direct awarding and competitive contracting out—aiming to identify their potential advantages and disadvantages. The agency theory is applied within the framework of rational-choice institutionalism to study the institutional arrangements that surround two different money allocation mechanisms, identify the incentives they create for the behavior of individual actors in the field, and examine how these then transfer into measurable differences in managerial quality of development aid projects. In this work, project management quality is seen as an important determinant of the overall project success. For data-gathering purposes, the German development agency, the Gesellschaft für Internationale Zusammenarbeit (GIZ), is used due to its unique way of work. Whereas the majority of projects receive funds via direct-award mechanism, there is a commercial department, GIZ International Services (GIZ IS) that has to compete for project funds. The data concerning project management practices on the GIZ and GIZ IS projects was gathered via a web-based, self-administered survey of project team leaders. Principal component analysis was applied to reduce the dimensionality of the independent variable to total of five components of project management. Furthermore, multiple regression analysis identified the differences between the separate components on these two project types. Enriched by qualitative data gathered via interviews, this thesis offers insights into everyday managerial practices in development cooperation and identifies the advantages and disadvantages of the two allocation mechanisms. The thesis first reiterates the responsibility of donors and implementers for overall aid effectiveness. It shows that the mechanism of competitive contracting out leads to better oversight and control of implementers, fosters deeper cooperation between the implementers and beneficiaries, and has a potential to strengthen ownership of recipient countries. On the other hand, it shows that the evaluation quality does not tremendously benefit from the competitive allocation mechanism and that the quality of the component knowledge management and learning is better when direct-award mechanisms are used. This raises questions about the lacking possibilities of actors in the field to learn about past mistakes and incorporate the finings into the future interventions, which is one of the fundamental issues of aid effectiveness. Finally, the findings show immense deficiencies in regard to oversight and control of individual projects in German development cooperation. KW - development cooperation KW - project management quality KW - evaluation KW - GIZ KW - knowledge management KW - Entwicklungszusammenarbeit KW - Qualität des Projektmanagements KW - Evaluierung KW - GIZ KW - Wissensmanagement Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430992 ER - TY - THES A1 - Vogel, Thomas T1 - Model-driven engineering of self-adaptive software T1 - Modellgetriebene Entwicklung von Selbst-Adaptiver Software N2 - The development of self-adaptive software requires the engineering of an adaptation engine that controls the underlying adaptable software by a feedback loop. State-of-the-art approaches prescribe the feedback loop in terms of numbers, how the activities (e.g., monitor, analyze, plan, and execute (MAPE)) and the knowledge are structured to a feedback loop, and the type of knowledge. Moreover, the feedback loop is usually hidden in the implementation or framework and therefore not visible in the architectural design. Additionally, an adaptation engine often employs runtime models that either represent the adaptable software or capture strategic knowledge such as reconfiguration strategies. State-of-the-art approaches do not systematically address the interplay of such runtime models, which would otherwise allow developers to freely design the entire feedback loop. This thesis presents ExecUtable RuntimE MegAmodels (EUREMA), an integrated model-driven engineering (MDE) solution that rigorously uses models for engineering feedback loops. EUREMA provides a domain-specific modeling language to specify and an interpreter to execute feedback loops. The language allows developers to freely design a feedback loop concerning the activities and runtime models (knowledge) as well as the number of feedback loops. It further supports structuring the feedback loops in the adaptation engine that follows a layered architectural style. Thus, EUREMA makes the feedback loops explicit in the design and enables developers to reason about design decisions. To address the interplay of runtime models, we propose the concept of a runtime megamodel, which is a runtime model that contains other runtime models as well as activities (e.g., MAPE) working on the contained models. This concept is the underlying principle of EUREMA. The resulting EUREMA (mega)models are kept alive at runtime and they are directly executed by the EUREMA interpreter to run the feedback loops. Interpretation provides the flexibility to dynamically adapt a feedback loop. In this context, EUREMA supports engineering self-adaptive software in which feedback loops run independently or in a coordinated fashion within the same layer as well as on top of each other in different layers of the adaptation engine. Moreover, we consider preliminary means to evolve self-adaptive software by providing a maintenance interface to the adaptation engine. This thesis discusses in detail EUREMA by applying it to different scenarios such as single, multiple, and stacked feedback loops for self-repairing and self-optimizing the mRUBiS application. Moreover, it investigates the design and expressiveness of EUREMA, reports on experiments with a running system (mRUBiS) and with alternative solutions, and assesses EUREMA with respect to quality attributes such as performance and scalability. The conducted evaluation provides evidence that EUREMA as an integrated and open MDE approach for engineering self-adaptive software seamlessly integrates the development and runtime environments using the same formalism to specify and execute feedback loops, supports the dynamic adaptation of feedback loops in layered architectures, and achieves an efficient execution of feedback loops by leveraging incrementality. N2 - Die Entwicklung von selbst-adaptiven Softwaresystemen erfordert die Konstruktion einer geschlossenen Feedback Loop, die das System zur Laufzeit beobachtet und falls nötig anpasst. Aktuelle Konstruktionsverfahren schreiben eine bestimmte Feedback Loop im Hinblick auf Anzahl und Struktur vor. Die Struktur umfasst die vorhandenen Aktivitäten der Feedback Loop (z. B. Beobachtung, Analyse, Planung und Ausführung einer Adaption) und die Art des hierzu verwendeten Systemwissens. Dieses System- und zusätzlich das strategische Wissen (z. B. Adaptionsregeln) werden in der Regel in Laufzeitmodellen erfasst und in die Feedback Loop integriert. Aktuelle Verfahren berücksichtigen jedoch nicht systematisch die Laufzeitmodelle und deren Zusammenspiel, so dass Entwickler die Feedback Loop nicht frei entwerfen und gestalten können. Folglich wird die Feedback Loop während des Entwurfs der Softwarearchitektur häufig nicht explizit berücksichtigt. Diese Dissertation stellt mit EUREMA ein neues Konstruktionsverfahren für Feedback Loops vor. Basierend auf Prinzipien der modellgetriebenen Entwicklung (MDE) setzt EUREMA auf die konsequente Nutzung von Modellen für die Konstruktion, Ausführung und Adaption von selbst-adaptiven Softwaresystemen. Hierzu wird eine domänenspezifische Modellierungssprache (DSL) vorgestellt, mit der Entwickler die Feedback Loop frei entwerfen und gestalten können, d. h. ohne Einschränkung bezüglich der Aktivitäten, Laufzeitmodelle und Anzahl der Feedback Loops. Zusätzlich bietet die DSL eine Architektursicht auf das System, die die Feedback Loops berücksichtigt. Daher stellt die DSL Konstrukte zur Verfügung, mit denen Entwickler während des Entwurfs der Architektur die Feedback Loops explizit definieren und berücksichtigen können. Um das Zusammenspiel der Laufzeitmodelle zu erfassen, wird das Konzept eines sogenannten Laufzeitmegamodells vorgeschlagen, das alle Aktivitäten und Laufzeitmodelle einer Feedback Loop erfasst. Dieses Konzept dient als Grundlage der vorgestellten DSL. Die bei der Konstruktion und mit der DSL erzeugten (Mega-)Modelle werden zur Laufzeit bewahrt und von einem Interpreter ausgeführt, um das spezifizierte Adaptionsverhalten zu realisieren. Der Interpreteransatz bietet die notwendige Flexibilität, um das Adaptionsverhalten zur Laufzeit anzupassen. Dies ermöglicht über die Entwicklung von Systemen mit mehreren Feedback Loops auf einer Ebene hinaus das Schichten von Feedback Loops im Sinne einer adaptiven Regelung. Zusätzlich bietet EUREMA eine Schnittstelle für Wartungsprozesse an, um das Adaptionsverhalten im laufendem System anzupassen. Die Dissertation diskutiert den EUREMA-Ansatz und wendet diesen auf verschiedene Problemstellungen an, u. a. auf einzelne, mehrere und koordinierte als auch geschichtete Feedback Loops. Als Anwendungsbeispiel dient die Selbstheilung und Selbstoptimierung des Online-Marktplatzes mRUBiS. Für die Evaluierung von EUREMA werden Experimente mit dem laufenden mRUBiS und mit alternativen Lösungen durchgeführt, das Design und die Ausdrucksmächtigkeit der DSL untersucht und Qualitätsmerkmale wie Performanz und Skalierbarkeit betrachtet. Die Ergebnisse der Evaluierung legen nahe, dass EUREMA als integrierter und offener Ansatz für die Entwicklung selbst-adaptiver Softwaresysteme folgende Beiträge zum Stand der Technik leistet: eine nahtlose Integration der Entwicklungs- und Laufzeitumgebung durch die konsequente Verwendung von Modellen, die dynamische Anpassung des Adaptionsverhaltens in einer Schichtenarchitektur und eine effiziente Ausführung von Feedback Loops durch inkrementelle Verarbeitungsschritte. KW - model-driven engineering KW - self-adaptive software KW - domain-specific modeling KW - runtime models KW - software evolution KW - modellgetriebene Entwicklung KW - Selbst-Adaptive Software KW - Domänenspezifische Modellierung KW - Laufzeitmodelle KW - Software-Evolution Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409755 ER - TY - THES A1 - Vogel, Stefanie T1 - Sequence dependency of photon and electron induced DNA strand breaks T1 - Sequenzabhängigkeit von photonen-und elektroneninduzierten DNA Strangbrüchen N2 - Deoxyribonucleic acid (DNA) is the carrier of human genetic information and is exposed to environmental influences such as the ultraviolet (UV) fraction of sunlight every day. The photostability of the DNA against UV light is astonishing. Even if the DNA bases have a strong absorption maximum at around 260 nm/4.77 eV, their quantum yield of photoproducts remains very low 1. If the photon energies exceed the ionization energy (IE) of the nucleobases ( ̴ 8-9 eV) 2, the DNA can be severely damaged. Photoexcitation and -ionization reactions occur, which can induce strand breaks in the DNA. The efficiency of the excitation and ionization induced strand breaks in the target DNA sequences are represented by cross sections. If Si as a substrate material is used in the VUV irradiation experiments, secondary electrons with an energy below 3.6 eV are generated from the substrate. This low energy electrons (LEE) are known to induce dissociative electron attachment (DEA) in DNA and with it DNA strand breakage very efficiently. LEEs play an important role in cancer radiation therapy, since they are generated secondarily along the radiation track of ionizing radiation. In the framework of this thesis, different single stranded DNA sequences were irradiated with 8.44 eV vacuum UV (VUV) light and cross sections for single strand breaks (SSB) were determined. Several sequences were also exposed to secondary LEEs, which additionally contributed to the SSBs. First, the cross sections for SSBs depending on the type of nucleobases were determined. Both types of DNA sequences, mono-nucleobase and mixed sequences showed very similar results upon VUV radiation. The additional influence of secondarily generated LEEs resulted in contrast in a clear trend for the SSB cross sections. In this, the polythymine sequence had the highest cross section for SSBs, which can be explained by strong anionic resonances in this energy range. Furthermore, SSB cross sections were determined as a function of sequence length. This resulted in an increase in the strand breaks to the same extent as the increase in the geometrical cross section. The longest DNA sequence (20 nucleotides) investigated in this series, however, showed smaller cross section values for SSBs, which can be explained by conformational changes in the DNA. Moreover, several DNA sequences that included the radiosensitizers 5-Bromouracil (5BrU) and 8-Bromoadenine (8BrA) were investigated and the corresponding SSB cross sections were determined. It was shown that 5BrU reacts very strongly to VUV radiation leading to high strand break yields, which showed in turn a strong sequence-dependency. 8BrA, on the other hand, showed no sensitization to the applied VUV radiation, since almost no increase in strand breakage yield was observed in comparison to non-modified DNA sequences. In order to be able to identify the mechanisms of radiation damage by photons, the IEs of certain DNA sequences were further explored using photoionization tandem mass spectrometry. By varying the DNA sequence, both the IEs depending on the type of nucleobase as well as on the DNA strand length could be identified and correlated to the SSB cross sections. The influence of the IE on the photoinduced reaction in the brominated DNA sequences could be excluded. N2 - Desoxyribonukleinsäure (DNA) ist als Träger der menschlichen Erbinformation täglich vielen Einflüssen ausgesetzt. Diese Einflüsse können Teil unserer Umwelt sein, wie der ultraviolette (UV) Anteil des Sonnenlichts. Die Photostabilität der DNA gegen UV-Licht ist erstaunlich, denn trotz eines starkes Absorptionsmaximum der DNA-Basen bei etwa 260 nm/4,77 eV, bleibt ihre Quantenausbeute an Photoprodukten sehr gering 1. Überschreiten die Photonenenergien die Ionisationsenergie (IE) der Nukleinbasen ( ̴ 8-9 eV) 2, kann die DNA schwer geschädigt werden. Es treten Anregungs- und Ionisierungsreaktionen auf, die zu Strangbrüchen in der DNA führen. Die Effizienz der induzierten Strangbrüche in den untersuchten DNA-Sequenzen wird durch Wirkungsquerschnitte dargestellt. Wird in den Bestrahlungsexperimenten Silizium als Substratmaterial verwendet, werden aus dem Substrat zusätzliche Sekundärelektronen mit einer Energie unter 3,6 eV erzeugt, die weiteren Schaden an der DNA verursachen. Diese niederenergetischen Elektronen (LEE) sind dafür bekannt, dissoziative Elektronenanlagerung (DEA) und damit Strangbrüche in der DNA zu erzeugen. LEEs entstehen sekundär entlang des Strahlungsweges von ionisierender Strahlung im biologischen Gewebe, wenn in der Behandlung der Krankheit Krebs Strahlentherapie eingesetzt wird. Im Rahmen dieser Arbeit wurden verschiedene Einzelstrang-DNA-Sequenzen mit 8.44 eV Vakuum-UV (VUV) Licht bestrahlt und Wirkungsquerschnitte für Einzel-strangbrüche (SSB) bestimmt. Ein Teil der Sequenzen wurde außerdem sekundär erzeugten LEEs ausgesetzt, die einen zusätzlichen Beitrag zu den SSBs liefern. Als erstes wurde der Wirkungsquerschnitt für SSBs in Abhängigkeit der Nukleinbasen bestimmt. Hierbei weisen sowohl die DNA Sequenzen, die nur ein Sorte an Nukleinbasen besitzen als auch die gemischte Sequenzen sehr ähnliche Werte auf. Durch den zusätzlichen Einfluss der LEEs hat sich wiederum für die DNA Sequenzen mit nur einer Sorte an Nukleinbasen ein stark ausgeprägter Trend gezeigt. Die Polythymin-Sequenz weist den höchsten Wirkungsquerschnitt für SSBs auf, was durch ausgeprägte anionische Resonanzen in diesem Energiebereich begründet werden kann. Des Weiteren wurden Wirkungsquerschnitte für SSBs in Abhängigkeit Sequenzlänge ermittelt. Dabei ergab sich eine Erhöhung der SSBs im gleichen Maße wie die Vergrößerung des geometrischen Wirkungsquerschnitts. Die längste DNA Sequenz (20 Nukleotide), die in dieser Reihe untersucht wurde, zeigte hingegen kleinere Werte für den SSB Wirkungsquerschnitt, was durch Konformationsänderungen in der DNA erklärt werden kann. Einige der untersuchten DNA Sequenzen wurden zusätzlich mit den Radiosensibilisatoren 5-Bromouracil (5BrU) und 8-Bromoadenine (8BrA) modifiziert und entsprechende SSB Wirkungsquerschnitte bestimmt. Hierbei hat sich gezeigt, dass 5BrU mittels einer hohen Strangbruchausbeute sehr stark auf VUV Strahlung reagiert, wobei das Ausmaß der Reaktion stark sequenzabhängig ist. 8BrA hingegen, weist keine Sensibilisierung gegenüber der verwendeten VUV Strahlung auf, da keine Erhöhung der Strangbruchausbeute gegenüber unmodifizierten DNA Sequenzen ersichtlich ist. Um die Mechanismen der Strahlenschädigung durch Photonen besser einschätzen zu können, wurden zusätzlich die IEs bestimmter DNA Sequenzen mit Hilfe der Photoionisations-Tandem-Massenspektrometrie untersucht. Durch Variation der DNA-Sequenzen konnte sowohl ein Trend der IEs in Abhängigkeit der Nukleinbasen und der DNA-Stranglänge identifiziert und als auch eine Abhängigkeit der Reaktivität von 5BrU von seinem IE in der entsprechenden DNA Sequenz ausgeschlossen werden. Die IE Trends und die Wirkungsquerschnitte für SSBs wurden abschließend in Korrelation gebracht. KW - DNA KW - photo ionization KW - dissociative electron attachment KW - DNA origami KW - radiosensitizer KW - ionization energy KW - tandem mass spectrometry KW - DNS KW - Photoionisation KW - Dissoziative Elektronenanlagerung KW - DNA Origami KW - Radiosensibilisator KW - Ionisierungsenergie KW - Tandemmassenspektrometrie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-419669 ER - TY - THES A1 - Vogel, Kristin T1 - Applications of Bayesian networks in natural hazard assessments T1 - Anwendungen von Bayes'schen Netzen bei der Einschätzung von Naturgefahren N2 - Even though quite different in occurrence and consequences, from a modeling perspective many natural hazards share similar properties and challenges. Their complex nature as well as lacking knowledge about their driving forces and potential effects make their analysis demanding: uncertainty about the modeling framework, inaccurate or incomplete event observations and the intrinsic randomness of the natural phenomenon add up to different interacting layers of uncertainty, which require a careful handling. Nevertheless deterministic approaches are still widely used in natural hazard assessments, holding the risk of underestimating the hazard with disastrous effects. The all-round probabilistic framework of Bayesian networks constitutes an attractive alternative. In contrast to deterministic proceedings, it treats response variables as well as explanatory variables as random variables making no difference between input and output variables. Using a graphical representation Bayesian networks encode the dependency relations between the variables in a directed acyclic graph: variables are represented as nodes and (in-)dependencies between variables as (missing) edges between the nodes. The joint distribution of all variables can thus be described by decomposing it, according to the depicted independences, into a product of local conditional probability distributions, which are defined by the parameters of the Bayesian network. In the framework of this thesis the Bayesian network approach is applied to different natural hazard domains (i.e. seismic hazard, flood damage and landslide assessments). Learning the network structure and parameters from data, Bayesian networks reveal relevant dependency relations between the included variables and help to gain knowledge about the underlying processes. The problem of Bayesian network learning is cast in a Bayesian framework, considering the network structure and parameters as random variables itself and searching for the most likely combination of both, which corresponds to the maximum a posteriori (MAP score) of their joint distribution given the observed data. Although well studied in theory the learning of Bayesian networks based on real-world data is usually not straight forward and requires an adoption of existing algorithms. Typically arising problems are the handling of continuous variables, incomplete observations and the interaction of both. Working with continuous distributions requires assumptions about the allowed families of distributions. To "let the data speak" and avoid wrong assumptions, continuous variables are instead discretized here, thus allowing for a completely data-driven and distribution-free learning. An extension of the MAP score, considering the discretization as random variable as well, is developed for an automatic multivariate discretization, that takes interactions between the variables into account. The discretization process is nested into the network learning and requires several iterations. Having to face incomplete observations on top, this may pose a computational burden. Iterative proceedings for missing value estimation become quickly infeasible. A more efficient albeit approximate method is used instead, estimating the missing values based only on the observations of variables directly interacting with the missing variable. Moreover natural hazard assessments often have a primary interest in a certain target variable. The discretization learned for this variable does not always have the required resolution for a good prediction performance. Finer resolutions for (conditional) continuous distributions are achieved with continuous approximations subsequent to the Bayesian network learning, using kernel density estimations or mixtures of truncated exponential functions. All our proceedings are completely data-driven. We thus avoid assumptions that require expert knowledge and instead provide domain independent solutions, that are applicable not only in other natural hazard assessments, but in a variety of domains struggling with uncertainties. N2 - Obwohl Naturgefahren in ihren Ursachen, Erscheinungen und Auswirkungen grundlegend verschieden sind, teilen sie doch viele Gemeinsamkeiten und Herausforderungen, wenn es um ihre Modellierung geht. Fehlendes Wissen über die zugrunde liegenden Kräfte und deren komplexes Zusammenwirken erschweren die Wahl einer geeigneten Modellstruktur. Hinzu kommen ungenaue und unvollständige Beobachtungsdaten sowie dem Naturereignis innewohnende Zufallsprozesse. All diese verschiedenen, miteinander interagierende Aspekte von Unsicherheit erfordern eine sorgfältige Betrachtung, um fehlerhafte und verharmlosende Einschätzungen von Naturgefahren zu vermeiden. Dennoch sind deterministische Vorgehensweisen in Gefährdungsanalysen weit verbreitet. Bayessche Netze betrachten die Probleme aus wahrscheinlichkeitstheoretischer Sicht und bieten somit eine sinnvolle Alternative zu deterministischen Verfahren. Alle vom Zufall beeinflussten Größen werden hierbei als Zufallsvariablen angesehen. Die gemeinsame Wahrscheinlichkeitsverteilung aller Variablen beschreibt das Zusammenwirken der verschiedenen Einflussgrößen und die zugehörige Unsicherheit/Zufälligkeit. Die Abhängigkeitsstrukturen der Variablen können durch eine grafische Darstellung abgebildet werden. Die Variablen werden dabei als Knoten in einem Graphen/Netzwerk dargestellt und die (Un-)Abhängigkeiten zwischen den Variablen als (fehlende) Verbindungen zwischen diesen Knoten. Die dargestellten Unabhängigkeiten veranschaulichen, wie sich die gemeinsame Wahrscheinlichkeitsverteilung in ein Produkt lokaler, bedingter Wahrscheinlichkeitsverteilungen zerlegen lässt. Im Verlauf dieser Arbeit werden verschiedene Naturgefahren (Erdbeben, Hochwasser und Bergstürze) betrachtet und mit Bayesschen Netzen modelliert. Dazu wird jeweils nach der Netzwerkstruktur gesucht, welche die Abhängigkeiten der Variablen am besten beschreibt. Außerdem werden die Parameter der lokalen, bedingten Wahrscheinlichkeitsverteilungen geschätzt, um das Bayessche Netz und dessen zugehörige gemeinsame Wahrscheinlichkeitsverteilung vollständig zu bestimmen. Die Definition des Bayesschen Netzes kann auf Grundlage von Expertenwissen erfolgen oder - so wie in dieser Arbeit - anhand von Beobachtungsdaten des zu untersuchenden Naturereignisses. Die hier verwendeten Methoden wählen Netzwerkstruktur und Parameter so, dass die daraus resultierende Wahrscheinlichkeitsverteilung den beobachteten Daten eine möglichst große Wahrscheinlichkeit zuspricht. Da dieses Vorgehen keine Expertenwissen voraussetzt, ist es universell in verschiedenen Gebieten der Gefährdungsanalyse einsetzbar. Trotz umfangreicher Forschung zu diesem Thema ist das Bestimmen von Bayesschen Netzen basierend auf Beobachtungsdaten nicht ohne Schwierigkeiten. Typische Herausforderungen stellen die Handhabung stetiger Variablen und unvollständiger Datensätze dar. Beide Probleme werden in dieser Arbeit behandelt. Es werden Lösungsansätze entwickelt und in den Anwendungsbeispielen eingesetzt. Eine Kernfrage ist hierbei die Komplexität des Algorithmus. Besonders wenn sowohl stetige Variablen als auch unvollständige Datensätze in Kombination auftreten, sind effizient arbeitende Verfahren gefragt. Die hierzu in dieser Arbeit entwickelten Methoden ermöglichen die Verarbeitung von großen Datensätze mit stetigen Variablen und unvollständigen Beobachtungen und leisten damit einen wichtigen Beitrag für die wahrscheinlichkeitstheoretische Gefährdungsanalyse. KW - Bayes'sche Netze KW - Naturgefahren KW - Gefahrenanalyse KW - Unsicherheiten KW - Hochwasser KW - Bayesian networks KW - natural hazards KW - hazard assessments KW - uncertainties KW - flood events Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69777 ER - TY - THES A1 - Vockenberg, Kerstin T1 - Updating of representations in working memory T1 - Aktualisierung von Arbeitsgedächtnisrepräsentationen N2 - The limited capacity of working memory forces people to update its contents continuously. Two aspects of the updating process were investigated in the present experimental series. The first series concerned the question if it is possible to update several representations in parallel. Similar results were obtained for the updating of object features as well as for the updating of whole objects, participants were able to update representations in parallel. The second experimental series addressed the question if working memory representations which were replaced in an updating disappear directly or interfere with the new representations. Evidence for the existence of old representations was found under working memory conditions and under conditions exceeding working memory capacity. These results contradict the hypothesis that working memory contents are protected from proactive interference of long-term memory contents. N2 - Aufgrund der begrenzten Kapazität des Arbeitsgedächtnisses müssen seine Inhalte ständig aktualisiert werden. Zwei Aspekte des Aktualisierungsprozesses wurden in Experimentalserien untersucht. Die erste Serie betraf die Frage, ob es möglich ist, mehrere Repräsentationen gleichzeitig zu aktualisieren. Ähnliche Ergebnisse ergaben sich sowohl für das Aktualisieren von Objektmerkmalen als auch für das Aktualisieren von ganzen Objekten, die Versuchsteilnehmer konnten Repräsentationen gleichzeitig aktualisieren. In der zweiten Experimentalserie wurde die Frage untersucht, ob Arbeitsgedächtnisrepräsentationen, die bei einer Aktualisierung ersetzt worden sind, sofort verschwinden oder mit den neuen Repräsentationen interferieren. Evidenz für das Vorhandensein alter Repräsentationen wurde unter Arbeitsgedächtnisbedingungen und unter Bedingungen, bei denen die Arbeitsgedächtniskapazität überschritten wird, gefunden. Diese Ergebnisse widersprechen der Hypothese, dass Arbeitsgedächtnisinhalte vor proaktiver Interferenz aus dem Langzeitgedächtnis geschützt sind. KW - Aktualisierung KW - Arbeitsgedächtnis KW - proaktive Interferenz KW - parallele Aktualisierung KW - updating KW - working memory KW - proactive interference KW - parallel updating Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-11767 ER - TY - THES A1 - Vlasov, Vladimir T1 - Synchronization of oscillatory networks in terms of global variables T1 - Synchronisation in Netzwerken von Oszillatoren via globaler Variabler N2 - Synchronization of large ensembles of oscillators is an omnipresent phenomenon observed in different fields of science like physics, engineering, life sciences, etc. The most simple setup is that of globally coupled phase oscillators, where all the oscillators contribute to a global field which acts on all oscillators. This formulation of the problem was pioneered by Winfree and Kuramoto. Such a setup gives a possibility for the analysis of these systems in terms of global variables. In this work we describe nontrivial collective dynamics in oscillator populations coupled via mean fields in terms of global variables. We consider problems which cannot be directly reduced to standard Kuramoto and Winfree models. In the first part of the thesis we adopt a method introduced by Watanabe and Strogatz. The main idea is that the system of identical oscillators of particular type can be described by a low-dimensional system of global equations. This approach enables us to perform a complete analytical analysis for a special but vast set of initial conditions. Furthermore, we show how the approach can be expanded for some nonidentical systems. We apply the Watanabe-Strogatz approach to arrays of Josephson junctions and systems of identical phase oscillators with leader-type coupling. In the next parts of the thesis we consider the self-consistent mean-field theory method that can be applied to general nonidentical globally coupled systems of oscillators both with or without noise. For considered systems a regime, where the global field rotates uniformly, is the most important one. With the help of this approach such solutions of the self-consistency equation for an arbitrary distribution of frequencies and coupling parameters can be found analytically in the parametric form, both for noise-free and noisy cases. We apply this method to deterministic Kuramoto-type model with generic coupling and an ensemble of spatially distributed oscillators with leader-type coupling. Furthermore, with the proposed self-consistent approach we fully characterize rotating wave solutions of noisy Kuramoto-type model with generic coupling and an ensemble of noisy oscillators with bi-harmonic coupling. Whenever possible, a complete analysis of global dynamics is performed and compared with direct numerical simulations of large populations. N2 - Die Synchronisation einer großen Menge von Oszillatoren ist ein omnipräsentes Phänomen, das in verschiedenen Forschungsgebieten wie Physik, Ingenieurwissenschaften, Medizin und Weiteren beobachtet wird. In der einfachsten Situation ist von einer Menge Phasenoszillatoren jeder mit dem Anderen gekoppelt und trägt zu einem gemeinsamen Feld (dem sogenannten mean field) bei, das auf alle Oszillatoren wirkt. Dieser Formulierung wurde von Winfree und Kuramoto der Weg bereitet und sie birgt die Möglichkeit einer Analyse des Systems mithilfe von globalen Variablen. In dieser Arbeit beschreiben wir mithilfe globaler Variablen die nicht-triviale kollektive Dynamik von Oszillatorpopulationen, welche mit einem mean field verbunden sind. Wir beschäftigen uns mit Problemen die nicht direkt auf die Standardmodelle von Kuramoto und Winfree reduziert werden können. Im ersten Teil der Arbeit verwenden wir eine Methode die auf Watanabe und Stro- gatz zurückgeht. Die Hauptidee ist, dass ein System von identischen Oszillatoren eines bestimmten Typs durch ein niedrig-dimensionales System von globalen Gleichungen beschrieben werden kann. Dieser Ansatz versetzt uns in die Lage eine vollständige analytische Untersuchung für eine spezielle jedoch große Menge an Anfangsbedingungen durchzuführen. Wir zeigen des Weiteren wie der Ansatz auf nicht-identische Systeme erweitert werden kann. Wir wenden die Methode von Watanabe und Strogatz auf Reihen von Josephson-Kontakten und auf identische Phasenoszillatoren mit einer Anführer-Kopplung an. Im nächsten Teil der Arbeit betrachten wir eine selbst-konsistente mean-field-Methode, die auf allgemeine nicht-identische global gekoppelte Phasenoszillatoren mit oder ohne Rauschen angewendet werden kann. Für die betrachteten Systeme gibt es ein Regime, in dem die globalen Felder gleichförmig rotieren. Dieses ist das wichtigste Regime. Es kann mithilfe unseres Ansatzes als Lösung einer Selbstkonsistenzgleichung für beliebige Verteilungen der Frequenzen oder Kopplungsstärken gefunden werden. Die Lösung liegt in einer analytischen, parametrischen Form sowohl für den Fall mit Rauschen, als auch für den Fall ohne Rauschen, vor. Die Methode wird auf ein deterministisches System der Kuramoto-Art mit generischer Kopplung und auf ein Ensemble von räumlich verteilten Oszillatoren mit Anführer-Kopplung angewendet. Zuletzt sind wir in der Lage, die Rotierende-Wellen-Lösungen der Kuramoto-artigen Modelle mit generischer Kopplung, sowie ein Ensemble von verrauschten Oszillatoren mit bi-harmonischer Kopplung, mithilfe des von uns vorgeschlagenen selbst-konsistenten Ansatzes vollständig zu charakterisieren. Wann immer es möglich war, wurde eine vollständige Untersuchung der globalen Dynamik durchgeführt und mit numerischen Ergebnissen von großen Populationen verglichen. KW - synchronization KW - Synchronisation KW - complex networks KW - komplexe Netzwerke KW - global description Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78182 ER - TY - THES A1 - Vitagliano, Gerardo T1 - Modeling the structure of tabular files for data preparation T1 - Modellierung der Struktur von Tabellarische Dateien für die Datenaufbereitung N2 - To manage tabular data files and leverage their content in a given downstream task, practitioners often design and execute complex transformation pipelines to prepare them. The complexity of such pipelines stems from different factors, including the nature of the preparation tasks, often exploratory or ad-hoc to specific datasets; the large repertory of tools, algorithms, and frameworks that practitioners need to master; and the volume, variety, and velocity of the files to be prepared. Metadata plays a fundamental role in reducing this complexity: characterizing a file assists end users in the design of data preprocessing pipelines, and furthermore paves the way for suggestion, automation, and optimization of data preparation tasks. Previous research in the areas of data profiling, data integration, and data cleaning, has focused on extracting and characterizing metadata regarding the content of tabular data files, i.e., about the records and attributes of tables. Content metadata are useful for the latter stages of a preprocessing pipeline, e.g., error correction, duplicate detection, or value normalization, but they require a properly formed tabular input. Therefore, these metadata are not relevant for the early stages of a preparation pipeline, i.e., to correctly parse tables out of files. In this dissertation, we turn our focus to what we call the structure of a tabular data file, i.e., the set of characters within a file that do not represent data values but are required to parse and understand the content of the file. We provide three different approaches to represent file structure, an explicit representation based on context-free grammars; an implicit representation based on file-wise similarity; and a learned representation based on machine learning. In our first contribution, we use the grammar-based representation to characterize a set of over 3000 real-world csv files and identify multiple structural issues that let files deviate from the csv standard, e.g., by having inconsistent delimiters or containing multiple tables. We leverage our learnings about real-world files and propose Pollock, a benchmark to test how well systems parse csv files that have a non-standard structure, without any previous preparation. We report on our experiments on using Pollock to evaluate the performance of 16 real-world data management systems. Following, we characterize the structure of files implicitly, by defining a measure of structural similarity for file pairs. We design a novel algorithm to compute this measure, which is based on a graph representation of the files' content. We leverage this algorithm and propose Mondrian, a graphical system to assist users in identifying layout templates in a dataset, classes of files that have the same structure, and therefore can be prepared by applying the same preparation pipeline. Finally, we introduce MaGRiTTE, a novel architecture that uses self-supervised learning to automatically learn structural representations of files in the form of vectorial embeddings at three different levels: cell level, row level, and file level. We experiment with the application of structural embeddings for several tasks, namely dialect detection, row classification, and data preparation efforts estimation. Our experimental results show that structural metadata, either identified explicitly on parsing grammars, derived implicitly as file-wise similarity, or learned with the help of machine learning architectures, is fundamental to automate several tasks, to scale up preparation to large quantities of files, and to provide repeatable preparation pipelines. N2 - Anwender müssen häufig komplexe Pipelines zur Aufbereitung von tabellarischen Dateien entwerfen, um diese verwalten und ihre Inhalte für nachgelagerte Aufgaben nutzen zu können. Die Komplexität solcher Pipelines ergibt sich aus verschiedenen Faktoren, u.a. (i) aus der Art der Aufbereitungsaufgaben, die oft explorativ oder ad hoc für bestimmte Datensätze durchgeführt werden, (ii) aus dem großen Repertoire an Werkzeugen, Algorithmen und Frameworks, die von den Anwendern beherrscht werden müssen, sowie (iii) aus der Menge, der Größe und der Verschiedenartigkeit der aufzubereitenden Dateien. Metadaten spielen eine grundlegende Rolle bei der Verringerung dieser Komplexität: Die Charakterisierung einer Datei hilft den Nutzern bei der Gestaltung von Datenaufbereitungs-Pipelines und ebnet darüber hinaus den Weg für Vorschläge, Automatisierung und Optimierung von Datenaufbereitungsaufgaben. Bisherige Forschungsarbeiten in den Bereichen Data Profiling, Datenintegration und Datenbereinigung konzentrierten sich auf die Extraktion und Charakterisierung von Metadaten über die Inhalte der tabellarischen Dateien, d.h. über die Datensätze und Attribute von Tabellen. Inhalts-basierte Metadaten sind für die letzten Phasen einer Aufbereitungspipeline nützlich, z.B. für die Fehlerkorrektur, die Erkennung von Duplikaten oder die Normalisierung von Werten, aber sie erfordern eine korrekt geformte tabellarische Eingabe. Daher sind diese Metadaten für die frühen Phasen einer Aufbereitungspipeline, d.h. für das korrekte Parsen von Tabellen aus Dateien, nicht relevant. In dieser Dissertation konzentrieren wir uns die Struktur einer tabellarischen Datei nennen, d.h. die Menge der Zeichen in einer Datei, die keine Datenwerte darstellen, aber erforderlich sind, um den Inhalt der Datei zu analysieren und zu verstehen. Wir stellen drei verschiedene Ansätze zur Darstellung der Dateistruktur vor: eine explizite Darstellung auf der Grundlage kontextfreier Grammatiken, eine implizite Darstellung auf der Grundlage von Dateiähnlichkeiten und eine erlernte Darstellung auf der Grundlage von maschinellem Lernen. In unserem ersten Ansatz verwenden wir die grammatikbasierte Darstellung, um eine Menge von über 3000 realen CSV-Dateien zu charakterisieren und mehrere strukturelle Probleme zu identifizieren, die dazu führen, dass Dateien vom CSV-Standard abweichen, z.B. durch inkonsistente Begrenzungszeichen oder dem Enthalten mehrere Tabellen in einer einzelnen Datei. Wir nutzen unsere Erkenntnisse aus realen Dateien und schlagen Pollock vor, einen Benchmark, der testet, wie gut Systeme unaufbereitete CSV-Dateien parsen. Wir berichten über unsere Experimente zur Verwendung von Pollock, in denen wir die Leistung von 16 realen Datenverwaltungssystemen bewerten. Anschließend charakterisieren wir die Struktur von Dateien implizit, indem wir ein Maß für die strukturelle Ähnlichkeit von Dateipaaren definieren. Wir entwickeln einen neuartigen Algorithmus zur Berechnung dieses Maßes, der auf einer Graphen-basierten Darstellung des Dateiinhalts basiert. Wir nutzen diesen Algorithmus und schlagen Mondrian vor, ein grafisches System zur Unterstützung der Benutzer bei der Identifizierung von Layout Vorlagen in einem Datensatz, d.h. von Dateiklassen, die die gleiche Struktur aufweisen und daher mit der gleichen Pipeline aufbereitet werden können. Schließlich stellen wir MaGRiTTE vor, eine neuartige Architektur, die selbst- überwachtes Lernen verwendet, um automatisch strukturelle Darstellungen von Dateien in Form von vektoriellen Einbettungen auf drei verschiedenen Ebenen zu lernen: auf Zellebene, auf Zeilenebene und auf Dateiebene. Wir experimentieren mit der Anwendung von strukturellen Einbettungen für verschiedene Aufgaben, nämlich Dialekterkennung, Zeilenklassifizierung und der Schätzung des Aufwands für die Datenaufbereitung. Unsere experimentellen Ergebnisse zeigen, dass strukturelle Metadaten, die entweder explizit mit Hilfe von Parsing-Grammatiken identifiziert, implizit als Dateiähnlichkeit abgeleitet oder mit Machine-Learning Architekturen erlernt werden, von grundlegender Bedeutung für die Automatisierung verschiedener Aufgaben, die Skalierung der Aufbereitung auf große Mengen von Dateien und die Bereitstellung wiederholbarer Aufbereitungspipelines sind. KW - data preparation KW - file structure KW - Datenaufbereitung KW - tabellarische Dateien KW - Dateistruktur KW - tabular data Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-624351 ER -