TY - THES A1 - Dahlsten, Ulf T1 - World market governance T1 - Weltmarktsteuerung BT - the alternative; how an international rule of law can reap the benefits of the global market economy and strengthen national and regional sovereignty N2 - Democratic capitalism or liberal democracy, as the successful marriage of convenience between market liberalism and democracy sometimes is called, is in trouble. The market economy system has become global and there is a growing mismatch with the territoriality of the nation-states. The functional global networks and inter-governmental order can no longer keep pace with the rapid development of the global market economy and regulatory capture is all too common. Concepts like de-globalization, self-regulation, and global government are floated in the debate. The alternatives are analysed and found to be improper, inadequate or plainly impossible. The proposed route is instead to accept that the global market economy has developed into an independent fundamental societal system that needs its own governance. The suggestion is World Market Governance based on the Rule of Law in order to shape the fitness environment for the global market economy and strengthen the nation-states so that they can regain the sovereignty to decide upon the social and cultural conditions in each country. Elements in the proposed Rule of Law are international legislation decided by an Assembly supported by a Council, and an independent Judiciary. Existing international organisations would function as executors. The need for broad sustained demand for regulations in the common interest is identified. N2 - Die erfolgreiche Zweckehe zwischen Marktliberalismus und Demokratie, auch als Demokratischer Kapitalismus oder Liberale Demokratie bezeichnet, befindet sich in einer Krise. Das System der Marktwirtschaft hat sich globalisiert und die Diskrepanz zur Territorialität der Nationalstaaten nimmt zu. Globale Netzwerke und die zwischenstaatliche Ordnung können nicht mehr Schritt halten mit der Entwicklungsgeschwindigkeit der globalen Marktwirtschaft, und die Vereinnahmung von Regulierungsinstanzen („regulatory capture“) ist ein weit verbreitetes Phänomen. Konzepte wie Deglobalisierung, Selbstregulierung und Weltregierung werden debattiert. Diese Alternativen werden in dieser Dissertationsschrift analysiert und stellen sich als unpassend, unzulänglich oder schlicht unmöglich heraus. Stattdessen wird vorgeschlagen, zu akzeptieren, dass sich die globale Marktwirtschaft zu einem unabhängigen fundamentalen gesellschaftlichen System entwickelt hat, das einer eigenen Steuerung bedarf. Vorgeschlagen wird ein System der Weltmarktsteuerung aufbauend auf dem Prinzip der Rechtsstaatlichkeit, in das die globale Marktwirtschaft eingebettet wird und das die Nationalstaaten stärkt, so dass sie Ihre Souveränität hinsichtlich Entscheidungen über nationale soziale und kulturelle Bedingungen wiedererlangen. Elemente des vorgeschlagenen gesetzesbasierten Steuerung sind eine internationale Gesetzgebung durch eine Versammlung, unterstützt durch einen Rat, und eine unabhängige Gerichtsbarkeit. Bestehende Internationale Organisationen würden als Exekutive fungieren. Dazu ist eine dauerhafte und umfängliche Nachfrage nach Regulierung im Gemeininteresse erforderlich. KW - Welt KW - Wirtschaft KW - Steuerung KW - Finanz KW - Markt KW - global KW - markets KW - governance KW - finance KW - economy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70168 ER - TY - THES A1 - Ermeydan, Mahmut Ali T1 - Wood cell wall modification with hydrophobic molecules T1 - Modifikation von Holzzellwänden durch hydrophobe Moleküle N2 - Wood is used for many applications because of its excellent mechanical properties, relative abundance and as it is a renewable resource. However, its wider utilization as an engineering material is limited because it swells and shrinks upon moisture changes and is susceptible to degradation by microorganisms and/or insects. Chemical modifications of wood have been shown to improve dimensional stability, water repellence and/or durability, thus increasing potential service-life of wood materials. However current treatments are limited because it is difficult to introduce and fix such modifications deep inside the tissue and cell wall. Within the scope of this thesis, novel chemical modification methods of wood cell walls were developed to improve both dimensional stability and water repellence of wood material. These methods were partly inspired by the heartwood formation in living trees, a process, that for some species results in an insertion of hydrophobic chemical substances into the cell walls of already dead wood cells, In the first part of this thesis a chemistry to modify wood cell walls was used, which was inspired by the natural process of heartwood formation. Commercially available hydrophobic flavonoid molecules were effectively inserted in the cell walls of spruce, a softwood species with low natural durability, after a tosylation treatment to obtain “artificial heartwood”. Flavonoid inserted cell walls show a reduced moisture absorption, resulting in better dimensional stability, water repellency and increased hardness. This approach was quite different compared to established modifications which mainly address hydroxyl groups of cell wall polymers with hydrophilic substances. In the second part of the work in-situ styrene polymerization inside the tosylated cell walls was studied. It is known that there is a weak adhesion between hydrophobic polymers and hydrophilic cell wall components. The hydrophobic styrene monomers were inserted into the tosylated wood cell walls for further polymerization to form polystyrene in the cell walls, which increased the dimensional stability of the bulk wood material and reduced water uptake of the cell walls considerably when compared to controls. In the third part of the work, grafting of another hydrophobic and also biodegradable polymer, poly(ɛ-caprolactone) in the wood cell walls by ring opening polymerization of ɛ-caprolactone was studied at mild temperatures. Results indicated that polycaprolactone attached into the cell walls, caused permanent swelling of the cell walls up to 5%. Dimensional stability of the bulk wood material increased 40% and water absorption reduced more than 35%. A fully biodegradable and hydrophobized wood material was obtained with this method which reduces disposal problem of the modified wood materials and has improved properties to extend the material’s service-life. Starting from a bio-inspired approach which showed great promise as an alternative to standard cell wall modifications we showed the possibility of inserting hydrophobic molecules in the cell walls and supported this fact with in-situ styrene and ɛ-caprolactone polymerization into the cell walls. It was shown in this thesis that despite the extensive knowledge and long history of using wood as a material there is still room for novel chemical modifications which could have a high impact on improving wood properties. N2 - Der nachwachsende Rohstoff Holz wird aufgrund seiner guten mechanischen Eigenschaften und der leichten Verfügbarkeit für viele Anwendungszwecke genutzt. Quellen und Schrumpfen bei Feuchtigkeitsänderungen des hygroskopischen Werkstoffs Holz limitieren jedoch die Einsatzmöglichkeiten. Ein weiteres Problem stellt der mitunter leichte Abbau – u.a. bei feuchtem Holz - durch Mikroorganismen und/oder Insekten dar. Durch chemische Modifizierungen können die Dimensionsstabilität, die Hydrophobizität und die Dauerhaftigkeit verbessert und damit die potentielle Lebensdauer des Werkstoffes erhöht werden. Dabei ist die dauerhafte Modifikation der Zellwand nur äußerst schwer realisierbar. Inspiriert von der Kernholzbildung in lebenden Bäumen, ein zellwandverändernder Prozess, der Jahre nach der Holzbildung erfolgt, wurden im Rahmen dieser Arbeit neue Ansätze zur chemischen Modifizierung der Zellwände entwickelt, um die Dimensionsstabilität und Hydrophobizität zu erhöhen. Der erste Teil der Arbeit ist stark vom Prozess der Kernholzbildung inspiriert, eine abgeleitete Chemie wurde verwendet, um die Zellwände von Fichte, einem Nadelholz von geringer natürlicher Dauerhaftigkeit, zu modifizieren. Kommerziell verfügbare hydrophobe Flavonoide wurden nach einem Tosylierungsschritt erfolgreich in die Zellwand eingebracht, um so „artifizielles Kernholz“ zu erzeugen. Die modifizierten Holzproben zeigten eine verringerte Wasseraufnahme, die zu erhöhter Dimensionsstabilität und Härte führte. Dieser Ansatz unterscheidet sich grundlegend von bereits etablierten Modifikationen, die hauptsächlich hypdrophile Substanzen an die Hydroxylgruppen der Zellwand anlagern. Der zweite Teil der Arbeit beschäftigt sich mit der Polymerisation von Styren in tosylierten Zellwänden. Es ist bekannt, dass es nur eine schwache Adhäsion zwischen den hydrophoben Polymeren und den hydrophilen Zellwandkomponenten gibt. Die hydrophoben Styren-Monomere wurden in die tosylierte Zellwand eingebracht und zu Polystyren polymerisiert. Wie bei der Modifikation mit Flavonoiden konnte eine erhöhte Dimensionsstabilität und reduzierte Wasseraufnahme der Zellwände beobachtet werden. Im dritten Teil der Arbeit wurde das biologisch abbaubare, hydrophobe poly(ɛ-caprolacton) in der Zellwand aufpolymerisiert. Die Ergebnisse deuten darauf hin, dass Polycaprolacton in der Zellwand gebunden ist und zu einer permanenten Quellung führt (bis zu 5 %). Die Dimensionsstabilität nahm um 40 % zu und die Wasseraufnahmerate konnte um mehr als 35 % reduziert werden. Mit dieser Methode kann nicht nur dimensionsstabileres Holz realisiert werden, auch biologische Abbaubarkeit und damit eine einfache Entsorgung sind gewährleistest. KW - Holzmodifikation KW - hydrophobe Moleküle KW - Dimensionsstabilität KW - Wassergehalt KW - wood modification KW - hydrophobic molecules KW - dimensional stability KW - moisture content Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71325 ER - TY - THES A1 - Burdack, Doreen T1 - Water management policies and their impact on irrigated crop production in the Murray-Darling Basin, Australia T1 - Wasserregulierungsstrategien und deren Auswirkungen auf bewässerte Feldfrüchteproduktion im Murray-Darling Flusseinzugsgebiet, Australien N2 - The economic impact analysis contained in this book shows how irrigation farming is particularly susceptible when applying certain water management policies in the Australian Murray-Darling Basin, one of the world largest river basins and Australia’s most fertile region. By comparing different pricing and non-pricing water management policies with the help of the Water Integrated Market Model, it is found that the impact of water demand reducing policies is most severe on crops that need to be intensively irrigated and are at the same time less water productive. A combination of increasingly frequent and severe droughts and the application of policies that decrease agricultural water demand, in the same region, will create a situation in which the highly water dependent crops rice and cotton cannot be cultivated at all. N2 - Die ökonomische Folgenanalyse in diesem Buch zeigt, dass insbesondere Landwirte, die stark auf Bewässerung angewiesen sind, von Wasserregulierungsstrategien im Australischen Murray-Darling Becken betroffen sind. Dieses Gebiet ist eines der größten Flussbecken weltweit und zugleich Australiens fruchtbarste Region. Durch den Vergleich von verschiedenen Preisstrategien und anderen Ansätzen konnte mit Hilfe des Water Integrated Market Models herausgefunden werden, dass die Auswirkungen auf hochgradig wasserabhängige Feldfrüchte mit geringeren Wasserproduktivitäten am stärksten sind. Die Kombination von häufigeren und intensiveren Trockenzeiten und einer Regulierungspolitik mit dem Ziel, die Nachfrage nach Wasser zu verringern, führt dazu, dass in ein und derselben Region hochgradig wasserabhängige Feldfrüchte wie Reis und Baumwolle mit geringeren Wasserproduktivitäten nicht mehr angebaut werden können. T3 - Potsdam Economic Studies - 4 KW - Wasserregulierung KW - Wasserpolitik KW - Bewässerung KW - landwirtschaftliche Produktion KW - Australien KW - water management KW - water policy KW - irrigation KW - agricultural production KW - Australia Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72245 SN - 978-3-86956-306-0 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Schmiedchen, Bettina T1 - Vitamin D and its linkage between chronic kidney disease and cardiovascular integrity Y1 - 2014 ER - TY - THES A1 - Trümper, Jonas T1 - Visualization techniques for the analysis of software behavior and related structures T1 - Visualisierungstechniken für die Analyse von Softwareverhalten und verwandter Strukturen N2 - Software maintenance encompasses any changes made to a software system after its initial deployment and is thereby one of the key phases in the typical software-engineering lifecycle. In software maintenance, we primarily need to understand structural and behavioral aspects, which are difficult to obtain, e.g., by code reading. Software analysis is therefore a vital tool for maintaining these systems: It provides - the preferably automated - means to extract and evaluate information from their artifacts such as software structure, runtime behavior, and related processes. However, such analysis typically results in massive raw data, so that even experienced engineers face difficulties directly examining, assessing, and understanding these data. Among other things, they require tools with which to explore the data if no clear question can be formulated beforehand. For this, software analysis and visualization provide its users with powerful interactive means. These enable the automation of tasks and, particularly, the acquisition of valuable and actionable insights into the raw data. For instance, one means for exploring runtime behavior is trace visualization. This thesis aims at extending and improving the tool set for visual software analysis by concentrating on several open challenges in the fields of dynamic and static analysis of software systems. This work develops a series of concepts and tools for the exploratory visualization of the respective data to support users in finding and retrieving information on the system artifacts concerned. This is a difficult task, due to the lack of appropriate visualization metaphors; in particular, the visualization of complex runtime behavior poses various questions and challenges of both a technical and conceptual nature. This work focuses on a set of visualization techniques for visually representing control-flow related aspects of software traces from shared-memory software systems: A trace-visualization concept based on icicle plots aids in understanding both single-threaded as well as multi-threaded runtime behavior on the function level. The concept’s extensibility further allows the visualization and analysis of specific aspects of multi-threading such as synchronization, the correlation of such traces with data from static software analysis, and a comparison between traces. Moreover, complementary techniques for simultaneously analyzing system structures and the evolution of related attributes are proposed. These aim at facilitating long-term planning of software architecture and supporting management decisions in software projects by extensions to the circular-bundle-view technique: An extension to 3-dimensional space allows for the use of additional variables simultaneously; interaction techniques allow for the modification of structures in a visual manner. The concepts and techniques presented here are generic and, as such, can be applied beyond software analysis for the visualization of similarly structured data. The techniques' practicability is demonstrated by several qualitative studies using subject data from industry-scale software systems. The studies provide initial evidence that the techniques' application yields useful insights into the subject data and its interrelationships in several scenarios. N2 - Die Softwarewartung umfasst alle Änderungen an einem Softwaresystem nach dessen initialer Bereitstellung und stellt damit eine der wesentlichen Phasen im typischen Softwarelebenszyklus dar. In der Softwarewartung müssen wir insbesondere strukturelle und verhaltensbezogene Aspekte verstehen, welche z.B. alleine durch Lesen von Quelltext schwer herzuleiten sind. Die Softwareanalyse ist daher ein unverzichtbares Werkzeug zur Wartung solcher Systeme: Sie bietet - vorzugsweise automatisierte - Mittel, um Informationen über deren Artefakte, wie Softwarestruktur, Laufzeitverhalten und verwandte Prozesse, zu extrahieren und zu evaluieren. Eine solche Analyse resultiert jedoch typischerweise in großen und größten Rohdaten, die selbst erfahrene Softwareingenieure direkt nur schwer untersuchen, bewerten und verstehen können. Unter Anderem dann, wenn vorab keine klare Frage formulierbar ist, benötigen sie Werkzeuge, um diese Daten zu erforschen. Hierfür bietet die Softwareanalyse und Visualisierung ihren Nutzern leistungsstarke, interaktive Mittel. Diese ermöglichen es Aufgaben zu automatisieren und insbesondere wertvolle und belastbare Einsichten aus den Rohdaten zu erlangen. Beispielsweise ist die Visualisierung von Software-Traces ein Mittel, um das Laufzeitverhalten eines Systems zu ergründen. Diese Arbeit zielt darauf ab, den "Werkzeugkasten" der visuellen Softwareanalyse zu erweitern und zu verbessern, indem sie sich auf bestimmte, offene Herausforderungen in den Bereichen der dynamischen und statischen Analyse von Softwaresystemen konzentriert. Die Arbeit entwickelt eine Reihe von Konzepten und Werkzeugen für die explorative Visualisierung der entsprechenden Daten, um Nutzer darin zu unterstützen, Informationen über betroffene Systemartefakte zu lokalisieren und zu verstehen. Da es insbesondere an geeigneten Visualisierungsmetaphern mangelt, ist dies eine schwierige Aufgabe. Es bestehen, insbesondere bei komplexen Softwaresystemen, verschiedenste offene technische sowie konzeptionelle Fragestellungen und Herausforderungen. Diese Arbeit konzentriert sich auf Techniken zur visuellen Darstellung kontrollflussbezogener Aspekte aus Software-Traces von Shared-Memory Softwaresystemen: Ein Trace-Visualisierungskonzept, basierend auf Icicle Plots, unterstützt das Verstehen von single- und multi-threaded Laufzeitverhalten auf Funktionsebene. Die Erweiterbarkeit des Konzepts ermöglicht es zudem spezifische Aspekte des Multi-Threading, wie Synchronisation, zu visualisieren und zu analysieren, derartige Traces mit Daten aus der statischen Softwareanalyse zu korrelieren sowie Traces mit einander zu vergleichen. Darüber hinaus werden komplementäre Techniken für die kombinierte Analyse von Systemstrukturen und der Evolution zugehöriger Eigenschaften vorgestellt. Diese zielen darauf ab, die Langzeitplanung von Softwarearchitekturen und Management-Entscheidungen in Softwareprojekten mittels Erweiterungen an der Circular-Bundle-View-Technik zu unterstützen: Eine Erweiterung auf den 3-dimensionalen Raum ermöglicht es zusätzliche visuelle Variablen zu nutzen; Strukturen können mithilfe von Interaktionstechniken visuell bearbeitet werden. Die gezeigten Techniken und Konzepte sind allgemein verwendbar und lassen sich daher auch jenseits der Softwareanalyse einsetzen, um ähnlich strukturierte Daten zu visualisieren. Mehrere qualitative Studien an Softwaresystemen in industriellem Maßstab stellen die Praktikabilität der Techniken dar. Die Ergebnisse sind erste Belege dafür, dass die Anwendung der Techniken in verschiedenen Szenarien nützliche Einsichten in die untersuchten Daten und deren Zusammenhänge liefert. KW - Visualisierung KW - Softwarewartung KW - Softwareanalyse KW - Softwarevisualisierung KW - Laufzeitverhalten KW - visualization KW - software maintenance KW - software analysis KW - software visualization KW - runtime behavior Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72145 ER - TY - THES A1 - Tian, Fang T1 - Vegetation and environmental changes on millennial, centennial and decadal time-scales in central Mongolia and their driving forces Y1 - 2014 ER - TY - THES A1 - Cao, Xianyong T1 - Vegetation and climate change in eastern continental Asia during the last 22 ka inferred from pollen data synthesis Y1 - 2014 ER - TY - THES A1 - Vu, Dinh Phuong T1 - Using video study to investigate eighth-grade mathematics classrooms in Vietnam T1 - Die Nutzung von Videostudien zur Untersuchung des Mathematikunterrichts in der 8. Klasse in Vietnam N2 - The International Project for the Evaluation of Educational Achievement (IEA) was formed in the 1950s (Postlethwaite, 1967). Since that time, the IEA has conducted many studies in the area of mathematics, such as the First International Mathematics Study (FIMS) in 1964, the Second International Mathematics Study (SIMS) in 1980-1982, and a series of studies beginning with the Third International Mathematics and Science Study (TIMSS) which has been conducted every 4 years since 1995. According to Stigler et al. (1999), in the FIMS and the SIMS, U.S. students achieved low scores in comparison with students in other countries (p. 1). The TIMSS 1995 “Videotape Classroom Study” was therefore a complement to the earlier studies conducted to learn “more about the instructional and cultural processes that are associated with achievement” (Stigler et al., 1999, p. 1). The TIMSS Videotape Classroom Study is known today as the TIMSS Video Study. From the findings of the TIMSS 1995 Video Study, Stigler and Hiebert (1999) likened teaching to “mountain ranges poking above the surface of the water,” whereby they implied that we might see the mountaintops, but we do not see the hidden parts underneath these mountain ranges (pp. 73-78). By watching the videotaped lessons from Germany, Japan, and the United States again and again, they discovered that “the systems of teaching within each country look similar from lesson to lesson. At least, there are certain recurring features [or patterns] that typify many of the lessons within a country and distinguish the lessons among countries” (pp. 77-78). They also discovered that “teaching is a cultural activity,” so the systems of teaching “must be understood in relation to the cultural beliefs and assumptions that surround them” (pp. 85, 88). From this viewpoint, one of the purposes of this dissertation was to study some cultural aspects of mathematics teaching and relate the results to mathematics teaching and learning in Vietnam. Another research purpose was to carry out a video study in Vietnam to find out the characteristics of Vietnamese mathematics teaching and compare these characteristics with those of other countries. In particular, this dissertation carried out the following research tasks: - Studying the characteristics of teaching and learning in different cultures and relating the results to mathematics teaching and learning in Vietnam - Introducing the TIMSS, the TIMSS Video Study and the advantages of using video study in investigating mathematics teaching and learning - Carrying out the video study in Vietnam to identify the image, scripts and patterns, and the lesson signature of eighth-grade mathematics teaching in Vietnam - Comparing some aspects of mathematics teaching in Vietnam and other countries and identifying the similarities and differences across countries - Studying the demands and challenges of innovating mathematics teaching methods in Vietnam – lessons from the video studies Hopefully, this dissertation will be a useful reference material for pre-service teachers at education universities to understand the nature of teaching and develop their teaching career. N2 - Das International Project for the Evaluation of Educational Achievement (IEA) wurde in den 1950er Jahren gegründet. Seitdem führte das IEA viele Studien in Bereich mathematischer Bildung durch, insbesondere die First International Mathematics Study (FIMS) im Jahre 1964, die Second International Mathematics Study (SIMS) in den Jahren 1980–1982 und eine Reihe von Studien, die mit der Third International Mathematics and Science Study (TIMSS) begann und seit 1995 alle vier Jahre durchgeführt wird. Nach Stigler et al. (1999) erreichten US-amerikanische Studenten bei FIMS und SIMS niedrigere Ergebnisse als Schüler anderer Länder (S. 1). Daher wurde TIMSS 1995 erweitert um eine ‘Videotape Classroom Study’ mit dem Ziel, „mehr über die unterrichtlichen und kulturellen Prozesse, die mit Leistung zusammenhängen“, zu erfahren (S. 1; Übersetzung vom engl. Original). Von den Ergebnissen der TIMMS 1995 Video Study ausgehend verglichen Stigler und Hiebert (1999) Unterricht mit „Gebirgszügen, die die Wasseroberfläche durchstoßen“, womit sie ausdrücken sollten, was die Bergspitzen sichtbar, große Teile des Gebirges aber unter dem Wasser verborgen sind (S. 73–78; Übersetzung vom engl. Original). Durch die wiederholte Analyse videographierter Unterrichtsstunden aus Deutschland, Japan und den USA entdeckten sie, dass „die Arten des Unterrichts innerhalb jedes Landes von Stunde zu Stunde ähnlich sind. Zumindest gibt es bestimmte wiederkehrende Aspekte [oder Skripte], welche für viele Stunden eines Landes typisch sind und die Stunden gegenüber anderen Ländern abgrenzen“ (S. 77f.). Sie entdeckten außerdem, dass Unterricht eine „kulturelle Aktivität“ ist, Unterrichtsarten also „verstanden werden müssen in Relation zu den kulturellen Überzeugungen und Annahmen, die sie umgeben“ (S. 85, 88). Hierauf aufbauend war es ein Ziel der Dissertation, kulturelle Aspekte des Mathematikunterricht zu untersuchen und die Ergebnisse mit Mathematikunterricht in Vietnam zu vergleichen. Ein weiteres Ziel war die Erhebung der Charakteristika vietnamesischen Mathematikunterricht durch eine Videostudie in Vietnam und der anschließende Vergleich dieser Charakteristika mit denen anderer Länder. Im Einzelnen befasste sich diese Dissertation mit den folgenden Forschungszielen: - Untersuchung der Charakteristika von Lehren und Lernen in unterschiedlichen Kulturen und vorläufiger Vergleich der Resultate mit dem Lehren und Lernen von Mathematik in Vietnam - Einführung der TIMSS und der TIMSS Video Study und der methodologischen Vorteile von Videostudien für die Untersuchung von Mathematikunterricht in Vietnam - Durchführung der Videostudie in Vietnam, um Unterrichtsskripte des Mathematikunterrichts in 8. Klassen in Vietnam zu identifizieren - Vergleich ausgewählter Aspekte des Mathematikunterrichts in Vietnam mit denen anderer Länder auf der Grundlage der Videostudie in Vietnam und Diskussion von Ähnlichkeiten und Unterschieden zwischen Ländern - Untersuchung der Herausforderungen für eine Innovation der Unterrichtsmethoden im Mathematikunterricht Vietnams Diese Dissertation entstand in der Hoffnung, dass sie eine nützliche Referenz für Lehramtsstudenten zum Verständnis der Natur des Unterrichts und zur Entwicklung der eigenen Lehrerpersönlichkeit darstellen möge. KW - Videostudie KW - Mathematikunterricht KW - Unterrichtsmethode KW - TIMSS KW - Kulturelle Aktivität KW - video study KW - mathematics education KW - teaching methods KW - TIMSS KW - Vietnam Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72464 ER - TY - THES A1 - Hutter, Anne T1 - Unveiling the epoch of reionization by simulations and high-redshift galaxies T1 - Untersuchungen der Epoche der Reionisation mithilfe von Simulationen und Beobachtungen hoch rotverschobener Galaxien N2 - The Epoch of Reionization marks after recombination the second major change in the ionization state of the universe, going from a neutral to an ionized state. It starts with the appearance of the first stars and galaxies; a fraction of high-energy photons emitted from galaxies permeate into the intergalactic medium (IGM) and gradually ionize the hydrogen, until the IGM is completely ionized at z~6 (Fan et al., 2006). While the progress of reionization is driven by galaxy evolution, it changes the ionization and thermal state of the IGM substantially and affects subsequent structure and galaxy formation by various feedback mechanisms. Understanding this interaction between reionization and galaxy formation is further impeded by a lack of understanding of the high-redshift galactic properties such as the dust distribution and the escape fraction of ionizing photons. Lyman Alpha Emitters (LAEs) represent a sample of high-redshift galaxies that are sensitive to all these galactic properties and the effects of reionization. In this thesis we aim to understand the progress of reionization by performing cosmological simulations, which allows us to investigate the limits of constraining reionization by high-redshift galaxies as LAEs, and examine how galactic properties and the ionization state of the IGM affect the visibility and observed quantities of LAEs and Lyman Break galaxies (LBGs). In the first part of this thesis we focus on performing radiative transfer calculations to simulate reionization. We have developed a mapping-sphere-scheme, which, starting from spherically averaged temperature and density fields, uses our 1D radiative transfer code and computes the effect of each source on the IGM temperature and ionization (HII, HeII, HeIII) profiles, which are subsequently mapped onto a grid. Furthermore we have updated the 3D Monte-Carlo radiative transfer pCRASH, enabling detailed reionization simulations which take individual source characteristics into account. In the second part of this thesis we perform a reionization simulation by post-processing a smoothed-particle hydrodynamical (SPH) simulation (GADGET-2) with 3D radiative transfer (pCRASH), where the ionizing sources are modelled according to the characteristics of the stellar populations in the hydrodynamical simulation. Following the ionization fractions of hydrogen (HI) and helium (HeII, HeIII), and temperature in our simulation, we find that reionization starts at z~11 and ends at z~6, and high density regions near sources are ionized earlier than low density regions far from sources. In the third part of this thesis we couple the cosmological SPH simulation and the radiative transfer simulations with a physically motivated, self-consistent model for LAEs, in order to understand the importance of the ionization state of the IGM, the escape fraction of ionizing photons from galaxies and dust in the interstellar medium (ISM) on the visibility of LAEs. Comparison of our models results with the LAE Lyman Alpha (Lya) and UV luminosity functions at z~6.6 reveals a three-dimensional degeneracy between the ionization state of the IGM, the ionizing photons escape fraction and the ISM dust distribution, which implies that LAEs act not only as tracers of reionization but also of the ionizing photon escape fraction and of the ISM dust distribution. This degeneracy does not even break down when we compare simulated with observed clustering of LAEs at z~6.6. However, our results show that reionization has the largest impact on the amplitude of the LAE angular correlation functions, and its imprints are clearly distinguishable from those of properties on galactic scales. These results show that reionization cannot be constrained tightly by exclusively using LAE observations. Further observational constraints, e.g. tomographies of the redshifted hydrogen 21cm line, are required. In addition we also use our LAE model to probe the question when a galaxy is visible as a LAE or a LBG. Within our model galaxies above a critical stellar mass can produce enough luminosity to be visible as a LBG and/or a LAE. By finding an increasing duty cycle of LBGs with Lya emission as the UV magnitude or stellar mass of the galaxy rises, our model reveals that the brightest (and most massive) LBGs most often show Lya emission. Predicting the Lya equivalent width (Lya EW) distribution and the fraction of LBGs showing Lya emission at z~6.6, we reproduce the observational trend of the Lya EWs with UV magnitude. However, the Lya EWs of the UV brightest LBGs exceed observations and can only be reconciled by accounting for an increased Lya attenuation of massive galaxies, which implies that the observed Lya brightest LAEs do not necessarily coincide with the UV brightest galaxies. We have analysed the dependencies of LAE observables on the properties of the galactic and intergalactic medium and the LAE-LBG connection, and this enhances our understanding of the nature of LAEs. N2 - Die Epoche der Reionisation markiert die nach der Rekombination zweite grundlegende Änderung des Ionisationszustandes des Universums, nämlich den Übergang von einem neutralen zu einem ionisierten Zustand. Die Epoche der Reionisation beginnt mit dem Erscheinen der ersten Sterne und Galaxien. Von den Galaxien ausgesendete energiereiche Photonen durchdringen das intergalaktische Medium (IGM) und ionisieren den vorhandenen Wasserstoff schrittweise, bis das IGM bei z~6 (Fan et al., 2006) vollständig ionisiert ist. Während der Verlauf der Reionisation zum einen durch die Galaxienentwicklung bestimmt wird, verändert die Reionisation zum anderen den Ionisations- und thermischen Zustand des IGMs und beeinflusst damit die darauffolgende Struktur- und Galaxienentwicklung durch verschiedene Rückkopplungsmechanismen. Die geringen Kenntnisse der Eigenschaften von Galaxien bei hohen Rotverschiebungen wie der Staubverteilung und des Anteils an ionisierenden Photonen, die die Galaxien verlassen können, erschweren jedoch das Verständnis des Wechselspiels zwischen Reionisation und Galaxienentwicklung. Lyman Alpha Emitter (LAE) stellen Galaxien bei hoher Rotverschiebung dar, deren Sichtbarkeit diesen Eigenschaften und den Effekten der Reionisa\-tion unterliegen. Diese Arbeit zielt darauf ab, den Verlauf der Reionisation anhand von kosmologischen Simulationen zu verstehen. Insbesondere interessiert, inwieweit der Verlauf der Reionisation durch Galaxien bei hohen Rotverschiebungen eingeschränkt werden kann, und wie die Eigenschaften der Galaxien und der Ionisationszustand des IGMs die Sichtbarkeit und die beobachtbaren Größen der LAE und Lyman Break Galaxien (LBG) beeinflussen können. Im ersten Teil dieser Arbeit werden verschiedene Ansätze zur Lösung des Strahlungstransportes neu- und weiterentwickelt mit dem Ziel, die Epoche der Reionisation zu simulieren. Dazu wurde zum einen eine Methode entwickelt, die als Berechnungsgrundlage sphärisch gemittelte Temperatur- und Dichtefelder benutzt. Mithilfe des in dieser Arbeit entwickelten eindimensionalen Strahlungstransportcodes werden die Auswirkungen jeder Quelle auf die dementsprechenden Temperatur- und Ionisa\-tionsprofile (HII, HeII, HeIII) berechnet und diese auf ein Gitter abgebildet. Zum anderen wurde der dreidimensionale Monte-Carlo-Strahlungstransportcode pCRASH so erweitert, sodass detaillierte Reionisationsimulationen, die individulle Quelleneigenschaften berücksichtigen, durchgeführt werden können. Im zweiten Teil dieser Arbeit wird die Epoche der Reionisation in sich konsistent simuliert, indem aufbauend auf einer gasdynamischen Simulation (smoothed particle hydrodynamics (SPH), GADGET-2) mithilfe von pCRASH Strahlungstransportrechnungen ausgeführt werden. Dabei werden die ionisierenden Quellen gemäß der Eigenschaften der Sternpopulationen in der gasdynamischen Simulation modelliert. Die Entwicklung der IGM-Ionisationsanteile an Wasserstoff (HII) und Helium (HeII, HeIII) sowie der Temperatur werden in der Simulation verfolgt. Es zeigt sich, dass Reionisation erstens bei z~11 beginnt und bei z~6 endet, und zweitens von überdichten zu unterdichten Gebieten des Kosmos hin verläuft. Im dritten Teil der Arbeit werden kosmologische SPH - und Strahlungstransportsimulationen mit einem physikalisch motivierten, selbst-konsistenten Modell für LAEs kombiniert, um den Einfluss des Ionisationszustandes des IGMs, des Anteils der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im interstellaren Medium (ISM) auf die sichtbaren Eigenschaften der LAEs zu verstehen. Der Vergleich der Simulationsergebnisse mit den beobachteten LAE Lyman Alpha- und UV-Leuchtkraftfunktionen bei z~6.6 offenbart eine dreidimensionale Entartung zwischen dem Ionisationszustand des IGMs, dem Anteil der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im ISM. Dies bedeutet, dass die Sichtbarkeit von LAEs nicht nur ein Indikator für den Ionisationszustand des IGM ist, sondern auch für den Anteil an ionisierenden Photonen, die die Galaxien verlassen können, und für die Staubverteilung im ISM. Diese Entartung lässt sich auch nicht auflösen, wenn Simulations- und Beobachtungsdaten der räumlichen Verteilung der LAEs bei z~6.6 gemessen mit der winkelabhängigen Zweipunktkorrelationsfunktion verglichen werden. Jedoch zeigt unser Modell, dass die Reionisation den größten Effekt auf die Amplitude der Winkelkorrelation hat und dass sich ihre Spuren klar von den Effekten auf galaktischen Skalen (den Anteil der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im ISM) unterscheiden lassen. Somit kann Reionisation nicht alleine durch LAE Beobachtungen eingeschränkt werden, und es werden weitere Beobachtungen, wie z.B. die Tomographie der rotverschobenen 21cm Wasserstofflinie, benötigt. KW - cosmology KW - reionization KW - high-redshift galaxies KW - radiative transfer KW - simulation KW - Kosmologie KW - Reionisation KW - hoch rotverschobene Galaxien KW - Strahlungstransport KW - Simulationen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76998 ER - TY - THES A1 - Logačev, Pavel T1 - Underspecification and parallel processing in sentence comprehension T1 - Unterspezifikation und parallele Verarbeitung im Satzverständnis N2 - The aim of the present thesis is to answer the question to what degree the processes involved in sentence comprehension are sensitive to task demands. A central phenomenon in this regard is the so-called ambiguity advantage, which is the finding that ambiguous sentences can be easier to process than unambiguous sentences. This finding may appear counterintuitive, because more meanings should be associated with a higher computational effort. Currently, two theories exist that can explain this finding. The Unrestricted Race Model (URM) by van Gompel et al. (2001) assumes that several sentence interpretations are computed in parallel, whenever possible, and that the first interpretation to be computed is assigned to the sentence. Because the duration of each structure-building process varies from trial to trial, the parallelism in structure-building predicts that ambiguous sentences should be processed faster. This is because when two structures are permissible, the chances that some interpretation will be computed quickly are higher than when only one specific structure is permissible. Importantly, the URM is not sensitive to task demands such as the type of comprehension questions being asked. A radically different proposal is the strategic underspecification model by Swets et al. (2008). It assumes that readers do not attempt to resolve ambiguities unless it is absolutely necessary. In other words, they underspecify. According the strategic underspecification hypothesis, all attested replications of the ambiguity advantage are due to the fact that in those experiments, readers were not required to fully understand the sentence. In this thesis, these two models of the parser’s actions at choice-points in the sentence are presented and evaluated. First, it is argued that the Swets et al.’s (2008) evidence against the URM and in favor of underspecification is inconclusive. Next, the precise predictions of the URM as well as the underspecification model are refined. Subsequently, a self-paced reading experiment involving the attachment of pre-nominal relative clauses in Turkish is presented, which provides evidence against strategical underspecification. A further experiment is presented which investigated relative clause attachment in German using the speed-accuracy tradeoff (SAT) paradigm. The experiment provides evidence against strategic underspecification and in favor of the URM. Furthermore the results of the experiment are used to argue that human sentence comprehension is fallible, and that theories of parsing should be able to account for that fact. Finally, a third experiment is presented, which provides evidence for the sensitivity to task demands in the treatment of ambiguities. Because this finding is incompatible with the URM, and because the strategic underspecification model has been ruled out, a new model of ambiguity resolution is proposed: the stochastic multiple-channel model of ambiguity resolution (SMCM). It is further shown that the quantitative predictions of the SMCM are in agreement with experimental data. In conclusion, it is argued that the human sentence comprehension system is parallel and fallible, and that it is sensitive to task-demands. N2 - Das Ziel der vorliegenden Arbeit ist es zu untersuchen zu welchem Grad Satzverständnis kontextabhängig ist. In anderen Worten, werden die mentalen Prozesse die zum Satzverständnis beitragen davon beeinflusst mit welchem Ziel ein Satz gelesen wird? Ein in diesem Hinblick zentrales Phänomen ist die sogenannte ambiguity advantage, wonach ambige Sätze schneller gelesen werden als eindeutige. Dies erscheint zunächst kontraintuitiv, denn die Erstellung mehrerer Bedeutungen müsste mit einem höheren Verarbeitungsaufwand verbunden sein. Im Moment existieren zwei Theorien, die diesen Effekt erklären können: Das Unrestricted Race Model (URM; van Gompel, Pickering, and Traxler, 2000) basiert auf der Annahme, daß Leser, wann immer möglich, mehrere Interpretationen eines Satzes gleichzeitig zu erstellen versuchen. Sobald die erste Interpretation erstellt wurde, wird diese als die finale Interpretation des aktuellen Inputs akzeptiert, und die Erstellung weiterer Interpretationen wird terminiert. Weil die Dauer jedes Strukturerstellungsprozesses variiert, führt dieser Interpretationsmechanismus dazu daß Sätze mit mehreren Bedeutungen schneller verarbeitet werden. Wenn zwei Satzstrukturen zulässig sind, ist die Wahrscheinlichkeit höher daß zumindest eine von beiden relativ schnell berechnet wird als wenn nur eine Struktur zulässig ist. Dieses Modell nimmt keine Einflüsse von Verständnisaufgaben auf die Verarbeitungsstrategie an. Einen gänzlich anderen Erklärungsansatz verfolgt das strategische Unterspezifizierungsmodell von Swets et al. (2008). Hier wird angenommen daß Leser Ambiguitäten nur dann auflösen, wenn es unbedingt notwendig ist. Wenn es nicht notwendig ist, unterspezifizieren sie stattdessen. Laut dem Unterspezifizierungsmodell sind alle bisherigen Replikationen der ambiguity advantage der Tatsache geschuldet, daß in diesen Experimenten nur oberflächliche Fragen gestellt wurden, die keine Ambiguitätsauflösung erforderten. Wäre Disambiguierung erforderlich gewesen, wäre die Verarbeitung ambiger Sätze langsamer. In der vorliegenden Arbeit werden diese beiden Modelle der Ambiguitätsauflösung diskutiert und empirisch evaluiert. Zunächst wird diskutiert warum die Daten von Swets et al.'s (2008) Experiment keine Evidenz für Unterspezifikation darstellen. Als nächstes werden die präzisen quantitativen Vorhersagen des URM und des Unterspezifizierungsmodells diskutiert. Es werden die Resultate eines self-paced reading Experiments mit pränominalen Relativsätzen im Türkischen vorgestellt, welche nicht mit dem Unterspezifizierungsmodell kompatibel sind. Als nächstes werden die Resultate eines weiteren Experiments vorgestellt, welches den Prozess der Relativsatzanbindung im Deutschen im Speed-Accuracy Tradeoff Paradigma (SAT) untersucht. Die Resultate sind mit dem URM, aber nicht mit strategischer Unterspezifikation vereinbar. Des weiteren wird ein drittes Experiment vorgestellt, welches zeigt daß Parsingstrategien von den Gesichtspunkten abhängen unter denen Leser einen Satz lesen. Um alle experimentellen Ergebnisse in dieser Arbeit zu erklären, wird ein neues Modell der Disambiguierung vorgestellt: das Stochastic Multiple-Channel Model (SMCM). Es wird des weiteren gezeigt, daß die quantitativen Vorhersagen des SMCM mit den experimentellen Daten übereinstimmen. KW - psycholinguistics KW - sentence processing KW - Psycholinguistik KW - Satzverarbeitung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82047 ER - TY - THES A1 - Goswami, Bedartha T1 - Uncertainties in climate data analysis T1 - Unsicherheiten in der Analyse von Klimadaten BT - Perspectives on working with measurement errors and other unknowns BT - Über Möglichkeiten der Arbeit mit Meßfehlern und anderen Unbekannten N2 - Scientific inquiry requires that we formulate not only what we know, but also what we do not know and by how much. In climate data analysis, this involves an accurate specification of measured quantities and a consequent analysis that consciously propagates the measurement errors at each step. The dissertation presents a thorough analytical method to quantify errors of measurement inherent in paleoclimate data. An additional focus are the uncertainties in assessing the coupling between different factors that influence the global mean temperature (GMT). Paleoclimate studies critically rely on `proxy variables' that record climatic signals in natural archives. However, such proxy records inherently involve uncertainties in determining the age of the signal. We present a generic Bayesian approach to analytically determine the proxy record along with its associated uncertainty, resulting in a time-ordered sequence of correlated probability distributions rather than a precise time series. We further develop a recurrence based method to detect dynamical events from the proxy probability distributions. The methods are validated with synthetic examples and demonstrated with real-world proxy records. The proxy estimation step reveals the interrelations between proxy variability and uncertainty. The recurrence analysis of the East Asian Summer Monsoon during the last 9000 years confirms the well-known `dry' events at 8200 and 4400 BP, plus an additional significantly dry event at 6900 BP. We also analyze the network of dependencies surrounding GMT. We find an intricate, directed network with multiple links between the different factors at multiple time delays. We further uncover a significant feedback from the GMT to the El Niño Southern Oscillation at quasi-biennial timescales. The analysis highlights the need of a more nuanced formulation of influences between different climatic factors, as well as the limitations in trying to estimate such dependencies. N2 - Wissenschaftliche Untersuchungen setzen nicht nur eine Formulierung des gegenwärtigen Kenntnisstandes mitsamt ihrer Unsicherheiten voraus, sondern ebenso eine Eingrenzung des Unbekannten. Bezogen auf die Analyse von Klimadaten beinhaltet dies eine präzise Spezifikation gemessener Größen sowie eine durchgängige Berücksichtigung ihrer Messunsicherheiten in allen Schritten der Analyse. Diese Dissertation präsentiert eine analytische Methode zur Quantifizierung der in Paläoklimadaten inhärenten Messunsicherheiten. Ein weiterer Schwerpunkt liegt auf der Untersuchung von Unsicherheiten in der Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die globale Durchschnittstemperatur (GMT global mean temperature) beeinflussen. Die Paläoklimaforschung beruht in kritischem Maße auf der Analyse von Proxydaten welche die Klimaentwicklung dokumentieren. Allerdings sind Proxydaten mit inhärenten Datierungsunsicherheiten behaftet. Basierend auf einem generischen Bayes’schen Ansatz wird in dieser Dissertation eine analytische Methode vorgestellt um aus den zeitlich unsicheren Proxydaten zeitlich präzise Folgen korrelierter Wahrscheinlichkeitsverteilungen zu erhalten. Von diesen Verteilungen werden Proxyzeitreihen zusammen mit ihren Unsicherheiten berechnet. Weiterhin wird eine rekurrenzbasierte Methode zur Analyse von Proxydaten entwickelt welche anhand dieser Wahrscheinlichkeitsverteilungen plötzliche Änderungen in der Dynamik des Systems ermittelt. Beide Methoden werden mit Hilfe synthetischer Beispieldaten validiert und mit realen Proxydaten demonstriert. Diese statistische Analyse von Proxydaten deckt unteranderem die Beziehungen zwischen der Variabilität der Daten und zugehöriger Unsicherheiten der Proxyzeitreihen auf. Die Re- kurrenzanalyse des Ostasiatischen Sommermonsuns bestätigt die bekannten Trockenzeiten der letzten 9.000 Jahre um 8.200 bzw. 4.400 Jahre vor unserer Zeit und deckt eine zusätzliche Trockenzeit um etwa 6.900 Jahre vor unserer Zeit auf. Die Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die GMT beeinflussen lässt sich als ein verworrenes, gerichtetes Netzwerk mit multiplen Links, welche zu verschiedenen Zeitskalen gehören, darstellen. Speziell ergibt sich eine signifikante Wechselwirkung zwischen der GMT und dem ENSO-Phänomen (El Niño-Southern Oscillation) auf einer quasi-zweijährigen Zeitskala. Einerseits beleuchtet diese Analyse die Notwendigkeit Einflüsse verschiedener Klimafaktoren auf die GMT nuancierter zu formulieren, andererseits werden die Grenzen der Quantifizierung dieser Einflüsse aufgezeigt. KW - data analysis KW - Bayesian estimation KW - Bayessche Schätzer KW - Datenanalyse Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78312 ER - TY - THES A1 - Trabant, Christoph T1 - Ultrafast photoinduced phase transitions in complex materials probed by time-resolved resonant soft x-ray diffraction T1 - Ultraschnelle lichtinduzierte Phasenübergänge in komplexen Materialien untersucht mit zeitaufgelöster resonanter Weichröntgenbeugung N2 - In processing and data storage mainly ferromagnetic (FM) materials are being used. Approaching physical limits, new concepts have to be found for faster, smaller switches, for higher data densities and more energy efficiency. Some of the discussed new concepts involve the material classes of correlated oxides and materials with antiferromagnetic coupling. Their applicability depends critically on their switching behavior, i.e., how fast and how energy efficient material properties can be manipulated. This thesis presents investigations of ultrafast non-equilibrium phase transitions on such new materials. In transition metal oxides (TMOs) the coupling of different degrees of freedom and resulting low energy excitation spectrum often result in spectacular changes of macroscopic properties (colossal magneto resistance, superconductivity, metal-to-insulator transitions) often accompanied by nanoscale order of spins, charges, orbital occupation and by lattice distortions, which make these material attractive. Magnetite served as a prototype for functional TMOs showing a metal-to-insulator-transition (MIT) at T = 123 K. By probing the charge and orbital order as well as the structure after an optical excitation we found that the electronic order and the structural distortion, characteristics of the insulating phase in thermal equilibrium, are destroyed within the experimental resolution of 300 fs. The MIT itself occurs on a 1.5 ps timescale. It shows that MITs in functional materials are several thousand times faster than switching processes in semiconductors. Recently ferrimagnetic and antiferromagnetic (AFM) materials have become interesting. It was shown in ferrimagnetic GdFeCo, that the transfer of angular momentum between two opposed FM subsystems with different time constants leads to a switching of the magnetization after laser pulse excitation. In addition it was theoretically predicted that demagnetization dynamics in AFM should occur faster than in FM materials as no net angular momentum has to be transferred out of the spin system. We investigated two different AFM materials in order to learn more about their ultrafast dynamics. In Ho, a metallic AFM below T ≈ 130 K, we found that the AFM Ho can not only be faster but also ten times more energy efficiently destroyed as order in FM comparable metals. In EuTe, an AFM semiconductor below T ≈ 10 K, we compared the loss of magnetization and laser-induced structural distortion in one and the same experiment. Our experiment shows that they are effectively disentangled. An exception is an ultrafast release of lattice dynamics, which we assign to the release of magnetostriction. The results presented here were obtained with time-resolved resonant soft x-ray diffraction at the Femtoslicing source of the Helmholtz-Zentrum Berlin and at the free-electron laser in Stanford (LCLS). In addition the development and setup of a new UHV-diffractometer for these experiments will be reported. N2 - In der Datenspeichertechnologie werden bisher hauptsächlich ferromagnetische Materialien eingesetzt. Da mit diesen aber physikalische Grenzen erreicht werden, werden neue Konzepte gesucht, um schnellere und kleinere Schalter, größere Datendichten und eine höherere Energieeffizienz zu erzeugen. Unter den diskutierten Materialklassen finden sich komplexen Übergangsmetalloxide und Materialien mit antiferromagnetischer Kopplung. Die Anwendbarkeit solcher Materialien hängt stark davon ab, wie schnell sich deren Eigenschaften verändern lassen und wieviel Energie dafür eingesetzt werden muss. Die vorliegende Arbeit beschäftigt sich mit ultraschnellen, Nicht-Gleichgewicht-Phasenübergängen genau in solchen Materialien. In Übergangsmetalloxiden führt die enge Kopplung zwischen den unterschiedlichen Freiheitsgraden zu einem effektiven niederenergetischen Anregungsspektrum. Diese Anregungen sind oft verknüpft mit spektakulären makroskopischen Eigenschaften, wie z.B. dem kolossalen Magnetowiderstand, Hochtemperatur-Supraleitung, Metall- Isolator-Übergang, die oft von nanoskaliger Ordnung von Spins, Ladungen, orbitaler Besetzung sowie Gitterverzerrungen begleitet sind. Dadurch werden diese Materialien interessant für Anwendbarkeit. Magnetit, ein Prototyp eines solchen funktionalen Materials zeigt einen Metall-Isolator-Übergang bei T = 123 K. Untersucht man die Ladungs- und orbitale Ordnung sowie die Struktur nach einer optischen Anregung, so findet man, dass die elektronische Struktur und Gitterverzerrung, die kennzeichnend für die Tieftemperaturphase sind, innerhalb der Zeitauflösung des Experiments von 300 fs zerstört wird. Der eigentliche Metall-Isolator-Übergang zeigt sich erst nach 1.5 ps. Die Ergebnisse zeigen, dass MITs in funktionalen Materialien bis zu tausend Mal schneller geschaltet werden können als in vorhandenen Halbleiter-Schaltern. Seit kurzem rücken auch ferrimagnetische und antiferromagnetische Materialen in den Fokus des Interesses. Es wurde im Ferrimagnet GdFeCo gezeigt, dass der Transfer von Drehimpuls zwischen zwei entgegengesetzten Subsystemen mit unterschiedlichen Zeitkonstanten zu einem Umschalten der Magnetisierung führt. Zudem wurde vorhergesagt, dass Demagnetisierungsdynamiken in antiferromagnetischen Materialien schneller ablaufen soll als in ferromagnetischen, da kein Drehimpuls aus dem Spinsystem abgeführt werden muss. Damit wir mehr über antiferromagnetische Dynamik erfahren haben wir zwei unterschiedliche Antiferromagneten untersucht, um sie mit den bekannten FM zu vergleichen. Im metallischen AFM Holmium fanden wir, dass die magnetische Ordnung schneller und zehnmal energieeffizienter zerstört werden kann als in vergleichbaren FM Metallen. In Europium-Tellurid, einem antiferromagnetischem Halbleiter, haben wir den Zerfall der magnetischen Ordnung im Hinblick auf Wechselwirkungen mit der Struktur untersucht. Wir fanden auf kurzen Zeitskalen eine eher entkoppelte Dynamik. Eine Ausnahme ist ein schneller Beitrag zur Gitterdynamik, den wir mit dem Wegfall von Magnetostriktion erklären. Die hier gezeigten Ergebnisse wurden mit Hilfe zeitaufgelöster resonanter weicher Röntgenbeugung an der Femtoslicing Strahlungsquelle des Helmholtz-Zentrums Berlin und am freien Elektronenlaser LCLS gemessen. Zusätzlich wird über die Entwicklung und den Bau eines UHV-Diffraktometers für diese Experimente berichtet. KW - Ultraschnell KW - Weichröntgenbeugung KW - nichtgleichgewichts Dynamik KW - Phasenübergänge KW - Antiferromagnetisch KW - Ultrafast KW - soft x-ray diffraction KW - photoinduced dynamics KW - phase transitions KW - antiferromagnetic Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71377 ER - TY - THES A1 - Soja, Aleksandra Maria T1 - Transcriptomic and metabolomic analysis of Arabidopsis thaliana during abiotic stress Y1 - 2014 ER - TY - THES A1 - Schollaen, Karina T1 - Tracking climate signals in tropical trees T1 - Klimasignale in tropischen Hölzern BT - new insights from Indonesian stable isotope records BT - neue Erkenntnisse von stabilen Isotopendaten aus Indonesien N2 - The tropical warm pool waters surrounding Indonesia are one of the equatorial heat and moisture sources that are considered as a driving force of the global climate system. The climate in Indonesia is dominated by the equatorial monsoon system, and has been linked to El Niño-Southern Oscillation (ENSO) events, which often result in severe droughts or floods over Indonesia with profound societal and economic impacts on the populations living in the world's fourth most populated country. The latest IPCC report states that ENSO will remain the dominant mode in the tropical Pacific with global effects in the 21st century and ENSO-related precipitation extremes will intensify. However, no common agreement exists among climate simulation models for projected change in ENSO and the Australian-Indonesian Monsoon. Exploring high-resolution palaeoclimate archives, like tree rings or varved lake sediments, provide insights into the natural climate variability of the past, and thus helps improving and validating simulations of future climate changes. Centennial tree-ring stable isotope records | Within this doctoral thesis the main goal was to explore the potential of tropical tree rings to record climate signals and to use them as palaeoclimate proxies. In detail, stable carbon (δ13C) and oxygen (δ18O) isotopes were extracted from teak trees in order to establish the first well-replicated centennial (AD 1900-2007) stable isotope records for Java, Indonesia. Furthermore, different climatic variables were tested whether they show significant correlation with tree-ring proxies (ring-width, δ13C, δ18O). Moreover, highly resolved intra-annual oxygen isotope data were established to assess the transfer of the seasonal precipitation signal into the tree rings. Finally, the established oxygen isotope record was used to reveal possible correlations with ENSO events. Methodological achievements | A second goal of this thesis was to assess the applicability of novel techniques which facilitate and optimize high-resolution and high-throughput stable isotope analysis of tree rings. Two different UV-laser-based microscopic dissection systems were evaluated as a novel sampling tool for high-resolution stable isotope analysis. Furthermore, an improved procedure of tree-ring dissection from thin cellulose laths for stable isotope analysis was designed. The most important findings of this thesis are: I) The herein presented novel sampling techniques improve stable isotope analyses for tree-ring studies in terms of precision, efficiency and quality. The UV-laser-based microdissection serve as a valuable tool for sampling plant tissue at ultrahigh-resolution and for unprecedented precision. II) A guideline for a modified method of cellulose extraction from wholewood cross-sections and subsequent tree-ring dissection was established. The novel technique optimizes the stable isotope analysis process in two ways: faster and high-throughput cellulose extraction and precise tree-ring separation at annual to high-resolution scale. III) The centennial tree-ring stable isotope records reveal significant correlation with regional precipitation. High-resolution stable oxygen values, furthermore, allow distinguishing between dry and rainy season rainfall. IV) The δ18O record reveals significant correlation with different ENSO flavors and demonstrates the importance of considering ENSO flavors when interpreting palaeoclimatic data in the tropics. The findings of my dissertation show that seasonally resolved δ18O records from Indonesian teak trees are a valuable proxy for multi-centennial reconstructions of regional precipitation variability (monsoon signals) and large-scale ocean-atmosphere phenomena (ENSO) for the Indo-Pacific region. Furthermore, the novel methodological achievements offer many unexplored avenues for multidisciplinary research in high-resolution palaeoclimatology. N2 - Die tropischen Gewässer um Indonesien sind eine der äquatorialen Wärme- und Feuchtigkeitsquellen, die als treibende Kraft des globalen Klimasystems betrachtet werden können. Das Klima in Indonesien ist geprägt durch das Australisch-Indonesische Monsunsystem. Weiterhin besteht eine Verknüpfung mit El Niño-Southern Oszillation (ENSO) Ereignissen, die oft zu schweren Dürren oder Überschwemmungen in der Region mit tiefgreifenden gesellschaftlichen und wirtschaftlichen Folgen führen. Der neueste IPCC-Bericht legt dar, dass ENSO auch in den nächsten 100 Jahren das vorherrschende Klimaphänomen im tropischen Pazifik bleiben wird. Ferner wird davon ausgegangen, dass sich die ENSO-bezogenen Niederschlagsextrema intensivieren werden. Wenig Übereinstimmung herrscht jedoch bislang zwischen den Klimasimulationsmodellen in Bezug auf die voraussichtlichen Veränderungen von ENSO und dem Australisch-Indonesischen Monsunsystem. Hochaufgelöste Paläoklima-Archive, wie z.B. Jahrringe oder warvierte Seesedimente, geben Auskunft über die natürliche Klimavariabilität der Vergangenheit und können somit dazu beitragen, die Computersimulationen der künftigen Klimaentwicklung zu verbessern und zu validieren. Hundertjährige stabile Jahrring-Isotopenchronologien | Das Hauptziel dieser Doktorarbeit war es, dass Potenzial von tropischen Jahrringen zur Aufzeichnung von Klimasignalen herauszustellen und deren Evaluierung als Paläoklimaproxys. Im Detail wurden stabile Kohlenstoff- (δ13C) und Sauerstoff- (δ18O) Isotopenverhältnisse in Teakbäumen analysiert, und die ersten gut replizierten hundertjährigen (AD 1900-2007) stabilen Isotopenchronologien aus Java (Indonesien) erstellt. Dabei wurden verschiedene klimatische Einflussgrößen getestet, ob diese signifikante Korrelationen mit den Jahrringparametern aufzeigen. Weiterhin wurden hochaufgelöste intra-annuelle Sauerstoffisotopenzeitreihen erstellt, um den Transfer des saisonalen Niederschlagssignals in den jeweiligen Jahrring zu bemessen. Die ermittelte Sauerstoff-Isotopenchronologie wurde anschließend auf mögliche ENSO Signale hin untersucht. Methodische Errungenschaften | Ein zweites Ziel dieser Arbeit war es neue Verfahren zur Analyse stabiler Isotope in Baumjahrringen zu entwickeln und zu optimieren. Zwei verschiedene UV-Lasermikrodissektions-Systeme wurden getestet als neues präzises Präparationswerkzeug für stabile Isotopenstudien. Darüber hinaus wurde eine verbesserte Methode für die Probenaufbereitung stabiler Isotopenmessungen anhand von Zellulose-Dünnschnitten entwickelt. Die wichtigsten Ergebnisse dieser Doktorarbeit sind: I) Die hier vorgestellten neuartigen Techniken zu Probenvorbereitung verbessern die Analyse stabiler Isotope für Jahrringstudien in Hinsicht auf Präzision, Effizienz und Qualität. Es wurde gezeigt, dass die UV-Lasermikrodissektion eine wertvolle Technik ist, um die Beprobung von Pflanzengewebe in höchster Auflösung und beispielloser Präzision durchzuführen. II) Es ist gelungen, einen Leitfaden für ein modifiziertes Verfahren der Zelluloseextraktion an Gesamtholz-Dünnschnitten und der anschließenden Jahrringaufbereitung zu erstellen. Diese neuartige Methode optimiert die Analyse stabiler Isotopenzeitreihen in zweierlei Hinsicht: schnellere und effiziente Zelluloseextraktion und präzise Trennung der Jahrringsequenzen in inter-annueller bis intra-annuelle Auflösung. III) Die hundertjährigen stabilen Jahrring-Isotopenchronologien weisen signifikante Korrelationen mit dem regionalen Niederschlag auf. In den hochaufgelösten stabilen Sauerstoffisotopenwerten spiegelt sich deutlich das Niederschlagssignal der Trocken- und der Regenzeit wieder. IV) Die stabile Sauerstoffisotopenzeitreihe zeigt signifikante Korrelationen mit verschiedenen ENSO Phasen. Dies betont, dass die verschiedenen ENSO Phasen bei der Interpretation von tropischen Paläodaten zu berücksichtigen sind. Die Ergebnisse der Dissertation zeigen, dass saisonal aufgelöste stabile Sauerstoffisotopenchronologien von indonesischen Teakbäumen ein geeigneter Proxy für mehrhundertjährige Rekonstruktionen der regionalen Niederschlagsvariabilität (Monsun-Signale) und großräumiger Ozean-Atmosphären-Systeme (ENSO) für den Indopazifik ist. Darüber hinaus bieten die neuartigen methodischen Errungenschaften viele neue Ansätze für multidisziplinäre hochaufgelöste Studien in der paläoklimatologischen Forschung. KW - Stabile Sauerstoff- und Kohlenstoffisotope KW - Dendroklimatologie KW - Tectona grandis KW - Tropen KW - UV-Lasermikrodissektion KW - oxygen and carbon stable isotopes KW - dendroclimatology KW - Tectona grandis KW - tropics KW - UV-laser microdissection Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71947 ER - TY - THES A1 - Lukas, Marcus T1 - To breath or not to breathe - carbon budget regulation in Daphnia Y1 - 2014 CY - Potsdam ER - TY - THES A1 - Bacskai-Atkari, Julia T1 - The syntax of comparative constructions : operators, ellipsis phenomena and functional left peripheries T1 - Die Syntax von Vergleichskonstruktionen : Operatoren, Ellipsenphänomene und funktionale linke Peripherien N2 - Adopting a minimalist framework, the dissertation provides an analysis for the syntactic structure of comparatives, with special attention paid to the derivation of the subclause. The proposed account explains how the comparative subclause is connected to the matrix clause, how the subclause is formed in the syntax and what additional processes contribute to its final structure. In addition, it casts light upon these problems in cross-linguistic terms and provides a model that allows for synchronic and diachronic differences. This also enables one to give a more adequate explanation for the phenomena found in English comparatives since the properties of English structures can then be linked to general settings of the language and hence need no longer be considered as idiosyncratic features of the grammar of English. First, the dissertation provides a unified analysis of degree expressions, relating the structure of comparatives to that of other degrees. It is shown that gradable adjectives are located within a degree phrase (DegP), which in turn projects a quantifier phrase (QP) and that these two functional layers are always present, irrespectively of whether there is a phonologically visible element in these layers. Second, the dissertation presents a novel analysis of Comparative Deletion by reducing it to an overtness constraint holding on operators: in this way, it is reduced to morphological differences and cross-linguistic variation is not conditioned by way of postulating an arbitrary parameter. Cross-linguistic differences are ultimately dependent on whether a language has overt operators equipped with the relevant – [+compr] and [+rel] – features. Third, the dissertation provides an adequate explanation for the phenomenon of Attributive Comparative Deletion, as attested in English, by way of relating it to the regular mechanism of Comparative Deletion. I assume that Attributive Comparative Deletion is not a universal phenomenon, and its presence in English can be conditioned by independent, more general rules, while the absence of such restrictions leads to its absence in other languages. Fourth, the dissertation accounts for certain phenomena related to diachronic changes, examining how the changes in the status of comparative operators led to changes in whether Comparative Deletion is attested in a given language: I argue that only operators without a lexical XP can be grammaticalised. The underlying mechanisms underlying are essentially general economy principles and hence the processes are not language-specific or exceptional. Fifth, the dissertation accounts for optional ellipsis processes that play a crucial role in the derivation of typical comparative subclauses. These processes are not directly related to the structure of degree expressions and hence the elimination of the quantified expression from the subclause; nevertheless, they are shown to be in interaction with the mechanisms underlying Comparative Deletion or the absence thereof. N2 - Unter Verwendung eines minimalistischen Frameworks wird in der Dissertation eine Analyse der syntaktischen Struktur von Vergleichskonstruktionen vorgestellt, mit besonderem Augenmerk auf der Ableitung des eingebetteten Satzes. Die vorgeschlagene Analyse erklärt, wie der komparative Nebensatz mit dem Matrixsatz verbunden ist, wie der Nebensatz in der Syntax gebildet wird und welche zusätzlichen Prozesse zu seiner endgültigen Struktur beitragen. Außerdem beleuchtet sie diese Probleme aus cross-linguistischer Sicht und bietet ein Modell, das synchrone und diachrone Unterschiede berücksichtigt. Dies ermöglicht auch eine adäquatere Erklärung der Phänomene in englischen Vergleichskonstruktionen, da die Eigenschaften der englischen Strukturen mit allgemeinen Eigenschaften der Sprache verknüpft werden und es daher nicht mehr nötig ist, sie als idiosynkratrische Merkmale der Grammatik der englischen Sprache zu behandeln. Die Dissertation bietet zum einen eine einheitliche Analyse von Gradphrasen, wobei die Struktur von Vergleichskonstruktionen mit der von anderen Graden verbunden wird. Es wird gezeigt, dass graduierbare Adjektive sich in einer Gradphrase (degree phrase, DegP) befinden, die wiederum eine Quantorenphrase (QP) projiziert, und dass diese beiden Funktionsschichten immer vorhanden sind, unabhängig davon, ob es ein phonologisch sichtbares Element in diesen Schichten gibt. Zweitens präsentiert die Dissertation eine neue Analyse von Komparativ-Tilgung (Comparative Deletion), die auf eine Overtheits-Bedingung für Operatoren reduziert wird: dadurch wird das Phänomen auf morphologische Unterschiede zurückgeführt, und cross-linguistische Variation wird nicht durch die Postulierung eines arbiträren Parameters begründet. Cross-linguistische Unterschiede sind letztlich davon abhängig, ob eine Sprache overte Operatoren mit den relevanten Merkmalen – [+ compr] und [+ rel] – hat. Drittens bietet die Dissertation eine adäquate Erklärung für das Phänomen der attributiven Komparativ-Tilgung (Attributive Comparative Deletion), wie man sie im Englischen findet, indem sie mit dem regulären Mechanismus der Komparativ-Tilgung in Zusammenhang gebracht wird. Ich gehe davon aus, dass attributive Komparativ-Tilgung kein universelles Phänomen ist, und dass ihr Vorhandensein im Englischen durch unabhängige, allgemeinere Regeln erfasst werden kann, während das Fehlen solcher Regeln zur Abwesenheit des Phänomens in anderen Sprachen führt. Viertens erklärt die Dissertation bestimmte Phänomene in Bezug auf diachronische Veränderungen und untersucht, wie Veränderungen im Status der Komparativoperatoren beeinflussen, ob Komparativ-Tilgung in einer Sprache vorkommt: Ich argumentiere dafür, dass nur Operatoren ohne eine lexikalische XP grammatikalisiert werden können. Die zugrunde liegenden Mechanismen sind im Wesentlichen allgemeine Prinzipien der Ökonomie, und damit sind die Prozesse nicht sprachspezifisch oder Ausnahmen. Fünftens bietet die Dissertation eine Erklärung für optionale Ellipsenprozesse, die bei der Ableitung von typischen komparativen Nebensätzen eine entscheidende Rolle spielen. Diese Prozesse haben nicht direkt mit der Struktur von Gradphrasen und somit mit der Entfernung der quantifizierten Phrase aus dem Nebensatz zu tun; aber es wird gezeigt, dass sie mit den Mechanismen, die Komparativ-Tilgung oder deren Abwesenheit zugrunde liegen, interagieren. KW - komparative Nebensätze KW - Komparativ-Tilgung KW - Gradphrasen KW - linke Peripherie KW - Overtheits-Bedingung KW - comparative subclauses KW - Comparative Deletion KW - degree phrases KW - left periphery KW - overtness requirement Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71255 SN - 978-3-86956-301-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Schmitt, Clemens Nikolaus Zeno T1 - The role of protein metal complexes in the mechanics of Mytilus californianus byssal threads T1 - Der Einfluss von Protein-Metall-Komplexen auf die mechanischen Eigenschaften der Byssusfäden von Mytilus californianus N2 - Protein-metal coordination complexes are well known as active centers in enzymatic catalysis, and to contribute to signal transduction, gas transport, and to hormone function. Additionally, they are now known to contribute as load-bearing cross-links to the mechanical properties of several biological materials, including the jaws of Nereis worms and the byssal threads of marine mussels. The primary aim of this thesis work is to better understand the role of protein-metal cross-links in the mechanical properties of biological materials, using the mussel byssus as a model system. Specifically, the focus is on histidine-metal cross-links as sacrificial bonds in the fibrous core of the byssal thread (Chapter 4) and L-3,4-dihydroxyphenylalanine (DOPA)-metal bonds in the protective thread cuticle (Chapter 5). Byssal threads are protein fibers, which mussels use to attach to various substrates at the seashore. These relatively stiff fibers have the ability to extend up to about 100 % strain, dissipating large amounts of mechanical energy from crashing waves, for example. Remarkably, following damage from cyclic loading, initial mechanical properties are subsequently recovered by a material-intrinsic self-healing capability. Histidine residues coordinated to transition metal ions in the proteins comprising the fibrous thread core have been suggested as reversible sacrificial bonds that contribute to self-healing; however, this remains to be substantiated in situ. In the first part of this thesis, the role of metal coordination bonds in the thread core was investigated using several spectroscopic methods. In particular, X-ray absorption spectroscopy (XAS) was applied to probe the coordination environment of zinc in Mytilus californianus threads at various stages during stretching and subsequent healing. Analysis of the extended X-ray absorption fine structure (EXAFS) suggests that tensile deformation of threads is correlated with the rupture of Zn-coordination bonds and that self-healing is connected with the reorganization of Zn-coordination bond topologies rather than the mere reformation of Zn-coordination bonds. These findings have interesting implications for the design of self-healing metallopolymers. The byssus cuticle is a protective coating surrounding the fibrous thread core that is both as hard as an epoxy and extensible up to 100 % strain before cracking. It was shown previously that cuticle stiffness and hardness largely depend on the presence of Fe-DOPA coordination bonds. However, the byssus is known to concentrate a large variety of metals from seawater, some of which are also capable of binding DOPA (e.g. V). Therefore, the question arises whether natural variation of metal composition can affect the mechanical performance of the byssal thread cuticle. To investigate this hypothesis, nanoindentation and confocal Raman spectroscopy were applied to the cuticle of native threads, threads with metals removed (EDTA treated), and threads in which the metal ions in the native tissue were replaced by either Fe or V. Interestingly, replacement of metal ions with either Fe or V leads to the full recovery of native mechanical properties with no statistical difference between each other or the native properties. This likely indicates that a fixed number of metal coordination sites are maintained within the byssal thread cuticle – possibly achieved during thread formation – which may provide an evolutionarily relevant mechanism for maintaining reliable mechanics in an unpredictable environment. While the dynamic exchange of bonds plays a vital role in the mechanical behavior and self-healing in the thread core by allowing them to act as reversible sacrificial bonds, the compatibility of DOPA with other metals allows an inherent adaptability of the thread cuticle to changing circumstances. The requirements to both of these materials can be met by the dynamic nature of the protein-metal cross-links, whereas covalent cross-linking would fail to provide the adaptability of the cuticle and the self-healing of the core. In summary, these studies of the thread core and the thread cuticle serve to underline the important and dynamic roles of protein-metal coordination in the mechanical function of load-bearing protein fibers, such as the mussel byssus. N2 - Protein-Metall Bindungen sind vor allem durch ihre Rolle in physiologischen Prozessen bekannt. Vor kurzem jedoch wurde eine völlig andere Funktion dieser chemischen Bindungen, als lasttragendes Vernetzungselement in Kieferzangen mariner Ringelwürmer der Gattung Nereis und Byssusfäden mariner Muscheln der Gattung Mytilus (Miesmuscheln) entdeckt. Ziel dieser Dissertation ist es, am Beispiel von M. californianus Byssusfäden, ein besseres Verständnis des Einflusses von Protein-Metall Komplexen auf die mechanischen Eigenschaften biologischer Materialien zu erlangen. Byssusfäden sind Proteinfasern, welche Miesmuscheln zur sicheren Befestigung verwenden. Diese relativ steifen Fäden können bis zu 100 % gedehnt zu werden, ohne zu brechen. Bei sofortiger Wiederbelastung zeigt sich jedoch eine Verschlechterung der mechanischen Eigenschaften des Materials. Erstaunlicherweise können sich die mechanischen Eigenschaften der Fäden hiervon wieder erholen. Es wird angenommen, dass im Faserkern der Byssusfäden die Aminosäure Histidin Bindungen mit Metallionen eingeht, welche als reversible Opferbindungen fungieren können und so einen Selbstheilungsprozess ermöglichen. In dieser Arbeit wurde der Beitrag von Protein-Zink Bindungen zur Mechanik der Byssusfäden mittels Röntgenabsorptionsspektroskopie (XAS), untersucht. Die ermittelten Daten legen nahe, dass Zn-Aminosäure Bindungen unter Dehnung der Byssusfäden brechen. Des Weiteren scheint der Selbstheilungsprozess nicht auf der bloßen Wiederherstellung dieser Bindungen zu beruhen, sondern viel mehr auf der Regenerierung der anfänglichen Bindungsstruktur und -verteilung. Diese Erkenntnisse stellen interessante Konzepte für die Entwicklung von selbstheilenden Metallopolymeren bereit. Die relativ harte Hülle der Byssusfäden schützt den Faserkern vor Abrieb. Laut Literatur basiert ihre Härte und Steifigkeit hauptsächlich auf der Quervernetzung durch Fe-DOPA (eine modifizierte Aminosäure) Bindungen. Jedoch können verschiedene Metalle aus dem Meerwasser in Byssusfäden aufgenommen werden und auch Bindungen mit DOPA bilden. Daher stellt sich die Frage, nach dem Zusammenhang zwischen mechanischen Eigenschaften und der Metallzusammensetzung der Byssushülle. Um dieser Frage nachzugehen, wurden die Metallionen aus der Hülle natürlicher Byssusfäden entfernt, und durch entweder Fe oder V ersetzt. Anschließend wurden die mechanischen Eigenschaften der Hüllen der behandelten und unbehandelten Byssusfäden mittels Nanoindentierung bestimmt. Interessanterweise besteht kein Unterschied der mechanischen Eigenschaften der natürlichen und modifizierten Hüllen der Byssusfäden, was dafür spricht, dass in der Hülle der Byssusfäden eine feste Anzahl an Protein-Metall Quervernetzungspunkten vorhanden ist, die möglicherweise durch den speziellen Produktionsprozess der Fäden festgelegt wird. Dies könnte eine evolutionäre Anpassung des Byssus darstellen, um eine verlässliche Verankerung des Organismus in verschiedenen Umgebungen zu gewährleisten. Während die Dynamik der Protein-Metall Bindungen ihnen eine Rolle als chemische Opferbindung im selbstheilenden Faserkern erlaubt, ermöglicht sie die Funktion der Hülle unter Verwendung verschiedener Metalle. Andere nicht-kovalente Wechselwirkungen haben sicherlich eine ähnliche Dynamik, und kovalente Bindungen sind stabiler, aber nur Protein-Metall Bindungen erlauben eine stabile und dynamische Quervernetzung, ohne die weder das Anpassungsvermögen der Hülle, noch das Selbstheilungsvermögen des Faserkerns möglich wären. Die Untersuchungen der Hülle und des Faserkerns der Byssusfäden verdeutlichen die Wichtigkeit der Protein-Metall Bindungen und ihrer Dynamik für die mechanische Funktion lasttragender Proteinfasern, wie dem Byssus der Miesmuscheln. KW - biomaterials KW - self-healing materials KW - protein-metal interaction KW - Biomaterialien KW - selbstheilende Materialien KW - Protein-Metall-Wechselwirkung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74216 ER - TY - THES A1 - Schulz, Elisa T1 - The role of flavonols and anthocyanins in the cold an UV-B acclimation of Arabidopsis thaliana (L.) Y1 - 2014 ER - TY - THES A1 - Gaßmöller, René T1 - The interaction of subducted slabs and plume generation zones in geodynamic models Y1 - 2014 ER - TY - THES A1 - Gericke, Lutz T1 - Tele-Board - Supporting and analyzing creative collaboration in synchronous and asynchronous scenario Y1 - 2014 ER - TY - THES A1 - Zibulski, Romy T1 - Taxonomic composition and biochemical and isotopic characteristics of North-Siberian mosses and their application to the palaeoecological reconstruction of tundra polygon development Y1 - 2014 ER - TY - THES A1 - Fudickar, Sebastian T1 - Sub Ghz transceiver for indoor localisation of smartphones BT - Optimising localisation accuracy and device runtimes Y1 - 2014 ER - TY - THES A1 - Pagel, Jörn T1 - Statistical process-based models for the understanding and prediction of range dynamics Y1 - 2014 ER - TY - THES A1 - Tetzner, Julia T1 - Stability and change in academic, social, and emotional development from early adolescence to young adulthood BT - the interplay with negative life events and protective factors Y1 - 2014 ER - TY - THES A1 - Maghsoudi, Samira T1 - Spatiotemporal microseismicity patterns and detection performance in mining environments Y1 - 2014 CY - Potsdam ER - TY - THES A1 - Benz, Verena T1 - Sex-specific differences in the regulation of body weight dynamics and adipose tissue metabolism Y1 - 2014 CY - Potsdam ER - TY - THES A1 - Pussak, Marcin T1 - Seismic characterization of geothermal reservoirs by application of the common-reflection-surface stack method and attribute analysis T1 - Seismische Charakterisierung von geothermischen Reservoiren mittels “Common-Reflection-Surface” Stapelungs-Methode und Attribut-Analysen N2 - An important contribution of geosciences to the renewable energy production portfolio is the exploration and utilization of geothermal resources. For the development of a geothermal project at great depths a detailed geological and geophysical exploration program is required in the first phase. With the help of active seismic methods high-resolution images of the geothermal reservoir can be delivered. This allows potential transport routes for fluids to be identified as well as regions with high potential of heat extraction to be mapped, which indicates favorable conditions for geothermal exploitation. The presented work investigates the extent to which an improved characterization of geothermal reservoirs can be achieved with the new methods of seismic data processing. The summations of traces (stacking) is a crucial step in the processing of seismic reflection data. The common-reflection-surface (CRS) stacking method can be applied as an alternative for the conventional normal moveout (NMO) or the dip moveout (DMO) stack. The advantages of the CRS stack beside an automatic determination of stacking operator parameters include an adequate imaging of arbitrarily curved geological boundaries, and a significant increase in signal-to-noise (S/N) ratio by stacking far more traces than used in a conventional stack. A major innovation I have shown in this work is that the quality of signal attributes that characterize the seismic images can be significantly improved by this modified type of stacking in particular. Imporoved attribute analysis facilitates the interpretation of seismic images and plays a significant role in the characterization of reservoirs. Variations of lithological and petro-physical properties are reflected by fluctuations of specific signal attributes (eg. frequency or amplitude characteristics). Its further interpretation can provide quality assessment of the geothermal reservoir with respect to the capacity of fluids within a hydrological system that can be extracted and utilized. The proposed methodological approach is demonstrated on the basis on two case studies. In the first example, I analyzed a series of 2D seismic profile sections through the Alberta sedimentary basin on the eastern edge of the Canadian Rocky Mountains. In the second application, a 3D seismic volume is characterized in the surroundings of a geothermal borehole, located in the central part of the Polish basin. Both sites were investigated with the modified and improved stacking attribute analyses. The results provide recommendations for the planning of future geothermal plants in both study areas. N2 - Ein wichtiger Beitrag der Geowissenschaften zur Bereitstellung erneuerbarer Energien besteht in der Nutzbarmachung von geothermischen Ressourcen. Für die Entwicklung von geothermischen Anlagen in großen Tiefen ist in der ersten Phase eine detaillierte geologisch-geophysikalische Erkundung erforderlich. Hierbei werden Informationen über das Temperaturfeld, zur Litho-Stratigraphie und Strukturgeologie, Geomechanik, Hydrogeologie sowie petrophysikalische Eigenschaften im Reservoir-Maßstab benötigt. Mit Hilfe aktiver seismischer Methoden können hochauflösende Abbilder des geothermischen Reservoirs geliefert werden. Dadurch können potentielle Transportwege für Fluide sowie Regionen mit hohem Wärmeabsorptionspotential identifiziert und kartiert werden. Die vorgelegte Arbeit untersucht, inwieweit mit neuen Methoden der seismischen Datenbearbeitung eine verbesserte Charakterisierung von geothermischen Reservoiren erreicht werden kann. Die Stapelung ist ein entscheidender Schritt bei der Bearbeitung von seismischen Felddaten. Die sogenannte “common-reflection-surface” Stapelung ist eine Erweiterung des klassischen Stapelungs-Konzepts. Durch ihre Anwendung können detailliertere und zuverlässigere Abbilder des Untergrundes gewonnen werden. Als wichtige Neuerung habe ich in der Arbeit aufgezeigt, dass durch diese modifizierte Art der Stapelung insbesondere die Qualität von Signalattribut-Darstellungen der seismischen Abbilder signifikant verbessert wird. Signalattribute sind ein wichtiges Werkzeug bei der Untersuchung von Reservoiren. Variationen der lithologischen und petrophysikalischen Eigenschaften spiegeln sich in Variationen in bestimmten Signalattributen (z.B. Frequenzeigenschaften, Amplitudeneigenschaften) wieder. Daraus kann auf die Qualität des geothermischen Reservoirs, z.B. hinsichtlich der Aufnahmefähigkeit von Fluiden zur Wärmeabsorption in Kreislaufsystemen, geschlossen werden. Das vorgeschlagenen methodische Konzept wird an Hand von 2 Fallstudien demonstriert. Im ersten Beispiel analysierte ich eine Reihe von 2D seismischen Profilschnitten durch das Alberta-Sedimentbecken am Ostrand der kanadischen Rocky Mountains. Bei der zweiten Anwendung wird ein 3D seismisches Volumen im Umfeld einer Geothermie-Bohrung im Zentralteil des Polnischen Sedimentbeckens mit Hilfe der modifizierten Stapelung und verbesserten Attribut-Analysen charakterisiert. Die Ergebnisse ermöglichen Empfehlungen für die Planung zukünftiger Geothermie-Anlagen in beiden Untersuchungsgebieten. KW - seismic KW - geothermischer Reservoire KW - seismische Stapelungs-Methode KW - Attribut-Analysen KW - Verarbeitung seismischer Daten KW - Common-Reflection-Surface Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77565 ER - TY - THES A1 - Schulz, Anneli T1 - Search for gamma-ray emission from bow shocks of runaway stars T1 - Suche nach Gammastrahlungsemission aus Bugwellen von Schnellläufersternen N2 - The mystery of the origin of cosmic rays has been tackled for more than hundred years and is still not solved. Cosmic rays are detected with energies spanning more than 10 orders of magnitude and reaching energies up to ~10²¹ eV, far higher than any man-made accelerator can reach. Different theories on the astrophysical objects and processes creating such highly energetic particles have been proposed. A very prominent explanation for a process producing highly energetic particles is shock acceleration. The observation of high-energy gamma rays from supernova remnants, some of them revealing a shell like structure, is clear evidence that particles are accelerated to ultrarelativistic energies in the shocks of these objects. The environments of supernova remnants are complex and challenge detailed modelling of the processes leading to high-energy gamma-ray emission. The study of shock acceleration at bow shocks, created by the supersonic movement of individual stars through the interstellar medium, offers a unique possibility to determine the physical properties of shocks in a less complex environment. The shocked medium is heated by the stellar and the shock excited radiation, leading to thermal infrared emission. 28 bow shocks have been discovered through their infrared emission. Nonthermal radiation in radio and X-ray wavelengths has been detected from two bow shocks, pointing to the existence of relativistic particles in these systems. Theoretical models of the emission processes predict high-energy and very high-energy emission at a flux level in reach of current instruments. This work presents the search for gamma-ray emission from bow shocks of runaway stars in the energy regime from 100MeV to ~100TeV. The search is performed with the large area telescope (LAT) on-board the Fermi satellite and the H.E.S.S. telescopes located in the Khomas Highland in Namibia. The Fermi-LAT was launched in 2008 and is continuously scanning the sky since then. It detects photons with energies from 20MeV to over 300 GeV and has an unprecedented sensitivity. The all-sky coverage allows us to study all 28 bow shocks of runaway stars listed in the E-BOSS catalogue of infrared bow shocks. No significant emission was detected from any of the objects, although predicted by several theoretical models describing the non-thermal emission of bow shocks of runaway stars. The H.E.S.S. experiment is the most sensitive system of imaging atmospheric Cherenkov telescopes. It detects photons from several tens of GeV to ~100TeV. Seven of the bow shocks have been observed with H.E.S.S. and the data analysis is presented in this thesis. The analyses of the very-high energy data did not reveal significant emission from any of the sources either. This work presents the first systematic search for gamma-ray emission from bow shocks of runaway stars. For the first time Fermi-LAT data was specifically analysed to reveal emission from bow shocks of runaway stars. In the TeV regime no searches for emission from theses objects have been published so far, the study presented here is the first in this energy regime. The level of the gamma-ray emission from bow shocks of runaway stars is constrained by the calculated upper limits over six orders in magnitude in energy. The upper limits calculated for the bow shocks of runaway stars in the course of this work, constrain several models. For the best candidate, ζ Ophiuchi, the upper limits in the Fermi-LAT energy range are lower than the predictions by a factor ~5. This challenges the assumptions made in this model and gives valuable input for further modelling approaches. The analyses were performed with the software packages provided by the H.E.S.S. and Fermi collaborations. The development of a unified analysis framework for gamma-ray data, namely GammaLib/ctools, is rapidly progressing within the CTA consortium. Recent implementations and cross-checks with current software frameworks are presented in the Appendix. N2 - Das Rätsel des Ursprungs der kosmischen Strahlung wird seit über 100 Jahren angegangen und ist noch immer nicht gelöst. Kosmische Strahlung wird mit Energien die zehn Größenordnungen überspannen gemessen und erreicht Energien bis zu ~10²¹ eV, weit höher als irgendein menschengemachter Beschleuniger erzeugen kann. Verschiedene Theorien über die astrophysikalischen Objekte und Prozesse, die solch hochenergetische Teilchen erzeugen können, wurden vorgeschlagen. Eine prominente Erklärung für einen Prozess, der hochenergetische Teilchen erzeugt ist Schockbeschleunigung. Die Detektion von hochenergetischer Gammastrahlung von Supernovaüberresten, von denen einige schalenförmige Strukturen offenbarten, ist ein klarer Beweis für die Beschleunigung von Teilchen zu ultrarelativistischen Energien in den Schocks dieser Objekte. Die Umgebung von Supernovaüberresten ist komplex und das detaillierte Modellieren der Prozesse die zu hochenergetischer Gammastrahlung führen herausfordernd. Die Untersuchung von Schockbeschleunigung an Bugwellen, die durch individuelle Sterne erzeugt werden, die sich mit Überschallgeschwindigkeit durch das interstellare Medium bewegen, bietet die einmalige Gelegenheit die physikalischen Eigenschaften von Schocks in einer weniger komplexen Umgebung zu bestimmen. Das komprimierte ("geschockte") Medium wird durch die Strahlung des Sterns und die durch den Schock angeregte Strahlung erhitzt und sendet infolgedessen thermische Infrarot-Strahlung aus. Nichtthermische Strahlung, die auf die Existenz von relativistischen Teilchen hinweist, wurde von zwei Bugwellen in Radio- und Röntgen-Wellenlängen gemessen. Theoretische Modelle der Strahlungsprozesse sagen hochenergetische und sehr hochenergetische Strahlung auf einem Niveau, welches mit aktuellen Instrumenten gemessen werden kann, voraus. Diese Arbeit präsentiert die Suche nach hochenergetischer Gammastrahung von Bugwellen von Schnellläufersternen in einem Energiebereich von 100MeV bis ~100TeV. Diese Suche wird mit dem "large area telescope"(LAT) an Bord des Fermi Satelliten und den H.E.S.S. Teleskopen, die im Khomas Hochland in Namibia in Betrieb sind, durchgeführt. Der Fermi Satellit wurde 2008 gestartet und das Fermi-LAT durchmustert seitdem kontinuierlich den Himmel. Es detektiert Photonen im Energiebereich von 20MeV bis über 300GeV und hat eine noch nie dagewesene Sensitivität. Die Abdeckung des gesamten Himmels erlaubt es alle 28 Bugwellen von Schnellläufersternen, die im E-BOSS Katalog aufgelistet sind, zu untersuchen. Von keiner der Bugwellen der Schnellläufersterne konnte signifikante Strahlung nachgewiesen werden, obwohl diese von theoretischen Modellen, die die nichtthermische Emission von Bugwellen von Schnellläufersternen beschreiben, vorausgesagt wurde. Das H.E.S.S. Experiment ist das sensitivste System von abbildenden Cherenkovteleskopen. Es kann Photonen mit Energien von einigen zehn GeV bis zu ~100TeV nachweisen. Sieben der Bugwellen von Schnellläufersternen wurden mit H.E.S.S. beobachtet und die Analyse der Daten wird in dieser Arbeit präsentiert. Auch die Analysen der sehr hochenergetischen Strahlung enthüllten keine signifikante Strahlung aus den Bugwellen der Schnellläufersterne. Diese Arbeit stellt die erste systematische Suche nach Gammastrahlung aus Bugwellen von Schnellläufersternen vor. Zum ersten Mal wurden Fermi-LAT Daten speziell zur Suche nach Emission von diesen Objekten analysiert. Im TeV-Energiebereich wurden bisher noch keine Suchen nach Gammastrahlung von Schnellläufersternen publiziert, die hier vorgestellte Studie ist also die erste in diesem Energiebereich. Das Niveau des Gammastrahlungflusses von Schnellläufersternen wird über einen sechs Größenordnungen überspannenden Energiebereich eingeschränkt. Die oberen Grenzen des Gammastrahlungs usses aus Bugwellen von Schnellläufersternen schränken verschiedene Modelle ein. Für den besten Kandidaten, ζ Ophiuchi, liegen die berechneten oberen Grenzen im Fermi-LAT Energiebereich einen Faktor ~5 unter den Vorhersagen. Dies fordert die Annahmen des Modells heraus und liefert wertvolle Bedingungen für weitere Modellierungsansätze. Die präsentierten Analysen wurden mit den Softwarepakten, die von den Fermi und H.E.S.S. Kollaborationen zur Verfügung gestellt werden, durchgeführt. Die Entwicklung einer gemeinsamen Analyseumgebung namens GammaLib/ctools wird im Rahmen des CTA Konsortiums umgesetzt. Neue Implementierungen und Gegenproben zu den momentanen Analyseumgebungen werden im Anhang präsentiert. KW - Gammastrahlungsastronomie KW - Fermi-LAT KW - H.E.S.S. KW - GammaLib/ctools KW - Bugwellenschocks KW - Schnellläufersterne KW - gamma-ray astronomy KW - Fermi KW - H.E.S.S KW - gammalib/ctools KW - bow shocks KW - runaway stars Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73905 ER - TY - THES A1 - Müller, Jörg T1 - Response of bryophyte diversity to land-use and management in forest and grassland habitats Y1 - 2014 ER - TY - THES A1 - Kirchhecker, Sarah T1 - Renewable imidazolium zwitterions as platform molecules for the synthesis of ionic liquids and materials T1 - Neue funktionalisierte Imidazoliumverbindungen als Bausteinmoleküle aus Biomasse und ihre Verwendung zur Synthese von ionischen Flüssigkeiten und Materialien N2 - Following the principles of green chemistry, a simple and efficient synthesis of functionalised imidazolium zwitterionic compounds from renewable resources was developed based on a modified one-pot Debus-Radziszewski reaction. The combination of different carbohydrate-derived 1,2-dicarbonyl compounds and amino acids is a simple way to modulate the properties and introduce different functionalities. A representative compound was assessed as an acid catalyst, and converted into acidic ionic liquids by reaction with several strong acids. The reactivity of the double carboxylic functionality was explored by esterification with long and short chain alcohols, as well as functionalised amines, which led to the straightforward formation of surfactant-like molecules or bifunctional esters and amides. One of these di-esters is currently being investigated for the synthesis of poly(ionic liquids). The functionalisation of cellulose with one of the bifunctional esters was investigated and preliminary tests employing it for the functionalisation of filter papers were carried out successfully. The imidazolium zwitterions were converted into ionic liquids via hydrothermal decarboxylation in flow, a benign and scalable technique. This method provides access to imidazolium ionic liquids via a simple and sustainable methodology, whilst completely avoiding contamination with halide salts. Different ionic liquids can be generated depending on the functionality contained in the ImZw precursor. Two alanine-derived ionic liquids were assessed for their physicochemical properties and applications as solvents for the dissolution of cellulose and the Heck coupling. N2 - In dieser Arbeit wurden, den Prinzipien der nachhaltigen Chemie folgend, neue funktionalisierte Imidazolium-Verbindungen aus Biomasse hergestellt. Diese wurden als Plattformmoleküle verwendet, die durch einfache Derivation in verschiedene andere Verbindungen überführt, und als Bausteine für die Herstellung von Materialien genutzt werden können. Imidazolium Zwitterionen (ImZw) wurden in Eintopfreaktionen in Wasser dargestellt, wobei alle Ausgangsstoffe auf nachwachsenden Rohstoffen basierten Durch die Verwendung von Aminosaeuren wurden die ImZw durch die Wahl der verschiedenen Seitenketten direkt funktionalisiert. Die Säureeigenschaften der Moleküle wurden bestimmt und ihre Eignung als Katalysatoren überprüft. An einer Modellverbindung ewurden verschiedene Modifikationen der Carboxylgruppen unternommen, u.a. wurde es mit verschiedenen Alkoholen esterifiziert, und anfolgend auch mit verschiedenen Aminen amidiert. Eines von den esterifizierten ImZw wurde als Monomer für die Synthese einer komplett aus nachwachsenden Rohstoffen hergestellten polyionischen Flüssigkeit verwendet, sowie für die Funktionalisierung von Cellulosefasern und Filterpapieren. Des weiteren wurden die ImZw unter hydrothermalen Bedingungen in der Gegenwart von Essigsäure decarboxyliert und so in ionische Flüssigkeiten überführt. Diese Reaktionen wurden in einem Durchflußreaktor durchgeführt, der gegenüber anderen Synthesemethoden weniger Energie verwendet. Die so hergestellten ionischen Flüssigkeiten wurden in zwei Anwendungen getestet, wo sie sehr vielversprechende Ergebnisse zeigten. Eine wurde als Lösungsmittel in einer Heck Reaktion verwendet, wo der Pd-Katalysator 5 mal ohne Aktivitätsverlust recycelt werden konnte eine andere konnte einen hohe Menge an Cellulose (16.9 wt%) lösen. KW - ionic liquids KW - platform chemicals KW - renewables KW - imidazolium KW - green chemistry KW - hydrothermal KW - ionische Flüssigkeiten KW - nachhaltige Chemie KW - Imidazolium KW - Zwitterionen KW - nachwachsende Rohstoffe Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77412 ER - TY - THES A1 - Päpke, Carola T1 - Regulation of respiration during low oxygen availability Y1 - 2014 ER - TY - THES A1 - Videla, Santiago T1 - Reasoning on the response of logical signaling networks with answer set programming T1 - Modellierung Logischer Signalnetzwerke mittels Antwortmengenprogrammierung N2 - Deciphering the functioning of biological networks is one of the central tasks in systems biology. In particular, signal transduction networks are crucial for the understanding of the cellular response to external and internal perturbations. Importantly, in order to cope with the complexity of these networks, mathematical and computational modeling is required. We propose a computational modeling framework in order to achieve more robust discoveries in the context of logical signaling networks. More precisely, we focus on modeling the response of logical signaling networks by means of automated reasoning using Answer Set Programming (ASP). ASP provides a declarative language for modeling various knowledge representation and reasoning problems. Moreover, available ASP solvers provide several reasoning modes for assessing the multitude of answer sets. Therefore, leveraging its rich modeling language and its highly efficient solving capacities, we use ASP to address three challenging problems in the context of logical signaling networks: learning of (Boolean) logical networks, experimental design, and identification of intervention strategies. Overall, the contribution of this thesis is three-fold. Firstly, we introduce a mathematical framework for characterizing and reasoning on the response of logical signaling networks. Secondly, we contribute to a growing list of successful applications of ASP in systems biology. Thirdly, we present a software providing a complete pipeline for automated reasoning on the response of logical signaling networks. N2 - Deciphering the functioning of biological networks is one of the central tasks in systems biology. In particular, signal transduction networks are crucial for the understanding of the cellular response to external and internal perturbations. Importantly, in order to cope with the complexity of these networks, mathematical and computational modeling is required. We propose a computational modeling framework in order to achieve more robust discoveries in the context of logical signaling networks. More precisely, we focus on modeling the response of logical signaling networks by means of automated reasoning using Answer Set Programming (ASP). ASP provides a declarative language for modeling various knowledge representation and reasoning problems. Moreover, available ASP solvers provide several reasoning modes for assessing the multitude of answer sets. Therefore, leveraging its rich modeling language and its highly efficient solving capacities, we use ASP to address three challenging problems in the context of logical signaling networks: learning of (Boolean) logical networks, experimental design, and identification of intervention strategies. Overall, the contribution of this thesis is three-fold. Firstly, we introduce a mathematical framework for characterizing and reasoning on the response of logical signaling networks. Secondly, we contribute to a growing list of successful applications of ASP in systems biology. Thirdly, we present a software providing a complete pipeline for automated reasoning on the response of logical signaling networks. KW - Systembiologie KW - logische Signalnetzwerke KW - Antwortmengenprogrammierung KW - systems biology KW - logical signaling networks KW - answer set programming Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71890 ER - TY - THES A1 - Stutz, Franziska T1 - Reading motivation, reading amount, and reading comprehension in the early elementary years Y1 - 2014 ER - TY - THES A1 - Borchardt, Sven T1 - Rainfall, weathering and erosion BT - quantification of earth surface processes in Suguta Valley, northern Kenya, using multispectral and hyperspectral data Y1 - 2014 ER - TY - THES A1 - Mayer, Michael T1 - Pulsar wind nebulae at high energies BT - a diverse population and exceptional twins BT - eine vielfältige Population und außergewöhnliche Zwillinge N2 - Pulsar wind nebulae (PWNe) are the most abundant TeV gamma-ray emitters in the Milky Way. The radiative emission of these objects is powered by fast-rotating pulsars, which donate parts of their rotational energy into winds of relativistic particles. This thesis presents an in-depth study of the detected population of PWNe at high energies. To outline general trends regarding their evolutionary behaviour, a time-dependent model is introduced and compared to the available data. In particular, this work presents two exceptional PWNe which protrude from the rest of the population, namely the Crab Nebula and N 157B. Both objects are driven by pulsars with extremely high rotational energy loss rates. Accordingly, they are often referred to as energetic twins. Modelling the non-thermal multi-wavelength emission of N157B gives access to specific properties of this object, like the magnetic field inside the nebula. Comparing the derived parameters to those of the Crab Nebula reveals large intrinsic differences between the two PWNe. Possible origins of these differences are discussed in context of the resembling pulsars. Compared to the TeV gamma-ray regime, the number of detected PWNe is much smaller in the MeV-GeV gamma-ray range. In the latter range, the Crab Nebula stands out by the recent detection of gamma-ray flares. In general, the measured flux enhancements on short time scales of days to weeks were not expected in the theoretical understanding of PWNe. In this thesis, the variability of the Crab Nebula is analysed using data from the Fermi Large Area Telescope (Fermi-LAT). For the presented analysis, a new gamma-ray reconstruction method is used, providing a higher sensitivity and a lower energy threshold compared to previous analyses. The derived gamma-ray light curve of the Crab Nebula is investigated for flares and periodicity. The detected flares are analysed regarding their energy spectra, and their variety and commonalities are discussed. In addition, a dedicated analysis of the flare which occurred in March 2013 is performed. The derived short-term variability time scale is roughly 6h, implying a small region inside the Crab Nebula to be responsible for the enigmatic flares. The most promising theories explaining the origins of the flux eruptions and gamma-ray variability are discussed in detail. In the technical part of this work, a new analysis framework is presented. The introduced software, called gammalib/ctools, is currently being developed for the future CTA observa- tory. The analysis framework is extensively tested using data from the H. E. S. S. experiment. To conduct proper data analysis in the likelihood framework of gammalib/ctools, a model describing the distribution of background events in H.E.S.S. data is presented. The software provides the infrastructure to combine data from several instruments in one analysis. To study the gamma-ray emitting PWN population, data from Fermi-LAT and H. E. S. S. are combined in the likelihood framework of gammalib/ctools. In particular, the spectral peak, which usually lies in the overlap energy regime between these two instruments, is determined with the presented analysis framework. The derived measurements are compared to the predictions from the time-dependent model. The combined analysis supports the conclusion of a diverse population of gamma-ray emitting PWNe. N2 - Pulsarwindnebel (PWN) sind im Bereich der TeV Gammastrahlung die am häufigsten vorkommende Quellklasse. Die vorliegende Arbeit präsentiert eine detaillierte Studie der Population von gammastrahlungsemittierenden PWNn. Um ihre Entwicklung zu untersuchen, wird ein zeitabhängiges Modell vorgestellt und mit Messdaten verglichen. Der Fokus dieser Arbeit liegt des Weiteren auf zwei außergewöhnlichen PWNn, die aus der übrigen Population hervorstechen: der Krebsnebel und N 157B. Diese beiden PWN werden von Pulsaren mit ähnlich hohen Rotationsenergieverlustraten gespeist. Daher werden die beiden Pulsare auch oft als “energetische Zwillinge” bezeichnet. Im Rahmen dieser Arbeit wird die Breitbandemission von N 157B modelliert. Dies ermöglicht es, spezielle Eigenschaften dieses PWNs abzuschätzen. Diese sind im Vergleich zum Krebsnebel sehr unterschiedlich, obwohl sich die jeweiligen Energiequellen stark ähneln. Es werden verschiedene Möglichkeiten für die unterschiedliche Erscheinung dieser beiden Quellen diskutiert. Auf Grund kürzlich gemessener MeV Gammastrahlungsausbrüche wird die Einzigartigkeit des Krebsnebels in diesem Energiebereich verdeutlicht. Die auf Zeitskalen von Tagen bis Wochen variierende Helligkeit ist nach dem gegenwärtigen Verständnis von PWNn unerwartet. In dieser Arbeit wird die zeitliche Variabilität des Krebsnebels mit Daten vom Fermi Large Area Telescope (Fermi-LAT) analysiert. Die vorgestellte Datenanalyse basiert auf einer neuen Rekonstruktionsmethode von Gammastrahlen, welche zu einer höheren Empfindlichkeit und einer niedrigeren Energieschwelle führt. Die Lichtkurve des Krebsnebels in Gammastrahlung wird auf Periodizität und Variabilität untersucht. Des Weiteren werden die nachgewiesenen Strahlungsausbrüche hinsichtlich ihrer Energiespektren ausgewertet und miteinander auf Gemeinsamkeiten und Unterschiede verglichen. Zusätzlich wird eine detaillierte Analyse der starken Flusserhöhung vom März 2013 vorgestellt. Die hierbei bestimmte Kurzzeitvariabilität von ca. sechs Stunden lässt vermuten, dass eine sehr kleine Region innerhalb des Krebsnebels für die Strahlungsausbrüche verantwortlich ist. Die vielversprechendsten Theorien zu diesem Phänomen werden vorgestellt und diskutiert. Im technischen Teil dieser Arbeit wird eine neue Analyseumgebung vorgestellt, die derzeit für das zukünftige CTA Observatorium entwickelt wird. Diese Software wird intensiven Analysetests mit Daten des H.E.S.S. Experiments unterzogen. Für die angemessene Durchführung von H.E.S.S. Datenanalysen wird ein Modell vorgestellt, das die Verteilung der Untergrundereignisse in H. E. S. S. Daten beschreibt. Des Weiteren erlaubt die Analyseumgebung die Kombination von Daten mehrerer Instrumente. Diese einzigartige Option wird genutzt, um die beschriebene PWN Population genauer zu studieren. Zu diesem Zweck werden Daten von Fermi-LAT und H. E. S. S. gemeinsam analysiert. Von besonderem Interesse ist hierbei das spektrale Maximum von PWN, welches meist im energetischen Überlappbereich der beiden Instrumente liegt. Die Ergebnisse der gemeinsamen Analyse werden mit dem zeitabhängigen Modell für PWN verglichen. Die daraus gewonnenen Resultate verdeutlichen unter anderem die breite Vielfalt von PWNn. T2 - Pulsarwindnebel bei hohen Energien KW - Crab Nebula KW - N157B KW - gammalib/ctools KW - gamma-ray astronomy KW - data analysis KW - Gammastrahlungsastronomie KW - Fermi-LAT KW - H.E.S.S. KW - Statistische Datenanalyse KW - Krebsnebel KW - N157B KW - Pulsarwindnebel Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-71504 ER - TY - THES A1 - Rudorf, Sophia T1 - Protein Synthesis by Ribosomes Y1 - 2014 ER - TY - THES A1 - Rafiee, Hosnieh T1 - Privacy and security issues in IPv6 networks Y1 - 2014 CY - Potsdam ER - TY - THES A1 - Schreck, Simon Frederik T1 - Potential energy surfaces, femtosecond dynamics and nonlinear X-Ray-Matter interactions from resonant inelastic soft x-Ray scattering Y1 - 2014 ER - TY - THES A1 - Secker, Christian T1 - Polypeptoid block coloymers BT - synthesis, modification, and structure formation Y1 - 2014 ER - TY - THES A1 - Mathew, Simi T1 - Polymeric microparticles as vaccine carriers Y1 - 2014 CY - Potsdam ER - TY - THES A1 - Holler, Markus T1 - Photon reconstruction for the H.E.S.S. 28 m telescope and analysis of Crab Nebula and galactic centre observations T1 - Photonrekonstruktion für das 28 m H.E.S.S. Teleskop und Analyse von Beobachtungen des Krebsnebels und des galaktischen Zentrums N2 - In the presented thesis, the most advanced photon reconstruction technique of ground-based γ-ray astronomy is adapted to the H.E.S.S. 28 m telescope. The method is based on a semi-analytical model of electromagnetic particle showers in the atmosphere. The properties of cosmic γ-rays are reconstructed by comparing the camera image of the telescope with the Cherenkov emission that is expected from the shower model. To suppress the dominant background from charged cosmic rays, events are selected based on several criteria. The performance of the analysis is evaluated with simulated events. The method is then applied to two sources that are known to emit γ-rays. The first of these is the Crab Nebula, the standard candle of ground-based γ-ray astronomy. The results of this source confirm the expected performance of the reconstruction method, where the much lower energy threshold compared to H.E.S.S. I is of particular importance. A second analysis is performed on the region around the Galactic Centre. The analysis results emphasise the capabilities of the new telescope to measure γ-rays in an energy range that is interesting for both theoretical and experimental astrophysics. The presented analysis features the lowest energy threshold that has ever been reached in ground-based γ-ray astronomy, opening a new window to the precise measurement of the physical properties of time-variable sources at energies of several tens of GeV. N2 - In der vorliegenden Dissertation wird die zur Zeit sensitivste Methode zur Photonrekonstruktion in der bodengebundenen Gammastrahlungsastronomie an das 28 m H.E.S.S. Teleskop angepasst. Die Analyse basiert auf einem semi-analytischen Modell von elektromagnetischen Teilchenschauern in der Erdatmosphäre. Die Rekonstruktion erfolgt durch den Vergleich des Bildes der Teleskopkamera mit der Tscherenkow-Emission, die mittels des Schauermodells berechnet wurde. Zur Verringerung des dominanten Untergrundes, der hauptsächlich durch Teilchen der geladenen kosmischen Strahlung hervorgerufen wird, werden Ereignisse anhand bestimmter Kriterien ausgewählt. Die Leistungsfähigkeit der Analyse wird unter Verwendung simulierter Ereignisse evaluiert. Die Methode wird anschließend auf zwei Gammastrahlungsquellen angewendet. Zuerst wird der Krebsnebel analysiert, die Standardkerze der bodengebundenen Gammastrahlungsastronomie. Die Resultate der Analyse des Krebsnebels bestätigen die bereits zuvor erwartete Leistungsfähigkeit der Rekonstruktionsmethode, wobei hier insbesondere die im Vergleich zu H.E.S.S. I stark verringerte Energieschwelle hervorzuheben ist. Als Zweites werden Beobachtungen der Region um das galaktische Zentrum ausgewertet. Die Analyseergebnisse dieser Daten unterstreichen die Fähigkeiten des neuen Teleskops zur Messung kosmischer Gammastrahlung in einem für die theoretische und experimentelle Astrophysik interessanten Energiebereich. Die vorgestellte Analyse besitzt die niedrigste Energieschwelle, die in der bodengebundenen Gammastrahlungsastronomie je erreicht wurde. Sie ermöglicht damit präzise Messungen der physikalischen Eigenschaften von zeitabhängigen Quellen im Energiebereich von 10 bis 100 GeV. KW - Gammastrahlungsastronomie KW - Rekonstruktionsmethoden KW - Datenanalyse KW - Krebsnebel KW - galaktisches Zentrum KW - gamma-ray astronomy KW - reconstruction methods KW - data analysis KW - Crab Nebula KW - galactic centre Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72099 ER - TY - THES A1 - Strauß, Jens T1 - Organic carbon in ice-rich permafrost T1 - Organischer Kohlenstoff in eisreichen Permafrostablagerungen BT - characteristics, quantity, and availability BT - stoffliche Charakteristik, Bilanzierung und Verfügbarkeit N2 - Permafrost, defined as ground that is frozen for at least two consecutive years, is a distinct feature of the terrestrial unglaciated Arctic. It covers approximately one quarter of the land area of the Northern Hemisphere (23,000,000 km²). Arctic landscapes, especially those underlain by permafrost, are threatened by climate warming and may degrade in different ways, including active layer deepening, thermal erosion, and development of rapid thaw features. In Siberian and Alaskan late Pleistocene ice-rich Yedoma permafrost, rapid and deep thaw processes (called thermokarst) can mobilize deep organic carbon (below 3 m depth) by surface subsidence due to loss of ground ice. Increased permafrost thaw could cause a feedback loop of global significance if its stored frozen organic carbon is reintroduced into the active carbon cycle as greenhouse gases, which accelerate warming and inducing more permafrost thaw and carbon release. To assess this concern, the major objective of the thesis was to enhance the understanding of the origin of Yedoma as well as to assess the associated organic carbon pool size and carbon quality (concerning degradability). The key research questions were: - How did Yedoma deposits accumulate? - How much organic carbon is stored in the Yedoma region? - What is the susceptibility of the Yedoma region's carbon for future decomposition? To address these three research questions, an interdisciplinary approach, including detailed field studies and sampling in Siberia and Alaska as well as methods of sedimentology, organic biogeochemistry, remote sensing, statistical analyses, and computational modeling were applied. To provide a panarctic context, this thesis additionally includes results both from a newly compiled northern circumpolar carbon database and from a model assessment of carbon fluxes in a warming Arctic. The Yedoma samples show a homogeneous grain-size composition. All samples were poorly sorted with a multi-modal grain-size distribution, indicating various (re-) transport processes. This contradicts the popular pure loess deposition hypothesis for the origin of Yedoma permafrost. The absence of large-scale grinding processes via glaciers and ice sheets in northeast Siberian lowlands, processes which are necessary to create loess as material source, suggests the polygenetic origin of Yedoma deposits. Based on the largest available data set of the key parameters, including organic carbon content, bulk density, ground ice content, and deposit volume (thickness and coverage) from Siberian and Alaskan study sites, this thesis further shows that deep frozen organic carbon in the Yedoma region consists of two distinct major reservoirs, Yedoma deposits and thermokarst deposits (formed in thaw-lake basins). Yedoma deposits contain ~80 Gt and thermokarst deposits ~130 Gt organic carbon, or a total of ~210 Gt. Depending on the approach used for calculating uncertainty, the range for the total Yedoma region carbon store is ±75 % and ±20 % for conservative single and multiple bootstrapping calculations, respectively. Despite the fact that these findings reduce the Yedoma region carbon pool by nearly a factor of two compared to previous estimates, this frozen organic carbon is still capable of inducing a permafrost carbon feedback to climate warming. The complete northern circumpolar permafrost region contains between 1100 and 1500 Gt organic carbon, of which ~60 % is perennially frozen and decoupled from the short-term carbon cycle. When thawed and reintroduced into the active carbon cycle, the organic matter qualities become relevant. Furthermore, results from investigations into Yedoma and thermokarst organic matter quality studies showed that Yedoma and thermokarst organic matter exhibit no depth-dependent quality trend. This is evidence that after freezing, the ancient organic matter is preserved in a state of constant quality. The applied alkane and fatty-acid-based biomarker proxies including the carbon-preference and the higher-land-plant-fatty-acid indices show a broad range of organic matter quality and thus no significantly different qualities of the organic matter stored in thermokarst deposits compared to Yedoma deposits. This lack of quality differences shows that the organic matter biodegradability depends on different decomposition trajectories and the previous decomposition/incorporation history. Finally, the fate of the organic matter has been assessed by implementing deep carbon pools and thermokarst processes in a permafrost carbon model. Under various warming scenarios for the northern circumpolar permafrost region, model results show a carbon release from permafrost regions of up to ~140 Gt and ~310 Gt by the years 2100 and 2300, respectively. The additional warming caused by the carbon release from newly-thawed permafrost contributes 0.03 to 0.14°C by the year 2100. The model simulations predict that a further increase by the 23rd century will add 0.4°C to global mean surface air temperatures. In conclusion, Yedoma deposit formation during the late Pleistocene was dominated by water-related (alluvial/fluvial/lacustrine) as well as aeolian processes under periglacial conditions. The circumarctic permafrost region, including the Yedoma region, contains a substantial amount of currently frozen organic carbon. The carbon of the Yedoma region is well-preserved and therefore available for decomposition after thaw. A missing quality-depth trend shows that permafrost preserves the quality of ancient organic matter. When the organic matter is mobilized by deep degradation processes, the northern permafrost region may add up to 0.4°C to the global warming by the year 2300. N2 - Permafrost, definiert als mehr als zwei aufeinander folgende Jahre gefrorenes Bodenmaterial, ist eines der prägenden Merkmale der unvergletscherten arktischen Landgebiete. Verursacht durch extrem kalte Wintertemperaturen und geringe Schneebedeckung nimmt das Permafrost-Verbreitungsgebiet mit ~23.000.000 km² rund ein Viertel der Landfläche der Nordhemisphäre ein. Von Permafrost unterlagerte arktische Landschaften sind besonders anfällig hinsichtlich einer Erwärmung des Klimas. Verglichen mit der globalen Mitteltemperatur prognostizieren Klimamodelle für die Arktis einen doppelt so starken Anstieg der Temperatur. In einer sich erwärmenden Arktis bewirken Störungen des thermisch-hydrologischen Gleichgewichts eine Degradation von Permafrost und Veränderungen des Oberflächenreliefs. Diese Störungen können zum Beispiel zu einer Vertiefung der saisonalen Auftauschicht, zu thermisch bedingter Erosion sowie zu schneller Oberflächenabsenkung und Thermokarst führen. Im Verbreitungsgebiet der spätpleistozänen eisreichen Permafrost-Ablagerungen Sibiriens und Alaskas, bezeichnet als Yedoma, können Thermokarstprozesse auch mehr als 3 m tiefe organischen Kohlenstoffspeicher verfügbar machen, wenn durch schmelzendes Grundeis und Schmelzwasserdrainage die Oberfläche abgesenkt wird. So kann das Tauen von Permafrost eine globale Bedeutung entwickeln, indem vorher eingefrorener Kohlenstoff wieder dem aktiven Kohlenstoffkreislauf zugeführt wird. Dies kann durch Treibhausgasfreisetzung aus Permafrost zu einer sich selbst verstärkenden weiteren Erwärmung und somit zu fortschreitendem Tauen mit weiterer Kohlenstofffreisetzung führen. Diesen Prozess nennt man Permafrost-Kohlenstoff Rückkopplung. Um das Verständnis der Permafrostkohlenstoffdynamik grundlegend zu verbessern, wurde in dieser Doktorarbeit die Entstehung der Yedoma-Ablagerungen eingeschlossen des darin - Wie wurden die Yedoma-Sedimente abgelagert? - Wie viel Kohlenstoff ist in der Yedoma Region gespeichert? - Wie ist die Anfälligkeit dieses Kohlenstoffs für eine Degradation in der Zukunft? Um die oben genannten drei Forschungsfragen zu beantworten, wurde ein interdisziplinärer Forschungsansatz gewählt. In Sibirien und Alaska wurden detaillierte Felduntersuchungen durchgeführt und Methoden der Sedimentologie, der organischen Biogeochemie, der Fernerkundung sowie der statistischen Analyse und computergestützten Modellierung angewendet. Um diese Ergebnisse in den panarktische Kontext zu setzen, enthält diese Doktorarbeit ebenfalls Ergebnisse einer Studie, welche auf Grundlage einer neu zusammengestellten Datenbank den gesamten Kohlenstoff des arktischen Permafrosts abschätzt. Eine Modellierungsstudie ergänzt die Arbeit bezüglich einer Abschätzung der Kohlenstoffflüsse der Permafrostregion und deren Einfluss auf die globale Erwärmung. Die Ergebnisse zur Yedoma-Entstehung zeigen, dass die Korngrößenverteilungen dieser Ablagerungen, tiefenabhängig betrachtet, sehr homogen sind. Alle gemessenen Korngrößenverteilungen sind schlecht sortiert. Dies deutet auf eine Vielzahl von Transportprozessen hin und widerspricht der populären Hypothese einer reinen Löß-Ablagerung. Interpretiert im Kontext mit der Abwesenheit von Gletschern sowie Eisschilden, als Ausgangsgebiete von Löß-Ablagerungen, in den sibirischen Tiefländern des Spätpleistozäns, zeigt diese Arbeit, dass Yedoma-Ablagerungen polygenetischen Ursprungs sind. Basierend auf dem größten verfügbaren Datensatz der Schlüsselparameter Kohlenstoffgehalt, Lagerungsdichte, Grundeis und Volumen der Ablagerungen von über 20 Untersuchungsgebieten in Sibirien und Alaska zeigt diese Arbeit mit Yedoma- und Thermokarstablagerungen zwei wesentliche Kohlenstoffspeicher der Yedoma Region auf. Yedoma-Ablagerungen enthalten ~80 Gt und Thermokarstablagerungen ~130 Gt organischen Kohlenstoffs, was einer Gesamtmenge von ~210 Gt organischen Kohlenstoffs entspricht. Abhängig vom gewählten Ansatz der Fehlerberechnung liegt der Unsicherheitsbereich dieser Quantitätsabschätzung bei ±75 % (einfaches Bootstrapping) oder ±20 % (wiederholtes Bootstrapping). Obwohl diese Zahlen die bisherigen Berechnungen des Yedoma-Region-Kohlenstoffspeichers vorhergehender Studien halbieren, stellen 210 Gt organischen Kohlenstoffs noch immer einen großen Kohlenstoffspeicher dar, der eine positive Rückkopplung zur globalen Klimaerwärmung bewirken könnte. Die gesamte Permafrostregion beinhaltet zwischen 1100 und 1500 Gt Kohlenstoff, wovon ~60 % dauerhaft gefroren und somit dem derzeitigen Kohlenstoffkreislauf entzogen sind. Wenn dieser Kohlenstoff freigesetzt wird, ist ein weiterer Faktor, die Kohlenstoffqualität, relevant. Die Untersuchungen zur Kohlenstoffqualität zeigen keinen tiefenabhängigen Trend in Yedoma- und Thermokarstablagerungen. Dies belegt, dass nach dem Einfrieren die fossile organische Substanz konserviert wurde. Die genutzten Biomarkerdaten, z.B. der 'carbon preference' Index und der 'higher land plant fatty acid' Index zeigen sowohl für Yedoma- als auch für Thermokarstablagerungen keine signifikanten Unterschiede der Kohlenstoffqualität. Das bedeutet, dass der Kohlenstoffabbau nach dem Auftauen von unterschiedlichen Faktoren abhängig ist. Dazu gehören verschiedene Abbauwege oder schon vor dem Einfrieren geschehener Abbau. Um die Bedeutung des aufgetauten Kohlenstoffs abzuschätzen, wurden Thermokarstprozesse in ein Permafrost-Kohlenstoff-Modell einbezogen. Unter Berücksichtigung verschiedener Erwärmungsszenarien könnte die zirkumarktische Permafrostregion bis zum Jahr 2100 ~140 Gt Kohlenstoff und bis 2300 ~310 Gt in die Atmosphäre freisetzen. Dies entspricht einer Erwärmung der mittleren globalen Oberflächentemperatur von ~0,03 bis ~0,14°C bis 2100 und bis zu ~0,4°C bis 2300. Zusammenfassend stellt diese Dissertation heraus, dass die Yedoma-Ablagerungen während des Spätpleistozäns durch eine Kombination verschiedener aquatischer (alluviale, fluviale, lakustrine) sowie äolische Prozesse entstanden sind. Die zirkumarktische Region, inklusive der Yedoma Region, beinhaltet eine erhebliche Menge an derzeit eingefrorenem organischen Kohlenstoffs. Dieser Kohlenstoff ist gut erhalten und damit nach dem Auftauen für den mikrobiellen Abbau verfügbar. Eine fehlende Tiefenabhängigkeit der Kohlenstoffqualität zeigt, dass Permafrost die Qualität zum Einfrierzeitpunkt bewahrt. Wenn auch der tiefliegende organische Kohlenstoff durch Thermokarstprozesse verfügbar gemacht wird, kann die Permafrostregion bis zum Jahr 2300 bis zu 0,4°C zur mittleren globalen Oberflächentemperatur beitragen. KW - permafrost KW - Arctic KW - climate change KW - vulnerability KW - Dauerfrostboden KW - Arktis KW - Klimawandel KW - Vulnerabilität Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75236 ER - TY - THES A1 - Braun, Andreas T1 - Open innovation - an analysis of the individual level Y1 - 2014 CY - Potsdam ER - TY - THES A1 - Conrad, Claudia T1 - Open cluster groups and complexes T1 - Gruppen und Komplexe offener Sternhaufen N2 - It is generally agreed upon that stars typically form in open clusters and stellar associations, but little is known about the structure of the open cluster system. Do open clusters and stellar associations form isolated or do they prefer to form in groups and complexes? Open cluster groups and complexes could verify star forming regions to be larger than expected, which would explain the chemical homogeneity over large areas in the Galactic disk. They would also define an additional level in the hierarchy of star formation and could be used as tracers for the scales of fragmentation in giant molecular clouds? Furthermore, open cluster groups and complexes could affect Galactic dynamics and should be considered in investigations and simulations on the dynamical processes, such as radial migration, disc heating, differential rotation, kinematic resonances, and spiral structure. In the past decade there were a few studies on open cluster pairs (de La Fuente Marcos & de La Fuente Marcos 2009a,b,c) and on open cluster groups and complexes (Piskunov et al. 2006). The former only considered spatial proximity for the identification of the pairs, while the latter also required tangential velocities to be similar for the members. In this work I used the full set of 6D phase-space information to draw a more detailed picture on these structures. For this purpose I utilised the most homogeneous cluster catalogue available, namely the Catalogue of Open Cluster Data (COCD; Kharchenko et al. 2005a,b), which contains parameters for 650 open clusters and compact associations, as well as for their uniformly selected members. Additional radial velocity (RV) and metallicity ([M/H]) information on the members were obtained from the RAdial Velocity Experiment (RAVE; Steinmetz et al. 2006; Kordopatis et al. 2013) for 110 and 81 clusters, respectively. The RAVE sample was cleaned considering quality parameters and flags provided by RAVE (Matijevič et al. 2012; Kordopatis et al. 2013). To ensure that only real members were included for the mean values, also the cluster membership, as provided by Kharchenko et al. (2005a,b), was considered for the stars cross-matched in RAVE. 6D phase-space information could be derived for 432 out of the 650 COCD objects and I used an adaption of the Friends-of-Friends algorithm, as used in cosmology, to identify potential groupings. The vast majority of the 19 identified groupings were pairs, but I also found four groups of 4-5 members and one complex with 15 members. For the verification of the identified structures, I compared the results to a randomly selected subsample of the catalogue for the Milky Way global survey of Star Clusters (MWSC; Kharchenko et al. 2013), which became available recently, and was used as reference sample. Furthermore, I implemented Monte-Carlo simulations with randomised samples created from two distinguished input distributions for the spatial and velocity parameters. On the one hand, assuming a uniform distribution in the Galactic disc and, on the other hand, assuming the COCD data distributions to be representative for the whole open cluster population. The results suggested that the majority of identified pairs are rather by chance alignments, but the groups and the complex seemed to be genuine. A comparison of my results to the pairs, groups and complexes proposed in the literature yielded a partial overlap, which was most likely because of selection effects and different parameters considered. This is another verification for the existence of such structures. The characteristics of the found groupings favour that members of an open cluster grouping originate from a common giant molecular cloud and formed in a single, but possibly sequential, star formation event. Moreover, the fact that the young open cluster population showed smaller spatial separations between nearest neighbours than the old cluster population indicated that the lifetime of open cluster groupings is most likely comparable to that of the Galactic open cluster population itself. Still even among the old open clusters I could identify groupings, which suggested that the detected structure could be in some cases more long lived as one might think. In this thesis I could only present a pilot study on structures in the Galactic open cluster population, since the data sample used was highly incomplete. For further investigations a far more complete sample would be required. One step in this direction would be to use data from large current surveys, like SDSS, RAVE, Gaia-ESO and VVV, as well as including results from studies on individual clusters. Later the sample can be completed by data from upcoming missions, like Gaia and 4MOST. Future studies using this more complete open cluster sample will reveal the effect of open cluster groupings on star formation theory and their significance for the kinematics, dynamics and evolution of the Milky Way, and thereby of spiral galaxies. N2 - Es ist weithin anerkannt, dass Sterne typischerweise in offenen Sternenhaufen und Sternassoziationen entstehen, dennoch ist wenig über Strukturen in diesem System der offenen Sternhaufen bekannt. Entstehen offenen Sternhaufen und Sternassoziationen isoliert oder entstehen sie bevorzugt in Gruppen und Komplexen? Gruppen und Komplexe von offenen Sternhaufen könnten bestätigen, dass Sternentstehungsregionen größer sind als erwartet, was die Homogenität der chemischen Zusammensetzung über weite Areale in der galaktischen Scheibe erklären würde. Sie würden auch eine weitere Stufe in der Hierarchie der Sternentstehung definieren und könnten als Indikatoren für die Skalen der Fragmentierung in Riesenmolekülwolken dienen. Des Weiteren könnten Gruppen und Komplexe von offenen Sternhaufen die Dynamik unserer Galaxis beeinflussen und sollten in Untersuchungen und Simulationen von dynamischen Prozessen, wie radiale Migration, kinematische Aufheizung der Scheibe, differentielle Rotation, kinematische Resonanzen und der Spiralstruktur, miteinbezogen werden. In den vergangenen Jahrzehnten gab es einigen Studien zu Paaren von offenen Sternhaufen (de La Fuente Marcos & de La Fuente Marcos 2009a,b,c) sowie zu Gruppen und Komplexen von offenen Sternhaufen (Piskunov et al. 2006). Erstere betrachteten ausschließlich räumliche Nähe für die Identifizierung der Paare, während letztere auch ähnliche tangentiale Geschwindigkeiten für die Mitglieder verlangten. In dieser Arbeit nutzte ich den kompletten Satz an 6D-Phasenrauminformationen, um ein vollständigeres Bild dieser Strukturen zu erstellen. Aus diesem Grund habe ich den homogensten Sternhaufenkatalog verwendet, der zu dieser Zeit verfügbar war, nämlich den Catalogue of Open Cluster Data (COCD; Kharchenko et al. 2005a,b), welcher Parameter für 650 offene Sternhaufen und Sternassoziationen, sowie deren einheitlich ausgewählte Mitglieder, enthält. Weitere Radialgeschwindigkeits- (RV) und Metallizitätsinformationen ([M/H]) für die Sternhaufenmitglieder wurden mit Hilfe des RAdial Velocity Experiment (RAVE; Steinmetz et al. 2006; Kordopatis et al. 2013) für 110 beziehungsweise 81 Haufen bestimmt. Der RAVE-Datensatz wurde mit Hilfe von Qualitätsparametern aus RAVE (Matijevič et al. 2012; Kordopatis et al. 2013) gereinigt. Um sicherzustellen, dass nur echte Mitglieder für die Mittelwertbestimmung betrachtet wurden, wurde auch die Haufenmitgliedschaft, wie von Kharchenko et al. (2005a,b) bereitgestellt, für die in RAVE identifizierten Sterne miteinbezogen. 6D-Phasenrauminformationen konnten für 432 der 650 COCD Objekte bestimmt werden und ich habe eine angepasste Variante des Friends-of-Friends Algorithmus genutzt, der in der Kosmologie verwendet wird, um potenzielle Gruppierungen zu identifizieren. Der überwiegende Teil der 19 identifizierten Gruppierungen waren Paare, ich habe aber auch vier Gruppen mit 4-5 Mitgliedern und einen Komplex mit 15 Mitgliedern gefunden. Für die Bestätigung der identifizierten Strukturen, verglich ich die Ergebnisse mit einem zufällig ausgewählten Datensatz aus dem Milky Way global survey of Star Clusters (MWSC; Kharchenko et al. 2013), der kürzlich erst zur Verfügung gestellt wurde und hier als Vergleichsdatensatz verwendet wurde. Des Weiteren, habe ich Monte-Carlo Simulationen mit zufälligen Datensätzen implementiert, die anhand von zwei unterschiedlichen Varianten für die Ausgangsverteilungen der räumlichen und Geschwindigkeitsparameter generiert wurden. Zum Einen unter der Annahme einer gleichmäßigen Verteilung in der galaktischen Scheibe und zum Anderen unter der Annahme, dass die Datenverteilungen im COCD repräsentativ sind für die gesamte Population der offenen Sternhaufen. Die Ergebnisse deuteten darauf hin, dass die Mehrheit der identifizierten Paare eher zufällige Anordnungen sind, aber die Gruppen und der Komplex schienen echt zu sein. Ein Vergleich meiner Ergebnisse mit den in der Literatur vorgeschlagenen Paaren, Gruppen und Komplexen ergab eine teilweise Überschneidung, die höchstwahrscheinlich durch Auswahleffekte und die Verwendung unterschiedlicher Parameter bedingt war. Dies ist eine weitere Bestätigung für die Existenz solcher Strukturen. Die Eigenschaften der gefundenen Gruppierungen bevorzugen, dass die Mitglieder einer Gruppierung von offenen Sternhaufen aus einer gemeinsamen Riesenmolekülwolke stammen und in einem Sternentstehungsereignis geformt wurden, das möglicherweise auch sequenziell ablief. Außerdem zeigte die junge Population der offenen Sternhaufen kleinere räumliche Abstände zwischen den nächsten Nachbarn als die alte Haufenpopulation, was darauf hindeutet, dass die Lebenszeit von Gruppierungen von offenen Sternhaufen vergleichbar ist mit der für die Population galaktischer offener Sternhaufen selbst. Dennoch wurden auch unter den alten offenen Sternhaufen Gruppierungen identifiziert, was andeutete, dass die gefundenen Strukturen doch in einigen Fällen langlebiger ist als man denken könnte. In dieser Doktorarbeit konnte ich nur eine Pilotstudie zu Strukturen in der Population der galaktischen offenen Sternhaufen präsentieren, da der verwendete Datensatz höchst unvollständig war. Für zukünftige Untersuchungen wäre ein deutlich vollständigerer Datensatz notwendig. Ein Schritt in diese Richtung wäre die Verwendung von Daten aus großen momentan verfügbaren Beobachtungskampagnen, wie dem SDSS, RAVE, Gaia-ESO und dem VVV, sowie das miteinbeziehen der Ergebnisse von Studien an einzelnen offenen Sternhaufen. Später könnte dieser Datensatz durch die Verwendung von Daten aus kommenden Missionen, wie Gaia und 4MOST, komplettiert werden. Zukünftige Studien mit einem vollständigeren Datensatz werden den Einfluss von Gruppierungen von offenen Sternhaufen für die Sternentstehungstheorie und ihre Bedeutung für die Kinematik, Dynamik und Entwicklung der Milchstraße, und damit auch für andere Spiralgalaxien, enträtseln. KW - open clusters and stellar associations KW - stellar populations KW - offene Sternhaufen und stellare Assoziationen KW - Sternpopulationen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77605 ER - TY - THES A1 - Wienhöfer, Jan T1 - On the role of structure-process interactions in controlling terrestrial systems : an exemplare of hillslope hydrology and a slow-moving landslide Y1 - 2014 CY - Potsdam ER - TY - THES A1 - Roth, Julia T1 - Ocidental readings, decolonial practies ; a selection on gender, genre and coloniality in the Americas T2 - Inter-American Studies Y1 - 2014 SN - 978-3-86821-446-8 VL - 10 PB - Wiss. Verl. Trier; Bilingual Press CY - Trier; Tempe, AZ ER - TY - THES A1 - Tympel, Jens Günter T1 - Numerical modeling of the Cenozoic Pamir-Tien Shan orogeny Y1 - 2014 ER - TY - THES A1 - Fronton, Ludivine T1 - Modeling approaches to characterize the disposition of monoclonal antibodies T1 - Modellierungsansätze zur Charakterisierung der Verteilung und Eliminierung monoklonaler Antikörper BT - from detailed PBPK models to classical compartment models BT - vom detaillierten PBPK-Model zum klassischen Kompartiment-Model N2 - Monoclonal antibodies (mAbs) are engineered immunoglobulins G (IgG) used for more than 20 years as targeted therapy in oncology, infectious diseases and (auto-)immune disorders. Their protein nature greatly influences their pharmacokinetics (PK), presenting typical linear and non-linear behaviors. While it is common to use empirical modeling to analyze clinical PK data of mAbs, there is neither clear consensus nor guidance to, on one hand, select the structure of classical compartment models and on the other hand, interpret mechanistically PK parameters. The mechanistic knowledge present in physiologically-based PK (PBPK) models is likely to support rational classical model selection and thus, a methodology to link empirical and PBPK models is desirable. However, published PBPK models for mAbs are quite diverse in respect to the physiology of distribution spaces and the parameterization of the non-specific elimination involving the neonatal Fc receptor (FcRn) and endogenous IgG (IgGendo). The remarkable discrepancy between the simplicity of biodistribution data and the complexity of published PBPK models translates in parameter identifiability issues. In this thesis, we address this problem with a simplified PBPK model—derived from a hierarchy of more detailed PBPK models and based on simplifications of tissue distribution model. With the novel tissue model, we are breaking new grounds in mechanistic modeling of mAbs disposition: We demonstrate that binding to FcRn is indeed linear and that it is not possible to infer which tissues are involved in the unspecific elimination of wild-type mAbs. We also provide a new approach to predict tissue partition coefficients based on mechanistic insights: We directly link tissue partition coefficients (Ktis) to data-driven and species-independent published antibody biodistribution coefficients (ABCtis) and thus, we ensure the extrapolation from pre-clinical species to human with the simplified PBPK model. We further extend the simplified PBPK model to account for a target, relevant to characterize the non-linear clearance due to mAb-target interaction. With model reduction techniques, we reduce the dimensionality of the simplified PBPK model to design 2-compartment models, thus guiding classical model development with physiological and mechanistic interpretation of the PK parameters. We finally derive a new scaling approach for anatomical and physiological parameters in PBPK models that translates the inter-individual variability into the design of mechanistic covariate models with direct link to classical compartment models, specially useful for PK population analysis during clinical development. N2 - Monoklonale Antikörper (mAbs) sind gentechnisch hergestellte Immunglobuline G (IgG), die seit mehr als 20 Jahren therapeutisch gezielt gegen spezifische Antigene eingesetzt werden. Die Hauptindikationen sind vor allem die Gebiete Onkologie, Infektions- und (Auto-)Immun-Erkrankungen. Monoklonale Antikörper sind hydrophile und geladene Moleküle mit hoher Affinität und Selektivität für ihr Target. Diese Eigenschaften haben einen groçen Einfluss auf die Pharmacokinetik (PK), wobei oft lineares und nicht-lineares Verhalten beobachtet wird. Mathematische Modelle, wie zum Beispiel empirische Modelle, werden routinemässig in der Forschung und Entwicklung verwendet, um die PK für mAbs zu charakterisieren. Hingegen sind physiologisch-basierte PK (PBPK) Modelle für mAbs nur begrenzt einsetzbar. Zur Identifikation und Quantifizierung der Variabilität in klinischen PK-Daten werden meistens empirische 2-Kompartiment Modelle für populationspharmakokinetischen Analysen eingesetzt. Allerdings gibt es weder einen klaren Konsens noch Richtlinien, um lineare und nicht-lineare Clearances zu erklären und um physiologische und mechanistische PK-Parameter zu interpretieren. Prädiktive PBPK-Modelle, die für mAbs publiziert wurden, sind sehr unterschiedlich in Bezug auf die betrachteten Verteilungsvolumina (vaskulär, interstitiell, endosomal) und die Parametrisierung der nicht-spezifischen Elimination durch den neonatalen Fc-Rezeptor und endogenes IgG. Je detaillierter die Beschreibung dieser Prozesse ist, desto mehr Parameter werden benötigt. Allerdings sind deren Werte oftmals nicht bekannt. Dies führt zu Problemen in der Identifizierbarkeit bei den üblicherweise zur Verfügung stehenden in vivo Verteilungsdaten. In der vorliegenden Doktorarbeit präsentieren wir hierarchisch aufgebaute PBPK Modelle für mAbs. Dazu gehören detaillierte, intermediäre und vereinfachte Modelle, deren Ableitungen auf Simplifizierungen des Gewebe-Verteilungs-Modells basieren. Mit dem neuen, vereinfachten PBPK Modell können wir einen Einblick in die mechanistische Interpretation von Gewebe-Verteilungskoeffizienten geben. Diese können mit publizierten, auf Daten basierenden Antikörper Biodistributions Koeffizienten verglichen werden. Weiterhin erlaubt ein simplifiziertes Modell Parameter Identifizierbarkeit und die Auswahl an Gewebe, die bei der nicht-spezifischen Eliminierung der mAbs eine Rolle spielen. Das vereinfachte PBPK Modell kann nach Bedarf um ein Target erweitert werden, das relevant ist für die nicht-lineare Clearance in Folge einer mAb-Target Interaktion zu erklären. Mit Hilfe von Techniken zur Modell-Reduktion reduzieren wir das vereinfachte PBPK Modell, um Kompartiment-Modelle mit niedriger Dimensionalität zu entwickeln. Dadurch wird die physiologische und mechanistische Interpretation der PK Parameter garantiert. Zuletzt leiten wir eine neue Skalierungsmethode für anatomische und physiologische Parameter ab. Sie ermöglicht die Translation der inter-individuellen Variabilität in das Design eines mechanistischen Covariat-Models mit direktem Link zu klassischen Kompartiment-Modellen. Dies ist vor allem für populationspharmakokinetischen Analysen wÃdhrend der klinischen Entwicklung hilfreich. KW - mAb disposition KW - PBPK KW - extravasation-rate limited tissue model KW - classical compartment model KW - mAb Disposition KW - PBPK KW - Extravasation-rate limited Gewebemodelle KW - Kompartiment-Modelle Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76537 ER - TY - THES A1 - Sayago, Jhosnella T1 - Late Paleozoic basin analysis of the Loppa High and Finnmark Platform in the Norwegian Barents Sea : integration of seismic attributes and seismic sequence stratigraphy T1 - Jungpaläozoikum becken analyse der Loppa High und Finnmark Platform in der norwegischen Barentssee : Integration von seismischen Attributen und seismische Sequenzstratigraphie N2 - The subsurface upper Palaeozoic sedimentary successions of the Loppa High half-graben and the Finnmark platform in the Norwegian Barents Sea (southwest Barents Sea) were investigated using 2D/3D seismic datasets combined with well and core data. These sedimentary successions represent a case of mixed siliciclastic-carbonates depositional systems, which formed during the earliest phase of the Atlantic rifting between Greenland and Norway. During the Carboniferous and Permian the southwest part of the Barents Sea was located along the northern margin of Pangaea, which experienced a northward drift at a speed of ~2–3 mm per year. This gradual shift in the paleolatitudinal position is reflected by changes in regional climatic conditions: from warm-humid in the early Carboniferous, changing to warm-arid in the middle to late Carboniferous and finally to colder conditions in the late Permian. Such changes in paleolatitude and climate have resulted in major changes in the style of sedimentation including variations in the type of carbonate factories. The upper Palaeozoic sedimentary succession is composed of four major depositional units comprising chronologically the Billefjorden Group dominated by siliciclastic deposition in extensional tectonic-controlled wedges, the Gipsdalen Group dominated by warm-water carbonates, stacked buildups and evaporites, the Bjarmeland Group characterized by cool-water carbonates as well as by the presence of buildup networks, and the Tempelfjorden Group characterized by fine-grained sedimentation dominated by biological silica production. In the Loppa High, the integration of a core study with multi-attribute seismic facies classification allowed highlighting the main sedimentary unconformities and mapping the spatial extent of a buried paleokarst terrain. This geological feature is interpreted to have formed during a protracted episode of subaerial exposure occurring between the late Palaeozoic and middle Triassic. Based on seismic sequence stratigraphy analysis the palaeogeography in time and space of the Loppa High basin was furthermore reconstructed and a new and more detailed tectono-sedimentary model for this area was proposed. In the Finnmark platform area, a detailed core analysis of two main exploration wells combined with key 2D seismic sections located along the main depositional profile, allowed the evaluation of depositional scenarios for the two main lithostratigraphic units: the Ørn Formation (Gipsdalen Group) and the Isbjørn Formation (Bjarmeland Group). During the mid-Sakmarian, two major changes were observed between the two formations including (1) the variation in the type of the carbonate factories, which is interpreted to be depth-controlled and (2) the change in platform morphology, which evolved from a distally steepened ramp to a homoclinal ramp. The results of this study may help supporting future reservoirs characterization of the upper Palaeozoic units in the Barents Sea, particularly in the Loppa High half-graben and the Finmmark platform area. N2 - Die unterirdischen Sedimentabfolgen des oberen Paläozoikums des Loppa High Halbgrabens und der Finnmark-Plattform in der norwegischen Barentssee (südwestliche Barentssee) wurden mit 2D/3D-Seismik Datensätzen untersucht, welche mit Bohrungs-und Kerndaten kombiniert wurde. Diese Sedimentabfolgen stellen einen Fall von gemischten siliziklastischen-karbonatischen Ablagerungssystemen dar, die während der ersten Phase des Atlantiks-Riftings zwischen Grönland und Norwegen gebildet wurden. Während des Karbons und Perms war der südwestliche Teil der Barentssee entlang des Nordrand von Pangäa lokalisiert, der einen Drift nach Norden mit einer Geschwindigkeit von ~ 2-3 mm pro Jahr erlebte. Diese allmähliche Verschiebung in der paläolatitudinalen Position spiegelt sich durch Veränderungen in den regionalen klimatischen Bedingungen wider: von warm-feuchten im frühen Karbon, zu warm-ariden im mittleren bis späten Karbon und schließlich zu gemäßigten-kalten Bedingungen im späten Perm. Solche Änderungen in Paläolatitude und Klima führten zu größeren Veränderungen im Sedimentationsstil, einschließlich Variationen in der Karbonatausfällungsart. Die obere paläozoische Sedimentfolge umfasst vier Hauptablagerungseinheiten, in chronologischer Reihenfolge, die Billefjorden-Gruppe, welche von siliziklastischen Ablagerungen in durch extensionale Tektonik gesteuerten Keilen dominiert wird, die Gipsdalen-Gruppe, die von Warmwasser-Karbonaten, „stacked buildups“ und Evaporiten dominiert wird, die Bjarmeland-Gruppe, von Kaltwasser-Karbonaten als auch durch die Anwesenheit von „buildup-networks“ charakterisiert, und die Tempelfjorden-Gruppe, die durch feinkörnige Sedimentation, dominiert durch biologische Produktion von Kieselsäure, gekennzeichnet. In der Loppa High war es durch die Integration einer Kernstudie mit einer Multi-Attribut Klassifizierung der seismischen Fazien möglich, die wichtigsten sedimentären Diskordanzen hervorzuheben und die räumliche Ausdehnung eines verborgenen Paläokarstsystems zu kartieren. Diese geologische Besonderheit soll sich während einer lang-anhaltenden Episode der subaerischen Exposition gebildet haben, die zwischen dem späten Paläozoikum und mittleren Trias auftrat. Basierend auf der Analyse seismischer Sequenzstratigraphie, wurde die Paläogeographie des Loppa High Beckens im Hinblick auf Zeit und Raum weiterhin umgebaut und eine neue und es wurde ein detaillierteres tektonisch-sedimentäres Modell für diesen Bereich vorgeschlagen. Im Bereich der Finnmark-Plattform konnte durch eine detaillierte Bohrkernanalyse zweier Explorationsbohrungen in Kombination mit seismischen 2D-Schlüssel-Sektionen, die sich entlang des Hauptablagerungsprofils befindet, Ablagerungsszenarien für die beiden wichtigsten lithologischen Einheiten bewertet werden: die Ørn Formation (Gipsdalen Gruppe) und die Isbjørn Formation (Bjarmeland-Gruppe). Im mittleren Sakmarian wurden zwei wichtige Änderungen zwischen den beiden Formationen beobachtet, einschließlich (1) der Veränderung in der Art der Karbotausfällungen, welche als Tiefen-abhängig beschrieben wird, und (2) die Veränderung der Plattformmorphologie, die sich von einer distal steilen Rampe zu einer homoklinalen Rampe entwickelte. Die Ergebnisse dieser Studie können dazu beitragen, zukünftige Reservoir-Charakterisierungen der Einheiten des oberen Paläozoikum in der Barentssee zu unterstützen, vor allem im Loppa High Halbgraben und dem Finmmark Plattformbereich. KW - Loppa High KW - seismische Sequenzstratigraphie KW - seismische Attribute KW - Finnmark Platform KW - Paläogeographie KW - Loppa High KW - seismic sequence stratigraphy KW - seismic attributes KW - Finnmark Platform KW - paleogeography Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72576 ER - TY - THES A1 - Nguyen, Van Manh T1 - Large-scale floodplain sediment dynamics in the Mekong Delta : present state and future prospects T1 - Großskalige Sedimentdynamik im Mekong Delta : aktuelle Situation und zukünftige Entwicklungen N2 - The Mekong Delta (MD) sustains the livelihood and food security of millions of people in Vietnam and Cambodia. It is known as the “rice bowl” of South East Asia and has one of the world’s most productive fisheries. Sediment dynamics play a major role for the high productivity of agriculture and fishery in the delta. However, the MD is threatened by climate change, sea level rise and unsustainable development activities in the Mekong Basin. But despite its importance and the expected threats, the understanding of the present and future sediment dynamics in the MD is very limited. This is a consequence of its large extent, the intricate system of rivers, channels and floodplains and the scarcity of observations. Thus this thesis aimed at (1) the quantification of suspended sediment dynamics and associated sediment-nutrient deposition in floodplains of the MD, and (2) assessed the impacts of likely future boundary changes on the sediment dynamics in the MD. The applied methodology combines field experiments and numerical simulation to quantify and predict the sediment dynamics in the entire delta in a spatially explicit manner. The experimental part consists of a comprehensive procedure to monitor quantity and spatial variability of sediment and associated nutrient deposition for large and complex river floodplains, including an uncertainty analysis. The measurement campaign applied 450 sediment mat traps in 19 floodplains over the MD for a complete flood season. The data also supports quantification of nutrient deposition in floodplains based on laboratory analysis of nutrient fractions of trapped sedimentation.The main findings are that the distribution of grain size and nutrient fractions of suspended sediment are homogeneous over the Vietnamese floodplains. But the sediment deposition within and between ring dike floodplains shows very high spatial variability due to a high level of human inference. The experimental findings provide the essential data for setting up and calibration of a large-scale sediment transport model for the MD. For the simulation studies a large scale hydrodynamic model was developed in order to quantify large-scale floodplain sediment dynamics. The complex river-channel-floodplain system of the MD is described by a quasi-2D model linking a hydrodynamic and a cohesive sediment transport model. The floodplains are described as quasi-2D presentations linked to rivers and channels modeled in 1D by using control structures. The model setup, based on the experimental findings, ignored erosion and re-suspension processes due to a very high degree of human interference during the flood season. A two-stage calibration with six objective functions was developed in order to calibrate both the hydrodynamic and sediment transport modules. The objective functions include hydraulic and sediment transport parameters in main rivers, channels and floodplains. The model results show, for the first time, the tempo-spatial distribution of sediment and associated nutrient deposition rates in the whole MD. The patterns of sediment transport and deposition are quantified for different sub-systems. The main factors influencing spatial sediment dynamics are the network of rivers, channels and dike-rings, sluice gate operations, magnitude of the floods and tidal influences. The superposition of these factors leads to high spatial variability of the sediment transport and deposition, in particular in the Vietnamese floodplains. Depending on the flood magnitude, annual sediment loads reaching the coast vary from 48% to 60% of the sediment load at Kratie, the upper boundary of the MD. Deposited sediment varies from 19% to 23% of the annual load at Kratie in Cambodian floodplains, and from 1% to 6% in the compartmented and diked floodplains in Vietnam. Annual deposited nutrients (N, P, K), which are associated to the sediment deposition, provide on average more than 50% of mineral fertilizers typically applied for rice crops in non-flooded ring dike compartments in Vietnam. This large-scale quantification provides a basis for estimating the benefits of the annual Mekong floods for agriculture and fishery, for assessing the impacts of future changes on the delta system, and further studies on coastal deposition/erosion. For the estimation of future prospects a sensitivity-based approach is applied to assess the response of floodplain hydraulics and sediment dynamics to the changes in the delta boundaries including hydropower development, climate change in the Mekong River Basin and effective sea level rise. The developed sediment model is used to simulate the mean sediment transport and sediment deposition in the whole delta system for the baseline (2000-2010) and future (2050-2060) periods. For each driver we derive a plausible range of future changes and discretize it into five levels, resulting in altogether 216 possible factor combinations. Our results thus cover all plausible future pathways of sediment dynamics in the delta based on current knowledge. The uncertainty of the range of the resulting impacts can be decreased in case more information on these drivers becomes available. Our results indicate that the hydropower development dominates the changes in sediment dynamics of the Mekong Delta, while sea level rise has the smallest effect. The floodplains of Vietnamese Mekong Delta are much more sensitive to the changes compared to the other subsystems of the delta. In terms of median changes of the three combined drivers, the inundation extent is predicted to increase slightly, but the overall floodplain sedimentation would be reduced by approximately 40%, while the sediment load to the Sea would diminish to half of the current rates. These findings provide new and valuable information on the possible impacts of future development on the delta, and indicate the most vulnerable areas. Thus, the presented results are a significant contribution to the ongoing international discussion on the hydropower development in the Mekong basin and its impact on the Mekong delta. N2 - Das Mekong Delta bildet die Existenzgrundlage und Nahrungsquelle für mehrere Millionen Menschen in Vietnam und Kambodscha. Die Sedimentdynamik spielt in diesem Zusammenhang eine große Rolle für die Landwirtschaft und Fischerei im Delta. Klimawandel und zweifelhaft nachhaltige Entwicklungen im Mekong Einzugsgebiet können jedoch diese essentielle Grundlage gefährden. Trotz der hohen Bedeutung des Sedimenthaushaltes für das Delta ist jedoch das Wissen um die räumliche und zeitliche Dynamik der Sedimentdynamik und insbesondere der Sedimentation auf den Überflutungsflächen sehr begrenzt. Dies liegt zum einen an der hohen Komplexität des Deltas mit unzähligen Kanälen, Deichen und hydraulischen Strukturen, zum anderen an dem Mangel an Beobachtungsdaten. Die vorliegende Arbeit zielte daher auf a) die Schaffung einer quantitativen Datenbasis zur Sedimentation auf den Überflutungsflächen, b) auf eine modellbasierte Abschätzung der Sedimentation im gesamten Mekong Delta, und c) auf die Abschätzung des Einflusses relevanter Änderungen in den Randbedingungen auf die zukünftige Sedimentdynamik. Im experimentellen Teil der Arbeit wurde die Sedimentation auf den Überflutungsflächen im vietnamesischen Teil des Deltas mittels Sedimentfallen, die über weite Bereiche des Deltas verteilt wurden, quantitativ inklusive einer Unsicherheitsabschätzung bestimmt. Die Ergebnisse zeigten, dass die Sedimentation räumlich sehr stark variiert, verursacht durch die Komplexität und Diversität des hydraulischen Systems und insbesondere die menschliche Steuerung der hydraulischen Bauten. Die experimentellen Daten geben einen ersten Einblick in die räumliche Variabilität der Sedimentation im Mekong Delta, und bilden die Basis für die Kalibrierung des hydraulischen Modells im nächsten Schritt. Zusätzlich konnten auch die Nährstoffanteile im Sediment bestimmt werden, wodurch eine Basis zur Abschätzung des Nutzens der Sedimente für die Landwirtschaft gelegt wurde. Die Sedimentdynamik wurde mittels eines quasi-2D hydraulischen Modells, das mit einer Sedimenttransportroutine für kohäsive Sedimente gekoppelt wurde, simuliert. Hierbei wurden die hydraulische und die Sedimenttransportroutine unabhängig voneinander mit mehreren Optimierungsfunktionen und Stations-, Feld- und Fernerkundungsdaten kalibriert. Durch die Modellergebnisse konnte zum ersten Mal die räumliche und zeitliche Variabilität des Sedimenttansports und der Sedimentation quantifiziert werden. Diese großskalige Quantifizierung bildet zudem die Basis für eine ökonomische Nutzensabschätzung der Sedimente für die Landwirtschaft und Fischerei. Mittels des entwickelten und kalibrierten Modells konnten auch zukünftige Entwicklungen abgeschätzt werden. Hierzu wurde ein Verfahren basierend auf einem Sensitivitätsansatz implementiert, mittels dessen die Auswirkungen des Baus von Staudämmen im Mekong Einzugsgebiet, des Klimawandels auf den Abfluss und Sedimenttransport aus dem Mekong Einzugsgebiet und des effektiven Meeresspiegelanstiegs auf die Sedimentdynamik im Delta einzeln in verschiedenen Ausprägungsstufen als auch kombiniert quantifiziert werden konnte. Durch diese Kombinationen können alle möglichen zukünftigen Entwicklungen basierend auf dem jetzigen Kenntnisstand betrachtet werden. Von den betrachteten Faktoren hat der Bau von Staudämmen den größten Einfluss auf die Sedimentdynamik im Delta, insbesondere auf den vietnamesischen Teil des Deltas. Der Klimawandel hat das Potential diese Änderungen partiell zu dämpfen, aber auch zu verstärken. Die Änderungen im Meeresspiegel haben den geringsten Effekt, beschränken sich in den Auswirkungen auf den Vietnamesischen Teil und modulieren im Wesentlichen die Auswirkungen des Klimawandels. Diese Ergebnisse liefern somit neue quantitative Erkenntnisse zur möglichen zukünftigen Sedimentdynamik im Mekong Delta, identifiziert die verwundbarsten Regionen und trägt dadurch zur internationalen kontroversen Diskussion über die Auswirkungen des Staudammbaus im Mekong bei. KW - Mekong Delta KW - Sedimentfallen KW - Sedimentation KW - Sedimenttransportroutine KW - Staudämme KW - Mekong Delta KW - sediment trap KW - floodplain sedimentation KW - sediment transport KW - hydropower dam impact Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72512 ER -