TY - THES A1 - Jovanovic, Nenad T1 - The comprehension of the passive voice by different populations and the effects of structural priming on this process N2 - This thesis investigates the comprehension of the passive voice in three distinct populations. First, the comprehension of passives by adult German speakers was studied, followed by an examination of how German-speaking children comprehend the structure. Finally, bilingual Mandarin-English speakers were tested on their comprehension of the passive voice in English, which is their L2. An integral part of testing the comprehension in all three populations is the use of structural priming. In each of the three distinct parts of the research, structural priming was used for a specific reason. In the study involving adult German speakers, productive and receptive structural priming was directly compared. The goal was to see the effect the two priming modalities have on language comprehension. In the study on German-acquiring children, structural priming was an important tool in answering the question regarding the delayed acquisition of the passive voice. Finally, in the study on the bilingual population, cross-linguistic priming was used to investigate the importance of word order in the priming effect, since Mandarin and English have different word orders in passive voice sentences. N2 - Diese Doktorarbeit untersucht das Verständnis von Passivsätzen in drei spezifischen Populationen. Zunächst wurde das Passivverständnis von erwachsenen deutschen Muttersprachlern erforscht, gefolgt von einer Untersuchung des Verständnisses von Passivsätzen deutschsprachiger Kinder. Schließlich wurden bilinguale Mandarin-Sprecher hinsichtlich ihres Verständnisses von Passivsätzen in der englischen Sprache, welche ihre Zweitsprache darstellt, getestet. Ein wesentlicher Bestandteil der Untersuchung des Sprachverständnisses in allen drei Populationen ist der Gebrauch des Structural Priming. In jedem der drei verschiedenen Teile der Untersuchung gab es spezifische Gründe, die Methode des Structural Priming anzuwenden. So wurden in der Studie mit deutschen erwachsenen Muttersprachlern Productive und Receptive Structural Priming unmittelbar mit einander verglichen. Das Ziel war es, die Wirkung von zwei verschiedenen Priming-Modalitäten auf das Sprachverständnis herauszufinden. In der Studie mit deutschsprachigen Kindern war Structural Priming ein wichtiges Hilfsmittel, um die Frage nach dem verzögerten Erwerb des Passivverständnisses zu beantworten. In der Studie der bilingualen Population schließlich wurde Cross-Linguistik (sprachübergreifendes) Priming genutzt um die Bedeutung des Satzbaus auf den Priming-Effekt zu untersuchen, da Mandarin und Englisch in Passivsätzen einen unterschiedlichen Satzbau verwenden. T2 - Das Verständnis von Passivkonstruktionen in verschiedenen Populationen unter Einfluss von strukturellem Priming KW - priming KW - eye-tracing KW - syntax KW - comprehension KW - cross-linguistic KW - passive voice KW - acquisition KW - children KW - bilingual KW - Erwerb KW - cross-linguistisch KW - Augenblickmessung KW - Passive KW - Priming KW - Syntax KW - Verständnis KW - Kinder KW - bilingual Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-475900 ER - TY - THES A1 - Holl, Anna Katharina T1 - Deficits in theory of mind and executive function as risk factors for conduct problems from middle childhood to early adolescence – a longitudinal perspective T1 - Defizite in Theory of Mind und exekutiven Funktionen als Risikofaktoren für Verhaltensprobleme von der mittleren Kindheit bis zur frühen Adoleszenz - eine längsschnittliche Perspektive N2 - In this thesis, deficits in theory of mind (ToM) and executive function (EF) were examined in tandem and separately as risk factors for conduct problems, including different forms and functions of aggressive behavior. All three reported studies and the additional analyses were based on a large community sample of N = 1,657 children, including three waves of a longitudinal study covering middle childhood and the transition to early adolescence (range 6 to 13 years) over a total of about three years. All data were analyzed with structural equation modeling. Altogether, the results of all the conducted studies in this thesis extend previous research and confirm the propositions of the SIP model (Crick & Dodge, 1994) and of the amygdala theory of violent behavior (e.g., Blair et al., 2014) besides other accounts. Considering the three main research questions, the results of the thesis suggest first that deficits in ToM are a risk factor for relational and physical aggression from a mean age of 8 to 11 years under the control of stable between-person differences in aggression. In addition, earlier relationally aggressive behavior predicts later deficits in ToM in this age range, which confirms transactional relations between deficits in ToM and aggressive behavior in children (Crick & Dodge, 1994). Further, deficits in ToM seem to be a risk factor for parent-rated conduct problems cross-sectionally in an age range from 9 to 13 years. Second, deficits in cool EF are a risk factor for later physical, relational, and reactive aggression but not for proactive aggression over a course of three years from middle childhood to early adolescence. Habitual anger seems to mediate the relation between cool EF and physical, and as a trend also relational, aggression. Deficits in emotional and inhibitory control and planning have a direct effect on the individual level of conduct problems under the control of interindividual differences in conduct problems at a mean age of 8 years, but not on the trajectory of conduct problems over the course from age 8 to 11. Third, when deficits in cool EF and ToM are studied in tandem cross-sectionally at the transition from middle childhood to early adolescence, deficits in cool EF seem to play only an indirect role through deficits in ToM as a risk factor for conduct problems. Finally, all results hold equal for females and males in the conducted studies. The results of this thesis emphasize the need to intervene in the transactional processes between deficits in ToM and in EF and conduct problems, including different forms and functions of aggression, particularly in the socially sensible period from middle and late childhood to early adolescence. N2 - In dieser Arbeit wurden Defizite in Theory of Mind (ToM) und Exekutiven Funktionen (EF) als Risikofaktoren für Verhaltensprobleme, einschließlich verschiedener Formen und Funktionen aggressiven Verhaltens, gemeinsam und getrennt untersucht. Als theoretischer Hintergrund diente neben anderen Theorien die SIP-Theorie von Crick und Dodge (1994). Alle drei berichteten Studien und die zusätzlichen Analysen basierten auf einer großen Bevölkerungsstichprobe von N = 1.657 Kindern, und schlossen drei Wellen einer Längsschnittstudie ein, die einen Zeitraum von insgesamt etwa drei Jahren von der mittleren Kindheit bis zum Übergang zur frühen Adoleszenz (6 bis 13 Jahre) abdeckte. Alle Daten wurden mit Strukturgleichungsmodellen analysiert. Zusammenfassend bestätigen und erweitern die Ergebnisse der durchgeführten Studien bisherige Forschung und bestätigen die Annahmen des SIP-Modells (Crick & Dodge, 1994) und der Amygdala-Theorie gewaltsamen Verhaltens (z.B., Blair et al., 2014), neben anderen Theorien. In Bezug auf die drei hauptsächlichen Forschungsfragen deuten die Ergebnisse der Studien erstens darauf hin, dass Defizite in ToM Risikofaktoren für relationale und physische Aggression von einem durchschnittlichen Alter von 8 bis 11 Jahren sind unter der Kontrolle von stabilen interindividuellen Unterschieden in Aggression. Darüber hinaus sagt früheres relational aggressives Verhalten spätere Defizite in ToM in diesem Altersbereich voraus, was die transaktionalen Beziehungen zwischen Defiziten in ToM und aggressivem Verhalten bei Kindern bestätigt (Crick & Dodge, 1994). Weiterhin zeigen sich Defizite in ToM als Risikofaktor für durch die Eltern eingeschätzte Verhaltensprobleme in einem Altersbereich von 9 bis 13 Jahren im Querschnitt. Zweitens sind Defizite in kalten EF ein Risikofaktor für spätere physische, relationale und reaktive Aggression, nicht aber für proaktive Aggression, über einen Zeitraum von drei Jahren von der mittleren Kindheit bis zur frühen Adoleszenz. Habitueller Ärger scheint die Beziehung zwischen kalten EF und phyischer, und als Trend auch relationaler Aggression zu vermitteln. Defizite in der emotionalen und inhibitorischen Kontrolle und Planung wirken sich unter der Kontrolle interindividueller Unterschiede in Verhaltensproblemen im durchschnittlichen Alter von 8 Jahren direkt auf die individuelle Höhe der Verhaltensprobleme aus, nicht aber auf den Verlauf der Verhaltensprobleme im Zeitraum von 8 bis 11 Jahren. Drittens, wenn Defizite in kalten EF und ToM am Übergang von der mittleren Kindheit zur frühen Adoleszenz gemeinsam im Querschnitt untersucht werden, scheinen Defizite in kalten EF nur eine indirekte Rolle vermittelt durch Defizite in ToM als Risikofaktor für Verhaltensprobleme zu spielen. Schließlich gelten alle Ergebnisse in den durchgeführten Studien für Mädchen und Jungen gleichermaßen. Die Ergebnisse dieser Arbeit betonen die Notwendigkeit, in die transaktionalen Prozesse zwischen Defiziten in ToM und EF und Verhaltensproblemen einzugreifen, einschließlich verschiedener Formen und Funktionen von Aggression, v.a. in der sozial sensiblen Altersspanne von der mittleren und späten Kindheit bis zur frühen Adoleszenz. KW - Theory of Mind KW - executive function KW - conduct problems KW - middle childhood KW - early adolescence KW - Theory of Mind KW - exekutive Funktionen KW - Verhaltensprobleme KW - mittlere Kindheit KW - frühe Adoleszenz Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459915 ER - TY - THES A1 - Buschmann, Stefan T1 - A software framework for GPU-based geo-temporal visualization techniques T1 - Ein Software-Framework für GPU-basierte räumlich-zeitliche Visualisierungstechniken N2 - Räumlich-zeitliche Daten sind Daten, welche sowohl einen Raum- als auch einen Zeitbezug aufweisen. So können beispielsweise Zeitreihen von Geodaten, thematische Karten die sich über die Zeit verändern, oder Bewegungsaufzeichnungen von sich bewegenden Objekten als räumlich-zeitliche Daten aufgefasst werden. In der heutigen automatisierten Welt gibt es eine wachsende Anzahl von Datenquellen, die beständig räumlich-zeitliche Daten generieren. Hierzu gehören beispielsweise Verkehrsüberwachungssysteme, die Bewegungsdaten von Menschen oder Fahrzeugen aufzeichnen, Fernerkundungssysteme, welche regelmäßig unsere Umgebung scannen und digitale Abbilder wie z.B. Stadt- und Landschaftsmodelle erzeugen, sowie Sensornetzwerke in unterschiedlichsten Anwendungsgebieten, wie z.B. der Logistik, der Verhaltensforschung von Tieren, oder der Klimaforschung. Zur Analyse räumlich-zeitlicher Daten werden neben der automatischen Analyse mittels statistischer Methoden und Data-Mining auch explorative Methoden angewendet, welche auf der interaktiven Visualisierung der Daten beruhen. Diese Methode der Analyse basiert darauf, dass Anwender in Form interaktiver Visualisierung die Daten explorieren können, wodurch die menschliche Wahrnehmung sowie das Wissen der User genutzt werden, um Muster zu erkennen und dadurch einen Einblick in die Daten zu erlangen. Diese Arbeit beschreibt ein Software-Framework für die Visualisierung räumlich-zeitlicher Daten, welches GPU-basierte Techniken beinhaltet, um eine interaktive Visualisierung und Exploration großer räumlich-zeitlicher Datensätze zu ermöglichen. Die entwickelten Techniken umfassen Datenhaltung, Prozessierung und Rendering und ermöglichen es, große Datenmengen in Echtzeit zu prozessieren und zu visualisieren. Die Hauptbeiträge der Arbeit umfassen: - Konzept und Implementierung einer GPU-zentrierten Visualisierungspipeline. Die beschriebenen Techniken basieren auf dem Konzept einer GPU-zentrierten Visualisierungspipeline, in welcher alle Stufen -- Prozessierung,Mapping, Rendering -- auf der GPU ausgeführt werden. Bei diesem Konzept werden die räumlich-zeitlichen Daten direkt im GPU-Speicher abgelegt. Während des Rendering-Prozesses werden dann mittels Shader-Programmen die Daten prozessiert, gefiltert, ein Mapping auf visuelle Attribute vorgenommen, und schließlich die Geometrien für die Visualisierung erzeugt. Datenprozessierung, Filtering und Mapping können daher in Echtzeit ausgeführt werden. Dies ermöglicht es Usern, die Mapping-Parameter sowie den gesamten Visualisierungsprozess interaktiv zu steuern und zu kontrollieren. - Interaktive Visualisierung attributierter 3D-Trajektorien. Es wurde eine Visualisierungsmethode für die interaktive Exploration einer großen Anzahl von 3D Bewegungstrajektorien entwickelt. Die Trajektorien werden dabei innerhalb einer virtuellen geographischen Umgebung in Form von einfachen Geometrien, wie Linien, Bändern, Kugeln oder Röhren dargestellt. Durch interaktives Mapping können Attributwerte der Trajektorien oder einzelner Messpunkte auf visuelle Eigenschaften abgebildet werden. Hierzu stehen Form, Höhe, Größe, Farbe, Textur, sowie Animation zur Verfügung. Mithilfe dieses dynamischen Mappings wurden außerdem verschiedene Visualisierungsmethoden implementiert, wie z.B. eine Focus+Context-Visualisierung von Trajektorien mithilfe von interaktiven Dichtekarten, sowie einer Space-Time-Cube-Visualisierung zur Darstellung des zeitlichen Ablaufs einzelner Bewegungen. - Interaktive Visualisierung geographischer Netzwerke. Es wurde eine Visualisierungsmethode zur interaktiven Exploration geo-referenzierter Netzwerke entwickelt, welche die Visualisierung von Netzwerken mit einer großen Anzahl von Knoten und Kanten ermöglicht. Um die Analyse von Netzwerken verschiedener Größen und in unterschiedlichen Kontexten zu ermöglichen, stehen mehrere virtuelle geographische Umgebungen zur Verfügung, wie bspw. ein virtueller 3D-Globus, als auch 2D-Karten mit unterschiedlichen geographischen Projektionen. Zur interaktiven Analyse dieser Netzwerke stehen interaktive Tools wie Filterung, Mapping und Selektion zur Verfügung. Des weiteren wurden Visualisierungsmethoden für verschiedene Arten von Netzwerken, wie z.B. 3D-Netzwerke und zeitlich veränderliche Netzwerke, implementiert. Zur Demonstration des Konzeptes wurden interaktive Tools für zwei unterschiedliche Anwendungsfälle entwickelt. Das erste beinhaltet die Visualisierung attributierter 3D-Trajektorien, welche die Bewegungen von Flugzeugen um einen Flughafen beschreiben. Es ermöglicht Nutzern, die Trajektorien von ankommenden und startenden Flugzeugen über den Zeitraum eines Monats interaktiv zu explorieren und zu analysieren. Durch Verwendung der interaktiven Visualisierungsmethoden für 3D-Trajektorien und interaktiven Dichtekarten können Einblicke in die Daten gewonnen werden, wie beispielsweise häufig genutzte Flugkorridore, typische sowie untypische Bewegungsmuster, oder ungewöhnliche Vorkommnisse wie Fehlanflüge. Der zweite Anwendungsfall beinhaltet die Visualisierung von Klimanetzwerken, welche geographischen Netzwerken in der Klimaforschung darstellen. Klimanetzwerke repräsentieren die Dynamiken im Klimasystem durch eine Netzwerkstruktur, die die statistische Beziehungen zwischen Orten beschreiben. Das entwickelte Tool ermöglicht es Analysten, diese großen Netzwerke interaktiv zu explorieren und dadurch die Struktur des Netzwerks zu analysieren und mit den geographischen Daten in Beziehung zu setzen. Interaktive Filterung und Selektion ermöglichen es, Muster in den Daten zu identifizieren, und so bspw. Cluster in der Netzwerkstruktur oder Strömungsmuster zu erkennen. N2 - Spatio-temporal data denotes a category of data that contains spatial as well as temporal components. For example, time-series of geo-data, thematic maps that change over time, or tracking data of moving entities can be interpreted as spatio-temporal data. In today's automated world, an increasing number of data sources exist, which constantly generate spatio-temporal data. This includes for example traffic surveillance systems, which gather movement data about human or vehicle movements, remote-sensing systems, which frequently scan our surroundings and produce digital representations of cities and landscapes, as well as sensor networks in different domains, such as logistics, animal behavior study, or climate research. For the analysis of spatio-temporal data, in addition to automatic statistical and data mining methods, exploratory analysis methods are employed, which are based on interactive visualization. These analysis methods let users explore a data set by interactively manipulating a visualization, thereby employing the human cognitive system and knowledge of the users to find patterns and gain insight into the data. This thesis describes a software framework for the visualization of spatio-temporal data, which consists of GPU-based techniques to enable the interactive visualization and exploration of large spatio-temporal data sets. The developed techniques include data management, processing, and rendering, facilitating real-time processing and visualization of large geo-temporal data sets. It includes three main contributions: - Concept and Implementation of a GPU-Based Visualization Pipeline. The developed visualization methods are based on the concept of a GPU-based visualization pipeline, in which all steps -- processing, mapping, and rendering -- are implemented on the GPU. With this concept, spatio-temporal data is represented directly in GPU memory, using shader programs to process and filter the data, apply mappings to visual properties, and finally generate the geometric representations for a visualization during the rendering process. Data processing, filtering, and mapping are thereby executed in real-time, enabling dynamic control over the mapping and a visualization process which can be controlled interactively by a user. - Attributed 3D Trajectory Visualization. A visualization method has been developed for the interactive exploration of large numbers of 3D movement trajectories. The trajectories are visualized in a virtual geographic environment, supporting basic geometries such as lines, ribbons, spheres, or tubes. Interactive mapping can be applied to visualize the values of per-node or per-trajectory attributes, supporting shape, height, size, color, texturing, and animation as visual properties. Using the dynamic mapping system, several kind of visualization methods have been implemented, such as focus+context visualization of trajectories using interactive density maps, and space-time cube visualization to focus on the temporal aspects of individual movements. - Geographic Network Visualization. A method for the interactive exploration of geo-referenced networks has been developed, which enables the visualization of large numbers of nodes and edges in a geographic context. Several geographic environments are supported, such as a 3D globe, as well as 2D maps using different map projections, to enable the analysis of networks in different contexts and scales. Interactive filtering, mapping, and selection can be applied to analyze these geographic networks, and visualization methods for specific types of networks, such as coupled 3D networks or temporal networks have been implemented. As a demonstration of the developed visualization concepts, interactive visualization tools for two distinct use cases have been developed. The first contains the visualization of attributed 3D movement trajectories of airplanes around an airport. It allows users to explore and analyze the trajectories of approaching and departing aircrafts, which have been recorded over the period of a month. By applying the interactive visualization methods for trajectory visualization and interactive density maps, analysts can derive insight from the data, such as common flight paths, regular and irregular patterns, or uncommon incidents such as missed approaches on the airport. The second use case involves the visualization of climate networks, which are geographic networks in the climate research domain. They represent the dynamics of the climate system using a network structure that expresses statistical interrelationships between different regions. The interactive tool allows climate analysts to explore these large networks, analyzing the network's structure and relating it to the geographic background. Interactive filtering and selection enables them to find patterns in the climate data and identify e.g. clusters in the networks or flow patterns. KW - computer graphics KW - visualization KW - visual analytics KW - Computergrafik KW - Visualisierung KW - Visual Analytics Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443406 ER - TY - THES A1 - Jaeger, David T1 - Enabling Big Data security analytics for advanced network attack detection T1 - Ermöglichung von Big Data Sicherheitsanalysen für erweiterte Angriffserkennung in Netzwerken N2 - The last years have shown an increasing sophistication of attacks against enterprises. Traditional security solutions like firewalls, anti-virus systems and generally Intrusion Detection Systems (IDSs) are no longer sufficient to protect an enterprise against these advanced attacks. One popular approach to tackle this issue is to collect and analyze events generated across the IT landscape of an enterprise. This task is achieved by the utilization of Security Information and Event Management (SIEM) systems. However, the majority of the currently existing SIEM solutions is not capable of handling the massive volume of data and the diversity of event representations. Even if these solutions can collect the data at a central place, they are neither able to extract all relevant information from the events nor correlate events across various sources. Hence, only rather simple attacks are detected, whereas complex attacks, consisting of multiple stages, remain undetected. Undoubtedly, security operators of large enterprises are faced with a typical Big Data problem. In this thesis, we propose and implement a prototypical SIEM system named Real-Time Event Analysis and Monitoring System (REAMS) that addresses the Big Data challenges of event data with common paradigms, such as data normalization, multi-threading, in-memory storage, and distributed processing. In particular, a mostly stream-based event processing workflow is proposed that collects, normalizes, persists and analyzes events in near real-time. In this regard, we have made various contributions in the SIEM context. First, we propose a high-performance normalization algorithm that is highly parallelized across threads and distributed across nodes. Second, we are persisting into an in-memory database for fast querying and correlation in the context of attack detection. Third, we propose various analysis layers, such as anomaly- and signature-based detection, that run on top of the normalized and correlated events. As a result, we demonstrate our capabilities to detect previously known as well as unknown attack patterns. Lastly, we have investigated the integration of cyber threat intelligence (CTI) into the analytical process, for instance, for correlating monitored user accounts with previously collected public identity leaks to identify possible compromised user accounts. In summary, we show that a SIEM system can indeed monitor a large enterprise environment with a massive load of incoming events. As a result, complex attacks spanning across the whole network can be uncovered and mitigated, which is an advancement in comparison to existing SIEM systems on the market. N2 - Die letzten Jahre haben gezeigt, dass die Komplexität von Angriffen auf Unternehmensnetzwerke stetig zunimmt. Herkömmliche Sicherheitslösungen, wie Firewalls, Antivirus-Programme oder generell Intrusion Detection Systeme (IDS), sind nicht mehr ausreichend, um Unternehmen vor solch ausgefeilten Angriffen zu schützen. Ein verbreiteter Lösungsansatz für dieses Problem ist das Sammeln und Analysieren von Ereignissen innerhalb des betroffenen Unternehmensnetzwerks mittels Security Information and Event Management (SIEM) Systemen. Die Mehrheit der derzeitigen SIEM-Lösungen auf dem Markt ist allerdings nicht in er Lage, das riesige Datenvolumen und die Vielfalt der Ereignisdarstellungen zu bewältigen. Auch wenn diese Lösungen die Daten an einem zentralen Ort sammeln können, können sie weder alle relevanten Informationen aus den Ereignissen extrahieren noch diese über verschiedene Quellen hinweg korrelieren. Aktuell werden daher nur relativ einfache Angriffe erkannt, während komplexe mehrstufige Angriffe unentdeckt bleiben. Zweifellos stehen Sicherheitsverantwortliche großer Unternehmen einem typischen Big Data-Problem gegenüber. In dieser Arbeit wird ein prototypisches SIEM-System vorgeschlagen und implementiert, welches den Big Data-Anforderungen von Ereignisdaten mit gängigen Paradigmen, wie Datennormalisierung, Multithreading, In-Memory/Speicherung und verteilter Verarbeitung begegnet. Insbesondere wird ein größtenteils stream-basierter Workflow für die Ereignisverarbeitung vorgeschlagen, der Ereignisse in nahezu Echtzeit erfasst, normalisiert, persistiert und analysiert. In diesem Zusammenhang haben wir verschiedene Beiträge im SIEM-Kontext geleistet. Erstens schlagen wir einen Algorithmus für die Hochleistungsnormalisierung vor, der, über Threads hinweg, hochgradig parallelisiert und auf Knoten verteilt ist. Zweitens persistieren wir in eine In-Memory-Datenbank, um im Rahmen der Angriffserkennung eine schnelle Abfrage und Korrelation von Ereignissen zu ermöglichen. Drittens schlagen wir verschiedene Analyseansätze, wie beispielsweise die anomalie- und musterbasierte Erkennung, vor, die auf normalisierten und korrelierten Ereignissen basieren. Damit können wir bereits bekannte als auch bisher unbekannte Arten von Angriffen erkennen. Zuletzt haben wir die Integration von sogenannter Cyber Threat Intelligence (CTI) in den Analyseprozess untersucht. Als Beispiel erfassen wir veröffentlichte Identitätsdiebstähle von großen Dienstanbietern, um Nutzerkonten zu identifizieren, die möglicherweise in nächster Zeit durch den Missbrauch verloren gegangener Zugangsdaten kompromittiert werden könnten. Zusammenfassend zeigen wir, dass ein SIEM-System tatsächlich ein großes Unternehmensnetzwerk mit einer massiven Menge an eingehenden Ereignissen überwachen kann. Dadurch können komplexe Angriffe, die sich über das gesamte Netzwerk erstrecken, aufgedeckt und abgewehrt werden. Dies ist ein Fortschritt gegenüber den auf dem Markt vorhandenen SIEM-Systemen. KW - intrusion detection KW - Angriffserkennung KW - network security KW - Netzwerksicherheit KW - Big Data KW - Big Data KW - event normalization KW - Ereignisnormalisierung KW - SIEM KW - SIEM KW - IDS KW - IDS KW - multi-step attack KW - mehrstufiger Angriff Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-435713 ER - TY - THES A1 - Wendi, Dadiyorto T1 - Recurrence Plots and Quantification Analysis of Flood Runoff Dynamics T1 - Rekurrenzplot und quantitativen Analyse von Hochwasserabflüssen Dynamik N2 - This paper introduces a novel measure to assess similarity between event hydrographs. It is based on Cross Recurrence Plots and Recurrence Quantification Analysis which have recently gained attention in a range of disciplines when dealing with complex systems. The method attempts to quantify the event runoff dynamics and is based on the time delay embedded phase space representation of discharge hydrographs. A phase space trajectory is reconstructed from the event hydrograph, and pairs of hydrographs are compared to each other based on the distance of their phase space trajectories. Time delay embedding allows considering the multi-dimensional relationships between different points in time within the event. Hence, the temporal succession of discharge values is taken into account, such as the impact of the initial conditions on the runoff event. We provide an introduction to Cross Recurrence Plots and discuss their parameterization. An application example based on flood time series demonstrates how the method can be used to measure the similarity or dissimilarity of events, and how it can be used to detect events with rare runoff dynamics. It is argued that this methods provides a more comprehensive approach to quantify hydrograph similarity compared to conventional hydrological signatures. N2 - Ziel dieser Arbeit ist es, eine Methode und einen umfassenden Index, die die Quantifizierung von Veränderungen in Hochwasserabflüssen über die Zeit ermöglichen, zu entwickeln. Als Proxydaten zur Detektion von Veränderungen dienen Abflusszeitreihen, da diese räumlich-zeitliche Änderungen von Prozessen im Einzugsgebiet integrieren. Einhergehend mit Veränderungen in den Rahmenbedingungen hydrologischer Systeme, beispielsweise Klimaänderungen, Veränderungen im Flussnetzwerk oder der Bodenbedeckung, sind Veränderungen in der Abflussdynamik zu erwarten. Urbanisierung, Klimawandel und veränderte wasserwirtschaftliche Nutzung können erheblichen Einfluss auf Hochwassercharakteristika haben, sodass die auf die abflussverursachenden Prozesse bezogene Hochwassertypologie obsolet wird. Außerdem kann es zur Überlagerung verschiedener Prozesse und der Bildung präzedenzloser Hochwasserdynamiken kommen. Üblicherweise wird seltenen Hochwasserereignissen eine über einen langen Zeitraum bestimmte Wiederkehrwahrscheinlichkeit zugewiesen. Allerdings wird die assoziierte Wiederkehrdauer häufig nur auf der Grundlage des Höchstwasserstandes ermittelt und ist nicht umfassend genug, um die unterschiedlichen Prozesstypen zu erfassen. Um umfassendere Abflussmerkmale in die Hochwassercharakterisierung aufzunehmen, wird die Charakterisierung der Abflussdynamik mittels der kontinuierlichen Gestalt des Hydrographen und als Kurve im Phasenraum empfohlen. Durch die Berücksichtigung des Taken‘schen Satzes zur Einbettung der Zeitverzögerung können ereignisbasierte Hydrographen weiter unterschieden werden. Dieser Ansatz nutzt die zeitliche Abfolge gemessener Abflusswerte, sodass der Einfluss der anfänglichen Werte auf das Hochwasserereignis als charakteristischer Vektor im multidimensionalen Phasenraum interpretiert werden kann. Im Rahmen dieser Arbeit wurden, erstmals im Bereich der Hydrologie, ‚Recurrence Plot‘ (RP) und ‚Recurrence Quantification Analysis‘ RQA eingesetzt, um die Seltenheit bzw. Ähnlichkeit von Abflussdynamiken zu visualisieren und identifizieren. Ebenso werden Anwendungsbeispiele im Bereich der Hydrologie, die das Konzept der Charakterisierung von Abflussdynamiken und den Nutzen des eingeführten Ähnlichkeitsindex verdeutlichen, vorgestellt. Außerdem wurde die Methodik weiterentwickelt und zeichnet sich nun durch erhöhte Robustheit gegenüber Störeinflüssen und eine bessere Anpassung an Abflussmessungen aus. Ein abschließendes Anwendungsbeispiel untersucht den in Dresden gemessenen Abfluss des ostdeutschen Elbe-Einzugsgebietes im Zeitraum von 1901 bis 2010. In dieser Studie werden Beispiele seltener und saisonunabhängiger Hochwasserereignisse, die durch ihre ungewöhnliche Abflussdynamik herausstechen, gezeigt und mit zugrundeliegenden abflussbildenden Prozessen in Verbindung gebracht. KW - Hydrograph Analysis KW - Time Embedded Phase Space KW - Rare and Unseasonal Flood KW - Non-stationary Flood Risk KW - Chaos Theory KW - Recurrence Plots KW - Flood Risk Big Data Mining KW - Flood Change KW - Non-linear Geoscience KW - Chaostheorie KW - Änderungen des Hochwassers KW - Big data mining zu Hochwasserrisiken KW - Analyse von Abflussganglinien KW - nichtlineare Geowissenschaften KW - nichtstationäres Hochwasserrisiko KW - seltenes und saisonunübliches Hochwasser KW - Rekurrenzplot KW - Phasenraum des Time Delay Embedding Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431915 ER - TY - THES A1 - Knospe, Gloria-Mona T1 - Processing of pronouns and reflexives in Turkish-German bilinguals T1 - Die Verarbeitung von Personal- und Reflexivpronomen bei Deutsch-Türkisch-Bilingualen N2 - Previous studies on native language (L1) anaphor resolution have found that monolingual native speakers are sensitive to syntactic, pragmatic, and semantic constraints on pronouns and reflexive resolution. However, most studies have focused on English and other Germanic languages, and little is currently known about the online (i.e., real-time) processing of anaphors in languages with syntactically less restricted anaphors, such as Turkish. We also know relatively little about how 'non-standard' populations such as non-native (L2) speakers and heritage speakers (HSs) resolve anaphors. This thesis investigates the interpretation and real-time processing of anaphors in German and in a typologically different and as yet understudied language, Turkish. It compares hypotheses about differences between native speakers' (L1ers) and L2 speakers' (L2ers) sentence processing, looking into differences in processing mechanisms as well as the possibility of cross-linguistic influence. To help fill the current research gap regarding HS sentence comprehension, it compares findings for this group with those for L2ers. To investigate the representation and processing of anaphors in these three populations, I carried out a series of offline questionnaires and Visual-World eye-tracking experiments on the resolution of reflexives and pronouns in both German and Turkish. In the German experiments, native German speakers as well as L2ers of German were tested, while in the Turkish experiments, non-bilingual native Turkish speakers as well as HSs of Turkish with L2 German were tested. This allowed me to observe both cross-linguistic differences as well as population differences between monolinguals' and different types of bilinguals' resolution of anaphors. Regarding the comprehension of Turkish anaphors by L1ers, contrary to what has been previously assumed, I found that Turkish has no reflexive that follows Condition A of Binding theory (Chomsky, 1981). Furthermore, I propose more general cross-linguistic differences between Turkish and German, in the form of a stronger reliance on pragmatic information in anaphor resolution overall in Turkish compared to German. As for the processing differences between L1ers and L2ers of a language, I found evidence in support of hypotheses which propose that L2ers of German rely more strongly on non-syntactic information compared to L1ers (Clahsen & Felser, 2006, 2017; Cunnings, 2016, 2017) independent of a potential influence of their L1. HSs, on the other hand, showed a tendency to overemphasize interpretational contrasts between different Turkish anaphors compared to monolingual native speakers. However, lower-proficiency HSs were likely to merge different forms for simplified representation and processing. Overall, L2ers and HSs showed differences from monolingual native speakers both in their final interpretation of anaphors and during online processing. However, these differences were not parallel between the two types of bilingual and thus do not support a unified model of L2 and HS processing (cf. Montrul, 2012). The findings of this thesis contribute to the field of anaphor resolution by providing data from a previously unexplored language, Turkish, as well as contributing to research on native and non-native processing differences. My results also illustrate the importance of considering individual differences in the acquisition process when studying bilingual language comprehension. Factors such as age of acquisition, language proficiency and the type of input a language learner receives may influence the processing mechanisms they develop and employ, both between and within different bilingual populations. N2 - Bisherige Studien zur Auflösung von Anaphern in der Muttersprache (L1) zeigten, dass einsprachig aufgewachsene MuttersprachlerInnen syntaktische, pragmatische und semantische Beschränkungen berücksichtigen. Die meisten dieser Studien haben sich jedoch auf Englisch und andere germanische Sprachen konzentriert, und über die “Online”-Verarbeitung (d.h. Echtzeitverarbeitung) von Anaphern in Sprachen mit syntaktisch weniger eingeschränkten Anaphern, wie beispielsweise Türkisch, ist derzeit wenig bekannt. Wir wissen auch relativ wenig darüber, wie untypischere Populationen wie nicht-muttersprachliche (L2-) SprecherInnen und “Heritage"-SprecherInnen (HSer) Anaphern auflösen. Diese Arbeit untersucht die Interpretation und Echtzeitverarbeitung von Anaphern im Deutschen und in einer typologisch anderen und noch wenig untersuchten Sprache, dem Türkischen. Sie vergleicht Hypothesen über Unterschiede zwischen der Satzverarbeitung von MuttersprachlerInnen (L1er) und von L2-SprecherInnen (L2er), genauer Unterschiede in den Verarbeitungsmechanismen sowie die Möglichkeit eines Einflusses von einer Sprache auf die Verarbeitung in der anderen Sprache. Um die aktuelle Forschungslücke bezüglich des HSer-Satzverständnisses zu schließen, werden die Ergebnisse für diese Gruppe mit denen für L2er verglichen. Um die Repräsentation und Verarbeitung von Anaphern in diesen drei Populationen zu untersuchen, habe ich eine Reihe von Offline-Fragebögen und Visual-World Eye-Tracking-Experimenten zur Auflösung von Reflexivpronomen und Personalpronomen im Deutschen und Türkischen durchgeführt. In den deutschen Experimenten wurden sowohl deutsche MuttersprachlerInnen als auch L2er getestet, während in den türkischen Experimenten einsprachig aufgewachsene türkische MuttersprachlerInnen sowie HSer des Türkischen mit Deutsch als L2 getestet wurden. Dies ermöglichte es mir, sowohl Unterschiede zwischen den Sprachen als auch Populationsunterschiede zwischen monolingualen und verschiedenen Arten von bilingualen SprecherInnen bei der Verarbeitung von Anaphern zu beobachten. Was das Verständnis der türkischen Anaphern durch L1er betrifft, so habe ich im Gegensatz zu früheren Annahmen festgestellt, dass das Türkische kein Reflexivpronomen hat, das dem Prinzip A der Bindungstheorie folgt (Chomsky, 1981). Darüber hinaus schlage ich allgemeinere Unterschiede zwischen Türkisch und Deutsch vor, und zwar in Form eines stärkeren Einflusses pragmatischer Informationen in der Anapherauflösung im Türkischen im Vergleich zum Deutschen. Was die Verarbeitungsunterschiede zwischen L1ern und L2ern einer Sprache betrifft, so fand ich Belege für Hypothesen, die vorschlagen, dass L2er des Deutschen sich stärker auf nichtsyntaktische Informationen verlassen als L1er (Clahsen & Felser, 2006, 2017; Cunnings, 2016, 2017), unabhängig von einem möglichen Einfluss ihrer L1. HSer hingegen zeigten eine Tendenz zur Überbetonung von Interpretationskontrasten zwischen verschiedenen türkischen Anaphern im Vergleich zu einsprachigen Muttersprachlern. Allerdings neigten HSer mit geringeren Sprachkenntnissen dazu, die Unterschiede zwischen Formen zu vereinfachen, indem sie die unterschiedlichen Anaphern sowohl in der Interpretation und in der Verarbeitung gleichbehandelten. Insgesamt zeigten L2er und HSer sowohl in der endgültigen Interpretation von Anaphern als auch bei der Online-Verarbeitung Unterschiede zu monolingualen MuttersprachlerInnen. Diese Unterschiede waren jedoch nicht gleichförmig zwischen den beiden Arten von Bilingualen und unterstützen daher kein einheitliches Modell der L2- und HS-Verarbeitung (vgl. Montrul, 2012). Die Ergebnisse dieser Arbeit tragen durch die Bereitstellung von Daten aus einer bisher unerforschten Sprache, Türkisch, zum Forschungsfeld der Anapherauflösung bei, und leisten außerdem einen Beitrag zur Forschung über Unterschiede in der Verarbeitung zwischen MuttersprachlerInnen und Nicht-MuttersprachlerInnen. Meine Ergebnisse verdeutlichen auch die Bedeutung der Berücksichtigung individueller Unterschiede im Erwerbsprozess bei der Erforschung des bilingualen Sprachverständnisses. Faktoren wie das Erwerbsalter, die Sprachkenntnisse und die Art des Inputs, den SprachlernerInnen erhalten, können die Verarbeitungsmechanismen beeinflussen, die sie entwickeln und anwenden, und somit zu Unterschieden sowohl zwischen als auch innerhalb verschiedener bilingualer Bevölkerungsgruppen führen. KW - language processing KW - bilingualism KW - anaphors KW - eye-tracking KW - visual world KW - pronouns KW - reflexives KW - Sprachverarbeitung KW - Bilingualismus KW - Anaphern KW - Eye-Tracking KW - Visual World KW - Pronomen KW - Reflexivpronomen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436442 ER - TY - THES A1 - Wulff, Alexander T1 - Essays in macroeconomics and financial market imperfections N2 - This dissertation consists of four self-contained papers that deal with the implications of financial market imperfections and heterogeneity. The analysis mainly relates to the class of incomplete-markets models but covers different research topics. The first paper deals with the distributional effects of financial integration for developing countries. Based on a simple heterogeneous-agent approach, it is shown that capital owners experience large welfare losses while only workers moderately gain due to higher wages. The large welfare losses for capital owners contrast with the small average welfare gains from representative-agent economies and indicate that a strong opposition against capital market opening has to be expected. The second paper considers the puzzling observation of capital flows from poor to rich countries and the accompanying changes in domestic economic development. Motivated by the mixed results from the literature, we employ an incomplete-markets model with different types of idiosyncratic risk and borrowing constraints. Based on different scenarios, we analyze under what conditions the presence of financial market imperfections contributes to explain the empirical findings and how the conditions may change with different model assumptions. The third paper deals with the interplay of incomplete information and financial market imperfections in an incomplete-markets economy. In particular, it analyzes the impact of incomplete information about idiosyncratic income shocks on aggregate saving. The results show that the effect of incomplete information is not only quantitatively substantial but also qualitatively ambiguous and varies with the influence of the income risk and the borrowing constraint. Finally, the fourth paper analyzes the influence of different types of fiscal rules on the response of key macroeconomic variables to a government spending shock. We find that a strong temporary increase in public debt contributes to stabilizing consumption and leisure in the first periods following the change in government spending, whereas a non-debt-intensive fiscal rule leads to a faster recovery of consumption, leisure, capital and output in later periods. Regarding optimal debt policy, we find that a debt-intensive fiscal rule leads to the largest aggregate welfare benefit and that the individual welfare gain is particularly high for wealth-poor agents. N2 - Die vorliegende Dissertation besteht aus vier eigenständigen Papieren, die sich mit den Auswirkungen von Finanzmarktunvollkommenheiten und Heterogenität beschäftigen. Die Analyse bezieht sich dabei vorwiegend auf die Klasse heterogener-Agenten Modelle mit Finanzmarktunvollkommenheiten, greift aber verschiedene Fragestellungen auf. Das erste Papier beschäftigt sich mit den Verteilungseffekten finanzieller Integration in sich entwickelnden Volkswirtschaften. Mit Hilfe eines einfachen heterogene-Agenten Ansatzes wird gezeigt, dass inländische Kapitalbesitzer massiv durch finanzielle Integration verlieren, während ausschließlich Arbeitnehmer moderat durch Lohnanstiege gewinnen. Die erheblichen Wohlfahrtsverluste für Kapitalbesitzer stehen dabei im Kontrast zu den geringen durchschnittlichen Wohlfahrtseffekten und zeigen, dass eine starke Opposition gegenüber der Öffnung von Kapitalmärkten in sich entwickelnde Länder zu erwarten ist. Der zweite Aufsatz beschäftigt sich mit dem neueren Phänomen von Kapitalflüssen von armen zu reichen Ländern sowie mit den einhergehenden inländischen Entwicklungen. Ausgehend von den stark divergierenden Ergebnissen der Literatur wird ein umfassendes heterogene-Agenten Modell mit nicht versicherbaren idiosynkratischen Risiken und Verschuldungsrestriktionen betrachtet. Anhand verschiedener Szenarien wird gezeigt, unter welchen Bedingungen Finanzmarktunvollkommenheiten zur Klärung der empirischen Befunde beitragen können und inwiefern sich die Parameterrestriktionen unter verschiedenen Modellannahmen ändern. Der dritte Aufsatz beschäftigt sich mit den Auswirkungen unvollständiger Informationen im Rahmen eines heterogene-Agenten Modells. Insbesondere werden die Auswirkungen unvollständiger Informationen bezüglich idiosynkratischer Einkommensschocks auf die aggregierte Ersparnisbildung untersucht. Die Ergebnisse zeigen, dass der Einfluss unvollständiger Information nicht nur quantitativ bedeutsam, sondern auch qualitativ verschieden ist und stark mit der konkreten Ausprägung der Finanzmarktunvollkommenheiten variiert. Der vierte Aufsatz beschäftigt sich mit der Ausgestaltung staatlicher Verschuldungspolitik. Insbesondere wird die Finanzierung einer vorübergehenden Erhöhung von Staatsausgaben unter verschiedenen Fiskalregeln analysiert. Die Ergebnisse zeigen, dass eine verschuldungsintensive Fiskalregel einen kurzfristig stabilisierenden Effekt auf Konsum und Freizeit aufweist, von dem insbesondere vermögensarme Haushalte profitieren, die besonders stark von den Verschuldungsrestriktionen betroffen sind. KW - incomplete markets KW - heterogeneous agents KW - financial integration KW - incomplete information KW - fiscal policy KW - unvollständige Märkte KW - heterogene Agenten KW - finanzielle Integration KW - unvollständige Information KW - Fiskalpolitik Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429956 ER - TY - THES A1 - Ion, Alexandra T1 - Metamaterial devices T1 - Metamaterial-Geräte N2 - Digital fabrication machines such as 3D printers excel at producing arbitrary shapes, such as for decorative objects. In recent years, researchers started to engineer not only the outer shape of objects, but also their internal microstructure. Such objects, typically based on 3D cell grids, are known as metamaterials. Metamaterials have been used to create materials that, e.g., change their volume, or have variable compliance. While metamaterials were initially understood as materials, we propose to think of them as devices. We argue that thinking of metamaterials as devices enables us to create internal structures that offer functionalities to implement an input-process-output model without electronics, but purely within the material’s internal structure. In this thesis, we investigate three aspects of such metamaterial devices that implement parts of the input-process-output model: (1) materials that process analog inputs by implementing mechanisms based on their microstructure, (2) that process digital signals by embedding mechanical computation into the object’s microstructure, and (3) interactive metamaterial objects that output to the user by changing their outside to interact with their environment. The input to our metamaterial devices is provided directly by the users interacting with the device by means of physically pushing the metamaterial, e.g., turning a handle, pushing a button, etc. The design of such intricate microstructures, which enable the functionality of metamaterial devices, is not obvious. The complexity of the design arises from the fact that not only a suitable cell geometry is necessary, but that additionally cells need to play together in a well-defined way. To support users in creating such microstructures, we research and implement interactive design tools. These tools allow experts to freely edit their materials, while supporting novice users by auto-generating cells assemblies from high-level input. Our tools implement easy-to-use interactions like brushing, interactively simulate the cell structures’ deformation directly in the editor, and export the geometry as a 3D-printable file. Our goal is to foster more research and innovation on metamaterial devices by allowing the broader public to contribute. N2 - Digitale Fabrikationsmaschinen, wie 3D-Drucker, eignen sich hervorragend um beliebige Formen zu produzieren. Daher sind sie bei Endnutzern für die Erstellung von dekorativen Elementen sehr beliebt. Forscher hingegen haben in den letzten Jahren damit begonnen, nicht nur die äußere Form zu betrachten, sondern auch Mikrostrukturen im Inneren. Solche Strukturen, die meist auf einem 3-dimensionalen Gitter angeordnet sind, sind als "Metamaterialien" bekannt. Metamaterialien wurden entwickelt, um Eigenschaften wie Volumenänderung oder lokalisiert die Steifheit des Materials zu steuern. Traditionell werden Metamaterialien als Materialien betrachtet, wir hingegen betrachten sie als Geräte. In dieser Arbeit zeigen wir, dass die Betrachtung von Metamaterialien als Geräte es erlaubt Strukturen zu kreieren, die Geräte nach dem Eingabe-Verarbeitung-Ausgabe Prinzip realisieren -- und das gänzlich ohne Elektronik. Wir untersuchen 3 Aspekte von solchen funktionsfähigen Metamaterial-Geräten die jeweils Teile des EVA Prinzips implementieren: (1) Materialien, die analoge Eingabe als Mechanismen, die durch ihre Mikrostruktur bestimmt sind, verarbeiten, (2) Materialien, die digitale Eingabe verarbeiten und mechanische Berechnungen in ihrer Mikrostruktur durchführen und (3) Materialien, die ihre äußere Textur dynamisch verändern können um mit dem Nutzer zu kommunizieren. Die Eingabe für Metamaterial-Geräte ist in dieser Arbeit direkt durch den Nutzer gegeben, der mit dem Gerät interagiert, zum Beispiel durch Drücken eines Griffs, eines Knopfes, etc. Das Design von solchen filigranen Mikrostrukturen, die die Funktionalität der Metamaterial-Geräte definieren, ist nicht offensichtlich oder einfach. Der Designprozess ist komplex, weil nicht nur eine Zellstruktur gefunden werden muss, die die gewünschte Deformation durchführt, sondern die Zellstrukturen zusätzlich auf wohldefinierte Weise zusammenspielen müssen. Um Nutzern die Erstellung von diesen Mikrostrukturen zu ermöglichen, unterstützen wir sie durch interaktive Computerprogramme, die wir in dieser Arbeit untersuchen und implementieren. Wir haben Software entwickelt, die es Experten erlaubt die Mikrostrukturen frei zu platzieren und zu editieren, während Laien durch automatisch generierte Strukturen geholfen wird. Unsere Software beinhaltet einfach zu bedienende Interaktionskonzepte, wie zum Beispiel das aufmalen von funktionalen Eigenschaften auf Objekte, eine integrierte Vorschau der Deformation, oder der 3D-druckfähige Export der erstellten Geometrie. Das Ziel dieser Arbeit ist es langfristig Forschung und Innovation von Metamaterial-Geräten zu fördern, so dass sich sogar die breite Masse in das Thema einbringen kann. KW - metamaterials KW - computational design KW - fabrication KW - 3D printing KW - programmable matter KW - Metamaterialien KW - computergestützte Gestaltung KW - Fabrikation KW - 3D-Druck KW - programmierbare Materie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429861 ER - TY - THES A1 - Rözer, Viktor T1 - Pluvial flood loss to private households T1 - Schäden durch urbane Sturzfluten in Privathaushalten N2 - Today, more than half of the world’s population lives in urban areas. With a high density of population and assets, urban areas are not only the economic, cultural and social hubs of every society, they are also highly susceptible to natural disasters. As a consequence of rising sea levels and an expected increase in extreme weather events caused by a changing climate in combination with growing cities, flooding is an increasing threat to many urban agglomerations around the globe. To mitigate the destructive consequences of flooding, appropriate risk management and adaptation strategies are required. So far, flood risk management in urban areas is almost exclusively focused on managing river and coastal flooding. Often overlooked is the risk from small-scale rainfall-triggered flooding, where the rainfall intensity of rainstorms exceeds the capacity of urban drainage systems, leading to immediate flooding. Referred to as pluvial flooding, this flood type exclusive to urban areas has caused severe losses in cities around the world. Without further intervention, losses from pluvial flooding are expected to increase in many urban areas due to an increase of impervious surfaces compounded with an aging drainage infrastructure and a projected increase in heavy precipitation events. While this requires the integration of pluvial flood risk into risk management plans, so far little is known about the adverse consequences of pluvial flooding due to a lack of both detailed data sets and studies on pluvial flood impacts. As a consequence, methods for reliably estimating pluvial flood losses, needed for pluvial flood risk assessment, are still missing. Therefore, this thesis investigates how pluvial flood losses to private households can be reliably estimated, based on an improved understanding of the drivers of pluvial flood loss. For this purpose, detailed data from pluvial flood-affected households was collected through structured telephone- and web-surveys following pluvial flood events in Germany and the Netherlands. Pluvial flood losses to households are the result of complex interactions between impact characteristics such as the water depth and a household’s resistance as determined by its risk awareness, preparedness, emergency response, building properties and other influencing factors. Both exploratory analysis and machine-learning approaches were used to analyze differences in resistance and impacts between households and their effects on the resulting losses. The comparison of case studies showed that the awareness around pluvial flooding among private households is quite low. Low awareness not only challenges the effective dissemination of early warnings, but was also found to influence the implementation of private precautionary measures. The latter were predominately implemented by households with previous experience of pluvial flooding. Even cases where previous flood events affected a different part of the same city did not lead to an increase in preparedness of the surveyed households, highlighting the need to account for small-scale variability in both impact and resistance parameters when assessing pluvial flood risk. While it was concluded that the combination of low awareness, ineffective early warning and the fact that only a minority of buildings were adapted to pluvial flooding impaired the coping capacities of private households, the often low water levels still enabled households to mitigate or even prevent losses through a timely and effective emergency response. These findings were confirmed by the detection of loss-influencing variables, showing that cases in which households were able to prevent any loss to the building structure are predominately explained by resistance variables such as the household’s risk awareness, while the degree of loss is mainly explained by impact variables. Based on the important loss-influencing variables detected, different flood loss models were developed. Similar to flood loss models for river floods, the empirical data from the preceding data collection was used to train flood loss models describing the relationship between impact and resistance parameters and the resulting loss to building structures. Different approaches were adapted from river flood loss models using both models with the water depth as only predictor for building structure loss and models incorporating additional variables from the preceding variable detection routine. The high predictive errors of all compared models showed that point predictions are not suitable for estimating losses on the building level, as they severely impair the reliability of the estimates. For that reason, a new probabilistic framework based on Bayesian inference was introduced that is able to provide predictive distributions instead of single loss estimates. These distributions not only give a range of probable losses, they also provide information on how likely a specific loss value is, representing the uncertainty in the loss estimate. Using probabilistic loss models, it was found that the certainty and reliability of a loss estimate on the building level is not only determined by the use of additional predictors as shown in previous studies, but also by the choice of response distribution defining the shape of the predictive distribution. Here, a mix between a beta and a Bernoulli distribution to account for households that are able to prevent losses to their building’s structure was found to provide significantly more certain and reliable estimates than previous approaches using Gaussian or non-parametric response distributions. The successful model transfer and post-event application to estimate building structure loss in Houston, TX, caused by pluvial flooding during Hurricane Harvey confirmed previous findings, and demonstrated the potential of the newly developed multi-variable beta model for future risk assessments. The highly detailed input data set constructed from openly available data sources containing over 304,000 affected buildings in Harris County further showed the potential of data-driven, building-level loss models for pluvial flood risk assessment. In conclusion, pluvial flood losses to private households are the result of complex interactions between impact and resistance variables, which should be represented in loss models. The local occurrence of pluvial floods requires loss estimates on high spatial resolutions, i.e. on the building level, where losses are variable and uncertainties are high. Therefore, probabilistic loss estimates describing the uncertainty of the estimate should be used instead of point predictions. While the performance of probabilistic models on the building level are mainly driven by the choice of response distribution, multi-variable models are recommended for two reasons: First, additional resistance variables improve the detection of cases in which households were able to prevent structural losses. Second, the added variability of additional predictors provides a better representation of the uncertainties when loss estimates from multiple buildings are aggregated. This leads to the conclusion that data-driven probabilistic loss models on the building level allow for a reliable loss estimation at an unprecedented level of detail, with a consistent quantification of uncertainties on all aggregation levels. This makes the presented approach suitable for a wide range of applications, from decision support in spatial planning to impact- based early warning systems. N2 - Über die Hälfte der Weltbevölkerung lebt heute in Städten. Mit einer hohen Dichte an Menschen, Gütern und Gebäuden sind Städte nicht nur die wirtschaftlichen, politischen und kulturellen Zentren einer Gesellschaft, sondern auch besonders anfällig gegenüber Naturkatastrophen. Insbesondere Hochwasser und Überflutungen stellen in Folge von steigenden Meeresspiegeln und einer erwarteten Zunahme von Extremwettereignissen eine wachsende Bedrohung in vielen Regionen dar. Um die möglichen Folgen dieser Entwicklung zu vermeiden bzw. zu reduzieren, ist es notwendig sich der steigenden Gefahr durch geeignete Maßnahmen anzupassen. Bisher ist der Hochwasserschutz in Städten beinahe ausschließlich auf Überflutungen durch Flusshochwasser oder Sturmfluten fokussiert. Dabei werden sogenannte urbane Sturzfluten, die in den letzten Jahren vermehrt zu hohen Schäden in Städten geführt haben, nicht berücksichtigt. Bei urbanen Sturzfluten führen lokale Starkniederschläge mit hohen Regenmengen zu einer Überlastung des städtischen Abwassersystems und damit zu einer direkten, oft kleinräumigen Überflutung innerhalb eines bebauten Gebiets. Mit einer prognostizierten Zunahme von Starkniederschlägen, sowie einer baulichen Verdichtung und damit einhergehender Flächenversiegelung in vielen Städten, ist mit einer Zunahme von urbanen Sturzfluten zu rechnen. Dies verlangt die Einbindung des Risikos durch urbane Sturzfluten in bestehende Hochwasserschutzkonzepte. Bisher fehlen allerdings sowohl detaillierte Daten als auch Methoden um das Risiko durch urbane Sturzfluten und die dadurch verursachten Schäden, etwa an Wohngebäuden, zuverlässig abzuschätzen. Aus diesem Grund beschäftigt sich diese Arbeit hauptsächlich mit der Entwicklung von Verfahren und Modellen zur Abschätzung von Schäden an Privathaushalten durch urbane Sturzfluten. Dazu wurden detaillierte Daten durch Telefon- und Online-Umfragen nach urbanen Sturzflutereignissen in Deutschland und in den Niederlanden erhoben und ausgewertet. Die Erkenntnisse aus den detaillierten Analysen zu Vorsorge, Notmaßnahmen und Wiederherstellung, vor, während und nach urbanen Sturzflutereignissen, wurden genutzt um eine neue Methode zur Schätzung von Schäden an Wohngebäuden zu entwickeln. Dabei werden neben Angaben wie Dauer und Höhe der Überflutung, auch Eigenschaften von Haushalten, wie etwa deren Risikobewusstsein, in die Schätzung miteinbezogen. Nach lokaler Validierung wurde die neuentwickelte Methode beispielhaft zur Schätzung von Wohngebäudeschäden nach einem urbanen Sturzflutereignis im Großraum Houston (Texas, USA) erfolgreich angewendet. Anders als bei bisherigen Ansätzen wird der geschätzte Schaden eines Wohngebäudes nicht als einzelner Wert angegeben, sondern als Verteilung, welche die Bandbreite möglicher Schäden und deren Wahrscheinlichkeit angibt. Damit konnte die Zuverlässigkeit von Schadensschätzungen im Vergleich zu bisherigen Verfahren erheblich verbessert werden. Durch die erfolgreiche Anwendung sowohl auf der Ebene einzelner Gebäude als auch für gesamte Städte, ergibt sich ein breites Spektrum an Nutzungsmöglichkeiten, etwa als Entscheidungsunterstützung in der Stadtplanung oder für eine verbesserte Frühwarnung vor urbanen Sturzfluten. KW - Schadensmodellierung KW - Unsicherheiten KW - Starkregen KW - Privathaushalte KW - damage modeling KW - economic impacts KW - uncertainty KW - private households KW - probabilistic KW - pluvial flooding Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429910 ER - TY - THES A1 - Naseri, Gita T1 - Plant-derived transcription factors and their application for synthetic biology approaches in Saccharomyces cerevisiae T1 - Pflanzenbasierte Transkriptionsfaktoren und ihre Anwendungen in der synthetischen Biologie in Saccharomyces cerevisiae N2 - Bereits seit 9000 Jahren verwendet die Menschheit die Bäckerhefe Saccharomyces cerevisiae für das Brauen von Bier, aber erst seit 150 Jahren wissen wir, dass es sich bei diesem unermüdlichen Helfer im Brauprozess um einzellige, lebende Organismen handelt. Und die Bäckerhefe kann noch viel mehr. Im Rahmen des Forschungsgebietes der Synthetischen Biologie soll unter anderem die Bäckerhefe als innovatives Werkzeug für die biobasierte Herstellung verschiedenster Substanzen etabliert werden. Zu diesen Substanzen zählen unter anderem Feinchemikalien, Biokraftstoffe und Biopolymere sowie pharmakologisch und medizinisch interessante Pflanzenstoffe. Damit diese verschiedensten Substanzen in der Bäckerhefe hergestellt werden können, müssen große Mengen an Produktionsinformationen zum Beispiel aus Pflanzen in die Hefezellen übertragen werden. Darüber hinaus müssen die neu eingebrachten Biosynthesewege reguliert und kontrolliert in den Zellen ablaufen. Auch Optimierungsprozesse zur Erhöhung der Produktivität sind notwendig. Für alle diese Arbeitsschritte mangelt es bis heute an anwendungsbereiten Technologien und umfassenden Plattformen. Daher wurden im Rahmen dieser Doktorarbeit verschiedene Technologien und Plattformen zur Informationsübertragung, Regulation und Prozessoptimierung geplant und erzeugt. Für die Konstruktion von Biosynthesewegen in der Bäckerhefe wurde als erstes eine Plattform aus neuartigen Regulatoren und Kontrollelementen auf der Basis pflanzlicher Kontrollelemente generiert und charakterisiert. Im zweiten Schritt erfolgte die Entwicklung einer Technologie zur kombinatorischen Verwendung der Regulatoren in der Planung und Optimierung von Biosynthesewegen (COMPASS). Abschließend wurde eine Technologie für die Prozessoptimierung der veränderten Hefezellen entwickelt (CapRedit). Die Leistungsfähigkeit der entwickelten Plattformen und Technologien wurde durch eine Optimierung der Produktion von Carotenoiden (Beta-Carotin und Beta-Ionon) und Flavonoiden (Naringenin) in Hefezellen nachgewiesen. Die im Rahmen der Arbeit etablierten neuartigen Plattformen und innovativen Technologien sind ein wertvoller Grundbaustein für die Erweiterung der Nutzbarkeit der Bäckerhefe. Sie ermöglichen den Einsatz der Hefezellen in kosteneffizienten Produktionswegen und alternativen chemischen Wertschöpfungsketten. Dadurch können zum Beispiel Biokraftstoffe und pharmakologisch interessante Pflanzenstoffe unter Verwendung von nachwachsenden Rohstoffen, Reststoffen und Nebenprodukten hergestellt werden. Darüber hinaus ergeben sich Anwendungsmöglichkeiten zur Bodensanierung und Wasseraufbereitung. N2 - Plant-derived Transcription Factors for Orthologous Regulation of Gene Expression in the Yeast Saccharomyces cerevisiae Control of gene expression by transcription factors (TFs) is central in many synthetic biology projects where tailored expression of one or multiple genes is often needed. As TFs from evolutionary distant organisms are unlikely to affect gene expression in a host of choice, they represent excellent candidates for establishing orthogonal control systems. To establish orthogonal regulators for use in yeast (Saccharomyces cerevisiae), we chose TFs from the plant Arabidopsis thaliana. We established a library of 106 different combinations of chromosomally integrated TFs, activation domains (yeast GAL4 AD, herpes simplex virus VP64, and plant EDLL) and synthetic promoters harbouring cognate cis-regulatory motifs driving a yEGFP reporter. Transcriptional output of the different driver / reporter combinations varied over a wide spectrum, with EDLL being a considerably stronger transcription activation domain in yeast, than the GAL4 activation domain, in particular when fused to Arabidopsis NAC TFs. Notably, the strength of several NAC - EDLL fusions exceeded that of the strong yeast TDH3 promoter by 6- to 10-fold. We furthermore show that plant TFs can be used to build regulatory systems encoded by centromeric or episomal plasmids. Our library of TF – DNA-binding site combinations offers an excellent tool for diverse synthetic biology applications in yeast. COMPASS: Rapid combinatorial optimization of biochemical pathways based on artificial transcription factors We established a high-throughput cloning method, called COMPASS for COMbinatorial Pathway ASSembly, for the balanced expression of multiple genes in Saccharomyces cerevisiae. COMPASS employs orthogonal, plant-derived artificial transcription factors (ATFs) for controlling the expression of pathway genes, and homologous recombination-based cloning for the generation of thousands of individual DNA constructs in parallel. The method relies on a positive selection of correctly assembled pathway variants from both, in vivo and in vitro cloning procedures. To decrease the turnaround time in genomic engineering, we equipped COMPASS with multi-locus CRISPR/Cas9-mediated modification capacity. In its current realization, COMPASS allows combinatorial optimization of up to ten pathway genes, each transcriptionally controlled by nine different ATFs spanning a 10-fold difference in expression strength. The application of COMPASS was demonstrated by generating cell libraries producing beta-carotene and co-producing beta-ionone and biosensor-responsive naringenin. COMPASS will have many applications in other synthetic biology projects that require gene expression balancing. CaPRedit: Genome editing using CRISPR-Cas9 and plant-derived transcriptional regulators for the redirection of flux through the FPP branch-point in yeast. Technologies developed over the past decade have made Saccharomyces cerevisiae a promising platform for production of different natural products. We developed CRISPR/Ca9- and plant derived regulator-mediated genome editing approach (CaPRedit) to greatly accelerate strain modification and to facilitate very low to very high expression of key enzymes using inducible regulators. CaPRedit can be implemented to enhance the production of yeast endogenous or heterologous metabolites in the yeast S. cerevisiae. The CaPRedit system aims to faciltiate modification of multiple targets within a complex metabolic pathway through providing new tools for increased expression of genes encoding rate-limiting enzymes, decreased expression of essential genes, and removed expression of competing pathways. This approach is based on CRISPR/Cas9-mediated one-step double-strand breaks to integrate modules containing IPTG-inducible plant-derived artificial transcription factor and promoter pair(s) in a desired locus or loci. Here, we used CaPRedit to redirect the yeast endogenous metabolic flux toward production of farnesyl diphosphate (FPP), a central precursor of nearly all yeast isoprenoid products, by overexpression of the enzymes lead to produce FPP from glutamate. We found significantly higher beta-carotene accumulation in the CaPRedit-mediated modified strain than in the wild type (WT) strain. More specifically, CaPRedit_FPP 1.0 strain was generated, in which three genes involved in FPP synthesis, tHMG1, ERG20, and GDH2, were inducibly overexpressed under the control of strong plant-derived ATFPs. The beta–carotene accumulated in CaPRedit_FPP 1.0 strain to a level 1.3-fold higher than the previously reported optimized strain that carries the same overexpressed genes (as well as additional genetic modifications to redirect yeast endogenous metabolism toward FPP production). Furthermore, the genetic modifications implemented in CaPRedit_FPP 1.0 strain resulted in only a very small growth defect (growth rate relative to the WT is ~ -0.03). KW - synthetic biology KW - Saccharomyces cerevisiae KW - artificial transcription factor KW - combinatorial optimization KW - biosensor KW - DNA assembly KW - pathway engineering KW - artifizielle Transkriptionsfaktoren KW - Biosensor KW - kombinatorische Optimierung KW - DNA assembly KW - Saccharomyces cerevisiae KW - synthetische Biologie KW - pathway engineering Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421514 ER - TY - THES A1 - Engelhardt, Jonathan T1 - 40Ar/39Ar geochronology of ICDP PALEOVAN drilling cores T1 - 40Ar/39Ar Geochronologie der ICDP PALEOVAN Bohrkerne N2 - The scientific drilling campaign PALEOVAN was conducted in the summer of 2010 and was part of the international continental drilling programme (ICDP). The main goal of the campaign was the recovery of a sensitive climate archive in the East of Anatolia. Lacustrine deposits underneath the lake floor of ‘Lake Van’ constitute this archive. The drilled core material was recovered from two locations: the Ahlat Ridge and the Northern Basin. A composite core was constructed from cored material of seven parallel boreholes at the Ahlat Ridge and covers an almost complete lacustrine history of Lake Van. The composite record offered sensitive climate proxies such as variations of total organic carbon, K/Ca ratios, or a relative abundance of arboreal pollen. These proxies revealed patterns that are similar to climate proxy variations from Greenland ice cores. Climate variations in Greenland ice cores have been dated by modelling the timing of orbital forces to affect the climate. Volatiles from melted ice aliquots are often taken as high-resolution proxies and provide a base for fitting the according temporal models. The ICDP PALEOVAN scientific team fitted proxy data from the lacustrine drilling record to ice core data and constructed an age model. Embedded volcaniclastic layers had to be dated radiometrically in order to provide independent age constraints to the climate-stratigraphic age model. Solving this task by an application of the 40Ar/39Ar method was the main objective of this thesis. Earlier efforts to apply the 40Ar/39Ar dating resulted in inaccuracies that could not be explained satisfactorily. The absence of K-rich feldspars in suitable tephra layers implied that feldspar crystals needed to be 500 μm in size minimum, in order to apply single-crystal 40Ar/39Ar dating. Some of the samples did not contain any of these grain sizes or only very few crystals of that size. In order to overcome this problem this study applied a combined single-crystal and multi-crystal approach with different crystal fractions from the same sample. The preferred method of a stepwise heating analysis of an aliquot of feldspar crystals has been applied to three samples. The Na-rich crystals and their young geological age required 20 mg of inclusion-free, non-corroded feldspars. Small sample volumes (usually 25 % aliquots of 5 cm3 of sample material – a spoon full of tephra) and the widespread presence of melt-inclusion led to the application of combined single- and multigrain total fusion analyses. 40Ar/39Ar analyses on single crystals have the advantage of being able to monitor the presence of excess 40Ar and detrital or xenocrystic contamination in the samples. Multigrain analyses may hide the effects from these obstacles. The results from the multigrain analyses are therefore discussed with respect to the findings from the respective cogenetic single crystal ages. Some of the samples in this study were dated by 40Ar/39Ar on feldspars on multigrain separates and (if available) in combination with only a few single crystals. 40Ar/39Ar ages from two of the samples deviated statistically from the age model. All other samples resulted in identical ages. The deviations displayed older ages than those obtained from the age model. t-Tests compared radiometric ages with available age control points from various proxies and from the relative paleointensity of the earth magnetic field within a stratigraphic range of ± 10 m. Concordant age control points from different relative chronometers indicated that deviations are a result of erroneous 40Ar/39Ar ages. The thesis argues two potential reasons for these ages: (1) the irregular appearance of 40Ar from rare melt- and fluid- inclusions and (2) the contamination of the samples with older crystals due to a rapid combination of assimilation and ejection. Another aliquot of feldspar crystals that underwent separation for the application of 40Ar/39Ar dating was investigated for geochemical inhomogeneities. Magmatic zoning is ubiquitous in the volcaniclastic feldspar crystals. Four different types of magmatic zoning were detected. The zoning types are compositional zoning (C-type zoning), pseudo-oscillatory zoning of trace ele- ment concentrations (PO-type zoning), chaotic and patchy zoning of major and trace element concentrations (R-type zoning) and concentric zoning of trace elements (CC-type zoning). Sam- ples that deviated in 40Ar/39Ar ages showed C-type zoning, R-type zoning or a mix of different types of zoning (C-type and PO-type). Feldspars showing PO-type zoning typically represent the smallest grain size fractions in the samples. The constant major element compositions of these crystals are interpreted to represent the latest stages in the compositional evolution of feldspars in a peralkaline melt. PO-type crystals contain less melt- inclusions than other zoning types and are rarely corroded. This thesis concludes that feldspars that show PO-type zoning are most promising chronometers for the 40Ar/39Ar method, if samples provide mixed zoning types of Quaternary anorthoclase feldspars. Five samples were dated by applying the 40Ar/39Ar method to volcanic glass. High fractions of atmospheric Ar (typically > 98%) significantly hampered the precision of the 40Ar/39Ar ages and resulted in rough age estimates that widely overlap the age model. Ar isotopes indicated that the glasses bore a chorine-rich Ar-end member. The chlorine-derived 38Ar indicated chlorine-rich fluid-inclusions or the hydration of the volcanic glass shards. This indication strengthened the evidence that irregularly distributed melt-inclusions and thus irregular distributed excess 40Ar influenced the problematic feldspar 40Ar/39Ar ages. Whether a connection between a corrected initial 40Ar/36Ar ratio from glasses to the 40Ar/36Ar ratios from pore waters exists remains unclear. This thesis offers another age model, which is similarly based on the interpolation of the temporal tie points from geophysical and climate-stratigraphic data. The model used a PCHIP- interpolation (piecewise cubic hermite interpolating polynomial) whereas the older age model used a spline-interpolation. Samples that match in ages from 40Ar/39Ar dating of feldspars with the earlier published age model were additionally assigned with an age from the PCHIP- interpolation. These modelled ages allowed a recalculation of the Alder Creek sanidine mineral standard. The climate-stratigraphic calibration of an 40Ar/39Ar mineral standard proved that the age versus depth interpolations from PAELOVAN drilling cores were accurate, and that the applied chronometers recorded the temporal evolution of Lake Van synchronously. Petrochemical discrimination of the sampled volcaniclastic material is also given in this thesis. 41 from 57 sampled volcaniclastic layers indicate Nemrut as their provenance. Criteria that served for the provenance assignment are provided and reviewed critically. Detailed correlations of selected PALEOVAN volcaniclastics to onshore samples that were described in detail by earlier studies are also discussed. The sampled volcaniclastics dominantly have a thickness of < 40 cm and have been ejected by small to medium sized eruptions. Onshore deposits from these types of eruptions are potentially eroded due to predominant strong winds on Nemrut and Süphan slopes. An exact correlation with the data presented here is therefore equivocal or not possible at all. Deviating feldspar 40Ar/39Ar ages can possibly be explained by inherited 40Ar from feldspar xenocrysts contaminating the samples. In order to test this hypothesis diffusion couples of Ba were investigated in compositionally zoned feldspar crystals. The diffusive behaviour of Ba in feldspar is known, and gradients in the changing concentrations allowed for the calculation of the duration of the crystal’s magmatic development since the formation of the zoning interface. Durations were compared with degassing scenarios that model the Ar-loss during assimilation and subsequent ejection of the xenocrystals. Diffusive equilibration of the contrasting Ba concentrations is assumed to generate maximum durations as the gradient could have been developed in several growth and heating stages. The modelling does not show any indication of an involvement of inherited 40Ar in any of the deviating samples. However, the analytical set-up represents the lower limit of the required spatial resolution. Therefore, it cannot be excluded that the degassing modelling relies on a significant overestimation of the maximum duration of the magmatic history. Nevertheless, the modelling of xenocrystal degassing evidences that the irregular incorporation of excess 40Ar by melt- and fluid inclusions represents the most critical problem that needs to be overcome in dating volcaniclastic feldspars from the PALEOVAN drill cores. This thesis provides the complete background in generating and presenting 40Ar/39Ar ages that are compared to age data from a climate-stratigraphic model. Deviations are identified statistically and then discussed in order to find explanations from the age model and/or from 40Ar/39Ar geochronology. Most of the PALEOVAN stratigraphy provides several chronometers that have been proven for their synchronicity. Lacustrine deposits from Lake Van represent a key archive for reconstructing climate evolution in the eastern Mediterranean and in the Near East. The PALEOVAN record offers a climate-stratigraphic age model with a remarkable accuracy and resolution. N2 - Die PALEOVAN−Bohrkampagne des internationalen kontinentalen Bohrprogramms ICDP wurde im Sommer 2010 realisiert. Das übergeordnete Ziel dieser Kampagne war die Entnahme eines Klimaarchivs im Osten Anatoliens. Als Archiv dienen Süßwasserablagerungen am Grund des Vansees. PALEOVAN Bohrkerne bieten lakustrine Ablagerungen von zwei Lokalitäten des Sees, und zwar der Ahlat Ridge und des Northern Basins. Durch das Zusammenstellen bestmöglicher Bohrkernbestände aus sieben parallelen Bohrungen auf der Ahlat Ridge, konnte die nahezu vollständige Aufzeichnung der Geschichte des Sees gewonnen werden. Dieses detaillierte Archiv zeichnete sensible Klimafaktoren auf. Als Beispiele sind zu nennen: die Variationen organischen Kohlenstoffs, das Verhältnis von Kalium zu Kalzium und die Anteile arborealer Pollen gegenüber dem Gesamtpollenbestand. Stellvertreterdaten für Klimavariationen (sogenannte Proxies) ähneln in ihrem Muster sehr stark den bekannten Klimavariationen aus Eisbohrkernen des Grönlandeises. Da das Timing der Klimavariationen in den Grönlandeiskernen durch Datierungen mithilfe im Eis gespeicherter Gasphasen und orbitaler Modellberechnungen sehr genau bekannt ist, konnten Sedimentolog*innen des PALEOVAN−Teams ein klimastratigraphisches Altersmodell aus den Proxies berechnen. Die Kernaufgabe der hier vorgelegten Dissertation ist es, eingelagerte pyroklastische Ablagerungen mithilfe der 40Ar/39Ar−Methode zu datieren und das Altersmodell zu diskutieren. Die Notwendigkeit der 40Ar/39Ar−Datierungen war besonders gegeben, da vorab publizierte radiometrische Datierungen von ICDP−PALEOVAN Bohrkernen statistisch nicht ausreichend beschrieben wurden und vorhandene Abweichungen gegenüber dem Altersmodell undiskutiert blieben. An der westlichen und nördlichen Küste des Sees befinden sich zwei Stratovulkane: Nemrut und Süphan. Beide Vulkane haben über die Dauer der kompletten Seegeschichte pyroklastisches Material im See abgelagert. Feldspäte und vulkanische Gläser aus rhyolitischen und trachytischen Auswurfprodukten wurden auf ihre Zusammensetzung untersucht und es wurde ihre Eignung für eine Anwendung der 40Ar/39Ar−Geochronologie festgestellt. Die Abwesenheit hoher Kaliumkonzentrationen in Feldspäten aus geeigneten pyroklastischen Lagen bedeutet, dass Kristalle eine Mindestgröße von ca. 500 Mikrometer benötigen, um Analysen an einzelnen Kristallen durchführen zu können. Nicht alle Proben liefern ausreichend Kristalle dieser groben Korngröße. Somit wurde eine Methode gewählt, die Mehrkorn und Einzelkornanalysen miteinander kombiniert. Die bevorzugte Methode des schrittweisen Ausheizens war nur mit drei Proben möglich. Grund dafür ist, dass der geringe Kaliumgehalt und das junge geologische Alter große Mengen (ca. 20 mg) einschluss− und korrosionsfreier Feldspäte benötigten. Die geringen Probenmengen (25% Aliquot von üblicherweise 5 cm3 Probenmaterial) und die Omnipräsenz von Schmelzeinschlüssen in den Feldspäten legten nahe, auf die Methodik des schlagartigen Ausheizens von Einzel− und Mehrkornproben zu setzen. 40Ar/39Ar−Datierungen an einzelnen Feldspäten haben den Vorteil, dass sich ein vorhandener Überschuss von 40Ar oder Kontaminationen detritischer Körner leicht feststellen lassen und in der Altersberechnung berücksichtigt werden können. Mehrkornanalysen zeigen diese Hürden nur bei intensiver Kontamination und bergen die Gefahr, radiometrische Alter zu bestimmen, die von dem tatsächlichen geologischen Alter abweichen, weil sie zu alt sind. 40Ar/39Ar−Datierungen in dieser Dissertation wurden deshalb für die meisten Proben mithilfe von Mehrkornanalysen und (wenn vorhanden) in Kombination mit wenigen Einzelkornanalysen durchgeführt. Bis auf die Resultate zweier Proben sind die radiometrischen Alter der Feldspäte statistisch gesehen identisch zu den Altersabschätzungen des klimastratigraphischen Altersmodells. Abweichungen zeigen ausschließlich ältere radiometrische Alter einzelner Kornfraktionen. Die beiden abweichenden Proben sind ebenfalls älter als das Altersmodell. Eine statistische Auswertung mittels t−Tests beweist die Abweichungen der radiometrischen von den klimastratigraphischen Altersdaten. Das Altersmodell wurde mit jedem der radiometrischen Alter innerhalb eines stratigraphischen Einzugsbereichs von ± 10 Metern verglichen. Die Konkordanz der Altershinweise aus unterschiedlichen Klimaproxies und aus geophysikalischen Altershinweisen (durch das Identifizieren zeitlich bekannter Variationen des Erdmagnetfelds) legen nahe, dass beiden Abweichungen fehlerhafte 40 Ar/39 Ar−Datierungen zugrunde liegen. Zwei mögliche Ursachen werden in Betracht gezogen: (1) unregelmäßiges beziehungsweise vereinzeltes Auftreten von überschüssigem 40Ar im Zusammenhang mit Schmelz− und Fluideinschlüssen oder (2) Kontamination der Probe mit älteren, xenokristischen Feldspäten durch eine zügige (im Zeitraum von Tagen) Kombination von magmatischer Assimilation und Auswurf des Materials. Ebenfalls nicht auszuschließen ist eine detritische Kontamination. Die normalverteilten 40Ar/39Ar−Werte der Proben sind allerdings untypisch für eine detritische Kontamination. Je ein Aliquot der selektierten Kristallfraktionen wurde intensiv auf vorhandene Zonierungen untersucht. Alle untersuchten Feldspatproben zeigen Elementzonierungen, die sich einteilen lassen. Die Zonierungen sind entweder kompositionelle Zonierungen der Hauptzusammensetzung („C-type – compositional type“), pseudo-oszillatorische Zonierungen gewisser Spurenelementkonzentrationen („PO-type“), konzentrische Zonierungen von Spurenelementkonzentrationen („CC-type – concentric type“) und chaotisch-fleckige Zonierungsmuster („R-type – resorbed and patchy“). Proben, deren 40Ar/39Ar−Alter abweichen, zeigen Zonierungen in ihrer Hauptzusammensetzung (C-type), fleckige Zonierungen (R-type) oder zeigen eine Mischung aus unterschiedlichen Zonierungstypen (C-type und PO-type). Feldspäte, die ausschließlich eine Zonierung ihrer Spurenelmente (PO-type) zeigen, liegen typischerweise in kleineren Korngrößen vor und markieren Zusammensetzungen, die typisch sind für die spätesten Phasen der magmatischen Entwicklung von Feldspäten in peralkalinen Gesteinen. Diese Kristalle sind in der Regel arm an Schmelzeinschlüssen und nur selten korrodiert. Die vorliegende Arbeit weist Feldspäte, die keine Zonierung in ihrer Hauptzusammensetzung, sondern nur pseudo-oszillatorische Spurenelementvariationen aufzeigen, als ideale Chronometer für die Anwendung der 40Ar/39Ar−Methode an Quartären, kaliumarmen Feldspäten aus. Um Abweichende Proben erneut zu analysieren und um stratigraphische Abschnitte zu datieren, die nicht erfolgreich beprobt werden konnten, wurden fünf Proben datiert, indem die 40Ar/39Ar−Methode auf vulkanisches Glas angewendet wurde. Hohe Gehalte an atmosphärischem Argon (in der Regel > 98 %) führten allerdings zu ungenauen radiometrischen Altersbestimmungen, die aufgrund ihrer großen Fehler keine Abweichungen vom Altersmodell zeigen. Die Gläser zeigen Hinweise darauf, dass Variationen in den Altern der Feldspäte auf die Gegenwart eines Ar-Reservoirs in Schmelzeinschlüssen zurückzuführen sein könnte, das weder radiogen noch atmosphärisch ist. Ob eine Verknüpfung der Ar-Isotopien in vulkanischen Gläsern und in Porenwässern gegeben ist, bleibt offen. Instrumentelle und methodische Hürden lassen nur eine Vermutung zu, dass Porenwässer und vulkanische Gläser in ihren Ar-Isotopendaten eine Verknüpfung zeigen könnten. Ein neues Alterstiefenmodell, das ebenfalls auf der Interpolation von Altershinweisen durch Klimaproxies und geophysikalischer Daten basiert wird in dieser Arbeit ebenfalls vorgelegt. Im Gegensatz zu bestehenden „Spline“-Interpolationen wurde in dieser Dissertation eine PCHIP- Interpolation bevorzugt. Abgesehen von abweichenden Proben wurden allen Proben, die mithilfe der 40Ar/39Ar−Methode an Feldspäten datiert sind, zusätzlich ein klimastratigraphisches Modellalter zugewiesen. Diese Modellalter bieten die Grundlage dafür, das Alter des in der Datierung benutzten Mineralstandards (Alder Creek Sanidine) nachrechnen zu können. Die erfolgreiche klimastratigraphische Kalibrierung des Standards beweist, dass Alterstiefenmodelle aus den PALEOVAN-Bohrkernen genau sind, und dass alle verwendeten Chronometer innerhalb der angezeigten Varianzen ein synchrones Timing zulassen. Die Dissertation bietet petrochemische Charakterisierungen der entnommenen Proben an und diskutiert nachvollziehbar mögliche Provenanzen der Pyroklastite. 41 von 57 entnommenen Proben lassen sich Nemrut zuordnen. Kriterien, die für eine Zuordnung herangezogen wurden, werden aufgezeigt und diskutiert. Eine mögliche Korrelation der datierten Proben zu pyroklastischen Einheiten, die in der Literatur an den Hängen der Stratovulkane im Detail beschrieben wurden, wird ebenfalls diskutiert. Die beprobten pyroklasitischen Lagen haben geringe Mächtigkeiten (in der Regel < 40 cm) und liegen mittleren bis kleineren Eruptionen zugrunde. Diese Eruptionen hinterlassen keine oder nur schwer definierbare pyroklastische Einheiten von geringer Mächtigkeit an Land. Eine genaue Korrelation ist mit den hier präsentierten Daten deshalb nicht oder nur sehr vage möglich. Abweichende radiometrische Alter aus Datierungen von Feldspat könnten im Zusammenhang mit vererbtem 40Ar aus Xenokristallen stehen. Um diese Hypothese zu testen, wurden diffusionsabhängige Konzentrationsschwankungen von Barium in zonierten Feldspäten untersucht. Da das diffusive Verhalten von Barium in Feldspat bekannt ist, kann durch die Analyse des Konzentrationsgradienten die Dauer der magmatischen Entwicklung ab der Bildung der untersuchten Zonierung berechnet werden. Diese Zeitspanne wurde genutzt, um zu modellieren, ob Xenokristalle während einer unvollständigen Assimilation komplett entgast werden. Dafür wurde angenommen, dass das diffusive Angleichen von unterschiedlichen Bariumkonzentrationen maximale Werte für die Dauer von der Assimilation bis zum Auswurf liefert. Die Modellierung zeigt, dass vererbtes 40Ar aus Xenokristallen keinen Anteil an den abweichenden Altern haben. Allerdings sind die erhobenen Diffusionsgradienten am Rande der benötigten analytischen Auflösung, und eine Überschätzung der Dauer der magmatischen Prozesse kann nicht ausgeschlossen werden. Die Diffusionsprofile sind ein weiterer Hinweis dafür, dass unregelmäßige beziehungsweise vereinzelte Quellen von überschüssigem 40Ar die schwierigste Hürde für 40Ar/39Ar−Datierungen an ICDP-PALEOVAN Bohrkernen darstellen. Die vorgelegte Arbeit bietet nicht nur 40Ar/39Ar−Datierungen, um das vorhandene Altersmodell kritisch zu diskutieren, sondern zeigt, wie Abweichungen statistisch zu erfassen sind, welche mineralogischen Beobachtungen in die Interpretation abweichender radiometrischer Alter miteinbezogen werden sollten und wie die Synchronizität verschiedener Chronometer getestet werden kann. Die Korrektheit des klima-stratigraphischen Timings der PALEOVAN Kerne ist mit dieser Arbeit nachgewiesen. Vergleiche der Proxydaten zu anderen Klimaarchiven deren Auflösung sogar höher als die der Milankovitchzyklen ist (die Auflösung der Dnsgaard-Oeschger Ereignisse), existieren für viele Kerne des PALEOVAN-Archivs. Die Kerne aus dem PALEOVAN Projekt repräsentieren damit ein Schlüsselarchiv für die Rekonstruktion des Klimas im Nahen Osten. Dieses Archiv bietet ein klima-stratigraphisches Altersmodell von bemerkenswerter Genauigkeit und Auflösung. KW - Lake Van KW - feldspar KW - lacustrine record KW - volcaniclastics KW - 40Ar/39Ar KW - Vansee KW - Feldspat KW - lakustrine Abfolge KW - Vulkaniklastika KW - 40Ar/39Ar Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429539 ER - TY - THES A1 - Leser, Eva T1 - Eta Carinae T1 - Eta Carinae BT - detection and characterisation of the first colliding-wind binary in very-high-energy gamma-rays with H.E.S.S. BT - Detektion und Charakterisierung des ersten Binärsternsystems mit kollidierenden Sternwinden in sehr hoch-energetischer Gammastrahlung mit H.E.S.S. N2 - Das außergewöhnliche Doppelsternsystem Eta Carinae fasziniert WissenschaftlerInnen und BeobachterInnen auf der südlichen Erdhalbkugel seit hunderten Jahren. Nach einem Supernova-ähnlichem Ausbruch war Eta Carinae zeitweise der hellste Stern am Nachthimmel. Heute sind durch zahlreiche Beobachtungen, von Radiowellen bis zu Röntgenstrahlung, der Aufbau des Sternsystems und die Eigenschaften seiner Strahlung bis zu Energien von ~ 50 keV gut erforscht. Das Doppelsternsystem besteht aus zwei massiven Sternen (~ 30 und ~ 100 Sonnenmassen Gewicht) mit starken Sternwinden, über die sie kontinuierlich einen Teil ihrer Masse verlieren. Wenn diese Sternwinde kollidieren, entsteht auf beiden Seiten ein Kompressionsschock der das Plasma in der Kollisionszone aufheizt, was sich in Röntgenstrahlung beobachten lässt. Bei Energien oberhalb von ~ 50 keV ist der Ursprung der Strahlung nicht mehr thermisch: um ein Plasma auf die entsprechende Temperatur zu bringen, wird mehr mechanische Energie benötigt, als in den Sternwinden vorhanden. In hoch-energetischer Gamma-Strahlung ist Eta Carinae das einzige eindeutig detektierte Sternsystem seiner Art und sein Energiespektrum reicht bis zu ~ hundert GeV. Bodengebundene Gamma-Strahlungsexperimente haben in diesem Energiebereich den Vorteil von großen Detektorflächen. H.E.S.S. ist das einzige bodengebundene Gamma-Strahlungsexperiment auf der Südhalbkugel und somit in der Lage, Eta Carinae in diesen Energien zu beobachten. H.E.S.S. misst Gamma-Strahlung mit Hilfe der elektromagnetischen Teilchenschauer, die sehr hoch-energetische Photonen in der Atmosphäre auslösen. Die größte Herausforderung der Messung von Eta Carinaes Strahlung mit H.E.S.S. ist die ultraviolette Strahlung des Carina Nebels, die zu einem Hintergrund führt, der bis zu zehn mal stärker ist als der Durchschnitt in H.E.S.S. In dieser Arbeit wird die erste Detektion eines Doppelsternsystems mit kollidierenden Sternwinden in sehr hoch-energetischer Gamma-Strahlung präsentiert und die Studien, die diese ermöglicht haben. Das differentielle Gamma-Strahlungsspektrum bis 700 GeV wird untersucht. Hadronische und leptonische Szenarios für den Ursprung der Gamma-Strahlung werden diskutiert und das hadronische Szenario wird aufgrund eines Vergleichs der Kühlzeiten bevorzugt. N2 - The exceptional binary star Eta Carinae has been fascinating scientists and the people in the Southern hemisphere alike for hundreds of years. It survived an enormous outbreak, comparable to a supernova energy-wise, and for a short period became the brightest star of the night sky. From observations from the radio regime to X-rays the system's characteristics and its emission in photon energies up to ~ 50 keV are well studied today. The binary is composed of two massive stars of ~ 30 and ~ 100 solar masses. Either star drives a strong stellar wind that continuously carries away a fraction of its mass. The collision of these winds leads to a shock on each side of the encounter. In the wind-wind-collision region plasma gets heated when it is overrun by the shocks. Part of the emission seen in X-rays can be attributed to this plasma. Above ~ 50 keV the emission is no longer of thermal origin: the required plasma temperature exceeds the available mechanical energy input of the stellar winds. In contrast to its observational history in thermal energies observational evidence of Eta Carinae's non-thermal emission has only recently built up. In high-energy gamma-rays Eta Carinae is the only binary of its kind that has been detected unambiguously. Its energy spectrum reaches up to ~ hundred GeV, a regime where satellite-based gamma-ray experiments run out of statistics. Ground-based gamma-ray experiments have the advantage of large photon collection areas. H.E.S.S. is the only gamma-ray experiment located in the Southern hemisphere and thus able to observe Eta Carinae in this energy range. H.E.S.S. measures gamma-rays via electromagnetic showers of particles that very-high-energy gamma-rays initiate in the atmosphere. The main challenge in observations of Eta Carinae with H.E.S.S. is the UV emission of the Carina nebula that leads to a background that is up to 10 times stronger than usual for H.E.S.S. This thesis presents the first detection of a colliding-wind binary in very-high-energy gamma-rays and documents the studies that led to it. The differential gamma-ray energy spectrum of Eta Carinae is measured up to 700 GeV. A hadronic and leptonic origin of the gamma-ray emission is discussed and based on the comparison of cooling times a hadronic scenario is favoured. KW - Eta Carinae KW - Astroteilchen KW - astroparticle KW - H.E.S.S. KW - Gammaastronomie KW - H.E.S.S. Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-428141 ER - TY - THES A1 - Tchoumba Kwamen, Christelle Larodia T1 - Investigating the dynamics of polarization reversal in ferroelectric thin films by time-resolved X-ray diffraction T1 - Untersuchung der Dynamik der Polarisationsumkehr in ferroelektrischen Dünnschichten durch zeitaufgelöste Röntgenbeugung N2 - Ferroic materials have attracted a lot of attention over the years due to their wide range of applications in sensors, actuators, and memory devices. Their technological applications originate from their unique properties such as ferroelectricity and piezoelectricity. In order to optimize these materials, it is necessary to understand the coupling between their nanoscale structure and transient response, which are related to the atomic structure of the unit cell. In this thesis, synchrotron X-ray diffraction is used to investigate the structure of ferroelectric thin film capacitors during application of a periodic electric field. Combining electrical measurements with time-resolved X-ray diffraction on a working device allows for visualization of the interplay between charge flow and structural motion. This constitutes the core of this work. The first part of this thesis discusses the electrical and structural dynamics of a ferroelectric Pt/Pb(Zr0.2,Ti0.8)O3/SrRuO3 heterostructure during charging, discharging, and polarization reversal. After polarization reversal a non-linear piezoelectric response develops on a much longer time scale than the RC time constant of the device. The reversal process is inhomogeneous and induces a transient disordered domain state. The structural dynamics under sub-coercive field conditions show that this disordered domain state can be remanent and can be erased with an appropriate voltage pulse sequence. The frequency-dependent dynamic characterization of a Pb(Zr0.52,Ti0.48)O3 layer, at the morphotropic phase boundary, shows that at high frequency, the limited domain wall velocity causes a phase lag between the applied field and both the structural and electrical responses. An external modification of the RC time constant of the measurement delays the switching current and widens the electromechanical hysteresis loop while achieving a higher compressive piezoelectric strain within the crystal. In the second part of this thesis, time-resolved reciprocal space maps of multiferroic BiFeO3 thin films were measured to identify the domain structure and investigate the development of an inhomogeneous piezoelectric response during the polarization reversal. The presence of 109° domains is evidenced by the splitting of the Bragg peak. The last part of this work investigates the effect of an optically excited ultrafast strain or heat pulse propagating through a ferroelectric BaTiO3 layer, where we observed an additional current response due to the laser pulse excitation of the metallic bottom electrode of the heterostructure. N2 - Ferroika haben aufgrund vielfältiger Anwendungsmöglichkeiten in Sensoren, Motoren und Speichermedien in den letzten Jahren viel Aufmerksamkeit erhalten. Das Interesse für technologische Anwendungen ist in ihren einzigartigen Eigenschaften wie Ferroelektrizität und Piezoelektrizität begründet. Um die Eigenschaften dieser Materialien zu optimieren ist es notwendig, die Kopplung zwischen ihrer Nanostruktur und der zeitabhängigen Antwort auf die Anregung zu verstehen, welcher von der Atomstruktur der Einheitszelle abhängig ist. In dieser Arbeit wird Röntgenbeugung an einem Synchrotron verwendet, um die Struktur eines ferroelektrischen Dünnschichtkondensators während eines angelegten elektrischen Feld zu beobachten. Den Kern dieser Arbeit bildet die Kombination aus elektrischen zeitaufgelösten Röntgenbeugungsmessungen an einem betriebsfähigen Kondensator, was die Visualisierung des Zusammenspiels zwischen Ladungsbewegung und Strukturdynamik ermöglicht. Der erste Teil der Arbeit befasst sich mit der elektrischen und strukturellen Dynamik einer ferroelektrischen Pt/Pb(Zr0.2,Ti0.8)O3/SrRuO3 Heterostruktur während des Ladens, Entladens und der Polarisationsumkehr. Nach der Umkehr der Polarisation bildet sich auf einer längeren Zeitskala als die RC-Zeitkonstante der Probe ein nichtlineares piezoelektrisches Signal aus. Der Umkehrungsprozess ist inhomogen und induziert einen vorübergehenden Zustand ungeordneter Domänen. Die strukturelle Dynamik mit einem angelegten elektrischen Feld unterhalb des Koerzitivfelds zeigt, dass dieser ungeordnete Zustand remanent sein kann und mit einer entsprechenden Abfolge von Spannungspulsen wieder entfernt werden kann. Die frequenzabhängige Charakterisierung der Dynamik einer Pb(Zr0.52,Ti0.48)O3 Schicht mit einer Zusammensetzung, die der morphotropen Phasengrenze entspricht, zeigt, dass bei hohen Frequenzen die begrenzte Domänenwandgeschwindigkeit eine Phasenverzögerung zwischen dem angelegten Feld und dem strukturellen sowie dem elektrischen Signal verursacht. Eine externe Änderung der RC-Zeitkonstante verzögert den Schaltstrom und verbreitert die elektromechanische Hysteresekurve, während im Kristall eine höhere kompressive piezoeletrische Spannung erzeugt wird. In dem zweiten Teil dieser Arbeit wurde der reziproke Raum von multiferroischen dünnen BiFeO3 Filmen vermessen, um die Domänenstruktur zu identifizieren und die Entwicklung eines inhomogenen piezoelektrischen Signals während der Polarisationsumkehr zu untersuchen. Das Aufspalten des Bragg Reflexes ist ein Hinweis auf die Existenz von 109° Domänen. Der letzte Teil der Arbeit beschäftigt sich mit dem Effekt, den ein durch optische Anregung erzeugter ultraschneller Verspannungs- oder Wärmepuls hervorruft, der durch eine ferroelektrische BaTiO3 Schicht propagiert. Dabei wurde durch die Anregung der unteren metallischen Elektrode der Heterostruktur durch den Laserpuls ein zusätzliches Ladungssignal beobachtet. KW - ferroelectrics KW - X-ray diffraction KW - structural dynamics KW - Ferroelektrika KW - Röntgenbeugung KW - Strukturdynamik Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427815 ER - TY - THES A1 - Klimke, Jan T1 - Web-based provisioning and application of large-scale virtual 3D city models T1 - Webbasierte Bereitstellung und Anwendung von großen virtuellen 3D-Stadtmodellen N2 - Virtual 3D city models represent and integrate a variety of spatial data and georeferenced data related to urban areas. With the help of improved remote-sensing technology, official 3D cadastral data, open data or geodata crowdsourcing, the quantity and availability of such data are constantly expanding and its quality is ever improving for many major cities and metropolitan regions. There are numerous fields of applications for such data, including city planning and development, environmental analysis and simulation, disaster and risk management, navigation systems, and interactive city maps. The dissemination and the interactive use of virtual 3D city models represent key technical functionality required by nearly all corresponding systems, services, and applications. The size and complexity of virtual 3D city models, their management, their handling, and especially their visualization represent challenging tasks. For example, mobile applications can hardly handle these models due to their massive data volume and data heterogeneity. Therefore, the efficient usage of all computational resources (e.g., storage, processing power, main memory, and graphics hardware, etc.) is a key requirement for software engineering in this field. Common approaches are based on complex clients that require the 3D model data (e.g., 3D meshes and 2D textures) to be transferred to them and that then render those received 3D models. However, these applications have to implement most stages of the visualization pipeline on client side. Thus, as high-quality 3D rendering processes strongly depend on locally available computer graphics resources, software engineering faces the challenge of building robust cross-platform client implementations. Web-based provisioning aims at providing a service-oriented software architecture that consists of tailored functional components for building web-based and mobile applications that manage and visualize virtual 3D city models. This thesis presents corresponding concepts and techniques for web-based provisioning of virtual 3D city models. In particular, it introduces services that allow us to efficiently build applications for virtual 3D city models based on a fine-grained service concept. The thesis covers five main areas: 1. A Service-Based Concept for Image-Based Provisioning of Virtual 3D City Models It creates a frame for a broad range of services related to the rendering and image-based dissemination of virtual 3D city models. 2. 3D Rendering Service for Virtual 3D City Models This service provides efficient, high-quality 3D rendering functionality for virtual 3D city models. In particular, it copes with requirements such as standardized data formats, massive model texturing, detailed 3D geometry, access to associated feature data, and non-assumed frame-to-frame coherence for parallel service requests. In addition, it supports thematic and artistic styling based on an expandable graphics effects library. 3. Layered Map Service for Virtual 3D City Models It generates a map-like representation of virtual 3D city models using an oblique view. It provides high visual quality, fast initial loading times, simple map-based interaction and feature data access. Based on a configurable client framework, mobile and web-based applications for virtual 3D city models can be created easily. 4. Video Service for Virtual 3D City Models It creates and synthesizes videos from virtual 3D city models. Without requiring client-side 3D rendering capabilities, users can create camera paths by a map-based user interface, configure scene contents, styling, image overlays, text overlays, and their transitions. The service significantly reduces the manual effort typically required to produce such videos. The videos can automatically be updated when the underlying data changes. 5. Service-Based Camera Interaction It supports task-based 3D camera interactions, which can be integrated seamlessly into service-based visualization applications. It is demonstrated how to build such web-based interactive applications for virtual 3D city models using this camera service. These contributions provide a framework for design, implementation, and deployment of future web-based applications, systems, and services for virtual 3D city models. The approach shows how to decompose the complex, monolithic functionality of current 3D geovisualization systems into independently designed, implemented, and operated service- oriented units. In that sense, this thesis also contributes to microservice architectures for 3D geovisualization systems—a key challenge of today’s IT systems engineering to build scalable IT solutions. N2 - Virtuelle 3D-Stadtmodelle repräsentieren und integrieren eine große Bandbreite von Geodaten und georeferenzierten Daten über städtische Gebiete. Verfügbarkeit, Quantität und Qualität solcher Daten verbessern sich ständig für viele Städte und Metropolregionen, nicht zuletzt bedingt durch verbesserte Erfassungstechnologien, amtliche 3D-Kataster, offene Geodaten oder Geodaten-Crowdsourcing. Die Anwendungsfelder für virtuelle 3D-Stadtmodelle sind vielfältig. Sie reichen von Stadtplanung und Stadtentwicklung, Umweltanalysen und -simulationen, über Katastrophen- und Risikomanagement, bis hin zu Navigationssystemen und interaktiven Stadtkarten. Die Verbreitung und interaktive Nutzung von virtuellen 3D-Stadtmodellen stellt hierbei eine technische Kernfunktionalität für fast alle entsprechenden Systeme, Services und Anwendungen dar. Aufgrund der Komplexität und Größe virtueller 3D-Stadtmodelle stellt ihre Verwaltung, ihre Verarbeitung und insbesondere ihre Visualisierung eine große Herausforderung dar. Daher können zum Beispiel mobile Anwendungen virtuelle 3D-Stadtmodelle, wegen ihres massiven Datenvolumens und ihrer Datenheterogenität, kaum effizient handhaben. Die effiziente Nutzung von Rechenressourcen, wie zum Beispiel Prozessorleistung, Hauptspeicher, Festplattenspeicher und Grafikhardware, bildet daher eine Schlüsselanforderung an die Softwaretechnik in diesem Bereich. Heutige Ansätze beruhen häufig auf komplexen Clients, zu denen 3D-Modelldaten (z.B. 3D-Netze und 2D- Texturen) transferiert werden müssen und die das Rendering dieser Daten selbst ausführen. Nachteilig ist dabei unter anderem, dass sie die meisten Stufen der Visualisierungspipeline auf der Client-Seite ausführen müssen. Es ist daher softwaretechnisch schwer, robuste Cross-Plattform-Implementierungen für diese Clients zu erstellen, da hoch qualitative 3D-Rendering-Prozesse nicht unwesentlich von lokalen computergrafischen Ressourcen abhängen. Die webbasierte Bereitstellung virtueller 3D-Stadtmodelle beruht auf einer serviceorientierten Softwarearchitektur. Diese besteht aus spezifischen funktionalen Komponenten für die Konstruktion von mobilen oder webbasierten Anwendungen für die Verarbeitung und Visualisierung von komplexen virtuellen 3D-Stadtmodellen. Diese Arbeit beschreibt entsprechende Konzepte und Techniken für eine webbasierte Bereitstellung von virtuellen 3D-Stadtmodellen. Es werden insbesondere Services vorgestellt, die eine effiziente Entwicklung von Anwendungen für virtuelle 3D-Stadtmodelle auf Basis eines feingranularen Dienstekonzepts ermöglichen. Die Arbeit gliedert sich in fünf thematische Hauptbeiträge: 1. Ein servicebasiertes Konzept für die bildbasierte Bereitstellung von virtuellen 3D-Stadtmodellen: Es wird ein konzeptioneller Rahmen für eine Reihe von Services in Bezug auf das Rendering und die bildbasierte Bereitstellung virtueller 3D-Stadtmodelle eingeführt. 2. 3D-Rendering-Service für virtuelle 3D-Stadtmodelle: Dieser Service stellt eine effiziente, hochqualitative 3D-Renderingfunktionalität für virtuelle 3D-Stadtmodelle bereit. Insbesondere werden Anforderungen, wie zum Beispiel standardisierte Datenformate, massive Modelltexturierung, detaillierte 3D-Geometrien, Zugriff auf assoziierte Fachdaten und fehlende Frame-zu-Frame-Kohärenz bei parallelen Serviceanfragen erfüllt. Der Service unterstützt zudem die thematische und gestalterische Stilisierung der Darstellungen auf Basis einer erweiterbaren Grafikeffektbibliothek. 3. Layered-Map-Service für virtuelle 3D-Stadtmodelle: Dieser Service generiert eine kartenverwandte Darstellung in Form einer Schrägansicht auf virtuelle 3D-Stadtmodelle in hoher Renderingqualität. Er weist eine schnelle initiale Ladezeit, eine einfache, kartenbasierte Interaktion und Zugang zu den Fachdaten des virtuellen 3D-Stadtmodells auf. Mittels eines konfigurierbaren Client-Frameworks können damit sowohl mobile, als auch webbasierte Anwendungen für virtuelle 3D Stadtmodelle einfach erstellt werden. 4. Video-Service für virtuelle 3D-Stadtmodelle: Dieser Service erstellt und synthetisiert Videos aus virtuellen 3D-Stadtmodellen. Nutzern wird ermöglicht 3D-Kamerapfade auf einfache Weise über eine kartenbasierte Nutzungsschnittstelle zu erstellen. Weiterhin können die Szeneninhalte, die Stilisierung der Szene, sowie Bild- und Textüberlagerungen konfigurieren und Übergänge zwischen einzelnen Szenen festzulegen, ohne dabei clientseitige 3D-Rendering-Fähigkeiten vorauszusetzen. Das System reduziert den manuellen Aufwand für die Produktion von Videos für virtuelle 3D-Stadtmodelle erheblich. Videos können zudem automatisiert aktualisiert werden, wenn sich zugrunde liegende Daten ändern. 5. Servicebasierte Kamerainteraktion Die vorgestellten Services unterstützen aufgabenbasierte 3D-Kamerainteraktionen und deren Integration in servicebasierte Visualisierungsanwendungen. Es wird gezeigt, wie webbasierte interaktive Anwendungen für virtuelle 3D-Stadtmodelle mit Hilfe von Kameraservices umgesetzt werden können. Diese Beiträge bieten einen Rahmen für das Design, die Implementierung und die Bereitstellung zukünftiger webbasierter Anwendungen, Systeme und Services für virtuelle 3D-Stadtmodelle. Der Ansatz zeigt, wie die meist komplexe, monolithische Funktionalität heutiger 3D-Geovisualisierungssysteme in unabhängig entworfene, implementierte und betriebene serviceorientierte Einheiten zerlegt werden kann. In diesem Sinne stellt diese Arbeit auch einen Beitrag für die Entwicklung von Microservice-Architekturen für 3D-Geovisualisierungssysteme bereit – eine aktuelle Herausforderung in der Softwaresystemtechnik in Hinblick auf den Aufbau skalierender IT-Lösungen. KW - 3D city model KW - 3D geovisualization KW - 3D portrayal KW - serverside 3D rendering KW - CityGML KW - 3D-Stadtmodell KW - 3D-Geovisualisierung KW - 3D-Rendering KW - serverseitiges 3D-Rendering KW - serviceorientierte Architekturen KW - service-oriented architectures Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-428053 ER - TY - THES A1 - Stolley, Florian T1 - Four essays on altruism and compliance T1 - Vier Studien zu altruistischem und normenkonformem Verhalten N2 - There are numerous situations in which people ask for something or make a request, e.g. asking a favor, asking for help or requesting compliance with specific norms. For this reason, how to ask for something in order to increase people’s willingness to fulfill such requests is one of the most important question for many people working in various different fields of responsibility such as charitable giving, marketing, management or policy making. This dissertation consists of four chapters that deal with the effects of small changes in the decision-making environment on altruistic decision-making and compliance behavior. Most notably, written communication as an influencing factor is the focus of the first three chapters. The starting point was the question how to devise a request in order to maximize its chance of success (Chapter 1). The results of the first chapter originate the ideas for the second and third chapter. Chapter 2 analyzes how communication by a neutral third-party, i.e. a text from the experimenters that either reminds potential benefactors of their responsibility or highlights their freedom of choice, affects altruistic decision-making. Chapter 3 elaborates on the effect of thanking people in advance when asking them for help. While being not as closely related to the other chapters as the three first ones are, the fourth chapter deals as well with the question how compliance (here: compliance with norms and rules) is affected by subtle manipulations of the environment in which decisions are made. This chapter analyzes the effect of default settings in a tax return on tax compliance. In order to study the research questions outlined above, controlled experiments were conducted. Chapter 1, which analyzes the effect of text messages on the decision to give something to another person, employs a mini-dictator game. The recipient sends a free-form text message to the dictator before the latter makes a binary decision whether or not to give part of her or his endowment to the recipient. We find that putting effort into the message by writing a long note without spelling mistakes increases dictators’ willingness to give. Moreover, writing in a humorous way and mentioning reasons why the money is needed pays off. Furthermore, men and women seem to react differently to some message categories. Only men react positively to efficiency arguments, while only women react to messages that emphasize the dictator’s power and responsibility. Building on this last result, Chapter 2 attempts to disentangle the effect of reminding potential benefactors of their responsibility for the potential beneficiary and the effect of highlighting their decision power and freedom of choice on altruistic decision-making by studying the effects of two different texts on giving in a dictator game. We find that only men react positively to a text that stresses their responsibility for the recipient by giving more to her or him, whereas only women seem to react positively to a text that emphasizes their decision power and freedom of choice. Chapter 3 focuses on the compliance with a request. In the experiment, participants are asked to provide a detailed answer to an open question. Compliance is measured by the effort participants spend on answering the question. The treatment variable is whether or not they see the text “thanks in advance.” We find that participants react negatively by putting less effort into complying with the request in response to the phrase “thanks in advance.” Chapter 4 studies the effect of prefilled tax returns with mostly inaccurate default values on tax compliance. In a laboratory experiment, participants earn income by performing a real-effort task and must subsequently file a tax return for three consecutive rounds. In the main treatment, the tax return is prefilled with a default value, resulting from participants’ own performance in previous rounds, which varies in its relative size. The results suggest that there is no lasting effect of a default value on tax honesty, neither for relatively low nor relatively high defaults. However, participants who face a default that is lower than their true income in the first round evade significantly and substantially more taxes in this round than participants in the control treatment without a default. N2 - Es fallen einem zahlreiche Situationen ein, in denen Menschen um etwas bitten, sei es um Unterstützung oder um das Befolgen bestimmter Regeln oder Normen. Die Frage, wie man eine Bitte formulieren muss, um die Bereitschaft der Menschen zu erhöhen, diese Bitte zu erfüllen, ist daher eine äußerst wichtige für viele Menschen, die in ganz unterschiedlichen Bereichen arbeiten, beispielsweise in Hilfsorganisationen, im Marketing, im Management oder auch in der Politikberatung. Diese Dissertation besteht aus vier Kapiteln, die sich mit den Auswirkungen kleiner Veränderungen in der Entscheidungsumgebung auf altruistische Entscheidungen sowie unterstützendes und regelkonformes Verhalten befassen. Schriftliche Kommunikation als Einflussfaktor steht hierbei im Mittelpunkt der ersten drei Kapitel. Ausgangspunkt war die Frage, wie man eine Bitte formulieren muss, um ihre Erfolgsaussichten zu erhöhen (Kapitel 1). Aus den Ergebnissen des ersten Kapitels resultieren die Ideen für das zweite und dritte Kapitel. In Kapitel 2 wird untersucht, wie sich Kommunikation durch einen neutralen Dritten - ein Text der Experimentatoren, der potenzielle Wohltäter entweder an ihre Verantwortung oder ihre Entscheidungsfreiheit erinnert - auf eine altruistische Entscheidung auswirkt. In Kapitel 3 wird analysiert, was für einen Effekt es auf die Hilfsbereitschaft von Teilnehmern hat, wenn man ihnen bereits im Voraus für ihre Unterstützung dankt. Obwohl das vierte Kapitel weniger eng mit den anderen Kapiteln verbunden ist, als es die ersten drei sind, geht es auch hier um die Frage, wie sich die Bereitschaft der Teilnehmer, Normen zu befolgen, durch kleine Änderungen der Entscheidungsumgebung erhöhen lässt. In diesem Kapitel wird untersucht, welchen Einfluss vorausgefüllte Steuererklärungen auf die Steuerhinterziehung haben. Zur Beantwortung der oben genannten Forschungsfragen wurden Experimente durchgeführt. In Kapitel 1 wird ein Mini-Diktatorspiel verwendet, um herauszufinden, welchen Effekt Textnachrichten auf die Entscheidung haben, einer anderen Person etwas abzugeben. Die Person in der Rolle des Diktators liest eine vom Empfänger geschriebene Nachricht, bevor sie oder er die binäre Entscheidung trifft, einen Teil der Anfangsausstattung an den Empfänger abzugeben. Unsere Ergebnisse zeigen, dass Diktatoren eher bereit sind, etwas abzugeben, wenn sich die Empfänger beim Schreiben der Nachricht bemüht haben, indem sie längere Nachrichten mit weniger Rechtschreibfehlern schreiben. Außerdem erhöhen humorvolle Nachrichten und welche, die Gründe nennen, wofür die Empfänger das Geld brauchen, die Bereitschaft der Diktatoren, Geld abzugeben. Darüber hinaus scheinen Männer und Frauen auf einige Nachrichteninhalte unterschiedlich zu reagieren. Nur Männer reagieren positiv auf Effizienzargumente, während nur Frauen auf Nachrichten reagieren, die die Macht und Verantwortung des Diktators unterstreichen. Aufbauend auf diesem letzten Ergebnis versucht das zweite Kapitel, die Effekte der Betonung der Entscheidungsmacht und der Betonung der Verantwortung auf altruistisches Handeln zu trennen. Hierzu wird der Effekt von zwei Texten auf Entscheidungen im Diktatorspiel untersucht. Die Ergebnisse zeigen, dass nur Männer positiv auf die Betonung ihrer Verantwortung reagieren, während Frauen tendenziell mehr abgeben, wenn ihre Entscheidungsmacht und Entscheidungsfreiheit hervorgehoben wird. KW - experiment KW - Experiment KW - Nudging KW - nudging KW - communication KW - Kommunikation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-428013 ER - TY - THES A1 - Zimmermann, Marc T1 - Multifunctional patchy silica particles via microcontact printing T1 - Multifunktionale Patchy Silika Partikel mithilfe des Mikrokontaktdruckverfahrens N2 - This research addressed the question, if it is possible to simplify current microcontact printing systems for the production of anisotropic building blocks or patchy particles, by using common chemicals while still maintaining reproducibility, high precision and tunability of the Janus-balance Chapter 2 introduced the microcontact printing materials as well as their defined electrostatic interactions. In particular polydimethylsiloxane stamps, silica particles and high molecular weight polyethylenimine ink were mainly used in this research. All of these components are commercially available in large quantities and affordable, which gives this approach a huge potential for further up-scaling developments. The benefits of polymeric over molecular inks was described including its flexible influence on the printing pressure. With this alteration of the µCP concept, a new method of solvent assisted particle release mechanism enabled the switch from two-dimensional surface modification to three-dimensional structure printing on colloidal silica particles, without changing printing parameters or starting materials. This effect opened the way to use the internal volume of the achieved patches for incorporation of nano additives, introducing additional physical properties into the patches without alteration of the surface chemistry. The success of this system and its achievable range was further investigated in chapter 3 by giving detailed information about patch geometry parameters including diameter, thickness and yield. For this purpose, silica particles in a size range between 1µm and 5µm were printed with different ink concentrations to change the Janus-balance of these single patched particles. A necessary intermediate step, consisting of air-plasma treatment, for the production of trivalent particles using "sandwich" printing was discovered and comparative studies concerning the patch geometry of single and double patched particles were conducted. Additionally, the usage of structured PDMS stamps during printing was described. These results demonstrate the excellent precision of this approach and opens the pathway for even greater accuracy as further parameters can be finely tuned and investigated, e.g. humidity and temperature during stamp loading. The performance of these synthesized anisotropic colloids was further investigated in chapter 4, starting with behaviour studies in alcoholic and aqueous dispersions. Here, the stability of the applied patches was studied in a broad pH range, discovering a release mechanism by disabling the electrostatic bonding between particle surface and polyelectrolyte ink. Furthermore, the absence of strong attractive forces between divalent particles in water was investigated using XPS measurements. These results lead to the conclusion that the transfer of small PDMS oligomers onto the patch surface is shielding charges, preventing colloidal agglomeration. However, based on this knowledge, further patch modifications for particle self-assembly were introduced including physical approaches using magnetic nano additives, chemical patch functionalization with avidin-biotin or the light responsive cyclodextrin-arylazopyrazoles coupling as well as particle surface modification for the synthesis of highly amphiphilic colloids. The successful coupling, its efficiency, stability and behaviour in different solvents were evaluated to find a suitable coupling system for future assembly experiments. Based on these results the possibility of more sophisticated structures by colloidal self-assembly is given. Certain findings needed further analysis to understand their underlying mechanics, including the relatively broad patch diameter distribution and the decreasing patch thickness for smaller silica particles. Mathematical assumptions for both effects are introduced in chapter 5. First, they demonstrate the connection between the naturally occurring particle size distribution and the broadening of the patch diameter, indicating an even higher precision for this µCP approach. Second, explaining the increase of contact area between particle and ink surface due to higher particle packaging, leading to a decrease in printing pressure for smaller particles. These calculations ultimately lead to the development of a new mechanical microcontact printing approach, using centrifugal forces for high pressure control and excellent parallel alignment of printing substrates. First results with this device and the comparison with previously conducted by-hand experiments conclude this research. It furthermore displays the advantages of such a device for future applications using a mechanical printing approach, especially for accessing even smaller nano particles with great precision and excellent yield. In conclusion, this work demonstrates the successful adjustment of the µCP approach using commercially available and affordable silica particles and polyelectrolytes for high flexibility, reduced costs and higher scale-up value. Furthermore, its was possible to increase the modification potential by introducing three-dimensional patches for additional functionalization volume. While keeping a high colloidal stability, different coupling systems showed the self-assembly capabilities of this toolbox for anisotropic particles. N2 - Diese Forschungsarbeit befasste sich mit der Frage, ob es möglich ist, bekannte Mikrokontaktdruckverfahren, zur Herstellung von anisotropen Bausteinen (Patchy Partikel), weiter zu vereinfachen. Dabei sollten gängige Chemikalien verwendet werden ohne einen Verlust in Reproduzierbarkeit, hoher Präzision und Feineinstellung der Janus-Balance zu erleiden. In Kapitel 2 wurden die verwendeten Mikrokontaktdruckmaterialien sowie deren elektrostatische Wechselwirkungen vorgestellt. Insbesondere handelte es sich dabei um Polydimethylsiloxan Stempel, Silikapartikel und hoch molekulare Polyethylenimin Tinte. All diese Produkte sind kommerziel in großen und bezahlbaren Mengen erhältlich. Nicht nur die Vorteile von polymeren Tinten im Gegensatz zu molekularen Tinten wurde beschrieben, sondern auch die hohe Flexibilität dieses Verfahrens bezüglich der verwendeten Druckkraft. Mit dieser Anpassung des Mikrokontaktdrucks, wurde eine neue Methode der Lösungsmittel unterstützten Partikelablösung ermöglicht, mit deren Hilfe ein einfaches Schalten zwischen zwei dimensionaler Oberflächenfunktionalisierung und drei dimensionalem Strukturdrucks möglich war, ohne Druckparameter oder Startchemikalien zu verändern. Dadurch konnte neu erschaffenes internes Volumen verwendet werden um Nanoadditive einzuführen und so zusätzliche physikalische Eigenschaften zu integrieren, ohne die Oberflächenchemie der Patches verändert wurde. Der Erfolg dieses Systems und seine erreichbaren Grenzen wurde gründlichst in Kapitel 3 erforscht, indem detaillierte Geometrieparameter der Patches einschließlich Durchmesser, Dicke und Ausbeute, erworben wurden. Hierfür wurden Silikapartikel in einem Größenbereich von 1µm bis 5µm mit unterschiedlichen Tintenkonzentrationen bedruckt, um Veränderungen erforschen zu können. Ein notwendiger Luftplasma Ätzschritt für die Produktion von trivalenten Partikeln, mit Hilfe des sogenannten ,,Sandwich‘‘-Drucks, wurde erläutert und vergleichende Untersuchen von einfach und zweifach modifizierten Bausteinen wurden durchgeführt. Zusätzlich dazu, wurde die Verwendung von strukturierten Stempel beschrieben. Die Ergebnisse verdeutlichen die exzellente Genauigkeit dieser Methode und öffnet den Weg um eine hoch höhere Präzision zu erreichen da weitere Parametere genau eingestellt und untersucht werden können, z.B. Luftfeuchtigkeit und Temperature während der Stempelbeladung. Die Performance der herstellten anisotropen Partikel wurde in Kapitel 4 mit Verhaltensstudien in alkoholischen und wässrigen Dispersionen getestet. Dabei wurde die Stabilität der Oberflächenfunktionalisierungen in einem breiten pH Bereich untersucht. Dadurch wurde ein Ablösungsmechanismus bei sehr hohen bzw. niedrigen pH-Werten entdeckt, der zur Deaktivierung elektrostatischer Wechselwirkungen zwischen Partikeloberfläche und Polyelektrolyte Tinte führte. Desweitern wurden die Abwesenheit starker Wechselwirkung der divalenten Partikel in Wasser mit Hilfe von XPS untersucht. Das Resultat zeigte, dass der Transfer kleinster PDMS Oligomere auf die Patchoberfläche zu einer Ladungsabschirmung führte. Dadurch konnte Agglomeration verhindert werden. Aufgrund dieser Ergebnisse wurden weitere Modifikationen für Partikelassemblierung durchgeführt. Hierfür wurde die Einführung von magnetischen Nanoadditiven, die Funktionalisierung mit Avidin-Biotin sowie dem Lichtschaltbaren Cyclodextrin-Arylazopyrazol Komplexen und die Partikeloberflächenfunktionalisierung zur Herstellung amphiphiler Teilchen untersucht. Die Effizienz der Kopplung, deren Stabilität sowie das Verhalten in unterschiedlichen Lösungsmittel wurde beschrieben. Basierend auf diesen Ergebnissen können noch anspruchsvollere Strukturen durch kolloidale Selbstassemblierung erzeugt werden. Einige Ergebnisse dieser Arbeit benötigten zusätzlicher Analyse um die zugrundeliegenden Mechaniken verstehen zu können. Dazu gehörte die relative hohe Streuung des Durchmessers für unterschiedliche Partikelsysteme, sowie das Ausdünnen des Patches mit kleineren Silikapartikeln. Mathematische Modelle in Kapitel 5 beschreiben beide Effekte. Dadurch war es möglich einen Zusammenhang zwischen der natürlichen Partikelgrößenverteilung sowie der Verbreitung des Patchdurchmessers festzustellen. Des Weiteren konnte eine Verkleinerung der Druckkraft durch eine Erhöhung der Packungsdichte für kleine Partikel beschrieben werden, wodurch eine Erklärung der Ausdünnung möglich war. All diese Berechnung führten schlussendlich zur Entwicklung eines neuen mechanischen Mikrokontaktdruckverfahrens, welches mit Hilfe von Zentrifugalkräften eine hohe Druckkontrolle und eine exzellente parallele Ausrichtung zwischen den Substraten ermöglicht. Erste Ergebnisse, sowie deren Vergleich mit bisher erhaltenen Resultaten schließen diese Forschung ab. Des Weiteren zeigt es die Vorteile einer solchen Vorrichtung für kommende Applikationen, besonders um noch kleinere Nanopartikel mit einer hohen Präzision modifizieren zu können. Zusammenfassend ist zu sagen, dass diese Forschung die erfolgreiche Anpassung des Mikrokontaktdruckverfahrens mit kommerziell erhältlichen und bezahlbaren Silikapartikeln und Polyelektrolyten demonstriert, um hohe Flexibilität, reduzierte Kosten und ein erweitertes Skalierungspotential zu bieten. Zusätzlich ist es gelungen, die Funktionalisierungsdichte zu erhöhen, indem drei dimensionaler Strukturdruck bisher ungenutztes Volumen schaffen konnte. Während eine hohe kolloidale Stabilität erhalten blieb, ist es gelungen unterschiedliche Kopplungssysteme zu nutzen, um das Selbstorganisationspotential dieser Toolbox für anisotrope Partikel aufzuzeigen. KW - patchy particles KW - microcontact printing KW - silica particles KW - anisotropic colloids KW - polyelectrolytes KW - Patchy Partikel KW - Mikrokontaktdruck KW - Silika Partikel KW - Anisotrope Kolloide KW - Polyelektrolyte Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427731 ER - TY - THES A1 - Fer, Istem T1 - Modeling past, present and future climate induced vegetation changes in East Africa T1 - Modellierung vergangener, gegenwärtiger und zukünftiger klimainduzierter Vegetationsveränderungen in Ostafrika N2 - Ostafrika ist ein natürliches Labor: Durch ein Studium seiner einzigartigen geologischen und biologischen Geschichte lassen sich unsere Theorien und Modelle überprüfen und verbessern. Ein Studium seiner Gegenwart und seiner Zukunft wiederum hilft uns dabei, die global bedeutende Artenvielfalt und die ökosystemaren Dienstleistungen Ostafrikas zu schützen. Eine zentrale Rolle spielt dabei spielt die ostafrikanische Vegetation, deren Dynamiken in dieser Dissertation durch Computersimulationen quantifiziert werden sollen. Über Computersimulationen lassen sich frühere Rahmenbedingungen reproduzieren, Voraussagen treffen oder Simulationsexperimente durchführen, die durch Feldforschung nicht möglich wären. Zuallererst muss jedoch ihre Leistungsfähigkeit überprüft werden. Die von dem Modell anhand der heutigen Inputs gelieferten Ergebnisse stimmten weitgehend mit heutigen Beobachtungen ostafrikanischer Vegetation überein. Als nächstes wurde die frühere Vegetation simuliert, für die fossile Pollen-Daten zum Abgleich vorliegen. Über Computermodelle lassen sich Wissenslücken zwischen Standorten überbrücken, bei denen wir über fossile Pollen-Daten verfügen, sodass ein vollständigeres Bild der Vergangenheit entsteht. Zusätzlich validiert wurde die Leistungsfähigkeit des Modells durch die hohe Übereinstimmung zwischen Modell und Pollen-Daten, wo sie im Raum überlappen. Nachdem das Modell getestet und für die Region validiert war, konnte eine der seit langem offenen Fragen über die ostafrikanische Vegetation angegangen werden, nämlich wie Ostafrika seines Tropenwaldes verlustig gehen konnte. In den Tropen wird die heutige Vegetation weltweit hauptsächlich von Wäldern dominiert, mit Ausnahme der Tropengebiete Ostafrikas, wo Wälder nur noch stellenweise an der Küste und im Hochland vorkommen. Durch eine Reihe von Simulationsexperimenten konnte aufgezeigt werden, unter welchen Bedingungen jene Waldgebiete früher zusammenhingen und schließlich fragmentiert wurden. Die Studie hat erwiesen, wie empfindlich die ostafrikanische Vegetation für die Klimaschwankungen ist, die durch den künftigen Klimawandel zu erwarten sind. Weitere Auswirkungen auf das ostafrikanische Klima ergeben sich aus dem El Niño/Southern Oscillation-Phänomen (ENSO), das aus Temperaturfluktuationen zwischen dem Ozean und der Atmosphäre herrührt und künftig an Intensität zunehmen dürfte. Die derzeitigen Klimamodelle sind allerdings noch nicht gut genug beim Erfassen solcher Ereignismuster. In einer Studie wurde der Einfluss des ENSO-Phänomens auf die ostafrikanische Vegetation quantifiziert und dabei aufgezeigt, wie sehr sich die künftige Vegetation von den heute simulierten Ergebnissen unterscheiden könnte, bei denen der genaue ENSO-Beitrag nicht berücksichtigt werden kann. Bei der Berechnung der künftigen weltweiten CO2-Bilanz und den zu treffenden Entscheidungen stellt dies einen zusätzlichen Unsicherheitsfaktor dar. N2 - East Africa is a natural laboratory: Studying its unique geological and biological history can help us better inform our theories and models. Studying its present and future can help us protect its globally important biodiversity and ecosystem services. East African vegetation plays a central role in all these aspects, and this dissertation aims to quantify its dynamics through computer simulations. Computer models help us recreate past settings, forecast into the future or conduct simulation experiments that we cannot otherwise perform in the field. But before all that, one needs to test their performance. The outputs that the model produced using the present day-inputs, agreed well with present-day observations of East African vegetation. Next, I simulated past vegetation for which we have fossil pollen data to compare. With computer models, we can fill the gaps of knowledge between sites where we have fossil pollen data from, and create a more complete picture of the past. Good level of agreement between model and pollen data where they overlapped in space further validated our model performance. Once the model was tested and validated for the region, it became possible to probe one of the long standing questions regarding East African vegetation: How did East Africa lose its tropical forests? The present-day vegetation in the tropics is mainly characterized by continuous forests worldwide except in tropical East Africa, where forests only occur as patches. In a series of simulation experiments, I was able to show under which conditions these forest patches could have been connected and fragmented in the past. This study showed the sensitivity of East African vegetation to climate change and variability such as those expected under future climate change. El Niño Southern Oscillation (ENSO) events that result from the fluctuations in temperature between the ocean and atmosphere, bring further variability to East African climate and are predicted to increase in intensity in the future. But climate models are still not good at capturing the pattens of these events. In a study where I quantified the influence of ENSO events on East African vegetation, I showed how different the future vegetation could be from what we currently predict with these climate models that lack accurate ENSO contribution. Consideration of these discrepancies is important for our future global carbon budget calculations and management decisions. KW - East Africa KW - vegetation modeling KW - paleovegetation KW - El Nino Southern Oscillation KW - Ostafrika KW - Vegetationsmodellierung KW - Paläovegetation KW - El Niño/Southern Oscillation-Phänomen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427777 ER - TY - THES A1 - Hintsche, Marius T1 - Locomotion of a bacterium with a polar bundle of flagella T1 - Fortbewegung eines Bakteriums mit einem polaren Flagellenbündel BT - insights into movement and navigation by fluorescence high speed microscopy BT - Erkentnisse über Bewegung und Navigation mittels Hochgeschwindigkeitsfluoreszenzmikroskopie N2 - Movement and navigation are essential for many organisms during some parts of their lives. This is also true for bacteria, which can move along surfaces and swim though liquid environments. They are able to sense their environment, and move towards environmental cues in a directed fashion. These abilities enable microbial lifecyles in biofilms, improved food uptake, host infection, and many more. In this thesis we study aspects of the swimming movement - or motility - of the soil bacterium (P. putida). Like most bacteria, P. putida swims by rotating its helical flagella, but their arrangement differs from the main model organism in bacterial motility research: (E. coli). P. putida is known for its intriguing motility strategy, where fast and slow episodes can occur after each other. Up until now, it was not known how these two speeds can be produced, and what advantages they might confer to this bacterium. Normally the flagella, the main component of thrust generation in bacteria, are not observable by ordinary light microscopy. In order to elucidate this behavior, we therefore used a fluorescent staining technique on a mutant strain of this species to specifically label the flagella, while leaving the cell body only faintly stained. This allowed us to image the flagella of the swimming bacteria with high spacial and temporal resolution with a customized high speed fluorescence microscopy setup. Our observations show that P. putida can swim in three different modes. First, It can swim with the flagella pushing the cell body, which is the main mode of swimming motility previously known from other bacteria. Second, it can swim with the flagella pulling the cell body, which was thought not to be possible in situations with multiple flagella. Lastly, it can wrap its flagellar bundle around the cell body, which results in a speed wich is slower by a factor of two. In this mode, the flagella are in a different physical conformation with a larger radius so the cell body can fit inside. These three swimming modes explain the previous observation of two speeds, as well as the non strict alternation of the different speeds. Because most bacterial swimming in nature does not occur in smoothly walled glass enclosures under a microscope, we used an artificial, microfluidic, structured system of obstacles to study the motion of our model organism in a structured environment. Bacteria were observed in microchannels with cylindrical obstacles of different sizes and with different distances with video microscopy and cell tracking. We analyzed turning angles, run times, and run length, which we compared to a minimal model for movement in structured geometries. Our findings show that hydrodynamic interactions with the walls lead to a guiding of the bacteria along obstacles. When comparing the observed behavior with the statics of a particle that is deflected with every obstacle contact, we find that cells run for longer distances than that model. Navigation in chemical gradients is one of the main applications of motility in bacteria. We studied the swimming response of P. putida cells to chemical stimuli (chemotaxis) of the common food preservative sodium benzoate. Using a microfluidic gradient generation device, we created gradients of varying strength, and observed the motion of cells with a video microscope and subsequent cell tracking. Analysis of different motility parameters like run lengths and times, shows that P. putida employs the classical chemotaxis strategy of E. coli: runs up the gradient are biased to be longer than those down the gradient. Using the two different run speeds we observed due to the different swimming modes, we classify runs into `fast' and `slow' modes with a Gaussian mixture model (GMM). We find no evidence that P. putida's uses its swimming modes to perform chemotaxis. In most studies of bacterial motility, cell tracking is used to gather trajectories of individual swimming cells. These trajectories then have to be decomposed into run sections and tumble sections. Several algorithms have been developed to this end, but most require manual tuning of a number of parameters, or extensive measurements with chemotaxis mutant strains. Together with our collaborators, we developed a novel motility analysis scheme, based on generalized Kramers-Moyal-coefficients. From the underlying stochastic model, many parameters like run length etc., can be inferred by an optimization procedure without the need for explicit run and tumble classification. The method can, however, be extended to a fully fledged tumble classifier. Using this method, we analyze E. coli chemotaxis measurements in an aspartate analog, and find evidence for a chemotactic bias in the tumble angles. N2 - Bewegung und Navigation sind für viele Organismen in einigen Bereichen ihres Lebens unerlässlich. Dies gilt auch für Bakterien, die sich entlang von Oberflächen bewegen und durch Flüssigkeiten schwimmen können. Sie sind in der Lage, ihre Umgebung wahr zu nehmen und sich gezielt auf Signale in der Umwelt zuzubewegen. Diese Fähigkeiten ermöglichen mikrobielle Lebenszyklen in Biofilmen, verbesserte Nahrungsaufnahme, Wirtsinfektion und vieles mehr. In dieser Arbeit untersuchen wir Aspekte der Schwimmbewegung - oder Motilität - des Bodenbakteriums Pseudomonas putida (P. putida). Wie die meisten Bakterien schwimmt P. putida durch Rotation seiner schraubenförmigen Flagellen, aber ihre Anordnung unterscheidet sich vom Hauptmodellorganismus in der bakteriellen Motilitätsforschung: Escherichia coli (E. coli). P. putida ist bekannt für seine faszinierende Motilitätsstrategie, bei der schnelle und langsame Episoden hintereinander auftreten können. Bislang war nicht bekannt, wie diese beiden Geschwindigkeiten erzeugt werden können und welche Vorteile sie diesem Bakterium bringen können. Normalerweise sind die Flagellen, die Hauptkomponente der Schuberzeugung bei Bakterien, mit herkömmlicher Lichtmikroskopie nicht zu beobachten. Um dieses Verhalten zu verdeutlichen, haben wir daher eine Fluoreszenzfärbetechnik an einem Mutantenstamm dieser Spezies eingesetzt, um die Flagellen spezifisch zu markieren und gleichzeitig den Zellkörper nur schwach gefärbt zu lassen. Dies ermöglichte es uns, die Geißeln der schwimmenden Bakterien mit hoher räumlicher und zeitlicher Auflösung mit einem maßgeschneiderten Hochgeschwindigkeits-Fluoreszenzmikroskopie-Setup darzustellen. Unsere Beobachtungen zeigen, dass P. putida in drei verschiedenen Modi schwimmen kann. Erstens kann es mit den Flagellen den Zellkörper vorwärts drücken, was der wichtigste Modus der Schwimmmotilität ist, der zuvor von anderen Bakterien bekannt war. Zweitens kann es mit den Flagellen den Zellkörper hinter sich her ziehen, was in Situationen mit mehreren Flagellen für nicht möglich gehalten wurde. Schließlich kann es sein Flagellenbündel um den Zellkörper wickeln, was zu einer um den Faktor zwei verlangsamten Geschwindigkeit führt. In diesem Modus befinden sich die Flagellen in einer anderen physikalischen Konformation mit einem größeren Radius, so dass der Zellkörper hineinpassen kann. Diese drei Schwimmmodi erklären die vorherige Beobachtung von zwei Geschwindigkeiten sowie das nicht strenge Abwechseln der verschiedenen Geschwindigkeiten. Da das Schwimmen von Bakterien in der Natur nicht in glattwandigen Glaskammern unter dem Mikroskop stattfindet, haben wir ein künstliches, mikrofluidisches, strukturiertes System von Hindernissen verwendet, um die Bewegung unseres Modellorganismus in einer strukturierten Umgebung zu untersuchen. Bakterien wurden in Mikrokanälen mit zylindrischen Hindernissen unterschiedlicher Größe und mit unterschiedlichen Abständen mit Videomikroskopie und Zelltracking beobachtet. Wir analysierten Turn-Winkel, Run-Zeiten und Run-Längen, die wir mit einem Minimalmodell für die Bewegung in strukturierten Geometrien verglichen haben. Unsere Ergebnisse zeigen, dass hydrodynamische Wechselwirkungen mit den Wänden zu einer Leitung der Bakterien entlang von Hindernissen führen. Vergleicht man das beobachtete Verhalten mit der Statik eines Partikels, das bei jedem Hinderniskontakt umgelenkt wird, so stellt man fest, dass Zellen über längere Strecken Laufen als in dieses Modell. Die Navigation in chemischen Gradienten ist eine der Hauptapplikation der Motilität bei Bakterien. Wir untersuchten die Schwimmreaktion von P. putida Zellen auf chemische Reize (Chemotaxis) des gängigen Lebensmittelkonservierungsmittels Natriumbenzoat. Mit einem mikrofluidischen Gradientengenerator erzeugten wir Gradienten unterschiedlicher Stärke und beobachteten die Bewegung der Zellen mit einem Videomikroskop und anschließendem Zelltracking. Die Analyse verschiedener Motilitätsparameter wie Lauflängen und -zeiten zeigt, dass P. putida die klassische Chemotaxiestrategie von E. coli anwendet: Läufe gradientenaufwärts sind im Mittel länger sein als solche gradientenabwärts. Mit den beiden verschiedenen Laufgeschwindigkeiten, die wir aufgrund der unterschiedlichen Schwimmmodi beobachtet haben, klassifizieren wir Läufe in schnelle und langsame Modi mit einem "Gaussian Mixture Model" (GMM). Wir finden keinen Beweis dafür, dass P. putida seine Schwimmmodi nutzt, um Chemotaxis durchzuführen. In den meisten Studien zur bakteriellen Motilität wird das Zelltracking verwendet, um die Trajektorien einzelner schwimmender Zellen zu erfassen. Diese Trajektorien müssen dann in Lauf- und Wendeabschnitte (Runs und Turns) zerlegt werden. Mehrere Algorithmen wurden zu diesem Zweck entwickelt, aber die meisten erfordern eine manuelle Abstimmung einer Reihe von Parametern oder umfangreiche Messungen mit chemotaktischen Mutantenstämmen. Zusammen mit unseren Mitarbeitern haben wir ein neuartiges Motilitätsanalyseschema entwickelt, das auf verallgemeinerten Kramers-Moyal-Koeffizienten basiert. Aus dem zugrunde liegenden stochastischen Modell können viele Parameter wie Lauflänge etc. durch ein Optimierungsverfahren abgeleitet werden, ohne dass eine explizite Run und Turn Klassifizierung erforderlich ist. Das Verfahren kann jedoch zu einem vollwertigen Klassifizierer ausgebaut werden. Mit dieser Methode analysieren wir E. coli Chemotaxis Messungen in einem Gradienten eines Aspartat analogen Chemoattractors und finden Beweise für eine chemotaktische Variation der Tumble-Winkeln. KW - bacteria KW - motility KW - chemotaxis KW - Bakterien KW - Motilität KW - Chemotaxis Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426972 ER - TY - THES A1 - Ullmann, Wiebke T1 - Understanding animal movement behaviour in dynamic agricultural landscapes T1 - Tierbewegungen in dynamischen Agrarlandschaften N2 - The movement of organisms has formed our planet like few other processes. Movements shape populations, communities, entire ecosystems, and guarantee fundamental ecosystem functions and services, like seed dispersal and pollination. Global, regional and local anthropogenic impacts influence animal movements across ecosystems all around the world. In particular, land-use modification, like habitat loss and fragmentation disrupt movements between habitats with profound consequences, from increased disease transmissions to reduced species richness and abundance. However, neither the influence of anthropogenic change on animal movement processes nor the resulting effects on ecosystems are well understood. Therefore, we need a coherent understanding of organismal movement processes and their underlying mechanisms to predict and prevent altered animal movements and their consequences for ecosystem functions. In this thesis I aim at understanding the influence of anthropogenically caused land-use change on animal movement processes and their underlying mechanisms. In particular, I am interested in the synergistic influence of large-scale landscape structure and fine-scale habitat features on basic-level movement behaviours (e.g. the daily amount of time spend running, foraging, and resting) and their emerging higher-level movements (home range formation). Based on my findings, I identify the likely consequences of altered animal movements that lead to the loss of species richness and abundances. The study system of my thesis are hares in agricultural landscapes. European brown hares (Lepus europaeus) are perfectly suited to study animal movements in agricultural landscapes, as hares are hermerophiles and prefer open habitats. They have historically thrived in agricultural landscapes, but their numbers are in decline. Agricultural areas are undergoing strong land-use changes due to increasing food demand and fast developing agricultural technologies. They are already the largest land-use class, covering 38% of the world’s terrestrial surface. To consider the relevance of a given landscape structure for animal movement behaviour I selected two differently structured agricultural landscapes – a simple landscape in Northern Germany with large fields and few landscape elements (e.g. hedges and tree stands), and a complex landscape in Southern Germany with small fields and many landscape elements. I applied GPS devices (hourly fixes) with internal high-resolution accelerometers (4 min samples) to track hares, receiving an almost continuous observation of the animals’ behaviours via acceleration analyses. I used the spatial and behavioural information in combination with remote sensing data (normalized difference vegetation index, or NDVI, a proxy for resource availability), generating an almost complete idea of what the animal was doing when, why and where. Apart from landscape structure (represented by the two differently structured study areas), I specifically tested whether the following fine-scale habitat features influence animal movements: resource, agricultural management events, habitat diversity, and habitat structure. My results show that, irrespective of the movement process or mechanism and the type of fine-scale habitat features, landscape structure was the overarching variable influencing hare movement behaviour. High resource variability forces hares to enlarge their home ranges, but only in the simple and not in the complex landscape. Agricultural management events result in home range shifts in both landscapes, but force hares to increase their home ranges only in the simple landscape. Also the preference of habitat patches with low vegetation and the avoidance of high vegetation, was stronger in the simple landscape. High and dense crop fields restricted hare movements temporarily to very local and small habitat patch remnants. Such insuperable barriers can separate habitat patches that were previously connected by mobile links. Hence, the transport of nutrients and genetic material is temporarily disrupted. This mechanism is also working on a global scale, as human induced changes from habitat loss and fragmentation to expanding monocultures cause a reduction in animal movements worldwide. The mechanisms behind those findings show that higher-level movements, like increasing home ranges, emerge from underlying basic-level movements, like the behavioural modes. An increasing landscape simplicity first acts on the behavioural modes, i.e. hares run and forage more, but have less time to rest. Hence, the emergence of increased home range sizes in simple landscapes is based on an increased proportion of time running and foraging, largely due to longer travelling times between distant habitats and scarce resource items in the landscape. This relationship was especially strong during the reproductive phase, demonstrating the importance of high-quality habitat for reproduction and the need to keep up self-maintenance first, in low quality areas. These changes in movement behaviour may release a cascade of processes that start with more time being allocated to running and foraging, resulting into an increased energy expenditure and may lead to a decline in individual fitness. A decrease in individual fitness and reproductive output will ultimately affect population viability leading to local extinctions. In conclusion, I show that landscape structure has one of the most important effects on hare movement behaviour. Synergistic effects of landscape structure, and fine-scale habitat features, first affect and modify basic-level movement behaviours, that can scales up to altered higher-level movements and may even lead to the decline of species richness and abundances, and the disruption of ecosystem functions. Understanding the connection between movement mechanisms and processes can help to predict and prevent anthropogenically induced changes in movement behaviour. With regard to the paramount importance of landscape structure, I strongly recommend to decrease the size of agricultural fields and increase crop diversity. On the small-scale, conservation policies should assure the year round provision of areas with low vegetation height and high quality forage. This could be done by generating wildflower strips and additional (semi-) natural habitat patches. This will not only help to increase the populations of European brown hares and other farmland species, but also ensure and protects the continuity of mobile links and their intrinsic value for sustaining important ecosystem functions and services. N2 - Wenige biologische Prozesse haben unseren Planeten so stark geformt wie die Bewegungen von Organismen. Individuelle Tierbewegungen haben weitreichende Auswirkungen auf ganze Populationen, Artengemeinschaften und Ökosysteme. Tier-bewegungen sind außerdem verantwortlich für fundamentale Ökosystemfunktionen und –leistungen, wie z.B. die Verbreitung von Samen und die Bestäubung von Wild- und Nutzpflanzen. Globale, regionale und lokale Einflüsse durch den Menschen verändern die ursprünglichen Bewegungsmuster von Organismen und damit auch die Auswir-kungen dieser Bewegungen auf die Ökosysteme. Insbesondere Landnutzungs-änderungen, wie z.B. der Verlust und die Fragmentierung von Lebensräumen, stören die Tierbewegungen zwischen verschiedenen Habitaten und können schwerwiegende Folgen nach sich ziehen. Diese Folgen reichen von der Verminderung der biologischen Artenvielfalt bis hin zu einer erhöhten Wahrscheinlichkeit der Krankheitsübertragung. Dennoch sind weder die Auswirkungen von Landnutzungsveränderungen auf die Bewegungsabläufe von Tieren, noch deren Einfluss auf die Ökosysteme bis heute gut verstanden. Um die Veränderungen der Bewegungsprozesse und deren Folgen für die Funktionstüchtigkeit von Ökosystemen vorhersagen zu können oder gar zu verhindern, benötigen wir ein ganzheitliches Verständnis der organismischen Bewegungsprozesse. Das Ziel meiner Arbeit ist es, den Einfluss von anthropogenen Landnutzungs-änderungen auf tierische Bewegungsprozesse und die zugrundeliegende Mechanismen zu verstehen. Im Speziellen untersuche ich die synergetischen Effekte großflächiger Landschaftsstrukturen und kleinflächiger Habitatmerkmale auf das Bewegungsverhalten von Tieren. Dabei untersuche ich sowohl die Bewegungsprozesse, wie z.B. die Ent-stehung von Streifgebieten, als auch die zugrundeliegenden täglichen Verhaltensweisen wie das Laufen, die Nahrungssuche und das Schlafen. Die hierbei gewonnen Erkennt-nisse ermöglichen es mir, die voraussichtlichen Folgen von veränderten Tierbewe-gungen auf Ökosysteme abzuleiten. Das Modelsystem meiner Doktorarbeit ist der Feldhase (Lepus europaeus) in Agrarlandschaften. Feldhasen eignen sich hervorragend zur Untersuchung von Tier-bewegungen in landwirtschaftlich genutzten Gebieten, da sie Kulturfolger sind und offene Lebensräume, wie Agrarlandschaften und Steppen bevorzugen. Sie konnten sich in landwirtschaftlichen Regionen ausbreiten und entfalten. Jedoch sind die Bestände seit den 1960er Jahren stark zurückgegangen. Die Intensivierung der Landwirtschaft stellt einen Grund für diesen Rückgang dar. Aufgrund des steigenden Nahrungsmittelbedarfs und der sich schnell entwickelnden Agrartechnologien unterliegen Agrarlandschaften starken Landnutzungsänderungen. Agrarlandschaften stellen weltweit das flächenmäßig größte Landnutzungssystem dar und bedecken 38% der Erdoberfläche. Um die Auswirkungen großflächiger Landschaftsstrukturen auf das Bewegungsverhalten von Tieren zu untersuchen, habe ich zwei unterschiedlich strukturierte Agrarlandschaften ausgewählt: eine relativ einfach strukturierte Landschaft in Norddeutschland, die sich v.a. durch große Feldern und wenige Landschaftselementen (z.B. Hecken und kleinere Baumbestände) auszeichnet und eine komplexere Landschaft in Süddeutschland, die durch kleinere Felder und vielen dieser Landschaftselementen charakterisiert ist. Mit Hilfe von GPS-Halsbändern, die mit internen hochauflösenden Beschleu-nigungssensoren ausgestattet sind, wurden die Bewegungen der Feldhasen aufge-zeichnet. Die Beschleunigungssensoren liefern nahezu kontinuierliche Daten, die mit Hilfe von statistischen Klassifikationsverfahren das Verhalten der Tiere wiedergeben können. Die räumlichen Daten (GPS) und die Informationen über die Verhaltensweisen wurden anschließend mit Fernerkundungsdaten kombiniert, die wiederum Aufschluss über die Ressourcenverfügbarkeit geben. Hierdurch kann ein fast vollständiges Bild davon generiert werden, was das Tier wann, warum und wo getan hat. Neben der Landschaftsstruktur (dargestellt durch die beiden unterschiedlich strukturierten Unter-suchungsgebiete) habe ich getestet, ob die folgenden kleinflächigen Habitatmerkmale einen Einfluss auf die Tierbewegungen ausüben: raum-zeitliche Variabilität in der Ressourcenverfügbarkeit, landwirtschaftliche Managementmaßnahmen, Habitatdiversität und Habitatstruktur. Die Ergebnisse meiner Forschungsarbeit zeigen, dass unabhängig vom Bewegungsprozess oder -mechanismus und der Art der Habitatmerkmale, die Land-schaftsstruktur die Bewegungen der Feldhasen am stärksten beeinflusst. Eine hohe Ressourcenvariabilität zwingt die Feldhasen dazu, ihre Streifgebiete zu vergrößern, jedoch nur in der einfachen und nicht in der komplexen Landschaft. Landwirtschaftliche Managementmaßnahmen führen zu einer Verschiebung der Streifgebiete in beiden Landschaftstypen. In der einfachen Landschaft jedoch, vergrößern die Feldhasen zusätzlich ihre Streifgebiete. Feldhasen bevorzugen niedrige und vermeiden hohe Vegetation. Im Vergleich zur komplexen Landschaft ist diese Art der Habitatselektion stärker in der einfachen Landschaft ausgeprägt. Hohe und dichte Feldfrüchte, wie z.B. Raps oder Weizen, beschränken die Bewegungen der Feldhasen vorübergehend auf viel kleinere und lokale Gebiete. Derartige unüberwindbare Barrieren können Habitate voneinander trennen, die vorher durch sogenannte „mobile links“ miteinander verbunden waren. „Mobile links“ transportieren z.B. Nährstoffe oder genetisches Material zwischen entfernten Habitaten. Durch die Trennung wird dieser Transport vorübergehend unterbrochen und stört somit die Funktionstüchtigkeit des Ökosystems. Die Reduktion von „mobile links“ durch die vom Menschen verursachten Landnutzungsänderungen und damit einhergehenden Einschränkungen von Tierbewegungen ist weltweit vorzufinden. Die Resultate meiner Untersuchungen zeigen zudem, dass Bewegungsprozesse, wie z.B. die Vergrößerung der Streifgebiete, durch die zugrundeliegenden Verhaltens-weisen ausgelöst werden. Eine zunehmende Vereinfachung von Landschaftsstrukturen wirkt sich zunächst auf die Verhaltensweisen aus, d.h. Feldhasen laufen mehr und begeben sich häufiger auf die Suche nach Nahrung und anderen Ressourcen. Demnach verringern sich die Ruhezeiten der Feldhasen. Die Vergrößerung von Streifgebieten in der einfach strukturierten Landschaft beruht daher auf einem erhöhten Anteil an Lauf- und Nahrungssuchzeiten. Dies ist vor allem auf die längeren Wege zwischen den weiter entfernten Habitaten und eine geringere Ressourcenverfügbarkeit in einfach strukturierten Landschaften zurück zu führen. In meinen Untersuchungen zeige ich außerdem, dass die Beziehung zwischen der Landschaftsstruktur und den Verhaltens-weisen während der Fortpflanzungsphase besonders stark ausgeprägt ist. Dies zeigt zum einen die besondere Bedeutung eines qualitativ hochwertigen Lebensraums während der Fortpflanzungsphase und zum anderen, dass sich Tiere in Gebieten mit geringer Habitatqualität erst um das eigene tägliche Überleben kümmern müssen. Erst wenn ausreichend Zeit und Ressourcen verfügbar sind, können die Feldhasen sich erfolgreich fortpflanzen. Veränderungen im Bewegungsverhalten können also eine ganze Kaskade von Prozessen auslösen. Diese Kaskade beginnen mit der Veränderung der Verhaltensweisen durch z.B. weniger strukturierte Habitate und führt zu einem erhöhten Anteil an Laufen und Futtersuche, was wiederum einen erhöhten Energieaufwand bedeutet. Wenn Tiere zu viel Energie aufwenden müssen, um das eigene tägliche Überleben zu sichern, kann dies einen Rückgang ihrer individuellen Fitness bedeuten. Die Abnahme der Fitness und der Reproduktionsleistung wird sich letztendlich auf die Überlebensfähigkeit der Population auswirken und kann zum lokalen Aussterben führen. Die Struktur der Agrarlandschaft stellt eine der wichtigsten Einflussgrößen für das Bewegungsverhalten von Feldhasen dar. Die synergistischen Effekte der großflächigen Landschaftsstruktur und der kleinflächigen Habitatmerkmale beeinflussen und modifizieren zunächst die täglichen Verhaltensweisen, die dann wiederum zu veränderten Bewegungsprozessen führen und damit zu Störungen der Ökosystem-funktionen und zum Rückgang der biologischen Vielfalt beitragen. Im Hinblick auf die große Bedeutung der Landschaftsstruktur empfehle ich daher dringend die Größe der landwirtschaftlichen Felder zu verringern und die Vielfalt der Anbaukulturen zu erhöhen. Kleinräumige Naturerhaltungsmaßnahmen sollten die ganzjährige Bereitstellung von Habitaten mit geringer Vegetationshöhe und hochwertigem Futter sicherstellen. Dies kann durch den Anbau von Blühstreifen und der Schaffung bzw. dem Erhalt zusätzlicher (halb-)natürlicher Lebensräume erreicht werden. Diese Maßnahmen werden nicht nur dazu beitragen, die Populationen der Feldhasen und anderer Kulturfolgern zu vergrößern, sondern helfen auch dabei das Fortbestehen der „mobile links“ und der damit verbundenen Ökosystemfunktionen und –leistungen zu gewährleisten und zu schützen. KW - European hare KW - Feldhase KW - movemen ecology KW - Bewegungsökologie KW - agricultural landscapes KW - Agrarlandschaft KW - telemetry KW - Telemetrie KW - GPS KW - GPS Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427153 ER - TY - THES A1 - Bergholz, Kolja T1 - Trait-based understanding of plant species distributions along environmental gradients T1 - Zum Verständnis der Verbreitung von Pflanzen entlang von umweltgradienten auf der Basis von funktionellen Eigenschaften N2 - For more than two centuries, plant ecologists have aimed to understand how environmental gradients and biotic interactions shape the distribution and co-occurrence of plant species. In recent years, functional trait–based approaches have been increasingly used to predict patterns of species co-occurrence and species distributions along environmental gradients (trait–environment relationships). Functional traits are measurable properties at the individual level that correlate well with important processes. Thus, they allow us to identify general patterns by synthesizing studies across specific taxonomic compositions, thereby fostering our understanding of the underlying processes of species assembly. However, the importance of specific processes have been shown to be highly dependent on the spatial scale under consideration. In particular, it remains uncertain which mechanisms drive species assembly and allow for plant species coexistence at smaller, more local spatial scales. Furthermore, there is still no consensus on how particular environmental gradients affect the trait composition of plant communities. For example, increasing drought because of climate change is predicted to be a main threat to plant diversity, although it remains unclear which traits of species respond to increasing aridity. Similarly, there is conflicting evidence of how soil fertilization affects the traits related to establishment ability (e.g., seed mass). In this cumulative dissertation, I present three empirical trait-based studies that investigate specific research questions in order to improve our understanding of species distributions along environmental gradients. In the first case study, I analyze how annual species assemble at the local scale and how environmental heterogeneity affects different facets of biodiversity—i.e. taxonomic, functional, and phylogenetic diversity—at different spatial scales. The study was conducted in a semi-arid environment at the transition zone between desert and Mediterranean ecosystems that features a sharp precipitation gradient (Israel). Different null model analyses revealed strong support for environmentally driven species assembly at the local scale, since species with similar traits tended to co-occur and shared high abundances within microsites (trait convergence). A phylogenetic approach, which assumes that closely related species are functionally more similar to each other than distantly related ones, partly supported these results. However, I observed that species abundances within microsites were, surprisingly, more evenly distributed across the phylogenetic tree than expected (phylogenetic overdispersion). Furthermore, I showed that environmental heterogeneity has a positive effect on diversity, which was higher on functional than on taxonomic diversity and increased with spatial scale. The results of this case study indicate that environmental heterogeneity may act as a stabilizing factor to maintain species diversity at local scales, since it influenced species distribution according to their traits and positively influenced diversity. All results were constant along the precipitation gradient. In the second case study (same study system as case study one), I explore the trait responses of two Mediterranean annuals (Geropogon hybridus and Crupina crupinastrum) along a precipitation gradient that is comparable to the maximum changes in precipitation predicted to occur by the end of this century (i.e., −30%). The heterocarpic G. hybridus showed strong trends in seed traits, suggesting that dispersal ability increased with aridity. By contrast, the homocarpic C. crupinastrum showed only a decrease in plant height as aridity increased, while leaf traits of both species showed no consistent pattern along the precipitation gradient. Furthermore, variance decomposition of traits revealed that most of the trait variation observed in the study system was actually found within populations. I conclude that trait responses towards aridity are highly species-specific and that the amount of precipitation is not the most striking environmental factor at this particular scale. In the third case study, I assess how soil fertilization mediates—directly by increased nutrient addition and indirectly by increased competition—the effect of seed mass on establishment ability. For this experiment, I used 22 species differing in seed mass from dry grasslands in northeastern Germany and analyzed the interacting effects of seed mass with nutrient availability and competition on four key components of seedling establishment: seedling emergence, time of seedling emergence, seedling survival, and seedling growth. (Time of) seedling emergence was not affected by seed mass. However, I observed that the positive effect of seed mass on seedling survival is lowered under conditions of high nutrient availability, whereas the positive effect of seed mass on seedling growth was only reduced by competition. Based on these findings, I developed a conceptual model of how seed mass should change along a soil fertility gradient in order to reconcile conflicting findings from the literature. In this model, seed mass shows a U-shaped pattern along the soil fertility gradient as a result of changing nutrient availability and competition. Overall, the three case studies highlight the role of environmental factors on species distribution and co-occurrence. Moreover, the findings of this thesis indicate that spatial heterogeneity at local scales may act as a stabilizing factor that allows species with different traits to coexist. In the concluding discussion, I critically debate intraspecific trait variability in plant community ecology, the use of phylogenetic relationships and easily measured key functional traits as a proxy for species’ niches. Finally, I offer my outlook for the future of functional plant community research. N2 - Seit über 200 Jahre erforschen Ökologen den Einfluss von Umweltgradienten, biotischen Interaktionen und neutralen Prozessen auf die Artenzusammensetzung von Pflanzengemeinschaften. Um generelle Muster und die zugrundeliegenden Mechanismen unabhängig von der gegeben Artenzusammensetzung besser zu verstehen, wurden in den letzten Jahren vermehrt funktionellen Eigenschaften (‚functional traits‘) als methodischen Ansatz genutzt. Es wurde deutlich, dass die bestimmenden Prozesse abhängig von der betrachteten räumlichen Skala sind. Vor allem ist unklar, in wieweit Umweltheterogenität auf kleiner, lokaler Skala die Artenzusammensetzung beeinflusst. Des Weiteren ist Skalenabhängigkeit wichtig um den Einfluss von spezifischen Umweltgradienten, wie Trockenheit oder Bodenfertilität, auf die funktionelle Eigenschaften von Pflanzengemeinschaften zu ermitteln. In der vorliegenden Dissertation untersuche ich in drei unabhängigen, empirischen Studien den Einfluss von Umweltgradienten bzw. Umweltheterogenität auf die funktionellen Eigenschaften von Pflanzengemeinschaften unter besonderer Berücksichtigung der Skalenabhängigkeit. In der ersten Fallstudie prüfe ich welche Faktoren die Artenzusammensetzung in einem semi-ariden Ökosystem (Israel), das von einjährigen Pflanzen dominiert wird, auf lokaler Skala bestimmen. Ich kann zeigen, dass vor allem Arten mit ähnlichen funktionellen Eigenschaften in Mikrohabitaten auftreten, das auf eine Selektion durch Umweltfaktoren hindeutet. Des Weiteren kann ich zeigen, dass mit Zunahme der Umweltheterogenität des Habitats die Diversität der funktionellen Eigenschaften sowie die Artendiversität in den Pflanzengemeinschaften zunehmen. Aus diesen Ergebnissen folgere ich, dass lokale Umweltheterogenität ein wichtiger Faktor für die Koexistenz der Pflanzenarten ist. Im selben Untersuchungsgebiet, untersuche ich in der zweiten Studie die Anpassung von mediterranen Pflanzen entlang eines Niederschlagsgradienten, der den vorausgesagten Niederschlagsveränderungen bis zum Ende dieses Jahrhunderts entspricht. Dafür wurden die funktionellen Eigenschaften von zwei typischen mediterranen Arten in 16 Populationen gemessen. Überraschenderweise zeigten die Arten unterschiedliche Anpassungen entlang des Gradienten, dass auf eine artspezifische Anpassung an Trockenheit hinweist. Des Weiteren wird in der Studie deutlich, dass der Regengradient zwar ein wichtiger, aber kein bestimmender Faktor auf der entsprechenden Skala ist, da ein großer Anteil der intraspezifischen Merkmalsvariation innerhalb der Populationen gefunden wird. In der dritten Studie untersuche ich inwieweit Bodenfertilität die Etablierungswahrscheinlichkeit von Pflanzen mit unterschiedlichen Samenmassen direkt (durch erhöhte Nährstoffverfügbarkeit) und indirekt (durch erhöhte Konkurrenz) beeinflusst. Das Experiment wurde mit 22 Trockenrasenarten aus Nordost Brandenburg durchgeführt. Es zeigte sich, dass der positive Effekt von Samenmasse auf die Etablierungsfähigkeit abhängig von den jeweiligen Bedingungen ist und verschiedene Prozesse während der Etablierungsphase beeinflusst werden. Auf der Basis dieser Ergebnisse und Literatur, stelle ich ein konzeptionelles Model vor, dass widersprüchliche Ergebnisse aus der Literatur synthetisiert. Zusammengenommen zeigen die Ergebnisse meiner Dissertation, dass funktionelle Eigenschaften wichtige Erkenntnisse über die Prozesse liefern, die das Auftreten von Pflanzen und deren Anpassung entlang von Umweltgradienten bestimmen. In der abschließenden Diskussion hinterfrage ich kritisch die Verwendung von intraspezifischer Variabilität funktioneller Eigenschaften in der Gemeinschaftsökologie, Phylogenie als Surrogat für die Nische einer Art und die Standardisierung funktioneller Eigenschaften als methodische Aspekte. Abschließend gebe ich einen Ausblick über zukünftige Pflanzenökologie-Forschung mit funktionellen Eigenschaften. KW - functional ecology KW - plant community KW - species coexistence KW - biodiversity KW - funktionelle Ökologie KW - Pflanzengemeinschaften KW - Koexistenz von Arten KW - Biodiversität Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426341 ER - TY - THES A1 - Mielke, Jahel T1 - Coordination on Green Investment T1 - Grüne Investitionen als Koordinationsproblem BT - implications of a sustainability transition in Europe BT - Implikationen einer Nachhaltigkeitstransformation in Europa N2 - To reach its climate targets, the European Union has to implement a major sustainability transition in the coming decades. While the socio-technical change required for this transition is well discussed in the academic literature, the economics that go along with it are often reduced to a cost-benefit perspective of climate policy measures. By investigating climate change mitigation as a coordination problem, this thesis offers a novel perspective: It integrates the economic and the socio-technical dimension and thus allows to better understand the opportunities of a sustainability transition in Europe. First, a game theoretic framework is developed to illustrate coordination on green or brown investment from an agent perspective. A model based on the coordination game "stag hunt" is used to discuss the influence of narratives and signals for green investment as a means to coordinate expectations towards green growth. Public and private green investment impulses – triggered by credible climate policy measures and targets – serve as an example for a green growth perspective for Europe in line with a sustainability transition. This perspective also embodies a critical view on classical analyses of climate policy measures. Secondly, this analysis is enriched with empirical results derived from stakeholder involvement. In interviews and with a survey among European insurance companies, coordination mechanisms such as market and policy signals are identified and evaluated by their impact on investment strategies for green infrastructure. The latter, here defined as renewable energy, electricity distribution and transmission as well as energy efficiency improvements, is considered a central element of the transition to a low-carbon society. Thirdly, this thesis identifies and analyzes major criticisms raised towards stakeholder involvement in sustainability science. On a conceptual level, different ways of conducting such qualitative research are classified. This conceptualization is then evaluated by scientists, thereby generating empirical evidence on ideals and practices of stakeholder involvement in sustainability science. Through the combination of theoretical and empirical research on coordination problems, this thesis offers several contributions: On the one hand, it outlines an approach that allows to assess the economic opportunities of sustainability transitions. This is helpful for policy makers in Europe that are striving to implement climate policy measures addressing the targets of the Paris Agreement as well as to encourage a shift of investments towards green infrastructure. On the other hand, this thesis enhances the stabilization of the theoretical foundations in sustainability science. Therefore, it can aid researchers who involve stakeholders when studying sustainability transitions. N2 - Um die vereinbarten Klimaziele zu erreichen, muss die Europäische Union in den kommenden Jahrzehnten eine Transformation zur Nachhaltigkeit bewältigen. Während der soziotechnische Wandel, der für diesen Übergang erforderlich ist, in der akademischen Literatur auf vielfältige Weise diskutiert wird, werden die wirtschaftlichen Aspekte häufig auf eine Kosten-Nutzen-Perspektive reduziert. Durch die Untersuchung von Maßnahmen zur Stärkung der Nachhaltigkeit und des Klimaschutzes im Kontext von Koordinationsproblemen bietet diese Arbeit eine neue Perspektive: Sie integriert die ökonomische und sozio-technische Dimension und ermöglicht so ein besseres Verständnis der Chancen einer Nachhaltigkeitstransformation in Europa. Dabei legt die Arbeit den Fokus auf drei Bereiche: Zuerst wird ein spieltheoretischer Rahmen entwickelt, um Fragen der Koordination von Akteuren im Bereich grüner und brauner Investitionen zu beleuchten. Hier wird mit Hilfe eines Modells, das auf dem Koordinationsspiel der "Hirschjagd" basiert, der Einfluss von Narrativen und Signalen auf eine Koordinierung der Erwartungen von Investoren diskutiert. Zugleich wird die Rolle von Investitionsimpulsen im Zusammenhang mit glaubwürdigen klimapolitischen Maßnahmen und Zielen im Hinblick auf eine grüne Wachstumsperspektive für Europa analysiert. Dies beinhaltet auch einen kritischen Blick auf klassische modellbasierte Analysen klimapolitischer Maßnahmen. Zweitens werden in dieser Arbeit empirische Ergebnisse aus der Stakeholdereinbindung genutzt, um Signale und Narrative in der Nachhaltigkeitstransformation zu evaluieren. In Interviews und mit einer Umfrage unter europäischen Versicherungskonzernen werden Koordinationsmechanismen wie Markt- und Politiksignale identifiziert und im Hinblick auf ihre Auswirkungen auf Investitionsentscheidungen bewertet. Dabei liegt der Fokus auf grünen Investitionen in erneuerbare Energien, Stromnetze und Energieeffizienzverbesserungen als zentrale Elemente des Übergangs zu einer kohlenstoffarmen Gesellschaft. Drittens identifiziert und analysiert diese Arbeit die wichtigsten Kritikpunkte, die gegenüber der Einbeziehung von Stakeholdern in der transdisziplinären Nachhaltigkeitswissenschaft vorgebracht werden. Auf konzeptioneller Ebene werden verschiedene Wege zur Durchführung qualitativer Forschung klassifiziert. Diese Konzeptualisierung wird dann von Wissenschaftlern evaluiert, wobei empirische Ergebnisse zu Idealen und zur Praxis der Einbeziehung von Stakeholdern in der Nachhaltigkeitswissenschaft generiert werden. Durch die Kombination von theoretischer und empirischer Koordinationsforschung liefert diese Arbeit mehrere Beiträge: Auf der einen Seite skizziert sie einen Ansatz, der es ermöglicht, die wirtschaftlichen Chancen der Transformation zur Nachhaltigkeit zu bewerten. Dies ist hilfreich für politische Entscheidungsträger in Europa, die klimapolitische Maßnahmen zur Erreichung der Ziele des Pariser Übereinkommens umsetzen sowie eine Verlagerung von Investitionen in Richtung umweltfreundliche Infrastruktur fördern wollen. Auf der anderen Seite stärkt diese Dissertation die theoretischen Grundlagen der Nachhaltigkeitswissenschaft und kann daher Forschern nützlich sein, die Stakeholder in der Untersuchung von Transformationsprozessen einbeziehen. KW - stakeholder involvement KW - coordination problems KW - green growth KW - sustainability transitions KW - climate policy KW - green investment KW - Stakeholdereinbindung KW - grünes Wachstum KW - Nachhaltigkeitstransformationen KW - Klimapolitik KW - grüne Investitionen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427459 ER - TY - THES A1 - Hain, Gerrit T1 - Onsets and dependencies of strenuous spine bending accelerations in drop landings T1 - Auftreten und Abhängigkeiten von belastenden Winkelbeschleunigungen an der Wirbelsäule bei Sprunglandungen N2 - BACKGROUND: Physical activity involving high spinal load has been exposed to possess a crucial impact in the genesis of acute and chronic low back pain and disorder. Vigorous spinal loads are surmised in drop landings, for which strenuous bending loads were formerly evinced for the lower extremity structures. Thus far, clinical studies revealed that repetitive landing impacts can evoke benign structural adaptions or damage to the lumbar vertebrae. Though, causes for these observations are hitherto not conclusively evinced; since actual spinal load has to date not been experimentally documented. Moreover, it is yet undetermined how physiological activation of trunk musculature compensates for landing impact induced spinal loads, and to which extend trunk activity and spinal load are affected by landing demands and performer characteristics. AIMS of this study are 1. the localisation and quantification of spinal bending loads under various landing demands and 2. the identification of compensatory trunk muscular activity pattern, which potentially alleviate spinal load magnitudes. Three consecutive Hypotheses (H1 - H3) were hereto postulated: H1 posits that spinal bending loads in segregated motion planes can feasibly and reliably be evaluated from peak spine segmental angular accelerations. H2 furthermore assumes that vertical drop landings elicit highest spine bending load in sagittal flexion of the lumbar spine. Based on these verifications, a second study shall prove the successive hypothesis (H3) that diversified landing conditions, like performer’s landing familiarity and gender, as an implementation of an instantaneous follow-up task, affect the emerging lumbar spinal bending load. Herein it is moreover surmised that lumbar spinal bending loads under distinct landing conditions are predominantly modulated by herewith disparately deployed conditioned pre-activations of trunk muscles. METHODS: To test the above arrayed hypothesis, two successive studies were carried out. In STUDY 1, 17 subjects were repetitively assessed performing various drop landings (heigth: 15, 30, 45, 60cm; unilateral, bilateral, blindfolded, catching a ball) in a test-retest-design. Herein individual peak angular accelerations [αMAX] were derived from three-dimensional motion data of four trunk-segments (upper thoracic, lower thoracic, lumbar, pelvis). αMAX was herein assessed in flexion, lateral flexion, and rotation of each spinal joint, formed by two adjacent segments. Reliability of αMAX within and between test-days was evaluated by CV%, ICC 2.1, TRV%, and Bland & Altman Analysis (BIAS±LoA). Subsequently, peak flexion acceleration of the lumbo-pelvic joint [αFLEX[LS-PV]] was statistically compared to αMAX expressions of each other assessed spinal joint and motion plane (Mean ±SD, Independent Samples T-test). STUDY 2 deliberately assessed mere peak lumbo-pelvic flexion accelerations [αFLEX[LS-PV]] and electro-myographic trunk pre-activity prior to αFLEX[LS-PV] on 43 subjects performing varied landing tasks (height 45cm; with definite or indefinite predictability of a subsequent instant follow up jump). Subjects were contrasted with respect to their previous landing familiarity ( >1000 vs. <100 landings performed in the past 10 years) and gender. Differences of αFLEX[LS-PV] and muscular pre-activity between contrasted subject groups as between landing tasks were equally statistically tested by three-way mixed ANOVA with Post-hoc tests. Associations between αFLEX[LS-PV] and muscular pre-activity were factor-specifically assessed by Spearman’s rank order correlation coefficient (rS). Complementarily, muscular pre-activity was subdivided by landing phases [DROP, IMPACT] and discretely assessed for phase specific associations to αFLEX[LS-PV]. Each muscular activity was moreover pairwise compared between DROP and IMPACT (Mean ±SD, Dependent Samples T-test). RESULTS: αMAX was presented with overall high variability within test-days (CV =36%). Lowest intra-individual variability and highest reproducibility of αMAX between test-days was shown in flexion of the spine. αFLEX[LS-PV] showed largely consistent sig. higher magnitudes compared to αMAX presented in more cranial spinal joints and other motion planes. αFLEX[LS-PV] moreover gradually increased with escalations in landing heights. Landing unfamiliar subjects presented sig. higher αFLEX[LS-PV] in contrast to landing familiar ones (p=.016). M. Obliquus Int. with M. Transversus Abd. (66 ±32%MVC) and M. Erector Spinae (47 ±15%MVC) presented maredly highest activity in contrast to lowest activity of M. Rectus Abd. (10 ±4%MVC). Landing unfamiliar subjects showed compared to landing familiar ones sig. higher activity of M. Obliquus Ext. (17 ±8%MVC, 12 ±7%MVC, p= .044). M. Obliquus Ext. and its co-contraction ratio with M. Erector Spinae moreover exhibited low but sig. positive correlations to αFLEX[LS-PV] (rs=.39, rs=.31). Each trunk muscule distributed larger shares of its activity to DROP, whereas peak activations of most muscles emerged in the proportionally shorter IMPACT phase. Commonly increased muscular pre-activation particularly at IMPACT was found in landings with a contrived follow up jump and in female subjects, whereby αFLEX[LS-PV] was hereof only marginally affected. DISCUSSION: Highest spine segmental angular accelerations in drop landings emerge in sagittal flexion of the lumbar spine. The compensatory stabilisation of the spine appears to be preponderantly provided by a dorso-ventral co-contraction of M. Obliquus Int., M. Transversus Abd. and M. Erector Spinae. Elevated pre-activity of M. Obliquuis Ext. supposably characterises poor landing experience, which might engender increased bending loads to the lumbar spine. A pervasive large variability of spinal angular accelerations measured across all landing types, suggests a multifarious utilisation of diverse mechanisms compensating for spinal impacts in landing performances. A standardised assessment and valid evaluation of landing evoked lumbar bending loads is hereof largley confined. CONCLUSION: Drop landings elicit most strenuous lumbo-pelvic flexion accelerations, which can be appraised as representatives for high energetic bending loads to the spine. Such entail the highest risk to overload the spinal tissue, when landing demands exceed the individual’s landing skill. Previous landing experience and training appears to effectively improve muscular spine stabilisation pattern, diminishing spinal bending loads. N2 - HINTERGRUND: Wirbelsäulenbelastungen in Alltagssituationen und während sportlicher Belastung kommt eine hohe Bedeutung mit Blick auf die Entstehung und das Weiterbestehen von akuten und chronischen Rückenbeschwerden zu. Kritisch hohe Wirbelsäulenbelastungen werden bei Sprunglandungen angenommen, während hierzu hochintensive exzentrische Belastungen bislang lediglich für anatomische Strukturen der unteren Extremität nachgewiesen wurden. Vorangegangene klinische Studien konnten zeigen, dass repetitive Landungsstöße sowohl eine strukturelle Anpassung, als auch morphologische Schäden der Lendenwirbelkörper hervorrufen können. Valide Ursachen für diese Beobachtungen sind bislang wissenschaftich nicht abschließend belegt, insbesondere da der experimentelle Nachweis für die hierin vermuteten tatsächlichen Wirbelsäulenbelastungen fehlt. Darüber hinaus ist nicht geklärt in wieweit die physiologisch kompensatorische Aktivierung der Rumpfmuskuatur Einfluß auf die Wirbelsäulenbelastung bei Landungen nehmen, und wie stark Landungs- und Personencharakteristika die Rumpfaktivierung und Lendenwirbel-säulenbeastungen beeinflussen. ZIELSETZUNGEN: Ziele der Untersuchungen sind 1. die Lokalisierung und Quantifizierung von Biegebelastungen der Wirbelsäule unter verschiedenen Landungsbedingungen und 2. die Identifizierung muskulärer Kompensations-mechanismen des Rumpfes, welche das Belastungsausmaß an der Wirbelsäule möglicherweise modulieren. Hierzu wurden drei Hypothesen (H1 – H3) formuliert. In H1 wird postuliert, dass Biegebelastungen in einzelnen Bewegungsebenen der Wirbelsäule als maximale Winkelbeschleunigungen zwischen Wirbelsegmenten, auf der Basis kinematischer Daten, valide und reliabel abgeleitet und evaluiert werden können. In H2 wird angenommen, dass bei vertikalen Sprunglandungen die höchsten Wirbelsäulenbelastungen in der sagittalen Beugung der Lendenwirbelsäule auftreten. Aufbauend auf den Ergebnissen dieser Hypothesen soll eine Folgestudie die Annahme (H3) belegen, dass Landungsbedingungen, wie Vorerfahrungen mit Sprunglandungen, Geschlecht, sowie die Absicht zu unmittelbaren Anschlussbewegungen, die auftretenden Lendenwirbelsäulenbelastungen beeinflussen. Hierzu wird postuliert, dass auftretende Biegebelastungen, in Abhängigkeit obiger Landungsbedingungen, auf einen unterschiedlichen Einsatz von vorwiegend konditionierten muskulären Kompensationsmechanismen des Rumpfes zurückzuführen sind. METHODE: Zur Überprüfung der Hypothesen wurden zwei sukzessive Studien durchgeführt. In STUDIE 1 wurden, zur Repräsentation von Wirbelsäulenbiegebelastungen, 17 Probanden wiederholt bei verschiedenen Landungen (15, 30, 45, 60cm Höhe; einbeinig, beidbeinig, verblindet, beim Fangen eines Balles) in einem Test-Retest-Design gemessen. Hierin wurden individuelle maximale Winkelbeschleunigungen [αMAX] aus drei-dimensionalen Bewegungs-daten zwischen insgesamt 4 Rumpfsegmenten (oberes thorakales-, unteres thorakales-, Lendenwirbelsäulen-, und Becken-Segment) abgeleitet. αMAX wurde hierbei jeweils im Gelenk zwischen zwei benachbarten Segmenten in Flexion, Lateralflexion und Rotation erfasst. Die Reliabilität von αMAX innerhalb und zwischen den Messtagen wurde mittels CV%, ICC 2.1, TRV%, und Bland & Altman Analyse (BIAS±LoA) quantifiziert. In Folge wurden αMAX zwischen dem lumbalen- und dem Beckensegment in der Flexion [αFLEX[LS-PV]] mit allen weiteren gemessenen Segmenten und Bewegungsebenen gegenübergestellt (Mean ±SD, T-Test für unabhängige Stichproben). In STUDIE 2 wurden geziehlt zuvor eruierte höchste maximale sagittale Beugungsbeschleunigung der Lendenwirbelsäule [αFLEX[LS-PV]] und elektro-myografische Rumpfaktivität vor dem Auftreten von αFLEX[LS-PV] während unterschiedlicher Landungen (Höhe 45cm; mit und ohne planbaren Anschlusssprung) an 43 Probanden erfasst. Die Probanden unterschieden sich bezüglich ihrer Landungsvorerfahrung ( >1000 vs. <100 Landungen in den letzten 10 Jahren) und ihres Geschlechtes. Unterschiede zwischen Landungsvorerfahrung und Geschlecht sowie zwischen unterschiedlichen Landungstypen wurden gleichermaßen durch dreifaktorielle ANOVA mit Post-hoc Tests für αFLEX[LS-PV], und muskuläre Voraktivierung getestet. Abhängigkeiten von αFLEX[LS-PV] zu muskulärer Voraktivierung des Rumpfes wurde durch faktorspezifische Rangkorrelations-analyse (rs) berechnet. In der Folge wurden muskuläre Rumpfaktivitäten in Landephasen [DROP, IMPACT] unterteilt und analog im Einzelnen nach ihren Assoziationen zu αFLEX[LS-PV] getestet. Zudem wurde jegliche Muskelaktivierung paarig zwischen DROP und IMPACT verglichen (Mean ±SD, T-Test für abhängige Stichproben). ERGEBNISSE: Die Ausprägung von αMAX zeigte insgesamt hohe Variabilität innerhalb eines Testtages (CV =36%). Geringste intra-individuelle Variabilität und zugleich höchste Reproduzierbarkeit zwischen den Test-Tagen wurde für αMAX in Flexion der Wirbelsäule gefunden. αFLEX[LS-PV] zeigte nahezu durchgehend sig. höhere Werte im Vergleich zu αMAX kranialerer Gelenke und anderer Bewegungsebenen. αFLEX[LS-PV] stieg zudem graduell mit zunehmenden Landungshöhen. Landungsunerfahrene Probanden wiesen im Vergleich zu Probanden mit Vorerfahrung signifikant höhere αFLEX[LS-PV] auf (p=.016). Markant höchste muskuläre Aktivität wurde von M. Obliquus Int. mit M. Transversus Abd. (66 ±32%MVC) und M. Erector Spinae (47 ±15%MVC), verglichen zu geringster Aktivität von M. Rectus Abd. (10 ±4%MVC) dargeboten. Bei Landungsunerfahrenen wurde im Vergleich zu Landungserfahrenen eine sig. höhere Aktivität des M. Obliquus Ext. gemessen (17 ±8%MVC, 12 ±7%MVC, p= .044). Zudem konnten schwache aber sig. positive Korrelation zwsichen der Aktivität des M. Obliquus Ext. bzw. dessen Kokontraktion mit dem M. Erector Spinae zu αFLEX[LS-PV] nachgewiesen werden (rs=.39, rs=.31). Die Rumpfmuskulatur zeigte insgesamt anteilig mehr Bereitstellung während DROP, wobei Spitzenaktivitäten nahezu aller Rumpfmuskeln in der proportional kürzeren IMPACT-Phase auftraten. Frauen und Landungen mit geplantem unmittelbarem Anschlussspung zeigten insgesamt höhere Voraktivierung der Rumpf-muskulatur, vorallem in IMPACT, wobei sich αFLEX[LS-PV] unter diesen Bedingungen nur insignifikant von anderen Landungen unterschied. DISKUSSION: Bei Landungen treten höchste segmentale Winkelbeschleunigungen in sagittaler Beugung der Lendenwirbelsäule auf. Die kompensatorische Stabilisation des Rumpfes scheint dabei maßgeblich durch eine dorso-ventrale Kokontraktion des M. Obliquus Int., M. Transversus Abd. und dem M. Erector Spinae zu erfolgen. Eine hohe Voraktivierung des M. Obliquuis Ext. kann als Maß einer geringen Landungserfahrung diskutiert werden und führt möglicherweise zu erhöhten Biegebelastungen an der Lendenwirbelsäule. Die in allen untersuchten Landungen dargebotene hohe Variabilität gemessener Winkelbeschleunigungen lassen auf sehr variabel eingesetzte Impulskompensationsmechanismen bei der Durchführungen von Landungen schließen. Eine standardiserte Erfassung und valide Einschätzung von Biegebelastungen der Lendenwirbelsäule bei Sprunglandungen ist hierdurch stark eingeschränkt. SCHLUSSFOLGERUNG: Sprunglandungen verursachen höchst belastende segmentale Winkelbeschleunigungen an der Lendenwirbelsäule, vorrangig in der Flexion. Diese können physiologisch bedingt als Maß für hoch energetische Biegebelastungen der Wirbelsäule verstanden werden. Ein mögliches Risiko hieraus resultierender struktureller Überlastung muss insbesondere in Betracht gezogen werden, wenn Landungsanforderungen die individuellen Landungfähigkeiten übersteigen. Eine probate muskuläre Wirbelsäulen-stabilisation bzw. derer regelmäßiges Training in der Durchführung von Landungsvorgängen scheint erforderlich um auftretende Biegebelastungen zu reduzieren. KW - spine KW - load KW - landing KW - trunk muscles KW - acceleration KW - Wirbelsäule KW - Belastung KW - Landung KW - Rumpfmuskulatur KW - Beschleunigung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427461 ER - TY - THES A1 - Kumru, Baris T1 - Utilization of graphitic carbon nitride in dispersed media T1 - Anwendung von graphitischem Kohlenstoffnitrid in dispergierten Medien N2 - Utilization of sunlight for energy harvesting has been foreseen as sustainable replacement for fossil fuels, which would also eliminate side effects arising from fossil fuel consumption such as drastic increase of CO2 in Earth atmosphere. Semiconductor materials can be implemented for energy harvesting, and design of ideal energy harvesting devices relies on effective semiconductor with low recombination rate, ease of processing, stability over long period, non-toxicity and synthesis from abundant sources. Aforementioned criteria have attracted broad interest for graphitic carbon nitride (g-CN) materials, metal-free semiconductor which can be synthesized from low cost and abundant precursors. Furthermore, physical properties such as band gap, surface area and absorption can be tuned. g-CN was investigated as heterogeneous catalyst, with diversified applications from water splitting to CO2 reduction and organic coupling reactions. However, low dispersibility of g-CN in water and organic solvents was an obstacle for future improvements. Tissue engineering aims to mimic natural tissues mechanically and biologically, so that synthetic materials can replace natural ones in future. Hydrogels are crosslinked networks with high water content, therefore are prime candidates for tissue engineering. However, the first requirement is synthesis of hydrogels with mechanical properties that are matching to natural tissues. Among different approaches for reinforcement, nanocomposite reinforcement is highly promising. This thesis aims to investigate aqueous and organic dispersions of g-CN materials. Aqueous g-CN dispersions were utilized for visible light induced hydrogel synthesis, where g-CN acts as reinforcer and photoinitiator. Varieties of methodologies were presented for enhancing g-CN dispersibility, from co-solvent method to prepolymer formation, and it was shown that hydrogels with diversified mechanical properties (from skin-like to cartilage-like) are accessible via g-CN utilization. One pot photografting method was introduced for functionalization of g-CN surface which provides functional groups towards enhanced dispersibility in aqueous and organic media. Grafting vinyl thiazole groups yields stable additive-free organodispersions of g-CN which are electrostatically stabilized with increased photophysical properties. Colloidal stability of organic systems provides transparent g-CN coatings and printing g-CN from commercial inkjet printers. Overall, application of g-CN in dispersed media is highly promising, and variety of materials can be accessible via utilization of g-CN and visible light with simple chemicals and synthetic conditions. g-CN in dispersed media will bridge emerging research areas from tissue engineering to energy harvesting in near future. N2 - Sonnenlicht kann fossile Brennstoffe in der Energieerzeugung ersetzen und ermöglicht neben der Nutzung einer nachhaltigen Ressource dabei auch die deutliche Reduktion der Umweltbelastung in der Energieerzeugung. Die Verfügbarkeit geeigneter Energiegewinnungstechnologien hängt entscheidend von der Verfügbarkeit geeigneter Superkondensatoren (SC) ab. Ideale SC sollten sich in diesem Zusammenhang durch eine geringe Rekombinationsrate, gute Verarbeitbarkeit, Langzeitstabilität, Ungiftigkeit und die Verfügbarkeit aus nachhaltigen Ressourcen auszeichnen. Graphitisches Kohlenstoffnitrid (graphitic carbon nitride – g-CN), ein metall-freier Halbleiter, der aus nachhaltigen und in großer Menge verfügbaren Ausgangsstoffen hergestellt werden kann, ist als Material für dieses Eigenschaftsprofil hervorragend geeignet. Darüber hinaus können die Eigenschaften dieses Materials (innere Oberfläche, Bandlücke, Lichtabsorption) eingestellt werden. Daraus ergibt sich ein großes Forschungsinteresse z.B. im Bereich heterogener Katalyse, wie in der Kohlenstoffdioxidreduktion, elektrolytischen Wasserspaltung und verschiedener organischer Kupplungsreaktionen. Unglücklicherweise ist die schlechte Dispergierbarkeit von g-CN in organischen Lösungsmitteln und Wasser ein wesentlicher Hinderungsgrund für die erfolgreiche Nutzbarmachung dieser hervorragenden Eigenschaften. Das Design von Materialien, die biologisches Gewebe in seinen mechanischen und biologischen Eigenschaften nachahmen und ersetzen können, ist das Ziel der Gewebekonstruktion (Tissue Engineering – TE). Hydrogele, also Netzwerke mit hohem Wassergehalt, gelten als die vielversprechendsten Materialen in diesem Forschungsfeld. Die Herstellung von Hydrogelen, die biologischem Gewebe in seinen mechanischen Eigenschaften ähnelt gilt allerdings als äußerst schwierig und erfordert die Stabilisierung der Netzwerke. Besonders der Einsatz von Nanoverbundstrukturen (nanocomposites) erscheint in diesem Zusammenhang vielversprechend. Die vorliegende Arbeit beschäftigt sich mit der Untersuchung von g-CN in sowohl wässrigen, als auch organischen Dispersionen. Im Zuge dessen werden wässrige Dispersionen für die Synthese von Hydrogelen, bei der g-CN sowohl als Photoinitiator für die durch sichtbares Licht ausgelöste Vernetzung, als auch als Strukturverstärker fungiert. Zur Verbesserung der Dispergierbarkeit des g CN werden vielseitige Ansätze präsentiert, welche von der Verwendung von Co-Lösungsmitteln bis zur Präpolymerbildung reichen. Durch die aufgezeigten Ansätze können Hydrogele mit unterschiedlichen mechanischen Eigenschaften hergestellt werden (hautartig bis knorpelig). Darüber hinaus wird eine Ein-Topf Synthese für die Oberflächenfunktionalisierung vorgestellt, durch die die Dispergierbarkeit von g-CN in organischen und wässrigen Medien verbessert werden kann. Beispielsweise erlaubt die Oberflächenfunktionalisierung mit Vinylthiazol die Herstellung von kolloidal dispergiertem g-CN mit verbesserten photophysikalischen Eigenschaften ohne zusätzliche Additive und eröffnet damit die Möglichkeit transparenter g-CN Beschichtungen und ermöglicht die Druckbarkeit von g-CN aus handelsüblichen Tintenstrahldruckern. Die Anwendung von g-CN in dispergierten Medien ist vielversprechend, da eine große Zahl sehr vielfältiger Materialien durch die Kombination von g-CN mit sichtbarem Licht aus günstigen, nachhaltigen Ressourcen verfügbar ist. Daher ist zu erwarten, dass g-CN in dispergierten Medien verschiedene im Entstehen begriffene Forschungsfelder von TE bis zur Energiegewinnung überspannen wird. KW - polymer chemistry KW - Polymerchemie KW - photochemistry KW - Photochemie KW - colloid chemistry KW - kolloidchemie KW - hydrogels KW - Hydrogelen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427339 ER - TY - THES A1 - Tofelde, Stefanie T1 - Signals stored in sediment T1 - Signale in Sedimenten BT - fluvial sediments as records of landscape evolution BT - wie Flusssedimente Landschaftsentwicklung aufzeichnen N2 - Tectonic and climatic boundary conditions determine the amount and the characteristics (size distribution and composition) of sediment that is generated and exported from mountain regions. On millennial timescales, rivers adjust their morphology such that the incoming sediment (Qs,in) can be transported downstream by the available water discharge (Qw). Changes in climatic and tectonic boundary conditions thus trigger an adjustment of the downstream river morphology. Understanding the sensitivity of river morphology to perturbations in boundary conditions is therefore of major importance, for example, for flood assessments, infrastructure and habitats. Although we have a general understanding of how rivers evolve over longer timescales, the prediction of channel response to changes in boundary conditions on a more local scale and over shorter timescales remains a major challenge. To better predict morphological channel evolution, we need to test (i) how channels respond to perturbations in boundary conditions and (ii) how signals reflecting the persisting conditions are preserved in sediment characteristics. This information can then be applied to reconstruct how local river systems have evolved over time. In this thesis, I address those questions by combining targeted field data collection in the Quebrada del Toro (Southern Central Andes of NW Argentina) with cosmogenic nuclide analysis and remote sensing data. In particular, I (1) investigate how information on hillslope processes is preserved in the 10Be concentration (geochemical composition) of fluvial sediments and how those signals are altered during downstream transport. I complement the field-based approach with physical experiments in the laboratory, in which I (2) explore how changes in sediment supply (Qs,in) or water discharge (Qw) generate distinct signals in the amount of sediment discharge at the basin outlet (Qs,out). With the same set of experiments, I (3) study the adjustments of alluvial channel morphology to changes in Qw and Qs,in, with a particular focus in fill-terrace formation. I transfer the findings from the experiments to the field to (4) reconstruct the evolution of a several-hundred meter thick fluvial fill-terrace sequence in the Quebrada del Toro. I create a detailed terrace chronology and perform reconstructions of paleo-Qs and Qw from the terrace deposits. In the following paragraphs, I summarize my findings on each of these four topics. First, I sampled detrital sediment at the outlet of tributaries and along the main stem in the Quebrada del Toro, analyzed their 10Be concentration ([10Be]) and compared the data to a detailed hillslope-process inventory. The often observed non-linear increase in catchment-mean denudation rate (inferred from [10Be] in fluvial sediment) with catchment-median slope, which has commonly been explained by an adjustment in landslide-frequency, coincided with a shift in the main type of hillslope processes. In addition, the [10Be] in fluvial sediments varied with grain-size. I defined the normalized sand-gravel-index (NSGI) as the 10Be-concentration difference between sand and gravel fractions divided by their summed concentrations. The NSGI increased with median catchment slope and coincided with a shift in the prevailing hillslope processes active in the catchments, thus making the NSGI a potential proxy for the evolution of hillslope processes over time from sedimentary deposits. However, the NSGI recorded hillslope-processes less well in regions of reduced hillslope-channel connectivity and, in addition, has the potential to be altered during downstream transport due to lateral sediment input, size-selective sediment transport and abrasion. Second, my physical experiments revealed that sediment discharge at the basin outlet (Qs,out) varied in response to changes in Qs,in or Qw. While changes in Qw caused a distinct signal in Qs,out during the transient adjustment phase of the channel to new boundary conditions, signals related to changes in Qs,in were buffered during the transient phase and likely only become apparent once the channel is adjusted to the new conditions. The temporal buffering is related to the negative feedback between Qs,in and channel-slope adjustments. In addition, I inferred from this result that signals extracted from the geochemical composition of sediments (e.g., [10Be]) are more likely to represent modern-day conditions during times of aggradation, whereas the signal will be temporally buffered due to mixing with older, remobilized sediment during times of channel incision. Third, the same set of experiments revealed that river incision, channel-width narrowing and terrace cutting were initiated by either an increase in Qw, a decrease in Qs,in or a drop in base level. The lag-time between the external perturbation and the terrace cutting determined (1) how well terrace surfaces preserved the channel profile prior to perturbation and (2) the degree of reworking of terrace-surface material. Short lag-times and well preserved profiles occurred in cases with a rapid onset of incision. Also, lag-times were synchronous along the entire channel after upstream perturbations (Qw, Qs,in), whereas base-level fall triggered an upstream migrating knickzone, such that lag-times increased with distance upstream. Terraces formed after upstream perturbations (Qw, Qs,in) were always steeper when compared to the active channel in new equilibrium conditions. In the base-level fall experiment, the slope of the terrace-surfaces and the modern channel were similar. Hence, slope comparisons between the terrace surface and the modern channel can give insights into the mechanism of terrace formation. Fourth, my detailed terrace-formation chronology indicated that cut-and-fill episodes in the Quebrada del Toro followed a ~100-kyr cyclicity, with the oldest terraces ~ 500 kyr old. The terraces were formed due to variability in upstream Qw and Qs. Reconstructions of paleo-Qs over the last 500 kyr, which were restricted to times of sediment deposition, indicated only minor (up to four-fold) variations in paleo-denudation rates. Reconstructions of paleo-Qw were limited to the times around the onset of river incision and revealed enhanced discharge from 10 to 85% compared to today. Such increases in Qw are in agreement with other quantitative paleo-hydrological reconstructions from the Eastern Andes, but have the advantage of dating further back in time. N2 - Tektonische und klimatische Bedingungen bestimmen die Menge, Größenverteilung und Zusammensetzung von Sedimenten, welche in Gebirgsregionen produziert und von dort exportiert werden. Über Jahrtausende hinweg passen Flüsse ihre Morphologie an, um den Sedimenteintrag (Qs,in) mit dem verfügbaren Wasserabfluss (Qw) flussabwärts zu transportieren. Änderungen in den klimatischen oder tektonischen Randbedingungen lösen flussabwärts eine Anpassung der Flussmorphologie aus. Ein besseres Verständnis darüber, wie sensitiv Flüsse auf Perturbationen in den Randbedingungen reagieren, ist entscheidend, um beispielsweise Überflutungspotential besser abschätzen zu können. Obwohl wir generell ein gutes Verständnis für die Entwicklung von Flüssen auf langen Zeitskalen haben, können wir durch veränderte Randbedingungen ausgelöste Flussdynamiken lokal und auf kurzen Zeitskalen nur schwer vorhersagen. Um die Entwicklung der Flussmorphologie besser zu verstehen, beziehungsweise vorhersagen zu können, müssen wir testen, (1) wie Flüsse auf veränderte Randbedingungen reagieren und (2) wie Signale, welche die vorherschenden Bedingungen reflektieren, in Sedimenten konserviert werden. Diese Informationen können wir nutzen, um die Entwicklung von lokalen Flusssystemen zu rekonstruieren. In der vorliegenden Arbeit adressiere ich diese Fragen durch die Analyse von kosmogenen Nukleiden und Fernerkundungsdaten in der Quebrada del Toro (südliche Zentralanden in NW Argentinien). Insbesondere untersuche ich, wie (1) Informationen über Hangprozesse in der 10Be Konzentration (geochemische Zusammensetzung) von Flusssedimenten gespeichert werden und wie diese Signale durch den Transport flussabwärts überprägt werden. Ich ergänze diesen geländebasierten Ansatz mit physikalischen Experimenten im Labor, mit welchen ich untersuche, wie (2) Veränderungen in der Sedimentzufuhr (Qs,in) oder der Abflussmenge (Qw) eindeutige Signale in der Menge an Sedimentaustrag (Qs,out) am Beckenauslass generieren. Mit denselben Experimenten untersuche ich (3) die Anpassung der Flussmorphologie auf Veränderungen in Qw und Qs,in mit einem speziellen Fokus auf der Entstehung von Flussterrassen. Ich übertrage die Erkenntnisse von den Experimenten ins Gelände und (4) rekonstruiere die Entstehung von einer mehreren hundert Meter mächtigen Terrassensequenz in der Quebrada del Toro. Ich erstelle eine detaillierte Terrassenchronologie und führe mit Hilfe der Terrassenablagerungen Rekonstruktion von Qs und Qw für die Vergangenheit durch. In den folgenden Paragraphen fasse ich meine Ergebnisse zu den vier Forschungsschwerpunkten dieser Arbeit zusammen. Erstens habe ich Flusssedimente an den Mündungen von Nebenflüssen, sowie entlang des Hauptflusses in der Quebrada del Toro beprobt, die jeweilige 10Be Konzentration ([10Be]) bestimmt und die Daten mit einem detaillierten Hangprozess-Inventar verglichen. Der häufig beobachtete, nicht-lineare Anstieg der durchschnittlichen Denudationsrate des Einzugsgebietes (abgeleitet aus der [10Be] der Flusssedimente) mit der Hangneigung eines Einzugsgebietes fiel mit einer Verschiebung der wesentlichen, aktiven Hangprozesse zusammen. Zusätzlich variierte die [10Be] der Flusssedimente mit den Korngrößen. Ich habe den normalisierten Sand-Schotter-Index (NSGI) definiert, welcher sich aus der Differenz der [10Be] zwischen der Sand- und der Kiesfraktion, geteilt durch ihre summierte Konzentration, berechnet. Der NSGI stieg mit dem Median der Hangneigung eines Einzugsgebietes und fiel wiederum mit einer Verschiebung der vorherrschenden Hangprozesse im jeweiligen Einzugsgebiet zusammen. Diese Beobachtung qualifiziert den NSGI als einen potentiellen Proxy, um die Entwicklung von Hangprozessen über die Zeit aus Sedimentablagerungen zu rekonstruieren. Es ist jedoch einzuschränken, dass der NSGI durch den Transport flussabwärts auf Grund von temporärer Sedimentablagerung, lateraler Sedimentzufuhr, größenselektivem Sedimenttransport und Abrasion überprägt werden kann. Zweitens haben die Laborexperimente gezeigt, dass der Sedimentaustrag am Beckenauslass (Qs,out) auf Grund von Veränderungen in Qs,in oder Qw variiert. Während Veränderungen in Qw ein eindeutiges Signal in Qs,out während der transienten Anpassungsphase des Flusses an die neuen Randbedingungen hervorriefen, wurden durch Qs,in ausgelöste Signale während der transienten Anpassungsphase gepuffert. Sie werden vermutlich erst sichtbar, nachdem der Fluss sich an die neuen Randbedingungen angepasst hat. Das zeitliche Puffern ist mit der negativen Rückkopplung zwischen Qs,in und dem Flussgradienten zu erklären. Zusätzlich deuten die Ergebnisse darauf hin, dass sich Signale, welche in der geochemischen Zusammenstzung von Sediment gespeichert sind (z.B. [10Be]), in Phasen der Flussaufschotterung mit einer höheren Wahrscheinlichkeit die heutigen Bedingungen repräsentieren. Dagegen sind Signale in Zeiten der Flusseinschneidung aufgrund von Mischung mit älteren, remobilisierten Sedimenten gepuffert. Drittens haben dieselben Experimente gezeigt, dass Flusseinschneidung, Flussbettverengung sowie Terrassenbildung entweder durch eine Zunahme an Qw, eine Abnahme in Qs,in oder durch ein Absinken der Flussbasis initiiert werden konnte. Die Zeitverzögerung zwischen der Perturbation der Randbedingungen und der Terrassenformation bestimmt (1) wie gut Terrassenoberflächen das Flussprofil vom Zeitpunkt unmittelbar vor der Störung representieren und (2) den Grad an Umschichtung des Terrassenoberflächenmaterials. Kurze Verzögerungszeiten und gut erhaltende Profile konnten in Fällen eines schnellen Einsetzens der Flusseinschneidung beobachtet werden. Außerdem waren die Verzögerungszeiten entlang des Flusslaufes synchron im Falle einer Perturbation im Flussoberlauf (Qw, Qs,in), während ein Abfallen der Flussbasis einen flussaufwärts migrierenden Knickpunkt ausgelöst hat, sodass die Verzögerungszeiten in flussaufwärts Richtung zunahmen. Terrassen, welche durch Perturbationen im Flussoberlauf (Qw, Qs,in) gebildet wurden, waren steiler im Vergleich zum aktiven Fluss, nachdem dieser sich an die neuen Randbedingungen angepasst hat. In dem Experiment, bei welchem die Flussbasis abgesenkt wurde, waren die Neigung der Terrassenoberflächen und des aktiven Flussesbettes ähnlich. Daher können Vergleiche zwischen der Neigung der Terrassenoberflächen mit dem aktiven Flussbett auf den Mechanismus der Terrassenformation hinweisen. Viertens hat die detaillierte Terrassenchronologie gezeigt, dass die Einschneide-und-Ablagerungsepisoden in der Quebrada del Toro einem ~100 ka Zyklus folgen, beginnend mit der ersten Terrasse vor ca. 500 ka. Die Terrassen wurden durch Variabilität in Qw und Qs,in gebildet. Rekonstruktionen von Qs über die letzten 500 ka, beschränkt auf die Zeiten von Sedimentablagerung, zeigten eine eher geringe Variabilität (maximal vierfach) in Denudationsraten an. Rekonstruktionen des Abflusses waren beschränkt auf die Zeitpunkte um das Einsetzen der Flusseinschneidung herum und deuteten auf vermehrten Abfluss zwischen 10 und 85% im Vergleich zu heutigen Bedingungen hin. Vermehrter Abfluss in dieser Größenordnung stimmt mit anderen quantitativen Rekonstruktionen zur Hydrologie der Ost-Anden überein, diese Methode hat jedoch den Vorteil, dass sie zeitlich weiter zurück reicht. KW - sediment-routing system KW - signal propagation KW - alluvial channel morphology KW - fluvial fill terraces KW - Cenral Andes KW - Sedimenttransportsystem KW - Signalweiterleitung KW - Gerinnemorphologie KW - Flussterrassen KW - Zentralanden Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427168 ER - TY - THES A1 - Heiden, Sophia L. T1 - Water at α-alumina surfaces T1 - Wasser auf alpha-Aluminiumoxid-Oberflächen BT - energetics, dynamics and kinetics BT - Energetik, Dynamik und Kinetik N2 - The (0001) surface of α-Al₂O₃ is the most stable surface cut under UHV conditions and was studied by many groups both theoretically and experimentally. Reaction barriers computed with GGA functionals are known to be underestimated. Based on an example reaction at the (0001) surface, this work seeks to improve this rate by applying a hybrid functional method and perturbation theory (LMP2) with an atomic orbital basis, rather than a plane wave basis. In addition to activation barriers, we calculate the stability and vibrational frequencies of water on the surface. Adsorption energies were compared to PW calculations and confirmed PBE+D2/PW stability results. Especially the vibrational frequencies with the B3LYP hybrid functional that have been calculated for the (0001) surface are in good agreement with experimental findings. Concerning the barriers and the reaction rate constant, the expectations are fully met. It could be shown that recalculation of the transition state leads to an increased barrier, and a decreased rate constant when hybrid functionals or LMP2 are applied. Furthermore, the molecular beam scattering of water on (0001) surface was studied. In a previous work by Hass the dissociation was studied by AIMD of molecularly adsorbed water, referring to an equilibrium situation. The experimental method to obtaining this is pinhole dosing. In contrast to this earlier work, the dissociation process of heavy water that is brought onto the surface from a molecular beam source was modeled in this work by periodic ab initio molecular dynamics simulations. This experimental method results in a non-equilibrium situation. The calculations with different surface and beam models allow us to understand the results of the non-equilibrium situation better. In contrast to a more equilibrium situation with pinhole dosing, this gives an increase in the dissociation probability, which could be explained and also understood mechanistically by those calculations. In this work good progress was made in understanding the (1120) surface of α-Al₂O₃ in contact with water in the low-coverage regime. This surface cut is the third most stable one under UHV conditions and has not been studied to a great extent yet. After optimization of the clean, defect free surface, the stability of different adsorbed species could be classified. One molecular minimum and several dissociated species could be detected. Starting from these, reaction rates for various surface reactions were evaluated. A dissociation reaction was shown to be very fast because the molecular minimum is relatively unstable, whereas diffusion reactions cover a wider range from fast to slow. In general, the (112‾0) surface appears to be much more reactive against water than the (0001) surface. In addition to reactivity, harmonic vibrational frequencies were determined for comparison with the findings of the experimental “Interfacial Molecular Spectroscopy” group from Fritz-Haber institute in Berlin. Especially the vibrational frequencies of OD species could be assigned to vibrations from experimental SFG spectra with very good agreement. Also, lattice vibrations were studied in close collaboration with the experimental partners. They perform SFG spectra at very low frequencies to get deep into the lattice vibration region. Correspondingly, a bigger slab model with greater expansion perpendicular to the surface was applied, considering more layers in the bulk. Also with the lattice vibrations we could obtain reasonably good agreement in terms of energy differences between the peaks. N2 - Das wissenschaftliche Interesse an der Untersuchung von Oberflächen hat in den letzten Jahren stark zugenommen. Oberflächen spielen unter anderem in Katalyse, Nanotechnologie und Korrosionsforschung eine wichtige Rolle. Es wurden nicht nur Fortschritte im experimentellen Bereich, sondern auch in der theoretischen, computergestützten Analyse dieser Systeme erzielt. Durch leistungsstärkere Computer und ausgefeiltere Software mit immer besseren Methoden können heutzutage wesentlich größere, komplexere Systeme mit höherer Genauigkeit untersucht werden, als noch vor zehn Jahren. In dieser Arbeit wurden derartige Rechnungen angewandt, um Prozesse der α-Aluminiumoxid-Oberfläche besser zu verstehen. Es wurde in drei Teilprojekten wissenschaftlichen Fragestellungen zu Aufbau, Stabilität, Wasseradsorption, Reaktivität und Schwingungseigenschaften nachgegangen, letztere auch im Vergleich zu experimentellen Befunden. Im ersten Teilprojekt wurde auf ein bekanntes Problem der genutzten Methodik eingegangen. Wie aus der Literatur bekannt ist, werden bei dem Dichtefunktional PBE, das in dieser Arbeit hauptsächlich verwendet wurde, die Reaktionsbarrieren unterschätzt, und somit Raten überschätzt. Mit Hilfe zweier unterschiedlicher Methoden konnte dieses Problem deutlich verbessert werden, sodass die Barrieren erhöht und die Raten verringert wurden, was mehr dem Bild der Realität entspricht. Diese Methoden sind zum einen die sogenannten Hybridfunktionale und zum anderen lokale Møller-Plesset Störungstheorie. Außerdem wurden Adsorptionsenergien und Vibrationen berechnet und mit vorherigen Rechnungen, sowie experimentellen Daten verglichen. In einem zweiten Teilprojekt wurde die Streuung von Wasser an der Oberfläche untersucht. In einem Molekularstrahlexperiment konnte kürzlich nachgewiesen werden, dass sich die Dissoziationswahrscheinlichkeit im Vergleich zur Pinhole-Dosierung erhöht (beides sind Methoden um Wasser auf die Oberfläche aufzubringen). In dieser Arbeit konnte dies durch Simulationen nachgewiesen und mechanistisch aufgeklärt werden. Ein weiteres Teilprojekt befasste sich mit der (112‾0)-Oberfläche, zu der es bislang wenige Untersuchungen gibt. Hier wurde zunächst die Oberfläche ohne Wasser untersucht, um die Beschaffenheit zu erkunden. Anschließend wurde das Verhalten eines Wassermoleküls auf der Oberfläche untersucht. Es kann sowohl molekular adsorbieren, als auch in seine Bestandteile OH und H dissoziiert vorliegen, wobei die dissoziierten Strukturen wesentlich stabiler sind. Die Reaktionsraten für Dissoziation und Diffusion wurden untersucht. Erstere sind sehr schnell (Größenordnung 10¹² pro Sekunde) und letztere können einen weiten Bereich abdecken (10⁻¹³-10⁶s⁻¹). Im Vergleich mit oberflächenspezifischen Schwingungsspektroskopie-Experimenten konnte gute Übereinstimmung gefunden werden. So waren wir in der Lage, die jeweiligen OD Gruppen jeder Schwingung den experimentellen Daten zuzuweisen, wobei D hier Deuterium, also schwerer Wasserstoff ist. KW - surface science KW - alumina KW - water at alumina KW - theoretical chemistry KW - theoretische Chemie KW - Aluminiumoberfläche KW - Wasser auf Aluminiumoxid KW - Oberflächenchemie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426366 ER - TY - THES A1 - Sieg, Tobias T1 - Reliability of flood damage estimations across spatial scales T1 - Verlässlichkeit von Hochwasserschadensschätzungen über räumliche Skalen N2 - Extreme Naturereignisse sind ein integraler Bestandteil der Natur der Erde. Sie werden erst dann zu Gefahren für die Gesellschaft, wenn sie diesen Ereignissen ausgesetzt ist. Dann allerdings können Naturgefahren verheerende Folgen für die Gesellschaft haben. Besonders hydro-meteorologische Gefahren wie zum Beispiel Flusshochwasser, Starkregenereignisse, Winterstürme, Orkane oder Tornados haben ein hohes Schadenspotential und treten rund um den Globus auf. Einhergehend mit einer immer wärmer werdenden Welt, werden auch Extremwetterereignisse, welche potentiell Naturgefahren auslösen können, immer wahrscheinlicher. Allerdings trägt nicht nur eine sich verändernde Umwelt zur Erhöhung des Risikos von Naturgefahren bei, sondern auch eine sich verändernde Gesellschaft. Daher ist ein angemessenes Risikomanagement erforderlich um die Gesellschaft auf jeder räumlichen Ebene an diese Veränderungen anzupassen. Ein essentieller Bestandteil dieses Managements ist die Abschätzung der ökonomischen Auswirkungen der Naturgefahren. Bisher allerdings fehlen verlässliche Methoden um die Auswirkungen von hydro-meteorologischen Gefahren abzuschätzen. Ein Hauptbestandteil dieser Arbeit ist daher die Entwicklung und Anwendung einer neuen Methode, welche die Verlässlichkeit der Schadensschätzung verbessert. Die Methode wurde beispielhaft zur Schätzung der ökonomischen Auswirkungen eines Flusshochwassers auf einzelne Unternehmen bis hin zu den Auswirkungen auf das gesamte Wirtschaftssystem Deutschlands erfolgreich angewendet. Bestehende Methoden geben meist wenig Information über die Verlässlichkeit ihrer Schätzungen. Da diese Informationen Entscheidungen zur Anpassung an das Risiko erleichtern, wird die Verlässlichkeit der Schadensschätzungen mit der neuen Methode dargestellt. Die Verlässlichkeit bezieht sich dabei nicht nur auf die Schadensschätzung selber, sondern auch auf die Annahmen, die über betroffene Gebäude gemacht werden. Nach diesem Prinzip kann auch die Verlässlichkeit von Annahmen über die Zukunft dargestellt werden, dies ist ein wesentlicher Aspekt für Prognosen. Die Darstellung der Verlässlichkeit und die erfolgreiche Anwendung zeigt das Potential der Methode zur Verwendung von Analysen für gegenwärtige und zukünftige hydro-meteorologische Gefahren. N2 - Natural extreme events are an integral part of nature on planet earth. Usually these events are only considered hazardous to humans, in case they are exposed. In this case, however, natural hazards can have devastating impacts on human societies. Especially hydro-meteorological hazards have a high damage potential in form of e.g. riverine and pluvial floods, winter storms, hurricanes and tornadoes, which can occur all over the globe. Along with an increasingly warm climate also an increase in extreme weather which potentially triggers natural hazards can be expected. Yet, not only changing natural systems, but also changing societal systems contribute to an increasing risk associated with these hazards. These can comprise increasing exposure and possibly also increasing vulnerability to the impacts of natural events. Thus, appropriate risk management is required to adapt all parts of society to existing and upcoming risks at various spatial scales. One essential part of risk management is the risk assessment including the estimation of the economic impacts. However, reliable methods for the estimation of economic impacts due to hydro-meteorological hazards are still missing. Therefore, this thesis deals with the question of how the reliability of hazard damage estimates can be improved, represented and propagated across all spatial scales. This question is investigated using the specific example of economic impacts to companies as a result of riverine floods in Germany. Flood damage models aim to describe the damage processes during a given flood event. In other words they describe the vulnerability of a specific object to a flood. The models can be based on empirical data sets collected after flood events. In this thesis tree-based models trained with survey data are used for the estimation of direct economic flood impacts on the objects. It is found that these machine learning models, in conjunction with increasing sizes of data sets used to derive the models, outperform state-of-the-art damage models. However, despite the performance improvements induced by using multiple variables and more data points, large prediction errors remain at the object level. The occurrence of the high errors was explained by a further investigation using distributions derived from tree-based models. The investigation showed that direct economic impacts to individual objects cannot be modeled by a normal distribution. Yet, most state-of-the-art approaches assume a normal distribution and take mean values as point estimators. Subsequently, the predictions are unlikely values within the distributions resulting in high errors. At larger spatial scales more objects are considered for the damage estimation. This leads to a better fit of the damage estimates to a normal distribution. Consequently, also the performance of the point estimators get better, although large errors can still occur due to the variance of the normal distribution. It is recommended to use distributions instead of point estimates in order to represent the reliability of damage estimates. In addition current approaches also mostly ignore the uncertainty associated with the characteristics of the hazard and the exposed objects. For a given flood event e.g. the estimation of the water level at a certain building is prone to uncertainties. Current approaches define exposed objects mostly by the use of land use data sets. These data sets often show inconsistencies, which introduce additional uncertainties. Furthermore, state-of-the-art approaches also imply problems of missing consistency when predicting the damage at different spatial scales. This is due to the use of different types of exposure data sets for model derivation and application. In order to face these issues a novel object-based method was developed in this thesis. The method enables a seamless estimation of hydro-meteorological hazard damage across spatial scales including uncertainty quantification. The application and validation of the method resulted in plausible estimations at all spatial scales without overestimating the uncertainty. Mainly newly available data sets containing individual buildings make the application of the method possible as they allow for the identification of flood affected objects by overlaying the data sets with water masks. However, the identification of affected objects with two different water masks revealed huge differences in the number of identified objects. Thus, more effort is needed for their identification, since the number of objects affected determines the order of magnitude of the economic flood impacts to a large extent. In general the method represents the uncertainties associated with the three components of risk namely hazard, exposure and vulnerability, in form of probability distributions. The object-based approach enables a consistent propagation of these uncertainties in space. Aside from the propagation of damage estimates and their uncertainties across spatial scales, a propagation between models estimating direct and indirect economic impacts was demonstrated. This enables the inclusion of uncertainties associated with the direct economic impacts within the estimation of the indirect economic impacts. Consequently, the modeling procedure facilitates the representation of the reliability of estimated total economic impacts. The representation of the estimates' reliability prevents reasoning based on a false certainty, which might be attributed to point estimates. Therefore, the developed approach facilitates a meaningful flood risk management and adaptation planning. The successful post-event application and the representation of the uncertainties qualifies the method also for the use for future risk assessments. Thus, the developed method enables the representation of the assumptions made for the future risk assessments, which is crucial information for future risk management. This is an important step forward, since the representation of reliability associated with all components of risk is currently lacking in all state-of-the-art methods assessing future risk. In conclusion, the use of object-based methods giving results in the form of distributions instead of point estimations is recommended. The improvement of the model performance by the means of multi-variable models and additional data points is possible, but small. Uncertainties associated with all components of damage estimation should be included and represented within the results. Furthermore, the findings of the thesis suggest that, at larger scales, the influence of the uncertainty associated with the vulnerability is smaller than those associated with the hazard and exposure. This leads to the conclusion that for an increased reliability of flood damage estimations and risk assessments, the improvement and active inclusion of hazard and exposure, including their uncertainties, is needed in addition to the improvements of the models describing the vulnerability of the objects. KW - hydro-meteorological risk KW - damage modeling KW - uncertainty KW - probabilistic approach KW - economic impacts KW - OpenStreetMap KW - hydro-meteorologische Risiken KW - Schadensmodellierung KW - Unsicherheiten KW - probabilistischer Ansatz KW - ökonomische Auswirkungen KW - OpenStreetMap Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426161 ER - TY - THES A1 - Öztürk, Ugur T1 - Learning more to predict landslides T1 - Ein verbessertes Wissen zur Prognose von Hangrutschungen N2 - Landslides are frequent natural hazards in rugged terrain, when the resisting frictional force of the surface of rupture yields to the gravitational force. These forces are functions of geological and morphological factors, such as angle of internal friction, local slope gradient or curvature, which remain static over hundreds of years; whereas more dynamic triggering events, such as rainfall and earthquakes, compromise the force balance by temporarily reducing resisting forces or adding transient loads. This thesis investigates landslide distribution and orientation due to landslide triggers (e.g. rainfall) at different scales (6-4∙10^5 km^2) and aims to link rainfall movement with the landslide distribution. It additionally explores the local impacts of the extreme rainstorms on landsliding and the role of precursory stability conditions that could be induced by an earlier trigger, such as an earthquake. Extreme rainfall is a common landslide trigger. Although several studies assessed rainfall intensity and duration to study the distribution of thus triggered landslides, only a few case studies quantified spatial rainfall patterns (i.e. orographic effect). Quantifying the regional trajectories of extreme rainfall could aid predicting landslide prone regions in Japan. To this end, I combined a non-linear correlation metric, namely event synchronization, and radial statistics to assess the general pattern of extreme rainfall tracks over distances of hundreds of kilometers using satellite based rainfall estimates. Results showed that, although the increase in rainfall intensity and duration positively correlates with landslide occurrence, the trajectories of typhoons and frontal storms were insufficient to explain landslide distribution in Japan. Extreme rainfall trajectories inclined northwestwards and were concentrated along some certain locations, such as coastlines of southern Japan, which was unnoticed in the landslide distribution of about 5000 rainfall-triggered landslides. These landslides seemed to respond to the mean annual rainfall rates. Above mentioned findings suggest further investigation on a more local scale to better understand the mechanistic response of landscape to extreme rainfall in terms of landslides. On May 2016 intense rainfall struck southern Germany triggering high waters and landslides. The highest damage was reported at the Braunsbach, which is located on the tributary-mouth fan formed by the Orlacher Bach. Orlacher Bach is a ~3 km long creek that drains a catchment of about ~6 km^2. I visited this catchment in June 2016 and mapped 48 landslides along the creek. Such high landslide activity was not reported in the nearby catchments within ~3300 km^2, despite similar rainfall intensity and duration based on weather radar estimates. My hypothesis was that several landslides were triggered by rainfall-triggered flash floods that undercut hillslope toes along the Orlacher Bach. I found that morphometric features such as slope and curvature play an important role in landslide distribution on this micro scale study site (<10 km^2). In addition, the high number of landslides along the Orlacher Bach could also be boosted by accumulated damages on hillslopes due karst weathering over longer time scales. Precursory damages on hillslopes could also be induced by past triggering events that effect landscape evolution, but this interaction is hard to assess independently from the latest trigger. For example, an earthquake might influence the evolution of a landscape decades long, besides its direct impacts, such as landslides that follow the earthquake. Here I studied the consequences of the 2016 Kumamoto Earthquake (MW 7.1) that triggered some 1500 landslides in an area of ~4000 km^2 in central Kyushu, Japan. Topography, i.e. local slope and curvature, both amplified and attenuated seismic waves, thus controlling the failure mechanism of those landslides (e.g. progressive). I found that topography fails in explaining the distribution and the preferred orientation of the landslides after the earthquake; instead the landslides were concentrated around the northeast of the rupture area and faced mostly normal to the rupture plane. This preferred location of the landslides was dominated mainly by the directivity effect of the strike-slip earthquake, which is the propagation of wave energy along the fault in the rupture direction; whereas amplitude variations of the seismic radiation altered the preferred orientation. I suspect that the earthquake directivity and the asymmetry of seismic radiation damaged hillslopes at those preferred locations increasing landslide susceptibility. Hence a future weak triggering event, e.g. scattered rainfall, could further trigger landslides at those damaged hillslopes. N2 - Hangrutschungen treten häufig in steilem Gelände auf, wenn die Erdanziehungskraft die Scherkräfte an der Oberfläche übersteigt. Diese Kräfte beinhalten geologische und geomorphologische Faktoren wie den Reibungswinkel oder die Neigung und Krümmung von Hängen, die über Jahrhunderte statisch bleiben können. Dynamische Ereignisse wie Regenfälle und Erdbeben können hingegen das Kräftegleichgewicht beeinträchtigen, indem sie Widerstandskräfte vorübergehend reduzieren oder Lasten temporär hinzufügen. Diese Arbeit untersucht die Verteilung und Orientierung von Hangrutschungen in Abhängigkeit von Auslösern (z.B. Niederschlag) auf verschiedenen Skalenebenen (6-4∙10^5 km^2) und verknüpft die Bewegung des Niederschlagssystems mit der Hangrutschungsverteilung. Zudem werden lokale Auswirkungen von extremen Gewittern auf Hangrutschungen untersucht, sowie vorausgehende Stabilitätsbedingungen, die durch ein früheres Ereignis, beispielsweise ein Erdbeben, verändert werden können. Extremer Niederschlag ist ein weithin bekannter Auslöser für Hangrutschungen. Obwohl mehrere Studien die Verteilung von Hangrutschungen mit der Niederschlagsintensität und -dauer verglichen haben, beachteten nur wenige Fallstudien das räumliche Bewegungsmuster des Niederschlags, i.e. den orographischen Effekt. Eine solche Quantifizierung könnte die Vorhersage von hangrutschungsgefährdete Regionen in Japan verbessern. Hierfür habe ich ein nicht-lineares Korrelationsmaß (event synchronization) auf regionale Sturmbahnen in Japan angewendet, um deren räumliche Verteilung durch satellitengestützen Regenschätzungen nachzuvollziehen. Die durchgeführten Untersuchungen zeigten, dass sich die Verteilung von Hangrutschungen nur unzureichend mit den Zugbahnen von Taifunen und Sturmtiefen erklären lässt. Die Stabilität von Hängen scheint mehr durch mittlere Jahresniederschlagsmengen beeinflusst zu werden. Erzielte Ergebnisse zeigen, dass weitere Untersuchungen auf lokaler Ebene nötig sind, um die unmittelbare Auswirkungen von Extremniederschlägen auf Hangstabilität und -rutschungen besser zu verstehen. Im Mai 2016 kam es in Süddeutschland zu einem heftigen Gewitter, das Hochwasser und Hangrutschungen ausgelöst hat. Der höchste Schaden wurde in Braunsbach, dessen Zentrum sich am Zufluss des Orlacher Bachs befindet, gemeldet. Der Orlacher Bach ist ~3 lang und hat ein Einzugsgebiet von etwa ~6 km^2. Ich habe dieses Einzugsgebiet im Juni 2016 besucht und 48 Hangrutschungen entlang des Baches kartiert. Ich vermutete, dass mehrere Hangrutschungen durch Sturzfluten ausgelöst wurden, welche die Hänge entlang des Orlacher Baches unterspülten. Ich stellte fest, dass morphometrische Merkmale wie die lokale Hangneigung und -krümmung eine wichtige Rolle bei der Hangrutschungsverteilung auf dieser Mikroskala spielen (<10 km^2). Darüber hinaus könnte die hohe Anzahl von Hangrutschungen am Orlacher Bach auch durch Karstverwitterung über längere Zeiträume verstärkt werden. Zahlreiche in der Vergangenheit liegende Ereignisse können die Stabilität eines Hanges beeinflussen. Der Einfluss solcher Ereignisse ist nur sehr schwer unabhängig voneinander abschätzbar. Beispielseise könnte ein Erdbeben die Entwicklung einer Landschaft über Jahrzehnte hin beeinflussen. Hier erforsche ich die Folgen des Kumamoto-Erdbebens 2016 (MW 7.1) das im Zentrum von Kyushu, Japan, ca. 1500 Hangrutschungen in einem Gebiet von ~4000 km^2 ausgelöst hat. Die Topographie (Hangneigung und -krümmung) verstärkte schwächte seismische Wellen gleichermaßen ab, wodurch der Auslösemechanismus dieser Hangrutschungen (z.B. progressiv) gesteuert wird. Ich konnte belegen, dass die Topographie die Verteilung und die bevorzugte Ausrichtung der Hangrutsche nach dem Erdbeben nicht erklären kann; stattdessen waren die Hangrutschungen um den Nordosten des Bruchgebiets herum konzentriert und standen meist senkrecht zur Bruchfläche. Diese bevorzugte Lage der Erdrutsche wurde hauptsächlich durch den Richtwirkungseffekt des Blattverschiebung-Erdbebens dominiert. Bei diesem handelt es sich um die Ausbreitung der Wellenenergie entlang des Bruches in Bruchrichtung, während Amplitudenvariationen der seismischen Strahlung die bevorzugte Orientierung ändern. Ich vermute, dass die Richtwirkung des Erdbebens und die Asymmetrie der seismischen Strahlung die Hangneigung an diesen bevorzugten Stellen schädigten und die Anfälligkeit für Hangrutschungen erhöhten. Daher könnte ein zukünftiges schwaches Ereignis wie z.B. ein unbedeutender Niederschlag an diesen beschädigten Hängen weitere Hangrutschungen auslösen. KW - landslides KW - complex networks KW - event synchronization KW - typhoons KW - Kumamoto earthquake KW - Braunsbach flash flood KW - Hangrutschungen KW - komplexes Netzwerk KW - Synchronisation von Ereignissen KW - Taifune KW - Kumamoto Erdbeben KW - Braunsbach Sturzflut Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426439 ER - TY - THES A1 - Sapegin, Andrey T1 - High-Speed Security Log Analytics Using Hybrid Outlier Detection N2 - The rapid development and integration of Information Technologies over the last decades influenced all areas of our life, including the business world. Yet not only the modern enterprises become digitalised, but also security and criminal threats move into the digital sphere. To withstand these threats, modern companies must be aware of all activities within their computer networks. The keystone for such continuous security monitoring is a Security Information and Event Management (SIEM) system that collects and processes all security-related log messages from the entire enterprise network. However, digital transformations and technologies, such as network virtualisation and widespread usage of mobile communications, lead to a constantly increasing number of monitored devices and systems. As a result, the amount of data that has to be processed by a SIEM system is increasing rapidly. Besides that, in-depth security analysis of the captured data requires the application of rather sophisticated outlier detection algorithms that have a high computational complexity. Existing outlier detection methods often suffer from performance issues and are not directly applicable for high-speed and high-volume analysis of heterogeneous security-related events, which becomes a major challenge for modern SIEM systems nowadays. This thesis provides a number of solutions for the mentioned challenges. First, it proposes a new SIEM system architecture for high-speed processing of security events, implementing parallel, in-memory and in-database processing principles. The proposed architecture also utilises the most efficient log format for high-speed data normalisation. Next, the thesis offers several novel high-speed outlier detection methods, including generic Hybrid Outlier Detection that can efficiently be used for Big Data analysis. Finally, the special User Behaviour Outlier Detection is proposed for better threat detection and analysis of particular user behaviour cases. The proposed architecture and methods were evaluated in terms of both performance and accuracy, as well as compared with classical architecture and existing algorithms. These evaluations were performed on multiple data sets, including simulated data, well-known public intrusion detection data set, and real data from the large multinational enterprise. The evaluation results have proved the high performance and efficacy of the developed methods. All concepts proposed in this thesis were integrated into the prototype of the SIEM system, capable of high-speed analysis of Big Security Data, which makes this integrated SIEM platform highly relevant for modern enterprise security applications. N2 - In den letzten Jahrzehnten hat die schnelle Weiterentwicklung und Integration der Informationstechnologien alle Bereich unseres Lebens beeinflusst, nicht zuletzt auch die Geschäftswelt. Aus der zunehmenden Digitalisierung des modernen Unternehmens ergeben sich jedoch auch neue digitale Sicherheitsrisiken und kriminelle Bedrohungen. Um sich vor diesen Bedrohungen zu schützen, muss das digitale Unternehmen alle Aktivitäten innerhalb seines Firmennetzes verfolgen. Der Schlüssel zur kontinuierlichen Überwachung aller sicherheitsrelevanten Informationen ist ein sogenanntes Security Information und Event Management (SIEM) System, das alle Meldungen innerhalb des Firmennetzwerks zentral sammelt und verarbeitet. Jedoch führt die digitale Transformation der Unternehmen sowie neue Technologien, wie die Netzwerkvirtualisierung und mobile Endgeräte, zu einer konstant steigenden Anzahl zu überwachender Geräte und Systeme. Dies wiederum hat ein kontinuierliches Wachstum der Datenmengen zur Folge, die das SIEM System verarbeiten muss. Innerhalb eines möglichst kurzen Zeitraumes muss somit eine sehr große Datenmenge (Big Data) analysiert werden, um auf Bedrohungen zeitnah reagieren zu können. Eine gründliche Analyse der sicherheitsrelevanten Aspekte der aufgezeichneten Daten erfordert den Einsatz fortgeschrittener Algorithmen der Anomalieerkennung, die eine hohe Rechenkomplexität aufweisen. Existierende Methoden der Anomalieerkennung haben oftmals Geschwindigkeitsprobleme und sind deswegen nicht anwendbar für die sehr schnelle Analyse sehr großer Mengen heterogener sicherheitsrelevanter Ereignisse. Diese Arbeit schlägt eine Reihe möglicher Lösungen für die benannten Herausforderungen vor. Zunächst wird eine neuartige SIEM Architektur vorgeschlagen, die es erlaubt Ereignisse mit sehr hoher Geschwindigkeit zu verarbeiten. Das System basiert auf den Prinzipien der parallelen Programmierung, sowie der In-Memory und In-Database Datenverarbeitung. Die vorgeschlagene Architektur verwendet außerdem das effizienteste Datenformat zur Vereinheitlichung der Daten in sehr hoher Geschwindigkeit. Des Weiteren wurden im Rahmen dieser Arbeit mehrere neuartige Hochgeschwindigkeitsverfahren zur Anomalieerkennung entwickelt. Eines ist die Hybride Anomalieerkennung (Hybrid Outlier Detection), die sehr effizient auf Big Data eingesetzt werden kann. Abschließend wird eine spezifische Anomalieerkennung für Nutzerverhaltens (User Behaviour Outlier Detection) vorgeschlagen, die eine verbesserte Bedrohungsanalyse von spezifischen Verhaltensmustern der Benutzer erlaubt. Die entwickelte Systemarchitektur und die Algorithmen wurden sowohl mit Hinblick auf Geschwindigkeit, als auch Genauigkeit evaluiert und mit traditionellen Architekturen und existierenden Algorithmen verglichen. Die Evaluation wurde auf mehreren Datensätzen durchgeführt, unter anderem simulierten Daten, gut erforschten öffentlichen Datensätzen und echten Daten großer internationaler Konzerne. Die Resultate der Evaluation belegen die Geschwindigkeit und Effizienz der entwickelten Methoden. Alle Konzepte dieser Arbeit wurden in den Prototyp des SIEM Systems integriert, das in der Lage ist Big Security Data mit sehr hoher Geschwindigkeit zu analysieren. Dies zeigt das diese integrierte SIEM Plattform eine hohe praktische Relevanz für moderne Sicherheitsanwendungen besitzt. T2 - Sicherheitsanalyse in Hochgeschwindigkeit mithilfe der Hybride Anomalieerkennung KW - intrusion detection KW - security KW - machine learning KW - anomaly detection KW - outlier detection KW - novelty detection KW - in-memory KW - SIEM KW - IDS KW - Angriffserkennung KW - Sicherheit KW - Machinelles Lernen KW - Anomalieerkennung KW - In-Memory KW - SIEM KW - IDS Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426118 ER - TY - THES A1 - Stettner, Samuel T1 - Exploring the seasonality of rapid Arctic changes from space T1 - Erkundung der Saisonalität schneller arktischer Veränderungen aus dem Weltraum BT - monitoring of permafrost disturbance, snow cover and vegetation in tundra environments with TerraSAR-X BT - Überwachung von Permafroststörungen, Schneebedeckung und Vegetation in Tundra-Umgebungen mit TerraSAR-X N2 - Arctic warming has implications for the functioning of terrestrial Arctic ecosystems, global climate and socioeconomic systems of northern communities. A research gap exists in high spatial resolution monitoring and understanding of the seasonality of permafrost degradation, spring snowmelt and vegetation phenology. This thesis explores the diversity and utility of dense TerraSAR-X (TSX) X-Band time series for monitoring ice-rich riverbank erosion, snowmelt, and phenology of Arctic vegetation at long-term study sites in the central Lena Delta, Russia and on Qikiqtaruk (Herschel Island), Canada. In the thesis the following three research questions are addressed: • Is TSX time series capable of monitoring the dynamics of rapid permafrost degradation in ice-rich permafrost on an intra-seasonal scale and can these datasets in combination with climate data identify the climatic drivers of permafrost degradation? • Can multi-pass and multi-polarized TSX time series adequately monitor seasonal snow cover and snowmelt in small Arctic catchments and how does it perform compared to optical satellite data and field-based measurements? • Do TSX time series reflect the phenology of Arctic vegetation and how does the recorded signal compare to in-situ greenness data from RGB time-lapse camera data and vegetation height from field surveys? To answer the research questions three years of TSX backscatter data from 2013 to 2015 for the Lena Delta study site and from 2015 to 2017 for the Qikiqtaruk study site were used in quantitative and qualitative analysis complimentary with optical satellite data and in-situ time-lapse imagery. The dynamics of intra-seasonal ice-rich riverbank erosion in the central Lena Delta, Russia were quantified using TSX backscatter data at 2.4 m spatial resolution in HH polarization and validated with 0.5 m spatial resolution optical satellite data and field-based time-lapse camera data. Cliff top lines were automatically extracted from TSX intensity images using threshold-based segmentation and vectorization and combined in a geoinformation system with manually digitized cliff top lines from the optical satellite data and rates of erosion extracted from time-lapse cameras. The results suggest that the cliff top eroded at a constant rate throughout the entire erosional season. Linear mixed models confirmed that erosion was coupled with air temperature and precipitation at an annual scale, seasonal fluctuations did not influence 22-day erosion rates. The results highlight the potential of HH polarized X-Band backscatter data for high temporal resolution monitoring of rapid permafrost degradation. The distinct signature of wet snow in backscatter intensity images of TSX data was exploited to generate wet snow cover extent (SCE) maps on Qikiqtaruk at high temporal resolution. TSX SCE showed high similarity to Landsat 8-derived SCE when using cross-polarized VH data. Fractional snow cover (FSC) time series were extracted from TSX and optical SCE and compared to FSC estimations from in-situ time-lapse imagery. The TSX products showed strong agreement with the in-situ data and significantly improved the temporal resolution compared to the Landsat 8 time series. The final combined FSC time series revealed two topography-dependent snowmelt patterns that corresponded to in-situ measurements. Additionally TSX was able to detect snow patches longer in the season than Landsat 8, underlining the advantage of TSX for detection of old snow. The TSX-derived snow information provided valuable insights into snowmelt dynamics on Qikiqtaruk previously not available. The sensitivity of TSX to vegetation structure associated with phenological changes was explored on Qikiqtaruk. Backscatter and coherence time series were compared to greenness data extracted from in-situ digital time-lapse cameras and detailed vegetation parameters on 30 areas of interest. Supporting previous results, vegetation height corresponded to backscatter intensity in co-polarized HH/VV at an incidence angle of 31°. The dry, tall shrub dominated ecological class showed increasing backscatter with increasing greenness when using the cross polarized VH/HH channel at 32° incidence angle. This is likely driven by volume scattering of emerging and expanding leaves. Ecological classes with more prostrate vegetation and higher bare ground contributions showed decreasing backscatter trends over the growing season in the co-polarized VV/HH channels likely a result of surface drying instead of a vegetation structure signal. The results from shrub dominated areas are promising and provide a complementary data source for high temporal monitoring of vegetation phenology. Overall this thesis demonstrates that dense time series of TSX with optical remote sensing and in-situ time-lapse data are complementary and can be used to monitor rapid and seasonal processes in Arctic landscapes at high spatial and temporal resolution. N2 - Die Erwärmung der Arktis hat Auswirkungen auf die Stabilität und Funktion terrestrischer arktischer Ökosysteme, auf das globale Klima, sowie auf sozioökonomische Systeme nördlicher Gemeinden. Es besteht eine Forschungslücke bei der Überwachung der Saisonalität von Permafrostdegradation, Schneebedeckung und Vegetationsphänologie. Diese Dissertation untersucht den Nutzen von TerraSAR-X (TSX) X-Band Daten für die Überwachung eisreicher Ufererosion, Schneeschmelze, sowie Phänologie arktischer Vegetation im zentralen Lena Delta in Russland und auf Qikiqtaruk (Herschel Island), Kanada. Die Dynamik intrasaisonaler eisreicher Ufererosion im zentralen Lena-Delta in Russland wurde mit TSX Rückstreuintensitätsbildern quantifiziert und mit optischen Satelliten-Daten und Feldmessungen validiert. Kliff Kanten wurden automatisch aus TSX-Intensitätsbildern extrahiert und in einem Geoinformationssystem mit manuell digitalisierten Kliff Kanten aus optischen Satellitendaten, sowie mit Erosionsraten aus Zeitrafferkameras zusammengeführt. Die Ergebnisse deuten darauf hin, dass sich die Kliff Kante während der gesamten Auftauzeit mit konstanter Geschwindigkeit zurückzog. Die Verwendung von linearen Mischmodellen bestätigte, dass die Erosion im jährlichen Maßstab mit der Lufttemperatur und dem Niederschlag gekoppelt war, saisonale Schwankungen beeinflussten die Erosionsrate nicht. Die Ergebnisse stützen die Verwendung von TSX zur Überwachung schneller Permafrostdegradation mit hoher zeitlicher Auflösung. Die eindeutige Signatur von nassem Schnee in TSX Rückstreuintensitätsbildern wurde genutzt, um Schneeverteilungskarten (SCE) auf Qikiqtaruk in hoher zeitlicher Auflösung zu erzeugen. Aus TSX abgeleitete SCE zeigten eine große Ähnlichkeit zu SCE aus Landsat 8 Daten. Zeitreihen von prozentualer Schneebedeckung (FSC) wurden aus TSX und optischen SCE extrahiert und mit FSC-Schätzungen aus in-situ Zeitrafferkamera Daten verglichen. Auch hier zeigte TSX eine starke Übereinstimmung mit den in-situ-Daten und verbesserte die zeitliche Auflösung im Vergleich zur Landsat 8 Zeitreihe erheblich. Aus einer finalen kombinierten FSC-Zeitreihe konnten zwei Muster von Schneeschmelzen in ausgewählten Einzugsgebieten abgeleitet werden, die sich mit den in-situ Messungen deckten. Zusätzlich konnte TSX später in der Saison Schnee länger erkennen als Landsat 8, was den Vorteil von TSX zur Erkennung von Altschnee unterstreicht. Die TSX-abgeleiteten Schnee-Informationen lieferten wertvolle Einblicke in die Schneeschmelz-Dynamik auf Qikiqtaruk, welche zuvor nicht verfügbar waren. Die Empfindlichkeit von TSX für Vegetationsstruktur, die mit phänologischen Veränderungen einhergeht, wurde auf Qikiqtaruk untersucht. Rückstreu- und Kohärenzzeitreihen wurden aus 30 Testgebieten extrahiert. Die Rückstreu- und Kohärenzsignale wurden mit Vitalitäts-Daten verglichen, die aus in-situ-Zeitrafferkamera Zeitreihen extrahiert wurden. Die Ergebnisse zeigten einen Zusammenhang zwischen Vegetationshöhe und der Rückstreuintensität in HH / VV polarisierten Daten bei einem Einfallswinkel von 31 °. Ferner zeigte die ökologische Klasse mit einer Kombination von hohen Sträuchern und trockenen Oberflächenbedingungen eine zunehmende Rückstreuung mit zunehmende Pflanzenvitalität, wenn der kreuzpolarisierte VH / HH-Kanal bei 32 ° Einfallswinkel verwendet wurde. Die Ergebnisse aus strauchdominierten Klassen sind vielversprechend und liefern eine ergänzende Datenquelle für zeitlich hochaufgelöste Beobachtung der Vegetationsphänologie. Insgesamt zeigt diese Arbeit, dass TSX X-Band-Daten schnelle und saisonale Prozesse in arktischen Landschaften mit hoher räumlicher und zeitlicher Auflösung überwachen können. KW - SAR KW - remote sensing KW - arctic KW - SAR KW - Fernerkundung KW - Arktis Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-425783 ER - TY - THES A1 - Angermann, Lisa T1 - Hillslope-stream connectivity across scales T1 - Mehrskalige Untersuchung der Hang-Bach Konnektivität N2 - The concept of hydrologic connectivity summarizes all flow processes that link separate regions of a landscape. As such, it is a central theme in the field of catchment hydrology, with influence on neighboring disciplines such as ecology and geomorphology. It is widely acknowledged to be an important key in understanding the response behavior of a catchment and has at the same time inspired research on internal processes over a broad range of scales. From this process-hydrological point of view, hydrological connectivity is the conceptual framework to link local observations across space and scales. This is the context in which the four studies this thesis comprises of were conducted. The focus was on structures and their spatial organization as important control on preferential subsurface flow. Each experiment covered a part of the conceptualized flow path from hillslopes to the stream: soil profile, hillslope, riparian zone, and stream. For each study site, the most characteristic structures of the investigated domain and scale, such as slope deposits and peat layers were identified based on preliminary or previous investigations or literature reviews. Additionally, further structural data was collected and topographical analyses were carried out. Flow processes were observed either based on response observations (soil moisture changes or discharge patterns) or direct measurement (advective heat transport). Based on these data, the flow-relevance of the characteristic structures was evaluated, especially with regard to hillslope to stream connectivity. Results of the four studies revealed a clear relationship between characteristic spatial structures and the hydrological behavior of the catchment. Especially the spatial distribution of structures throughout the study domain and their interconnectedness were crucial for the establishment of preferential flow paths and their relevance for large-scale processes. Plot and hillslope-scale irrigation experiments showed that the macropores of a heterogeneous, skeletal soil enabled preferential flow paths at the scale of centimeters through the otherwise unsaturated soil. These flow paths connected throughout the soil column and across the hillslope and facilitated substantial amounts of vertical and lateral flow through periglacial slope deposits. In the riparian zone of the same headwater catchment, the connectivity between hillslopes and stream was controlled by topography and the dualism between characteristic subsurface structures and the geomorphological heterogeneity of the stream channel. At the small scale (1 m to 10 m) highest gains always occurred at steps along the longitudinal streambed profile, which also controlled discharge patterns at the large scale (100 m) during base flow conditions (number of steps per section). During medium and high flow conditions, however, the impact of topography and parafluvial flow through riparian zone structures prevailed and dominated the large-scale response patterns. In the streambed of a lowland river, low permeability peat layers affected the connectivity between surface water and groundwater, but also between surface water and the hyporheic zone. The crucial factor was not the permeability of the streambed itself, but rather the spatial arrangement of flow-impeding peat layers, causing increased vertical flow through narrow “windows” in contrast to predominantly lateral flow in extended areas of high hydraulic conductivity sediments. These results show that the spatial organization of structures was an important control for hydrological processes at all scales and study areas. In a final step, the observations from different scales and catchment elements were put in relation and compared. The main focus was on the theoretical analysis of the scale hierarchies of structures and processes and the direction of causal dependencies in this context. Based on the resulting hierarchical structure, a conceptual framework was developed which is capable of representing the system’s complexity while allowing for adequate simplifications. The resulting concept of the parabolic scale series is based on the insight that flow processes in the terrestrial part of the catchment (soil and hillslopes) converge. This means that small-scale processes assemble and form large-scale processes and responses. Processes in the riparian zone and the streambed, however, are not well represented by the idea of convergence. Here, the large-scale catchment signal arrives and is modified by structures in the riparian zone, stream morphology, and the small-scale interactions between surface water and groundwater. Flow paths diverge and processes can better be represented by proceeding from large scales to smaller ones. The catchment-scale representation of processes and structures is thus the conceptual link between terrestrial hillslope processes and processes in the riparian corridor. N2 - Das Konzept der hydrologischen Konnektivität umfasst alle Fließprozesse, welche verschiedene Bereiche einer Landschaft verbinden. Als solches ist es ein zentrales Thema in dem Forschungsbereich der Einzugsgebietshydrologie und beeinflusst auch benachbarte Disziplinen wie die Ökologie oder die Geomorphologie. Es ist allgemein akzeptiert, dass das Konzept der Konnektivität ein wichtiger Schlüssel zum Verständnis von Einzugsgebietsdynamiken ist, gleichzeitig inspiriert es die Erforschung interner Prozesse auf verschiedenen Skalen. Von dieser prozesshydrologischen Perspektive gesehen, bietet Konnektivität einen konzeptionellen Rahmen, um lokale Beobachtungen über Raum und Skalen miteinander in Verbindung zu setzen. In diesem Kontext stehen die vier Studien dieser Doktorarbeit. Der Fokus lag dabei auf räumlichen Strukturen als wichtigem Kontrollfaktor für präferentielle Fließpfade als spezieller Form unterirdischer Fließprozesse. Die Experimente deckten dabei je einen Abschnitt des konzeptionellen Fließweges vom Hang zum Bach exemplarisch ab: Bodenprofil und Hang, Hang und Auenbreich, und Bachbett. Für alle vier Studien wurden zunächst charakteristische Strukturen des Untersuchungsgebietes wie Schuttablagerungen am Hang oder Torfschichten im Flussbett auf Basis vorausgehender Untersuchungen und Literaturrecherchen identifiziert. Zusätzlich wurden weitere strukturelle Daten erfasst und digitale Geländemodelle ausgewertet. Anschließend wurde die Prozessrelevanz dieser Strukturen, vor allem im Hinblick auf die Hang-Bach-Konnektivität, untersucht. Die Ergebnisse der einzelnen Studien zeigten eine deutliche Verbindung zwischen den charakteristischen räumlichen Strukturen und dem hydrologischen Verhalten des untersuchten Gebietes. Insbesondere die räumliche Anordnung von Strukturen, d.h. die räumliche Verteilung und der Grad der Konnektivität der Strukturen, war ausschlaggebend für die Ausbildung präferenzieller Fließpfade und deren Relevanz für größerskalige Prozesse. Die räumliche Organisation von Strukturen war in allen Untersuchungsgebieten ein wichtiger Kontrollfaktor für hydrologische Prozesse. Die Beobachtungen auf verschiedenen Skalen und verschiedener Fließpfadabschnitte wurden miteinander in Verbindung gesetzt und verglichen. Besonderes Augenmerk lag dabei auf der theoretischen Analyse der Skalenhierarchie von Strukturen und Prozessen und der Richtung der Kausalität in diesem Zusammenhang. Auf dieser Grundlage wurde als Synthese der einzelnen Studien ein Konzept entwickelt, welches in der Lage ist, die Komplexität eines Einzugsgebietes abzubilden und gleichzeitig adequate Vereinfachungen zuzulassen. Diese Konzept der parabelförmigen Skalenabfolge beruht auf der Erkenntnis, dass Fließprozesse im terrestrischen Bereich eines Einzugsgebietes, also im Boden und den Hängen, vorwiegend konvergieren und sich von der kleinen Skala zur größeren hin zusammenfügen. Die Prozesse in der Aue und dem Bachbett werden von diesem Prinzip der Konvergenz allerding nicht abgebildet. Die in den Böden und an den Hängen erzeugten Fließmuster des Einzugsgebiets werden von den Strukturen in der Aue, der Morphologie des Baches und den kleinskaligen Wechselwirkungen zwischen Fließgewässer und Sediment überprägt. Die Fließprozesse divergieren, und eine Beschreibung von der großen Skala hin zur kleineren ist hier besser geeignet. Die räumlich diskrete oder konzeptionelle Darstellung von Prozessen auf der Einzugsgebietsskala bietet so die Verbindung zwischen terrestrischer Hanghydrologie und der bachseitigen Auenhydrologie. KW - catchment hydrology KW - hillslope hydrology KW - riparian zone KW - hyporheic zone KW - Einzugsgebietshydrologie KW - Hanghydrologie KW - Auenbereich KW - hyporheische Zone Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-424542 ER - TY - THES A1 - Hoischen, Clemens T1 - Multi-Messenger Astronomy with H.E.S.S: the Starburst Galaxy NGC253 and the Search for Short Time-Scale Transients T1 - Multi-Botenteilchen-Astronomie mit H.E.S.S: die Starburstgalaxie NGC 253 und die Suche nach kurzzeit-Transienten N2 - Gamma-ray astronomy has proven to provide unique insights into cosmic-ray accelerators in the past few decades. By combining information at the highest photon energies with the entire electromagnetic spectrum in multi-wavelength studies, detailed knowledge of non-thermal particle populations in astronomical objects and systems has been gained: Many individual classes of gamma-ray sources could be identified inside our galaxy and outside of it. Different sources were found to exhibit a wide range of temporal evolution, ranging from seconds to stable behaviours over many years of observations. With the dawn of both neutrino- and gravitational wave astronomy, additional messengers have come into play over the last years. This development presents the advent of multi-messenger astronomy: a novel approach not only to search for sources of cosmic rays, but for astronomy in general. In this thesis, both traditional multi-wavelength studies and multi-messenger studies will be presented. They were carried out with the H.E.S.S. experiment, an imaging air Cherenkov telescope array located in the Khomas Highland of Namibia. H.E.S.S. has entered its second phase in 2012 with the addition of a large, fifth telescope. While the initial array was limited to the study of gamma-rays with energies above 100 GeV, the new instrument allows to access gamma-rays with energies down to a few tens of GeV. Strengths of the multi-wavelength approach will be demonstrated at the example of the galaxy NGC253, which is undergoing an episode of enhanced star-formation. The gamma-ray emission will be discussed in light of all the information on this system available from radio, infrared and X-rays. These wavelengths reveal detailed information on the population of supernova remnants, which are suspected cosmic-ray accelerators. A broad-band gamma-ray spectrum is derived from H.E.S.S. and Fermi-LAT data. The improved analysis of H.E.S.S. data provides a measurement which is no longer dominated by systematic uncertainties. The long-term behaviour of cosmic rays in the starburst galaxy NGC253 is finally characterised. In contrast to the long time-scale evolution of a starburst galaxy, multi-messenger studies are especially intriguing when shorter time-scales are being probed. A prime example of a short time-scale transient are Gamma Ray Bursts. The efforts to understand this phenomenon effectively founded the branch of gamma-ray astronomy. The multi-messenger approach allows for the study of illusive phenomena such as Gamma Ray Bursts and other transients using electromagnetic radiation, neutrinos, cosmic rays and gravitational waves contemporaneously. With contemporaneous observations getting more important just recently, the execution of such observation campaigns still presents a big challenge due to the different limitations and strengths of the infrastructures. An alert system for transient phenomena has been developed over the course of this thesis for H.E.S.S. It aims to address many follow-up challenges in order to maximise the science return of the new large telescope, which is able to repoint much faster than the initial four telescopes. The system allows for fully automated observations based on scientific alerts from any wavelength or messenger and allows H.E.S.S. to participate in multi-messenger campaigns. Utilising this new system, many interesting multi-messenger observation campaigns have been performed. Several highlight observations with H.E.S.S. are analysed, presented and discussed in this work. Among them are observations of Gamma Ray Bursts with low latency and low energy threshold, the follow-up of a neutrino candidate in spatial coincidence with a flaring active galactic nucleus and of the merger of two neutron stars, which was revealed by the coincidence of gravitational waves and a Gamma-Ray Burst. N2 - Die Gammaastronomie hat sich in den letzten Jahrzehnten als eine wichtige Disziplin für die Suche nach den Beschleunigern der kosmischen Strahlung erwiesen. Dabei ergänzt die Gamma-Strahlung das Bild, welches wir aus Multi-Wellenlängen Studien gewonnen haben ausgezeichnet. Kürzlich sind die beiden neuen astronomischen Boten, Neutrinos und Gravitationswellen, zugänglich geworden. Diese liefern tiefere und neue Erkenntnisse über wichtige Prozesse im Universum und markiert die Geburt der Multi-Botenteilchen Astronomie: eine Form der Astronomie welche Gebrauch vom gesamten elektromagnetischen Spektrum, sowie von kosmischer Strahlung, Neutrinos und auch Gravitationswellen macht. In dieser Arbeit werden sowohl traditionelle Multi-Wellenlängen Studien, als auch neue Multi-Botenteilchen Studien präsentiert. Dabei wird gebrauch von Daten des H.E.S.S. Experiments gemacht: eine Gruppe von abbildenden Cherenkov-Teleskopen in Namibia. Im Jahr 2012 ist H.E.S.S. in die zweite Operationsphase eingetreten: ein neues, großes Teleskop wurde hinzugefügt welches es erlaubt Gamma-Strahlung mit Energien in der Größenordnung von wenigen zehn GeV zu messen. Der Multi-Wellenlängen Ansatz wird an dem Beispiel der Galaxie NGC253 demonstriert. Diese Galaxy befindet sich in einer Episode mit erhöhter Stern-Erzeugungsrate. Die Gamma-Strahlung, welche von dieser Galaxie gemessen wurde, wird im Zusammenhang mit Informationen über dieses System diskutiert die aus Radio, Infrarot und Röntgenstrahlung gewonnen wurden. Diese geben Aufschluss über die große Population von Supernova Überresten, welche exzellente Kandidaten für Beschleuniger von kosmischer Strahlung sind. Ein Breitband Gamma-Strahlungs-Spektrum wurde mit Hilfe von H.E.S.S. und Fermi-LAT Daten zusammengesetzt. Die verbesserte Analyse der H.E.S.S. Daten erzielt eine Messung die nicht mehr von systematischen Unsicherheiten dominiert wird. Anhand des kombinierte Spektrum wird das Verhalten der kosmischen Strahlung in der Galaxy NGC253 diskutiert. Im Gegensatz zum Langzeitverhalten von einer Galaxie wie NGC253, erweisen sich Multi-Botenteilchen Studien als besonders interessant für transiente Phänomene. Gleichzeitige Beobachtungen von Gamma-Strahlung und weiteren Botenteilchen können neue Erkenntnisse über beispielsweise Gammastrahlungsausbrüche oder die Quellen von Astrophysikalischen Neutrinos geben. Da gleichzeitige Beobachtungen in der Gammaastronomie erst seit kurzem immer wichtiger werden, stellen solche Beobachtungskampagnen aktuell eine Herausforderung dar. Um die Herausforderungen zu überwinden und gleichzeitig die wissenschaftlichen Studien, für die das neue große Teleskop von H.E.S.S. besonders geeignet ist, zu maximieren, wurde im Rahmen dieser Arbeit ein Alarmsystem für transiente Ereignisse entwickelt. Mit der Hilfe dieses neuen Systems konnten bereits viele interessante Beobachtungen durchgeführt werden. Einige der Interessantesten werden in dieser Arbeit vorgestellt und diskutiert. Darunter sind Beobachtungen von Gammastrahlungsausbrüchen mit kleinen zeitlichen Latenzen und niedriger Energieschwelle, die Nachbeobachtung eines Neutrino Kandidaten welcher räumlich mit einem Aktiven Galaxien Kern, der vorübergehend eine erhöhte Aktivität aufwies, zusammenfiel, sowie Beobachtungen vom Verschmelzen zweier Neutronensterne, was durch Gravitationswellen und einen gleichzeitigen Gammastrahlungsausbruch identifiziert werden konnte. KW - gamma-rays KW - astronomy KW - astro-particle physics KW - multi-messenger astronomy KW - Gamma-Strahlen KW - Astronomie KW - Astroteilchenphysik KW - Multi-Botenteilchen Astronomie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-424521 ER - TY - THES A1 - Rothkegel, Lars Oliver Martin T1 - Human scanpaths in natural scene viewing and natural scene search T1 - Menschliche Blickspuren beim Betrachten und Durchsuchen natürlicher Szenen BT - the role of systematic eye-movement tendencies N2 - Understanding how humans move their eyes is an important part for understanding the functioning of the visual system. Analyzing eye movements from observations of natural scenes on a computer screen is a step to understand human visual behavior in the real world. When analyzing eye-movement data from scene-viewing experiments, the impor- tant questions are where (fixation locations), how long (fixation durations) and when (ordering of fixations) participants fixate on an image. By answering these questions, computational models can be developed which predict human scanpaths. Models serve as a tool to understand the underlying cognitive processes while observing an image, especially the allocation of visual attention. The goal of this thesis is to provide new contributions to characterize and model human scanpaths on natural scenes. The results from this thesis will help to understand and describe certain systematic eye-movement tendencies, which are mostly independent of the image. One eye-movement tendency I focus on throughout this thesis is the tendency to fixate more in the center of an image than on the outer parts, called the central fixation bias. Another tendency, which I will investigate thoroughly, is the characteristic distribution of angles between successive eye movements. The results serve to evaluate and improve a previously published model of scanpath generation from our laboratory, the SceneWalk model. Overall, six experiments were conducted for this thesis which led to the following five core results: i) A spatial inhibition of return can be found in scene-viewing data. This means that locations which have already been fixated are afterwards avoided for a certain time interval (Chapter 2). ii) The initial fixation position when observing an image has a long-lasting influence of up to five seconds on further scanpath progression (Chapter 2 & 3). iii) The often described central fixation bias on images depends strongly on the duration of the initial fixation. Long-lasting initial fixations lead to a weaker central fixation bias than short fixations (Chapter 2 & 3). iv) Human observers adjust their basic eye-movement parameters, like fixation dura- tions and saccade amplitudes, to the visual properties of a target they look for in visual search (Chapter 4). v) The angle between two adjacent saccades is an indicator for the selectivity of the upcoming saccade target (Chapter 4). All results emphasize the importance of systematic behavioral eye-movement tenden- cies and dynamic aspects of human scanpaths in scene viewing. N2 - Die Art und Weise, wie wir unsere Augen bewegen, ist ein bedeutender Aspekt des visuellen Systems. Die Analyse von Augenbewegungen beim Betrachten natürlicher Szenen auf einem Bildschirm soll helfen, natürliches Blickverhalten zu verstehen. Durch Beantwortung der Fragen wohin (Fixationsposition), wie lange (Fixationsdauern) und wann (Reihenfolge von Fixationen) Versuchspersonen auf einem Bild fixieren, lassen sich computationale Modelle entwickeln, welche Blickspuren auf natürlichen Bildern vorhersagen. Modelle sind ein Werkzeug, um zugrunde liegende kognitive Prozesse, insbesondere die Zuweisung visueller Aufmerksamkeit, während der Betrachtung von Bildern zu verstehen. Das Ziel der hier vorliegenden Arbeit ist es, neue Beitr¨age zur Modellierung und Charakterisierung menschlicher Blickspuren auf natürlichen Szenen zu liefern. Speziell systematische Blicksteuerungstendenzen, welche größtenteils unabhängig vom betrachteten Bild sind, sollen durch die vorliegenden Studien besser verstanden und beschrieben werden. Eine dieser Tendenzen, welche ich gezielt untersuche, ist die Neigung von Versuchspersonen, die Mitte eines Bildes häufiger als äußere Bildregionen zu fixieren. Außerdem wird die charakteristische Verteilung der Winkel zwischen zwei aufeinanderfolgenden Sakkaden systematisch untersucht. Die Ergebnisse dienen der Evaluation und Verbesserung des SceneWalk Modells für Blicksteuerung aus unserer Arbeitsgruppe. Insgesamt wurden 6 Experimente durchgeführt, welche zu den folgenden fünf Kernbefunden führten: i) Ein örtlicher inhibition of return kann in Blickbewegungsdaten von Szenenbetrachtungsexperimenten gefunden werden. Das bedeutet, fixierte Positionen werden nach der Fixation für einen bestimmten Zeitraum gemieden (Kapitel 2). ii) Die Startposition der Betrachtung eines Bildes hat einen langanhaltenden Einfluss von bis zu fünf Sekunden auf die nachfolgende Blickspur (Kapitel 2 & 3). iii) Die viel beschriebene zentrale Fixationstendenz auf Bildern hängt davon ab, wie lange die erste Fixation dauert. Lange initiale Fixationen führen zu deutlich geringerer zentraler Fixationstendenz als kurze Fixationen (Kapitel 2 & 3). iv) Menschliche Betrachter passen Fixationsdauern und Sakkadenamplituden an die visuellen Eigenschaften eines Zielreizes in visueller Suche an (Kapitel 4). v) Der Winkel zwischen zwei Sakkaden ist ein Indikator dafür, wie selektiv das Ziel der zweiten Sakkade ist (Kapitel 4). Alle Ergebnisse betonen die Wichtigkeit von systematischem Blickbewegungsverhalten und dynamischen Aspekten menschlicher Blickspuren beim Betrachten von natürlichen Szenen. KW - eye movements KW - scene viewing KW - computational modeling KW - scanpaths KW - visual attention KW - Augenbewegungen KW - Szenenbetrachtung KW - Computationale Modellierung KW - Blickspuren KW - Visuelle Aufmerksamkeit Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-420005 ER - TY - THES A1 - an Haack, Jan T1 - Market and affect in evangelical mission T1 - Markt und Affekt im US-Evangelikalismus N2 - This text is a contribution to the research on the worldwide success of evangelical Christianity and offers a new perspective on the relationship between late modern capitalism and evangelicalism. For this purpose, the utilization of affect and emotion in evangelicalism towards the mobilization of its members will be examined in order to find out what similarities to their employment in late modern capitalism can be found. Different examples from within the evangelical spectrum will be analyzed as affective economies in order to elaborate how affective mobilization is crucial for evangelicalism’s worldwide success. Pivotal point of this text is the exploration of how evangelicalism is able to activate the voluntary commitment of its members, financiers, and missionaries. Gathered here are examples where both spheres—evangelicalism and late modern capitalism—overlap and reciprocate, followed by a theoretical exploration of how the findings presented support a view of evangelicalism as an inner-worldly narcissism that contributes to an assumed re-enchantment of the world. N2 - Diese Arbeit ist ein Beitrag zur Erforschung des weltweiten Erfolges des evangelikalen Christentums und bietet eine neue Perspektive auf die Beziehung zwischen spätmodernem Kapitalismus und Evangelikalismus. Zu diesem Zweck wird untersucht, wie Affekt und Emotion im Evangelikalismus eingesetzt werden, um seine Mitglieder zu mobilisieren und inwieweit ähnliche Mobilisierungsstrategien im spätmodernen Kapitalismus wiedererkennbar sind. Ausgewählte Beispiele aus dem evangelikalen Spektrum werden als Affektökonomien analysiert, um herauszuarbeiten, inwieweit die affektive Mobilisierung eine zentrale Bedeutung für den weltweiten Erfolg des evangelikalen Christentums hat. Ein zentraler Punkt dieser Untersuchung ist die Frage, wie der Evangelikalismus seine Mitglieder, Förderer und Missionare zu ihrem außergewöhnlichen Engagement motiviert. Die hier präsentierten Beispiele zeigen auf, in welchen Bereichen sich spätmoderner Kapitalismus und Evangelikalismus überlagern und austauschen. Darauf aufbauend folgt eine theoretische Erkundung, inwieweit die hier präsentierten Ergebnisse eine Beschreibung des Evangelikalismus als innerweltlichen Narzissmus erlauben und einer angenommenen Wiederverzauberung der Welt Vorschub leisten. KW - evangelicalism KW - affect KW - emotion KW - economies of affect KW - Evangelikalismus KW - Affekt KW - Emotion KW - Affektökonomie, Affektökonomien Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-424694 ER - TY - THES A1 - Rodriguez Loureiro, Ignacio T1 - Structural characterization of single and interacting soft interfaces displaying brushes of synthetic or biomolecular polymers T1 - Strukturelle Charakterisierung von einzelnen und interagierenden weichen Grenzflächen mit Bürsten aus synthetischen oder biomolekularen Polymeren N2 - The interaction between surfaces displaying end-grafted hydrophilic polymer brushes plays important roles in biology and in many wet-technological applications. The outer surfaces of Gram-negative bacteria, for example, are composed of lipopolysaccharide (LPS) molecules exposing oligo- and polysaccharides to the aqueous environment. This unique, structurally complex biological interface is of great scientific interest as it mediates the interaction of bacteria with neighboring bacteria in colonies and biofilms. The interaction between polymer-decorated surfaces is generally coupled to the distance-dependent conformation of the polymer chains. Therefore, structural insight into the interacting surfaces is a prerequisite to understand the interaction characteristics as well as the underlying physical mechanisms. This problem has been addressed by theory, but accurate experimental data on polymer conformations under confinement are rare, because obtaining perturbation-free structural insight into buried soft interfaces is inherently difficult. In this thesis, lipid membrane surfaces decorated with hydrophilic polymers of technological and biological relevance are investigated under controlled interaction conditions, i.e., at defined surface separations. For this purpose, dedicated sample architectures and experimental tools are developed. Via ellipsometry and neutron reflectometry pressure-distance curves and distance-dependent polymer conformations in terms of brush compression and reciprocative interpenetration are determined. Additional element-specific structural insight into the end-point distribution of interacting brushes is obtained by standing-wave x-ray fluorescence (SWXF). The methodology is first established for poly[ethylene glycol] (PEG) brushes of defined length and grafting density. For this system, neutron reflectometry revealed pronounced brush interpenetration, which is not captured in common brush theories and therefore motivates rigorous simulation-based treatments. In the second step the same approach is applied to realistic mimics of the outer surfaces of Gram-negative bacteria: monolayers of wild type LPSs extracted from E. Coli O55:B5 displaying strain-specific O-side chains. The neutron reflectometry experiments yield unprecedented structural insight into bacterial interactions, which are of great relevance for the properties of biofilms. N2 - Die Wechselwirkung zwischen Oberflächen mit end-gebundenen hydrophilen Polymerbürsten, spielt eine wichtige Rolle in der Biologie und in vielen nass-technologischen Anwendungen. Die äußeren Oberflächen Gram-negativer Bakterien bestehen beispielsweise aus Lipopolysaccharid (LPS) -Molekülen, welche ihrer wässrigen Umgebung Oligo- und Polysaccharide präsentieren. Diese einzigartige, strukturell komplexe biologische Grenzfläche ist von großem wissenschaftlichen Interesse, da sie die Wechselwirkung zwischen benachbarten Bakterien in Kolonien und Biofilmen vermittelt. Die Wechselwirkung zwischen Polymer-dekorierten Oberflächen ist im Allgemeinen mit der abstandsabhängigen Konformation der Polymerketten gekoppelt. Strukturelle Einblicke in die interagierenden Oberflächen sind daher eine Voraussetzung, um sowohl die Wechselwirkungseigenschaften als auch die zugrundeliegenden physikalischen Mechanismen zu verstehen. Dieses Problem wurde bereits theoretisch angegangen, aber genaue experimentelle Daten über Polymerkonformationen unter räumlicher Einschränkung liegen kaum vor, da es schwierig ist, störungsfrei strukturelle Einblicke in weiche Grenzflächen innerhalb kondensierter Materie zu erhalten. In dieser Arbeit wurden Lipidmonoschichten, die mit hydrophilen Polymeren von technologischer und biologischer Relevanz versehen sind, unter kontrollierten Wechselwirkungsbedingungen, d. h. bei definierten Oberflächenabständen, untersucht. Zu diesem Zweck wurden spezielle Probenarchitekturen und experimentelle Methoden entwickelt. Mittels Ellipsometrie und Neutronenreflektometrie wurden Druck-Abstand-Kurven und abstandsabhängige Polymerkonformationen im Hinblick auf Bürstenkompression und gegenseitige Durchdringung bestimmt. Zusätzliche, elementspezifische strukturelle Einblicke in die Endpunktverteilung interagierender Polymerbürsten wurden durch Röntgenfluoreszenz unter stehenden Wellen (SWXF) gewonnen. Die entwickelte Methodik wurde zunächst für Poly(ethylenglycol) (PEG) -Bürsten definierter Länge und Bindungsdichte etabliert. Für dieses System zeigte die Neutronenreflektometrie eine ausgeprägte Durchdringung der Bürsten, die in gängigen Bürstentheorien nicht erfasst wird und daher rigorose simulationsbasierte Studien motiviert. Im zweiten Schritt wurde der gleiche Ansatz auf realistische Modelle der äußeren Oberflächen Gram-negativer Bakterien angewandt: Monoschichten von aus E. coli O55 B5 extrahierten Wildtyp-Lipopolysacchariden, welche stammspezifische O-Seitenketten tragen. Die Neutronenreflektometrie-Experimente lieferten nie dagewesene strukturelle Einblicke in die Wechselwirkung von Bakterienoberflächen, Welche für die Eigenschaften von Biofilme von großer Bedeutung sind. KW - polymer physics KW - neutron reflectometry KW - soft matter physics KW - biophysics KW - Polymerphysik KW - Neutronreflektometrie KW - Physik der weichen Materie KW - Biophysik Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423675 ER - TY - THES A1 - Agarwal, Ankit T1 - Unraveling spatio-temporal climatic patterns via multi-scale complex networks T1 - Aufklärung raumzeitlicher Klimamuster über komplexe Netzwerke mit mehreren Maßstäben N2 - The climate is a complex dynamical system involving interactions and feedbacks among different processes at multiple temporal and spatial scales. Although numerous studies have attempted to understand the climate system, nonetheless, the studies investigating the multiscale characteristics of the climate are scarce. Further, the present set of techniques are limited in their ability to unravel the multi-scale variability of the climate system. It is completely plausible that extreme events and abrupt transitions, which are of great interest to climate community, are resultant of interactions among processes operating at multi-scale. For instance, storms, weather patterns, seasonal irregularities such as El Niño, floods and droughts, and decades-long climate variations can be better understood and even predicted by quantifying their multi-scale dynamics. This makes a strong argument to unravel the interaction and patterns of climatic processes at different scales. With this background, the thesis aims at developing measures to understand and quantify multi-scale interactions within the climate system. In the first part of the thesis, I proposed two new methods, viz, multi-scale event synchronization (MSES) and wavelet multi-scale correlation (WMC) to capture the scale-specific features present in the climatic processes. The proposed methods were tested on various synthetic and real-world time series in order to check their applicability and replicability. The results indicate that both methods (WMC and MSES) are able to capture scale-specific associations that exist between processes at different time scales in a more detailed manner as compared to the traditional single scale counterparts. In the second part of the thesis, the proposed multi-scale similarity measures were used in constructing climate networks to investigate the evolution of spatial connections within climatic processes at multiple timescales. The proposed methods WMC and MSES, together with complex network were applied to two different datasets. In the first application, climate networks based on WMC were constructed for the univariate global sea surface temperature (SST) data to identify and visualize the SSTs patterns that develop very similarly over time and distinguish them from those that have long-range teleconnections to other ocean regions. Further investigations of climate networks on different timescales revealed (i) various high variability and co-variability regions, and (ii) short and long-range teleconnection regions with varying spatial distance. The outcomes of the study not only re-confirmed the existing knowledge on the link between SST patterns like El Niño Southern Oscillation and the Pacific Decadal Oscillation, but also suggested new insights into the characteristics and origins of long-range teleconnections. In the second application, I used the developed non-linear MSES similarity measure to quantify the multivariate teleconnections between extreme Indian precipitation and climatic patterns with the highest relevance for Indian sub-continent. The results confirmed significant non-linear influences that were not well captured by the traditional methods. Further, there was a substantial variation in the strength and nature of teleconnection across India, and across time scales. Overall, the results from investigations conducted in the thesis strongly highlight the need for considering the multi-scale aspects in climatic processes, and the proposed methods provide robust framework for quantifying the multi-scale characteristics. N2 - Das Klima ist ein komplexes Zusammenspiel verschiedener Mechanismen und Rückkopplungen auf mehreren zeitlichen und räumlichen Skalen. Viele Studien beschäftigten sich mit dem diesem System, nur wenige jedoch konzentrierten sich auf das Multiskalenverhalten des Klimas. Vor allem die bis dato verfügbaren Techniken schränkten eine vertiefte Analyse der Klimavariabilität auf unterschiedlichen Skalen ein. Von großen Interesse in der aktuellen Klimaforschung sind Extremereignisse und plötzliche Veränderungen, welche höchstwahrscheinlich aus dem Zusammenwirken von Prozessen auf unterschiedlichen Skalen hervorgehen. Um Stürme, wiederkehrende Wetterlagen, jahreszeitliche Phänomene wie El Niño, Fluten, Dürren oder Klimaschwankungen über Jahrzehnte besser zu verstehen oder sogar vorhersagen zu können, müssen wir deren Dynamik auf unterschiedlichen Skalen quantifizieren. In der vorliegenden Arbeit werden Mittel und Wege präsentiert um das Zusammenwirken auf verschiedenen Skalen im Klimasystem besser zu verstehen und zu quantifizieren. Im ersten Teil dieser Arbeit stelle ich zwei Methoden, multi-scale event synchronization (MSES) und wavelet multi-scale correlation (WMC) vor, welche skalenspezifischen Eigenschaften in klimatischen Prozessen abbilden. Die vorgestellte Methode wurde mit mehreren synthetischen und realen Zeitreihen getestet um ihre Anwendbarkeit und Reproduzierbarkeit zu überprüfen. Die Ergebnisse zeigen, dass beide Methoden Beziehungen auf unterschiedlichen zeitlichen Skalen detaillierter als traditionelle Ansätze abbilden können. Im zweiten Teil dieser Arbeit bilde ich klimatische Netzwerke mithilfe eines Maßes zur Ähnlichkeit auf Multiskalen. Dabei untersuche ich die Entwicklung von räumlichen Beziehungen um klimatische Prozesse auf mehreren Zeitskalen zu verstehen. Die Methoden WMC und MSES werden zusammen mit komplexen Netzwerken auf zwei Datensätze angewendet. In der ersten Anwendung werden klimatische Netzwerke mit WMC für univariate globale Meeresoberflächentemperaturen gebildet. Auf unterschiedlichen Zeitskalen sollen dabei kurze und lange Fernwirkungen, welche andernfalls auf einer einzigen Zeitskale unerkannt blieben, entdeckt werden. In diesem Klimanetzwerk ließ sich eine starke Variabilität über die Zeit feststellen, was auf eine skalenfreie und kleinräumige Netzstruktur auf großem, beziehungsweise kleinem Maßstab schließen lässt. Weitere Untersuchungen von Klimanetzwerken auf unterschiedlichen Zeitskalen zeigte (i) hohe Variabilität und Co-Variabilität in Regionen, und (ii) Fernbeziehungen auf kurzen und langen Entfernungen mit variabler räumlicher Distanz. Die Ergebnisse bestätigen bekannte physikalischen Wechselwirkungen und daher auch die Stärken meines Ansatzes. Dadurch ergeben sich neue Einblicke in die Klimatologie von Ozeanen, sodass beispielsweise konvektive Prozesse in der Atmosphäre eine Abhängigkeit über weite Entfernungen aufweisen können. In der zweiten Anwendung verwendeten wir das von mir entwickelte, nicht-lineare MSES Ähnlichkeitsmaß um multivariate Fernbeziehungen zwischen Starkniederschlägen und klimatischen Mustern über Indien zu quantifizieren. Unsere Ergebnisse bestätigen signifikante, nicht-lineare Einflüsse, welche von traditionellen Methoden bisher unzureichend abgebildet wurden. Des Weiteren fanden wir deutliche Schwankungen in der Stärke und in der Ausprägung von Fernbeziehungen über Indien und über Zeitskalen. Zusammenfassend zeigen die Ergebnisse dieser Fallstudien, dass Multiskalen in Klimaprozessen entschieden berücksichtigt werden müssen und dass der entwickelte methodische Rahmen adäquat die charakteristischen Prozesse quantifizieren kann. KW - complex network KW - wavelet KW - climate global and local patterns KW - extreme events KW - multiscale network KW - event synchronization KW - komplexes Netzwerk KW - Wavelet KW - globale und lokale Muster des Klimas KW - extreme Ereignisse KW - Multiskalen Netzwerk KW - Ereignissynchronisation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423956 ER - TY - THES A1 - Zakariás, Lilla T1 - Transfer effects after working memory training in post-stroke aphasia T1 - Transfereffekte nach Arbeitsgedächtnistraining bei Aphasie nach Schlaganfall N2 - Background: Individuals with aphasia after stroke (IWA) often present with working memory (WM) deficits. Research investigating the relationship between WM and language abilities has led to the promising hypothesis that treatments of WM could lead to improvements in language, a phenomenon known as transfer. Although recent treatment protocols have been successful in improving WM, the evidence to date is scarce and the extent to which improvements in trained tasks of WM transfer to untrained memory tasks, spoken sentence comprehension, and functional communication is yet poorly understood. Aims: We aimed at (a) investigating whether WM can be improved through an adaptive n-back training in IWA (Study 1–3); (b) testing whether WM training leads to near transfer to unpracticed WM tasks (Study 1–3), and far transfer to spoken sentence comprehension (Study 1–3), functional communication (Study 2–3), and memory in daily life in IWA (Study 2–3); and (c) evaluating the methodological quality of existing WM treatments in IWA (Study 3). To address these goals, we conducted two empirical studies – a case-controls study with Hungarian speaking IWA (Study 1) and a multiple baseline study with German speaking IWA (Study 2) – and a systematic review (Study 3). Methods: In Study 1 and 2 participants with chronic, post-stroke aphasia performed an adaptive, computerized n-back training. ‘Adaptivity’ was implemented by adjusting the tasks’ difficulty level according to the participants’ performance, ensuring that they always practiced at an optimal level of difficulty. To assess the specificity of transfer effects and to better understand the underlying mechanisms of transfer on spoken sentence comprehension, we included an outcome measure testing specific syntactic structures that have been proposed to involve WM processes (e.g., non-canonical structures with varying complexity). Results: We detected a mixed pattern of training and transfer effects across individuals: five participants out of six significantly improved in the n-back training. Our most important finding is that all six participants improved significantly in spoken sentence comprehension (i.e., far transfer effects). In addition, we also found far transfer to functional communication (in two participants out of three in Study 2) and everyday memory functioning (in all three participants in Study 2), and near transfer to unpracticed n-back tasks (in four participants out of six). Pooled data analysis of Study 1 and 2 showed a significant negative relationship between initial spoken sentence comprehension and the amount of improvement in this ability, suggesting that the more severe the participants’ spoken sentence comprehension deficit was at the beginning of training, the more they improved after training. Taken together, we detected both near far and transfer effects in our studies, but the effects varied across participants. The systematic review evaluating the methodological quality of existing WM treatments in stroke IWA (Study 3) showed poor internal and external validity across the included 17 studies. Poor internal validity was mainly due to use of inappropriate design, lack of randomization of study phases, lack of blinding of participants and/or assessors, and insufficient sampling. Low external validity was mainly related to incomplete information on the setting, lack of use of appropriate analysis or justification for the suitability of the analysis procedure used, and lack of replication across participants and/or behaviors. Results in terms of WM, spoken sentence comprehension, and reading are promising, but further studies with more rigorous methodology and stronger experimental control are needed to determine the beneficial effects of WM intervention. Conclusions: Results of the empirical studies suggest that WM can be improved with a computerized and adaptive WM training, and improvements can lead to transfer effects to spoken sentence comprehension and functional communication in some individuals with chronic post-stroke aphasia. The fact that improvements were not specific to certain syntactic structures (i.e., non-canonical complex sentences) in spoken sentence comprehension suggest that WM is not involved in the online, automatic processing of syntactic information (i.e., parsing and interpretation), but plays a more general role in the later stage of spoken sentence comprehension (i.e., post-interpretive comprehension). The individual differences in treatment outcomes call for future research to clarify how far these results are generalizable to the population level of IWA. Future studies are needed to identify a few mechanisms that may generalize to at least a subpopulation of IWA as well as to investigate baseline non-linguistic cognitive and language abilities that may play a role in transfer effects and the maintenance of such effects. These may require larger yet homogenous samples. N2 - Patienten mit einer Aphasie nach einem Schlaganfall weisen häufig auch Beeinträchtigungen des Arbeitsgedächtnisses auf. Studien, die das Zusammenspiel von Arbeitsgedächtnis und Sprachfähigkeit untersuchen führten zu der Hypothese, dass ein Training des Arbeitsgedächtnisses auch zu Verbesserungen der Sprache führen könnten (sogenannte Transfer-Effekte). Obwohl jüngste Therapiestudien nachweislich die Leistung des Arbeitsgedächtnisses verbessern konnten, gibt es derzeitig nur wenig Evidenzen, ob und in welchem Ausmaß sich Verbesserungen des Arbeitsgedächtnisses auch auf ungeübte Gedächtnisaufgaben, das auditive Satzverständnis und die Kommunikationsfähigkeit im Alltag auswirken können. Das vorliegende Dissertationsprojekt untersucht, ob (a) das Arbeitsgedächtnis bei Patienten mit einer Aphasie über ein adaptiertes N-Back-Training verbessert werden kann (Studie 1–3) und (b) das Arbeitsgedächtnistraining zu einem nahen Transfer auf ungeübte Arbeitsgedächtnisaufgaben (Studie 1–3) und zu einem weiten Transfer auf auditive Satzverständnisaufgaben (Studie 1–3), auf die Alltagskommunikation (Studie 2–3) und auf das Alltagsgedächtnis (Studie 2–3) bei Patienten mit einer Aphasie führt. Zudem evaluiert das vorliegende Projekt (c) die methodische Qualität bereits existierender Arbeitsgedächtnistrainings bei Patienten mit einer Aphasie (Studie 3). Zur Beantwortung der vorliegenden Studienfragen wurden zwei empirische Studien (Studie 1 und 2) sowie ein systematisches Review (Studie 3) durchgeführt. In Studie 1 und 2 durchliefen Studienteilnehmer mit einer chronischen Aphasie nach einem Schlaganfall ein adaptiertes N-Back-Training. Es zeigte sich ein sehr gemischtes Trainingsmuster und Transfereffekte bei den Studienteilnehmern: Fünf von sechs Probanden verbesserten sich signifikant beim N-Back-Training. Alle sechs Probanden zeigten zudem signifikante weite Transfereffekte auf das auditive Satzverständnis. Darüber hinaus konnte ein weiter Transfereffekt auf die Kommunikationsfähigkeit und das Gedächtnis im Alltag sowie ein naher Transfer auf ungeübte N-Back-Aufgaben nachgewiesen werden. Allerdings schwankte das Transferverhalten innerhalb der Probanden stark. Das systematische Review (Studie 3) zeigte eine schwache interne und externe Validität über die 17 eingeschlossenen Studien. Obwohl die Ergebnisse bezüglich des Arbeitsgedächtnisses, des auditiven Satzverständnisses und des Lesens trotz der methodischen Einschränkungen der untersuchten Studien vielversprechend sind, sollten Schlussfolgerungen über die positiven Transfereffekte von Arbeitsgedächtnistrainings dennoch mit Vorsicht betrachtet werden. Die Ergebnisse der empirischen Studien zeigten, dass sich mit Hilfe eines computergestützten und adaptiven Trainings das Arbeitsgedächtnis verbessert und zudem ein Transfer auf das auditive Satzverständnis und die Kommunikationsfähigkeit im Alltag bei einigen Patienten mit einer chronischen Aphasie nach einem Schlaganfall erzielt werden konnte. Es sind jedoch weitere Studien notwendig, um den Einfluss individueller Unterschiede auf die individuellen Transfermaße aufzudecken und eine Generalisierbarkeit der Ergebnisse auf Untergruppen aphasischer Teilnehmer zu beleuchten. Darüber hinaus werden zukünftige Studien benötigt, die die Rolle der Baseline nicht-linguistischer kognitiver Fähigkeiten und der Sprachproduktion sowie die Aufrechterhaltung von Transfereffekte weiter untersuchen. KW - aphasia KW - working memory KW - treatment KW - Aphasie KW - Arbeitsgedächtnis KW - Therapie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423600 ER - TY - THES A1 - Richter, Rico T1 - Concepts and techniques for processing and rendering of massive 3D point clouds T1 - Konzepte und Techniken für die Verarbeitung und das Rendering von Massiven 3D-Punktwolken N2 - Remote sensing technology, such as airborne, mobile, or terrestrial laser scanning, and photogrammetric techniques, are fundamental approaches for efficient, automatic creation of digital representations of spatial environments. For example, they allow us to generate 3D point clouds of landscapes, cities, infrastructure networks, and sites. As essential and universal category of geodata, 3D point clouds are used and processed by a growing number of applications, services, and systems such as in the domains of urban planning, landscape architecture, environmental monitoring, disaster management, virtual geographic environments as well as for spatial analysis and simulation. While the acquisition processes for 3D point clouds become more and more reliable and widely-used, applications and systems are faced with more and more 3D point cloud data. In addition, 3D point clouds, by their very nature, are raw data, i.e., they do not contain any structural or semantics information. Many processing strategies common to GIS such as deriving polygon-based 3D models generally do not scale for billions of points. GIS typically reduce data density and precision of 3D point clouds to cope with the sheer amount of data, but that results in a significant loss of valuable information at the same time. This thesis proposes concepts and techniques designed to efficiently store and process massive 3D point clouds. To this end, object-class segmentation approaches are presented to attribute semantics to 3D point clouds, used, for example, to identify building, vegetation, and ground structures and, thus, to enable processing, analyzing, and visualizing 3D point clouds in a more effective and efficient way. Similarly, change detection and updating strategies for 3D point clouds are introduced that allow for reducing storage requirements and incrementally updating 3D point cloud databases. In addition, this thesis presents out-of-core, real-time rendering techniques used to interactively explore 3D point clouds and related analysis results. All techniques have been implemented based on specialized spatial data structures, out-of-core algorithms, and GPU-based processing schemas to cope with massive 3D point clouds having billions of points. All proposed techniques have been evaluated and demonstrated their applicability to the field of geospatial applications and systems, in particular for tasks such as classification, processing, and visualization. Case studies for 3D point clouds of entire cities with up to 80 billion points show that the presented approaches open up new ways to manage and apply large-scale, dense, and time-variant 3D point clouds as required by a rapidly growing number of applications and systems. N2 - Fernerkundungstechnologien wie luftgestütztes, mobiles oder terrestrisches Laserscanning und photogrammetrische Techniken sind grundlegende Ansätze für die effiziente, automatische Erstellung von digitalen Repräsentationen räumlicher Umgebungen. Sie ermöglichen uns zum Beispiel die Erzeugung von 3D-Punktwolken für Landschaften, Städte, Infrastrukturnetze und Standorte. 3D-Punktwolken werden als wesentliche und universelle Kategorie von Geodaten von einer wachsenden Anzahl an Anwendungen, Diensten und Systemen genutzt und verarbeitet, zum Beispiel in den Bereichen Stadtplanung, Landschaftsarchitektur, Umweltüberwachung, Katastrophenmanagement, virtuelle geographische Umgebungen sowie zur räumlichen Analyse und Simulation. Da die Erfassungsprozesse für 3D-Punktwolken immer zuverlässiger und verbreiteter werden, sehen sich Anwendungen und Systeme mit immer größeren 3D-Punktwolken-Daten konfrontiert. Darüber hinaus enthalten 3D-Punktwolken als Rohdaten von ihrer Art her keine strukturellen oder semantischen Informationen. Viele GIS-übliche Verarbeitungsstrategien, wie die Ableitung polygonaler 3D-Modelle, skalieren in der Regel nicht für Milliarden von Punkten. GIS reduzieren typischerweise die Datendichte und Genauigkeit von 3D-Punktwolken, um mit der immensen Datenmenge umgehen zu können, was aber zugleich zu einem signifikanten Verlust wertvoller Informationen führt. Diese Arbeit präsentiert Konzepte und Techniken, die entwickelt wurden, um massive 3D-Punktwolken effizient zu speichern und zu verarbeiten. Hierzu werden Ansätze für die Objektklassen-Segmentierung vorgestellt, um 3D-Punktwolken mit Semantik anzureichern; so lassen sich beispielsweise Gebäude-, Vegetations- und Bodenstrukturen identifizieren, wodurch die Verarbeitung, Analyse und Visualisierung von 3D-Punktwolken effektiver und effizienter durchführbar werden. Ebenso werden Änderungserkennungs- und Aktualisierungsstrategien für 3D-Punktwolken vorgestellt, mit denen Speicheranforderungen reduziert und Datenbanken für 3D-Punktwolken inkrementell aktualisiert werden können. Des Weiteren beschreibt diese Arbeit Out-of-Core Echtzeit-Rendering-Techniken zur interaktiven Exploration von 3D-Punktwolken und zugehöriger Analyseergebnisse. Alle Techniken wurden mit Hilfe spezialisierter räumlicher Datenstrukturen, Out-of-Core-Algorithmen und GPU-basierter Verarbeitungs-schemata implementiert, um massiven 3D-Punktwolken mit Milliarden von Punkten gerecht werden zu können. Alle vorgestellten Techniken wurden evaluiert und die Anwendbarkeit für Anwendungen und Systeme, die mit raumbezogenen Daten arbeiten, wurde insbesondere für Aufgaben wie Klassifizierung, Verarbeitung und Visualisierung demonstriert. Fallstudien für 3D-Punktwolken von ganzen Städten mit bis zu 80 Milliarden Punkten zeigen, dass die vorgestellten Ansätze neue Wege zur Verwaltung und Verwendung von großflächigen, dichten und zeitvarianten 3D-Punktwolken eröffnen, die von einer wachsenden Anzahl an Anwendungen und Systemen benötigt werden. KW - 3D point clouds KW - 3D-Punktwolken KW - real-time rendering KW - Echtzeit-Rendering KW - 3D visualization KW - 3D-Visualisierung KW - classification KW - Klassifizierung KW - change detection KW - Veränderungsanalyse KW - LiDAR KW - LiDAR KW - remote sensing KW - Fernerkundung KW - mobile mapping KW - Mobile-Mapping KW - Big Data KW - Big Data KW - GPU KW - GPU KW - laserscanning KW - Laserscanning Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423304 ER - TY - THES A1 - Cheng, Xiao T1 - Controlled solvent vapor annealing of block copolymer films T1 - Kontrolliertes Lösungsmitteldampfglühen von Blockcopolymerfilmen N2 - This project was focused on exploring the phase behavior of poly(styrene)187000-block-poly(2-vinylpyridine)203000 (SV390) with high molecular weight (390 kg/mol) in thin films, in which the self-assembly of block copolymers (BCPs) was realized via thermo-solvent annealing. The advanced processing technique of solvent vapor treatment provides controlled and stable conditions. In Chapter 3, the factors to influence the annealing process and the swelling behavior of homopolymers are presented and discussed. The swelling behavior of BCP in films is controlled by the temperature of the vapor and of the substrate, on one hand, and variation of the saturation of the solvent vapor atmosphere (different solvents), on the other hand. Additional factors like the geometry and material of the chamber, the type of flow inside the chamber etc. also influence the reproducibility and stability of the processing. The slightly selective solvent vapor of chloroform gives 10% more swelling of P2VP than PS in films with thickness of ~40 nm. The tunable morphology in ultrathin films of high molecular weight BCP (SV390) was investigated in Chapter 4. First, the swelling behavior can be precisely tuned by temperature and/or vapor flow separately, which provided information for exploring the multiple-parameter-influenced segmental chain mobility of polymer films. The equilibrium state of SV390 in thin films influenced by temperature was realized at various temperatures with the same degree of swelling. Various methods including characterization with SFM, metallization and RIE were used to identify the morphology of films as porous half-layer with PS dots and P2VP matrix. The kinetic investigations demonstrate that on substrates with either weak or strong interaction the original morphology of the BCP with high molecular weight is changed very fast within 5 min, and the further annealing serves for annihilation of defects. The morphological development of symmetric BCP in films with thickness increasing from half-layer to one-layer influenced by confinement factors of gradient film thicknesses and various surface properties of substrates was studied in Chapter 5. SV390 and SV99 films show bulk lamella-forming morphology after slightly selective solvent vapor (chloroform) treatment. SV99 films show cylinder-forming morphology under strongly selective solvent vapor (toluene) treatment since the asymmetric structure (caused by toluene uptake in PS blocks only) of SV99 block copolymer during annealing. Both kinds of morphology (lamella and cylinder) are influenced by the film thickness. The annealed morphology of SV390 and SV99 influenced by the combination of confined film and substrate property is similar to the morphology on flat silicon wafers. In this chapter the gradients in the film thickness and surface properties of the substrates with regard to their influence on the morphological development in thin BCP films are presented. Directed self-assembly (graphoepitaxy) of this SV390 was also investigated to compare with systematically reported SV99. In Chapter 6 an approach to induced oriented microphase separation in thick block copolymer films via treatment with the oriented vapor flow using mini-extruder is envisaged to be an alternative to existing methodologies, e.g. via non-solvent-induced phase separation. The preliminary tests performed in this study confirm potential perspective of this method, which alters the structure through the bulk of the film (as revealed by SAXS measurements), but more detailed studies have to be conducted in order to optimize the preparation. N2 - Im Rahmen dieser Arbeit wurde das Phasenverhalten von Poly(styrol)_187000 -block-poly(2-Vinylpyridin)_203000 (SV^390 ) hohen Molekulargewichts (390 kg/mol) in dünnen Filmen untersucht, in denen die Selbstassemblierung der Block-Copolymere durch Lösungsmitteltempern erreicht wurde. Das hochentwickelte Verfahren der Behandlung mit Lösungsmitteldampf bietet kontrollierte und stabile Bedingungen. In *Kapitel 3* werden die Faktoren diskutiert, die den Prozess des Temperns und das Schwellverhalten der dünnen Block-Copolymer Filme beeinflussen. Das Schwellverhalten von Block-Copolymeren in Filmen wird einerseits durch die Temperaturen des Lösungsmitteldampfes und des Substrates sowie andererseits dem Sättigungs-Dampfdruck kontrolliert. Zusätzlich beeinflussen auch Faktoren wie die Geometrie und das Material der Kammer sowie die Art der Strömung in der Kammer die Reproduzierbarkeit und Stabilität der Messungen. Der geringfügig selektive Lösungsmitteldampf von Chloroform führt zu 10% stärkerem Schwellen des P2VP-Blocks im Vergleich zu PS in Filmen mit einer Dicke von ca. 40 nm. Die variable Morphologie ultradünner Filme eines Block-Copolymers hohen Molekulargewichts (SV^390 ) wurde in *Kapitel 4* untersucht. Das Schwellverhalten kann durch die Temperatur und den Dampffluss unabhängig voneinander präzise beeinflusst werden. Die Umgebungstemperatur stellt einen limitierenden Faktor für den Bereich der Annealing-Temperatur aufgrund der möglichen Kondensation des Lösungsmitteldampfes dar. Mehrere Methoden, wie zum Beispiel die Charakterisierung mit Rasterkraftmikroskopie, Metallisierung und reaktives Ionenätzen, wurden verwendet, um die Morphologie der Filme als perforierte Lamellen mit PS-Kugeln und P2VP-Matrix zu bestimmen. Eine Analyse der Kinetik der Strukturbildung zeigt, dass sich die ursprüngliche Morphologie von Block-Copolymeren hohen Molekulargewichts sowohl auf Substraten mit schwacher als auch starker Wechselwirkung innerhalb von 5 min ändert und das weitere Tempern zum Ausheilen von Defekten führt. Die morphologische Veränderung von symmetrischen Block-Copolymeren bei Filmdicken zwischen einer halben Domänendicke und einer ganzen Domänendicke wurde in *Kapitel 5* in Abhängigkeit von Gradienten der Filmdicke und verschiedenen Oberflächeneigenschaften der Substrate untersucht. SV^390 und SV^99 Filme zeigen eine lamellare Bulk-Morphologie nach Behandlung mit geringfügig selektivem Lösungsmitteldampf (Chloroform). SV^99 Filme bilden eine zylindrische Morphologie unter Behandlung mit stark selektivem Lösungsmitteldampf (Toluol) aus, weil das SV^99 Block-Copolymer während des Temperns eine asymmetrische Struktur aufweist (Toluol-Aufnahme ausschließlich im Polystyrol-Block). Beide Morphologien (Lamellen und Zylinder) werden durch die Filmdicke beeinflusst. Die Morphologie von SV^390 und SV^99 nach Tempern ist abhängig von der Filmdicke und den Substrat-Eigenschaften und ähnlich der Morphologie auf flachen Silicium-Wafern. In *Kapitel 6* wird ein Ansatz zur induzierten orientierten Mikrophasenseparation in dicken Block-Copolymer Filmen durch Behandlung mit orientiertem Dampffluss unter Verwendung eines Miniextruders vorgestellt, der als Alternative zu existierenden Verfahren wie Nichtlösungsmittel-induzierter Phasenseparation dienen könnte. Die ersten im Rahmen dieser Arbeit durchgeführten Untersuchungen zeigen das Potential der Methode auf, welche die Struktur im gesamten Volumen des Films durchgehend beeinflusst (durch SAXS-Messungen gezeigt). Jedoch sind detailliertere Studien notwendig, um die Prozedur zu optimieren. KW - block copolymer KW - thin films KW - solvo-thermal annealing KW - Block-copolymer KW - dünne Filme KW - Lösungsmittel-thermisches Tempern Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-424179 ER - TY - THES A1 - Schwahn, Kevin T1 - Data driven approaches to infer the regulatory mechanism shaping and constraining levels of metabolites in metabolic networks T1 - Entwicklung von datengestützten Verfahren, um regulatorischen Mechanismen zu untersuchen, die die Metabolitmengen in Stoffwechselnetzwerken beeinflussen N2 - Systems biology aims at investigating biological systems in its entirety by gathering and analyzing large-scale data sets about the underlying components. Computational systems biology approaches use these large-scale data sets to create models at different scales and cellular levels. In addition, it is concerned with generating and testing hypotheses about biological processes. However, such approaches are inevitably leading to computational challenges due to the high dimensionality of the data and the differences in the dimension of data from different cellular layers. This thesis focuses on the investigation and development of computational approaches to analyze metabolite profiles in the context of cellular networks. This leads to determining what aspects of the network functionality are reflected in the metabolite levels. With these methods at hand, this thesis aims to answer three questions: (1) how observability of biological systems is manifested in metabolite profiles and if it can be used for phenotypical comparisons; (2) how to identify couplings of reaction rates from metabolic profiles alone; and (3) which regulatory mechanism that affect metabolite levels can be distinguished by integrating transcriptomics and metabolomics read-outs. I showed that sensor metabolites, identified by an approach from observability theory, are more correlated to each other than non-sensors. The greater correlations between sensor metabolites were detected both with publicly available metabolite profiles and synthetic data simulated from a medium-scale kinetic model. I demonstrated through robustness analysis that correlation was due to the position of the sensor metabolites in the network and persisted irrespectively of the experimental conditions. Sensor metabolites are therefore potential candidates for phenotypical comparisons between conditions through targeted metabolic analysis. Furthermore, I demonstrated that the coupling of metabolic reaction rates can be investigated from a purely data-driven perspective, assuming that metabolic reactions can be described by mass action kinetics. Employing metabolite profiles from domesticated and wild wheat and tomato species, I showed that the process of domestication is associated with a loss of regulatory control on the level of reaction rate coupling. I also found that the same metabolic pathways in Arabidopsis thaliana and Escherichia coli exhibit differences in the number of reaction rate couplings. I designed a novel method for the identification and categorization of transcriptional effects on metabolism by combining data on gene expression and metabolite levels. The approach determines the partial correlation of metabolites with control by the principal components of the transcript levels. The principle components contain the majority of the transcriptomic information allowing to partial out the effect of the transcriptional layer from the metabolite profiles. Depending whether the correlation between metabolites persists upon controlling for the effect of the transcriptional layer, the approach allows us to group metabolite pairs into being associated due to post-transcriptional or transcriptional regulation, respectively. I showed that the classification of metabolite pairs into those that are associated due to transcriptional or post-transcriptional regulation are in agreement with existing literature and findings from a Bayesian inference approach. The approaches developed, implemented, and investigated in this thesis open novel ways to jointly study metabolomics and transcriptomics data as well as to place metabolic profiles in the network context. The results from these approaches have the potential to provide further insights into the regulatory machinery in a biological system. N2 - Die System Biologie ist auf die Auswertung biologischer Systeme in ihrer Gesamtheit gerichtet. Dies geschieht durch das Sammeln und analysieren von großen Datensätzen der zugrundeliegenden Komponenten der Systeme. Computergestützte systembiologische Ansätze verwenden diese großen Datensätze, um Modelle zu erstellen und Hypothesen über biologische Prozesse auf verschiedenen zellularen Ebenen zu testen. Diese Ansätze führen jedoch unweigerlich zu rechnerischen Herausforderungen, da die Daten über eine hohe Dimensionalität verfügen. Des Weiteren weisen Daten, die von verschiedenen zellulären Ebenen gewonnen werden, unterschiedliche Dimensionen auf. Diese Doktorarbeit beschäftigt sich mit der Untersuchung und Entwicklung von rechnergestützten Ansätzen, um Metabolit-Profile im Zusammenhang von zellulären Netzwerken zu analysieren und um zu bestimmen, welche Aspekte der Netzwerkfunktionalität sich in den Metabolit-Messungen widerspiegeln. Die Zielsetzung dieser Arbeit ist es, die folgenden Fragen, unter Berücksichtigung der genannten Methoden, zu beantworten: (1) Wie ist die Beobachtbarkeit von biologischen Systemen in Metabolit-Profilen manifestiert und sind diese für phänotypische Vergleiche verwendbar? (2) Wie lässt sich die Kopplung von Reaktionsraten ausschließlich durch Metabolit-Profile identifizieren? (3) Welche regulatorischen Mechanismen, die Metabolit-Niveaus beeinflussen, sind unterscheidbar, wenn transkriptomische und metabolische Daten kombiniert werden? Ich konnte darlegen, dass Sensormetabolite, die durch eine Methode „observability theory“ identifiziert wurden, stärker korrelieren als Nicht-Sensoren. Die stärkere Korrelation zwischen Sensormetaboliten konnte mit öffentlich zugänglichen Daten, als auch mit synthetischen Daten aus einer Simulation mit einem mittelgroßen kinetischen Modell gezeigt werden. Durch eine Robustheitsanalyse war es mir möglich zu demonstrieren, dass die Korrelation auf die Position der Sensormetabolite im Netzwerk zurückzuführen und unabhängig von den experimentellen Bedingungen ist. Sensormetabolite sind daher geeignete Kandidaten für phänotypische Vergleiche zwischen verschiedenen Bedingungen durch gezielte metabolische Analysen. Des Weiteren ergaben meine Untersuchungen, dass die Auswertung der Kopplung von Stoffwechselreaktionsraten von einer ausschließlich datengestützten Perspektive möglich ist. Dabei muss die Annahme getroffen werden, dass Stoffwechselreaktionen mit dem Massenwirkungsgesetz beschreibbar sind. Ich konnte zeigen, dass der Züchtungsprozess mit einem Verlust der regulatorischen Kontrolle auf der Ebene der gekoppelten Reaktionsraten einhergeht. Dazu verwendete ich Metabolit-Profile von gezüchteten, als auch wilden Weizen- und Tomatenspezies. Meine Ergebnisse belegen, dass die selben Stoffwechselwege in Arabidopsis thaliana und Escherichia coli eine unterschiedliche Anzahl an gekoppelten Reaktionsraten aufweisen. Darüber hinaus habe ich eine neue Methode zur Identifizierung und Kategorisierung von transkriptionellen Effekten auf den Metabolismus entwickelt. Dies erfolgt durch die Kombination von Genexpressionsdaten und Messungen von Metaboliten. Die Methode ermittelt die partielle Korrelation zwischen Metaboliten, wobei die Hauptkomponenten der Transkriptdaten als Kontrollvariablen dienen. Dadurch kann der Einfluss der Transkription auf Metabolit-Profile herausgerechnet werden. Dieser Ansatz ermöglicht die Einteilung von Metabolitpaaren in assoziiert durch transkriptionelle oder assoziiert durch posttranskriptionelle Regulation. Die Einteilung ist abhängig davon, ob die Korrelation zwischen Metaboliten bestehen bleibt, wenn für den Einfluss der Transkription kontrolliert wird. Ich konnte nachweisen, dass die zuvor genannten Klassifizierungen von Metabolitpaaren mit existierender Literatur und den Ergebnissen einer auf bayessche Statistik basierenden Studie übereinstimmen. Die Methoden, die in dieser Doktorarbeit entwickelt, implementiert und untersucht wurden, öffnen neue Wege um metabolische und transkriptomische Daten gemeinsam auszuwerten. Sie erlauben Metabolit-Profile in den Kontext von metabolischen Netzwerken zu stellen. Die Ergebnisse haben das Potential uns weitere Einblicke in die regulatorische Maschinerie in biologischen Systemen zu gewähren. KW - systems biology KW - metabolomics KW - metabolites KW - Systembiologie KW - Metabolomik KW - Metabolite Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423240 ER - TY - THES A1 - Koç, Azize T1 - Ultrafast x-ray studies on the non-equilibrium of the magnetic and phononic system in heavy rare-earths T1 - Ultraschnelle Röntgenuntersuchungen des Nichtgleichgewichts der magnetischen und phononischen Systeme in schweren Seltenen Erden N2 - In this dissertation the lattice and the magnetic recovery dynamics of the two heavy rare-earth metals Dy and Gd after femtosecond photoexcitation are described. For the investigations, thin films of Dy and Gd were measured at low temperatures in the antiferromagnetic phase of Dy and close to room temperature in the ferromagnetic phase of Gd. Two different optical pump-x-ray probe techniques were employed: Ultrafast x-ray diffraction with hard x-rays (UXRD) yields the structural response of heavy rare-earth metals and resonant soft (elastic) x-ray diffraction (RSXD), which allows measuring directly changes in the helical antiferromagnetic order of Dy. The combination of both techniques enables to study the complex interaction between the magnetic and the phononic subsystems. N2 - In dieser Dissertation wird die Relaxationsdynamik des Gitters und der magnetischen Ordnung der zwei schweren, seltenen Erden Dy und Gd nach der Anregung mit femtosekunden Laserpulsen beschrieben. Für diese Untersuchungen wurden dünne Schichten von Dy und Gd bei niedrigen Temperaturen in der antiferromagnetischen Phase von Dy und nahe der Raumtemperatur in der ferromagnetischen Phase von Gd gemessen. Es wurden zwei verschiedene Experimente mittels optischem Anrege- Röntgen Abfrageverfahren durchgeführt, die ultraschnelle Röntgenbeugung mit harten Röntgenstrahlen (UXRD) und die resonante weiche (elastische) Röntgenbeugung (RSXD). Letzteres Verfahren erlaubt es, direkt die Änderungen der helikalen, antiferromagnetischen Ordnung zu messen. Die Kombination beider Techniken ermöglicht es, die komplexe Wechselwirkung zwischen dem magnetischen und dem phononischen Subsystem zu untersuchen. KW - magnetostriction KW - time-resolved x-ray diffraction KW - resonant soft x-ray diffraction KW - magnetism KW - critical exponent KW - heat transport KW - dysprosium KW - gadolinium KW - rare-earth metals KW - non-equilibrium KW - dynamics KW - magnetic and phononic system KW - Magnetostriktion KW - zeitaufgelöste Röntgenbeugung KW - resonante weiche Röntgenbeugung KW - Magnetismus KW - kritischer Exponent KW - Wärmetransport KW - Dysprosium KW - Gadolinium KW - Metalle der seltenen Erden KW - Nichtgleichgewicht KW - Dynamik KW - magnetisches und phononisches System Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423282 ER - TY - THES A1 - Codutti, Agnese T1 - Behavior of magnetic microswimmers T1 - Verhalten magnetischer Microschwimmer BT - simulations for natural swimmers and synthetic propellers BT - Simulationen von natürlichen Schwimmern und synthetischen Propellern N2 - Microswimmers, i.e. swimmers of micron size experiencing low Reynolds numbers, have received a great deal of attention in the last years, since many applications are envisioned in medicine and bioremediation. A promising field is the one of magnetic swimmers, since magnetism is biocom-patible and could be used to direct or actuate the swimmers. This thesis studies two examples of magnetic microswimmers from a physics point of view. The first system to be studied are magnetic cells, which can be magnetic biohybrids (a swimming cell coupled with a magnetic synthetic component) or magnetotactic bacteria (naturally occurring bacteria that produce an intracellular chain of magnetic crystals). A magnetic cell can passively interact with external magnetic fields, which can be used for direction. The aim of the thesis is to understand how magnetic cells couple this magnetic interaction to their swimming strategies, mainly how they combine it with chemotaxis (the ability to sense external gradient of chemical species and to bias their walk on these gradients). In particular, one open question addresses the advantage given by these magnetic interactions for the magnetotactic bacteria in a natural environment, such as porous sediments. In the thesis, a modified Active Brownian Particle model is used to perform simulations and to reproduce experimental data for different systems such as bacteria swimming in the bulk, in a capillary or in confined geometries. I will show that magnetic fields speed up chemotaxis under special conditions, depending on parameters such as their swimming strategy (run-and-tumble or run-and-reverse), aerotactic strategy (axial or polar), and magnetic fields (intensities and orientations), but it can also hinder bacterial chemotaxis depending on the system. The second example of magnetic microswimmer are rigid magnetic propellers such as helices or random-shaped propellers. These propellers are actuated and directed by an external rotating magnetic field. One open question is how shape and magnetic properties influence the propeller behavior; the goal of this research field is to design the best propeller for a given situation. The aim of the thesis is to propose a simulation method to reproduce the behavior of experimentally-realized propellers and to determine their magnetic properties. The hydrodynamic simulations are based on the use of the mobility matrix. As main result, I propose a method to match the experimental data, while showing that not only shape but also the magnetic properties influence the propellers swimming characteristics. N2 - Die Forschung an Mikroschwimmern oder genauer gesagt an aktiv schwimmenden Mikroorganismen oder Objekten mit niedrigen Reynolds Zahlen, hat in den letzten Jahren wegen ihrer vielfältigen Anwendungen in der Medizin und Bioremediation stark an Bedeutung gewonnen. Besonders vielversprechend ist die Arbeit mit magnetischen Mikroschwimmern, da deren biokompatibler Magnetismus genutzt werden kann um die Schwimmer gezielt zu steuern. In dieser Arbeit werden zwei Beispiele von magnetischen Mikroschwimmern aus physikalischer Sicht untersucht. Das erste Modellsystem hierfür sind magnetische Zellen. Diese können entweder magnetische Biohybride (eine schwimm-Zelle gekoppelt mit einer synthetischen magnetischen Komponente) oder magnetotaktische Bakterien (natürlich vorkommende Bakterien die eine intrazelluläre Kette von magnetischen Kristallen produzieren) sein. Die passive Wechselwirkung der magnetischen Zelle mit einem externen Magnetfeld kann zu deren Steuerung genutzt werden. Das Ziel dieser Arbeit ist es zu verstehen wie magnetische Zellen die magnetische Wechselwirkung mit ihre Schwimmstrategie verknüpfen, oder genauer gesagt, wie sie sie zur Chemotaxis (die Fähigkeit externe chemische Gradienten wahrzunehmen und die Fortbewegungsrichtung daran anzupassen) zu nutzen. Es ist immer noch nicht restlos geklärt worin in der natürlichen Umgebung der magnetischen Bakterien, wie beispielsweise in porösem Sediment, der Vorteil der Wechselwirkung mit dem externen magnetischen Feld liegt. In dieser Arbeit wurde ein modifiziertes „Active Brownian Particle model“ verwendet um mittels Computersimulationen experimentelle Ergebnisse an Bakterien zu reproduzieren, die sich frei, in einer Glaskapillare, oder in anders begrenzten Geometrien bewegen. Ich werde zeigen, dass abhängig von der Schwimmstrategie („run-and-tumble“ oder „runand-reverse“), aerotaktische Strategie (axial oder polar), und der Feldintensität und Orientierung, das magnetische Feld Chemotaxis beschleunigen kann. Abhängig von dem gewählten Modellsystem kann es jedoch auch zu einer Behinderung der Chemotaxis kommen. Das zweite Beispiel für magnetische Mikroschwimmer sind starre (z.B. Helices) oder zufällig geformte magnetische Propeller. Sie werden durch ein externes magnetisches Feld angetrieben und gelenkt. Hierbei stellt sich die Frage wie die Form der Propeller deren Verhalten beeinflusst und wie sie für eine bestimmte Anwendung optimiert werden können. Daher ist es das Ziel dieser Arbeit Simulationsmethoden vorzuschlagen um das experimentell beobachtete Verhalten zu reproduzieren und die magnetischen Eigenschaften der Propeller zu beschreiben. Hierfür wird die Mobilitätsmatrix verwendet um die hydrodynamischen Simulationen zu realisieren. Ein Hauptresultat meiner Arbeit ist eine neue Methode, welche die Simulationen in Einklang mit den experimentellen Resultaten bringt. Hierbei zeigt sich, dass nicht nur die Form sondern insbesondere auch die magnetischen Eigenschaften die Schwimmcharakteristik der Propeller entscheidend beeinflussen. KW - microswimmers KW - magnetism KW - bacteria KW - propellers KW - simulation KW - Microschwimmer KW - Magnetismus KW - Bakterien KW - Propeller KW - Simulationen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-422976 ER - TY - THES A1 - Vogel, Stefanie T1 - Sequence dependency of photon and electron induced DNA strand breaks T1 - Sequenzabhängigkeit von photonen-und elektroneninduzierten DNA Strangbrüchen N2 - Deoxyribonucleic acid (DNA) is the carrier of human genetic information and is exposed to environmental influences such as the ultraviolet (UV) fraction of sunlight every day. The photostability of the DNA against UV light is astonishing. Even if the DNA bases have a strong absorption maximum at around 260 nm/4.77 eV, their quantum yield of photoproducts remains very low 1. If the photon energies exceed the ionization energy (IE) of the nucleobases ( ̴ 8-9 eV) 2, the DNA can be severely damaged. Photoexcitation and -ionization reactions occur, which can induce strand breaks in the DNA. The efficiency of the excitation and ionization induced strand breaks in the target DNA sequences are represented by cross sections. If Si as a substrate material is used in the VUV irradiation experiments, secondary electrons with an energy below 3.6 eV are generated from the substrate. This low energy electrons (LEE) are known to induce dissociative electron attachment (DEA) in DNA and with it DNA strand breakage very efficiently. LEEs play an important role in cancer radiation therapy, since they are generated secondarily along the radiation track of ionizing radiation. In the framework of this thesis, different single stranded DNA sequences were irradiated with 8.44 eV vacuum UV (VUV) light and cross sections for single strand breaks (SSB) were determined. Several sequences were also exposed to secondary LEEs, which additionally contributed to the SSBs. First, the cross sections for SSBs depending on the type of nucleobases were determined. Both types of DNA sequences, mono-nucleobase and mixed sequences showed very similar results upon VUV radiation. The additional influence of secondarily generated LEEs resulted in contrast in a clear trend for the SSB cross sections. In this, the polythymine sequence had the highest cross section for SSBs, which can be explained by strong anionic resonances in this energy range. Furthermore, SSB cross sections were determined as a function of sequence length. This resulted in an increase in the strand breaks to the same extent as the increase in the geometrical cross section. The longest DNA sequence (20 nucleotides) investigated in this series, however, showed smaller cross section values for SSBs, which can be explained by conformational changes in the DNA. Moreover, several DNA sequences that included the radiosensitizers 5-Bromouracil (5BrU) and 8-Bromoadenine (8BrA) were investigated and the corresponding SSB cross sections were determined. It was shown that 5BrU reacts very strongly to VUV radiation leading to high strand break yields, which showed in turn a strong sequence-dependency. 8BrA, on the other hand, showed no sensitization to the applied VUV radiation, since almost no increase in strand breakage yield was observed in comparison to non-modified DNA sequences. In order to be able to identify the mechanisms of radiation damage by photons, the IEs of certain DNA sequences were further explored using photoionization tandem mass spectrometry. By varying the DNA sequence, both the IEs depending on the type of nucleobase as well as on the DNA strand length could be identified and correlated to the SSB cross sections. The influence of the IE on the photoinduced reaction in the brominated DNA sequences could be excluded. N2 - Desoxyribonukleinsäure (DNA) ist als Träger der menschlichen Erbinformation täglich vielen Einflüssen ausgesetzt. Diese Einflüsse können Teil unserer Umwelt sein, wie der ultraviolette (UV) Anteil des Sonnenlichts. Die Photostabilität der DNA gegen UV-Licht ist erstaunlich, denn trotz eines starkes Absorptionsmaximum der DNA-Basen bei etwa 260 nm/4,77 eV, bleibt ihre Quantenausbeute an Photoprodukten sehr gering 1. Überschreiten die Photonenenergien die Ionisationsenergie (IE) der Nukleinbasen ( ̴ 8-9 eV) 2, kann die DNA schwer geschädigt werden. Es treten Anregungs- und Ionisierungsreaktionen auf, die zu Strangbrüchen in der DNA führen. Die Effizienz der induzierten Strangbrüche in den untersuchten DNA-Sequenzen wird durch Wirkungsquerschnitte dargestellt. Wird in den Bestrahlungsexperimenten Silizium als Substratmaterial verwendet, werden aus dem Substrat zusätzliche Sekundärelektronen mit einer Energie unter 3,6 eV erzeugt, die weiteren Schaden an der DNA verursachen. Diese niederenergetischen Elektronen (LEE) sind dafür bekannt, dissoziative Elektronenanlagerung (DEA) und damit Strangbrüche in der DNA zu erzeugen. LEEs entstehen sekundär entlang des Strahlungsweges von ionisierender Strahlung im biologischen Gewebe, wenn in der Behandlung der Krankheit Krebs Strahlentherapie eingesetzt wird. Im Rahmen dieser Arbeit wurden verschiedene Einzelstrang-DNA-Sequenzen mit 8.44 eV Vakuum-UV (VUV) Licht bestrahlt und Wirkungsquerschnitte für Einzel-strangbrüche (SSB) bestimmt. Ein Teil der Sequenzen wurde außerdem sekundär erzeugten LEEs ausgesetzt, die einen zusätzlichen Beitrag zu den SSBs liefern. Als erstes wurde der Wirkungsquerschnitt für SSBs in Abhängigkeit der Nukleinbasen bestimmt. Hierbei weisen sowohl die DNA Sequenzen, die nur ein Sorte an Nukleinbasen besitzen als auch die gemischte Sequenzen sehr ähnliche Werte auf. Durch den zusätzlichen Einfluss der LEEs hat sich wiederum für die DNA Sequenzen mit nur einer Sorte an Nukleinbasen ein stark ausgeprägter Trend gezeigt. Die Polythymin-Sequenz weist den höchsten Wirkungsquerschnitt für SSBs auf, was durch ausgeprägte anionische Resonanzen in diesem Energiebereich begründet werden kann. Des Weiteren wurden Wirkungsquerschnitte für SSBs in Abhängigkeit Sequenzlänge ermittelt. Dabei ergab sich eine Erhöhung der SSBs im gleichen Maße wie die Vergrößerung des geometrischen Wirkungsquerschnitts. Die längste DNA Sequenz (20 Nukleotide), die in dieser Reihe untersucht wurde, zeigte hingegen kleinere Werte für den SSB Wirkungsquerschnitt, was durch Konformationsänderungen in der DNA erklärt werden kann. Einige der untersuchten DNA Sequenzen wurden zusätzlich mit den Radiosensibilisatoren 5-Bromouracil (5BrU) und 8-Bromoadenine (8BrA) modifiziert und entsprechende SSB Wirkungsquerschnitte bestimmt. Hierbei hat sich gezeigt, dass 5BrU mittels einer hohen Strangbruchausbeute sehr stark auf VUV Strahlung reagiert, wobei das Ausmaß der Reaktion stark sequenzabhängig ist. 8BrA hingegen, weist keine Sensibilisierung gegenüber der verwendeten VUV Strahlung auf, da keine Erhöhung der Strangbruchausbeute gegenüber unmodifizierten DNA Sequenzen ersichtlich ist. Um die Mechanismen der Strahlenschädigung durch Photonen besser einschätzen zu können, wurden zusätzlich die IEs bestimmter DNA Sequenzen mit Hilfe der Photoionisations-Tandem-Massenspektrometrie untersucht. Durch Variation der DNA-Sequenzen konnte sowohl ein Trend der IEs in Abhängigkeit der Nukleinbasen und der DNA-Stranglänge identifiziert und als auch eine Abhängigkeit der Reaktivität von 5BrU von seinem IE in der entsprechenden DNA Sequenz ausgeschlossen werden. Die IE Trends und die Wirkungsquerschnitte für SSBs wurden abschließend in Korrelation gebracht. KW - DNA KW - photo ionization KW - dissociative electron attachment KW - DNA origami KW - radiosensitizer KW - ionization energy KW - tandem mass spectrometry KW - DNS KW - Photoionisation KW - Dissoziative Elektronenanlagerung KW - DNA Origami KW - Radiosensibilisator KW - Ionisierungsenergie KW - Tandemmassenspektrometrie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-419669 ER - TY - THES A1 - Choi, Youngeun T1 - DNA origami structures as versatile platforms for nanophotonics T1 - DNA Origami Struktruen als Vielseitige Plattform für Nanophotonik N2 - Nanophotonics is the field of science and engineering aimed at studying the light-matter interactions on the nanoscale. One of the key aspects in studying such optics at the nanoscale is the ability to assemble the material components in a spatially controlled manner. In this work, DNA origami nanostructures were used to self-assemble dye molecules and DNA coated plasmonic nanoparticles. Optical properties of dye nanoarrays, where the dyes were arranged at distances where they can interact by Förster resonance energy transfer (FRET), were systematically studied according to the size and arrangement of the dyes using fluorescein (FAM) as the donor and cyanine 3 (Cy 3) as the acceptor. The optimized design, based on steady-state and time-resolved fluorometry, was utilized in developing a ratiometric pH sensor with pH-inert coumarin 343 (C343) as the donor and pH-sensitive FAM as the acceptor. This design was further applied in developing a ratiometric toxin sensor, where the donor C343 is unresponsive and FAM is responsive to thioacetamide (TAA) which is a well-known hepatotoxin. The results indicate that the sensitivity of the ratiometric sensor can be improved by simply arranging the dyes into a well-defined array. The ability to assemble multiple fluorophores without dye-dye aggregation also provides a strategy to amplify the signal measured from a fluorescent reporter, and was utilized here to develop a reporter for sensing oligonucleotides. By incorporating target capturing sequences and multiple fluorophores (ATTO 647N dye molecules), a reporter for microbead-based assay for non-amplified target oligonucleotide sensing was developed. Analysis of the assay using VideoScan, a fluorescence microscope-based technology capable of conducting multiplex analysis, showed the DNA origami nanostructure based reporter to have a lower limit of detection than a single stranded DNA reporter. Lastly, plasmonic nanostructures were assembled on DNA origami nanostructures as substrates to study interesting optical behaviors of molecules in the near-field. Specifically, DNA coated gold nanoparticles, silver nanoparticles, and gold nanorods, were placed on the DNA origami nanostructure aiming to study surface-enhanced fluorescence (SEF) and surface-enhanced Raman scattering (SERS) of molecules placed in the hotspot of coupled plasmonic structures. N2 - Nanophotonik bezeichnet die Untersuchung von Licht in Wechselwirkung mit Materie im Nanometermaßstab. Die exakte Kontrolle über den Aufbau und die räumliche Anordnung der beteiligten Komponenten ist ein entscheidender Faktor für die Erforschung der Optik nanoskalierter Systeme. Eine mögliche Lösung bietet die selbstorganisatorische Eigenschaft von DNA-Origami-Nanostrukturen, die im Rahmen dieser Dissertation, insbesondere zur Kopplung verschiedener Farbstoffe bzw. plasmonisch aktiver Nanopartikel, verwendet wurden. Im ersten Teil dieser Dissertation wurden unterschiedliche Förster-Resonanzenergietransfer- (FRET) Farbstoff-Matrizen, bestehend aus Fluorescein (FAM) als FRET-Donor und Cyanine 3 (Cy 3) als FRET-Akzeptor, hergestellt und nachfolgend hinsichtlich des Einflusses ihrer Gesamtgröße und ihrer Anordnung via statischer und zeitaufgelöster Fluoreszenzspektroskopie untersucht. Daraufhin erfolgte die Weiterentwicklung der ermittelten optimalen Anordnung der Farbstoffe in einen ratiometrischen pH-Sensor, bestehend aus dem pH stabilen Coumarin 343 (C343) als FRET-Donor und dem pH sensitiven FAM als FRET-Akzeptor. Die erhaltenen Ergebnisse zeigten, dass sich die Sensitivität ratiometrischer Sensoren, insbesondere durch die wohldefinierte Anordnung der beteiligten Farbstoffe in der Matrize, deutlich steigern lassen. Selbige Anordnung konnte auch erfolgreich zur Entwicklung eines Giftstoffsensors, zum Nachweis des Hepatoxins Thioacetamid (TAA), verwendet werden. Die Möglichkeit der Anordnung mehrerer Farbstoffe, unter Vermeidung ungewollter Farbstoff-Aggregation, ermöglicht außerdem die Verstärkung der Signale sogenannter Fluoreszenzreporter. Dies führte, im Rahmen dieser Arbeit, zur erfolgreichen Entwicklung eines auf Mikroperlen basierenden Oligonukleotid-Sensors, welcher ohne die Notwendigkeit einer vorherigen Zielverstärkung (z.B. durch Polymerase-Kettenreaktion) auskommt. Die anschließende Analyse mittels VideoScan, einer Multiplex-Analyse-Technik basierend auf der Fluoreszenzmikroskopie, ergab deutlich niedrigere Nachweisgrenzen für auf DNA-Origami basierende Reporter im Vergleich zu DNA-Einzelstrang basierenden Reportern. Abschließend erfolgte die Verwendung der DNA-Origamis als Substrat für die präzise räumliche Anordnung verschiedener plasmonisch aktiver Nanopartikel zur Untersuchung des optischen Verhaltens von Zielmolekülen im plasmonischen Nahfeld. Die Untersuchung der oberflächenverstärkten Fluoreszenz (SEF) und oberflächenverstärkten Raman-Streuung (SERS) von Molekülen im plasmonischer Hotspots erfolgte insbesondere mit Fokus auf den Einfluss der unterschiedlichen Anordnung von Gold-Nanostäbchen, Gold-Nanopartikel, und Silber-Nanopartikel. KW - DNA origami KW - Förster resonance energy transfer KW - plasmonics KW - DNA Origami KW - Förster-Resonanzenergietransfer KW - Plasmonik Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421483 ER - TY - THES A1 - Fabian, Jenny T1 - Effects of algae on microbial carbon cycling in freshwaters BT - with focus on the utilization of leaf carbon by heterotrophic bacteria and fungi N2 - Microbial processing of organic matter (OM) in the freshwater biosphere is a key component of global biogeochemical cycles. Freshwaters receive and process valuable amounts of leaf OM from their terrestrial landscape. These terrestrial subsidies provide an essential source of energy and nutrients to the aquatic environment as a function of heterotrophic processing by fungi and bacteria. Particularly in freshwaters with low in-situ primary production from algae (microalgae, cyanobacteria), microbial turnover of leaf OM significantly contributes to the productivity and functioning of freshwater ecosystems and not least their contribution to global carbon cycling. Based on differences in their chemical composition, it is believed that leaf OM is less bioavailable to microbial heterotrophs than OM photosynthetically produced by algae. Especially particulate leaf OM, consisting predominantly of structurally complex and aromatic polymers, is assumed highly resistant to enzymatic breakdown by microbial heterotrophs. However, recent research has demonstrated that OM produced by algae promotes the heterotrophic breakdown of leaf OM in aquatic ecosystems, with profound consequences for the metabolism of leaf carbon (C) within microbial food webs. In my thesis, I aimed at investigating the underlying mechanisms of this so called priming effect of algal OM on the use of leaf C in natural microbial communities, focusing on fungi and bacteria. The works of my thesis underline that algal OM provides highly bioavailable compounds to the microbial community that are quickly assimilated by bacteria (Paper II). The substrate composition of OM pools determines the proportion of fungi and bacteria within the microbial community (Paper I). Thereby, the fraction of algae OM in the aquatic OM pool stimulates the activity and hence contribution of bacterial communities to leaf C turnover by providing an essential energy and nutrient source for the assimilation of the structural complex leaf OM substrate. On the contrary, the assimilation of algal OM remains limited for fungal communities as a function of nutrient competition between fungi and bacteria (Paper I, II). In addition, results provide evidence that environmental conditions determine the strength of interactions between microalgae and heterotrophic bacteria during leaf OM decomposition (Paper I, III). However, the stimulatory effect of algal photoautotrophic activities on leaf C turnover remained significant even under highly dynamic environmental conditions, highlighting their functional role for ecosystem processes (Paper III). The results of my thesis provide insights into the mechanisms by which algae affect the microbial turnover of leaf C in freshwaters. This in turn contributes to a better understanding of the function of algae in freshwater biogeochemical cycles, especially with regard to their interaction with the heterotrophic community. N2 - Die mikrobielle Verarbeitung von organischer Biomasse in Süßwasser nimmt eine fundamentale Rolle in den globalen biogeochemischen Nährstoffkreisläufen ein. Ein Großteil der organischen Biomasse gelangt aus der terrestrischen Umgebung, insbesondere aus dem Blattlaubeintrag, in die Gewässer und stellt eine wesentliche Energie- und Nährstoffquelle für die aquatische Umwelt dar. In die aquatischen Nahrungsnetze gelangt das terrestrische Material vorwiegend durch mikrobielle Umsatzprozesse, an denen vor allem heterotrophe Bakterien und Pilze beteiligt sind. Der mikrobielle Umsatz von Blattlaub kann die biogeochemischen Prozesse aquatischer Ökosysteme signifikant beeinflussen und nicht zuletzt deren Beitrag zum globalen Kohlenstoffkreislauf. Das gilt insbesondere für Gewässer, in denen die in-situ Produktion organischer Biomasse durch aquatische Algen sehr gering ist. Aufgrund ihrer unterschiedlichen chemischen Zusammensetzung wird angenommen, dass Blattbiomasse für die mikrobielle Gemeinschaft schlechter abbaubar und damit weniger bioverfügbar ist als photosynthetisch produziert Biomasse durch Algen. Das gilt insbesondere für das partikuläre Blattmaterial, welches vorwiegend aus strukturell komplexen und aromatischen Polymeren besteht. Neue Forschungsergebnisse haben jedoch gezeigt, dass Algen den enzymatischen Abbau von Blattmaterial stimulieren (Priming Effekt), und den Umsatz von Blattkohlenstoff innerhalb des mikrobiellen Nahrungsnetzes signifikant beeinflussen. In meiner Doktorarbeit habe ich die zugrundeliegenden Mechanismen dieses Priming Effekts von Algenbiomasse auf die mikrobiellen Umsatzprozesse von Blattkohlenstoff innerhalb natürlicher mikrobieller Gemeinschaften untersucht. Der Fokus lag dabei vor allem auf aquatische Pilz- und Bakteriengemeinschaften. Die von mir erbrachten Arbeiten verifizieren, dass Algenbiomasse für die mikrobielle Gemeinschaft teilweise hoch verfügbar ist (Studie II). Meine Arbeiten unterstreichen jedoch, dass Algenbiomasse vor allem von Bakterien assimiliert wird und deren Beitrag zum mikrobiellen Blattumsatz stimuliert. Die Bakteriengemeinschaft erhält über das Algenmaterial vermutlich essentielle Energie- und Nährstoffquellen, die ihnen die Assimilation des strukturell komplexen Blattkohlenstoffs erleichtert. Im Gegensatz dazu scheint die Pilzgemeinschaft das Algenmaterial nicht direkt nutzen zu können, vermutlich bedingt durch deren schwache Konkurrenz mit Bakterien um das Algensubstrat (Studie I, II). Darüber hinaus liefern die Ergebnisse einer weiteren Studie Hinweise darauf, dass Umweltbedingungen die Stärke der Wechselwirkungen zwischen Algen und heterotrophen Bakterien während der Zersetzung der Blattbiomasse bestimmen (Studie I, III). Die stimulierende Wirkung der photoautotrophen Algenaktivität auf den Blattkohlenstoff Umsatz blieb jedoch selbst unter hochdynamischen Umweltbedingungen signifikant, was ihre funktionelle Rolle für Ökosystemprozesse unterstreicht (Studie III). Die Ergebnisse aus den Arbeiten meiner Promotion geben Einblicke in die Mechanismen des mikrobiellen aquatischen Blattabbaus und welche funktionelle Rolle Algen hierbei haben. Das trägt zu einem besseren Verständnis der Funktion von Algen in den biogeochemischen Kreisläufen der Süßgewässer bei, insbesondere mit Hinblick auf die Interaktion der heterotrophen Gemeinschaft mit Algenbiomasse. KW - stable isotope tracer KW - organic matter KW - microbial carbon turnover KW - microbial interactions KW - stabile Isotope Tracer KW - organisches Material KW - mikrobieller Kohlenstoffkreislauf KW - mikrobielle Interaktionen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-422225 ER - TY - THES A1 - Hesse, Cornelia T1 - Integrated water quality modelling in meso- to large-scale catchments of the Elbe river basin under climate and land use change T1 - Integrierte Gewässergütemodellierung in mittel- bis großskaligen Einzugsgebieten der Elbe unter dem Einfluss von Klima- und Landnutzungsänderungen N2 - In einer sich ändernden Umwelt sind Fließgewässerökosysteme vielfältigen direkten und indirekten anthropogenen Belastungen ausgesetzt, die die Gewässer sowohl in ihrer Menge als auch in ihrer Güte beeinträchtigen können. Ein übermäßiger Eintrag von Nährstoffen verursacht etwa Massenentwicklungen von Algen und Sauerstoffdefizite in den Gewässern, was zum Verfehlen der Ziele der Wasserrahmenrichtlinie (WRRL) führen kann. In vielen europäischen Einzugsgebieten und auch dem der Elbe sind solche Probleme zu beobachten. Während der letzten Jahrzehnte entstanden diverse computergestützte Modelle, die zum Schutz und Management von Wasserressourcen genutzt werden können. Sie helfen beim Verstehen der Nährstoffprozesse und Belastungspfade in Einzugsgebieten, bei der Abschätzung möglicher Folgen von Klima- und Landnutzungsänderungen für die Wasserkörper, sowie bei der Entwicklung eventueller Kompensationsmaßnahmen. Aufgrund der Vielzahl an sich gegenseitig beeinflussenden Prozessen ist die Modellierung der Wasserqualität komplexer und aufwändiger als eine reine hydrologische Modellierung. Ökohydrologische Modelle zur Simulation der Gewässergüte, einschließlich des Modells SWIM (Soil and Water Integrated Model), bedürfen auch häufig noch einer Weiterentwicklung und Verbesserung der Prozessbeschreibungen. Aus diesen Überlegungen entstand die vorliegende Dissertation, die sich zwei Hauptanliegen widmet: 1) einer Weiterentwicklung des Nährstoffmoduls des ökohydrologischen Modells SWIM für Stickstoff- und Phosphorprozesse, und 2) der Anwendung des Modells SWIM im Elbegebiet zur Unterstützung eines anpassungsfähigen Wassermanagements im Hinblick auf mögliche zukünftige Änderungen der Umweltbedingungen. Die kumulative Dissertation basiert auf fünf wissenschaftlichen Artikeln, die in internationalen Zeitschriften veröffentlicht wurden. Im Zuge der Arbeit wurden verschiedene Modellanpassungen in SWIM vorgenommen, wie etwa ein einfacher Ansatz zur Verbesserung der Simulation der Wasser- und Nährstoffverhältnisse in Feuchtgebieten, ein um Ammonium erweiterter Stickstoffkreislauf im Boden, sowie ein Flussprozessmodul, das Umwandlungsprozesse, Sauerstoffverhältnisse und Algenwachstum im Fließgewässer simuliert, hauptsächlich angetrieben von Temperatur und Licht. Auch wenn dieser neue Modellansatz ein sehr komplexes Modell mit einer Vielzahl an neuen Kalibrierungsparametern und steigender Unsicherheit erzeugte, konnten gute Ergebnisse in den Teileinzugsgebieten und dem gesamten Gebiet der Elbe erzielt werden, so dass das Modell zur Abschätzung möglicher Folgen von Klimavariabilitäten und veränderten anthropogenen Einflüssen für die Gewässergüte genutzt werden konnte. Das neue Fließgewässermodul ist ein wichtiger Beitrag zur Verbesserung der Nährstoffmodellierung in SWIM, vor allem für Stoffe, die hauptsächlich aus Punktquellen in die Gewässer gelangen (wie z.B. Phosphat). Der neue Modellansatz verbessert zudem die Anwendbarkeit von SWIM für Fragestellungen im Zusammenhang mit der WRRL, bei der biologische Qualitätskomponenten (wie etwa Phytoplankton) eine zentrale Rolle spielen. Die dargestellten Ergebnisse der Wirkungsstudien können bei Entscheidungsträgern und anderen Akteuren das Verständnis für zukünftige Herausforderungen im Gewässermanagement erhöhen und dazu beitragen, ein angepasstes Management für das Elbeeinzugsgebiet zu entwickeln. N2 - In a changing world facing several direct or indirect anthropogenic challenges the freshwater resources are endangered in quantity and quality. An excessive supply of nutrients, for example, can cause disproportional phytoplankton development and oxygen deficits in large rivers, leading to failure of the aims requested by the Water Framework Directive (WFD). Such problems can be observed in many European river catchments including the Elbe basin, and effective measures for improving water quality status are highly appreciated. In water resources management and protection, modelling tools can help to understand the dominant nutrient processes and to identify the main sources of nutrient pollution in a watershed. They can be effective instruments for impact assessments investigating the effects of changing climate or socio-economic conditions on the status of surface water bodies, and for testing the usefulness of possible protection measures. Due to the high number of interrelated processes, ecohydrological model approaches containing water quality components are more complex than the pure hydrological ones, and their setup and calibration require more efforts. Such models, including the Soil and Water Integrated Model (SWIM), still need some further development and improvement. Therefore, this cumulative dissertation focuses on two main objectives: 1) the approach-related objectives aiming in the SWIM model improvement and further development regarding nutrient (nitrogen and phosphorus) process description, and 2) the application-related objectives in meso- to large-scale Elbe river basins to support adaptive river basin management in view of possible future changes. The dissertation is based on five scientific papers published in international journals and dealing with these research questions. Several adaptations were implemented in the model code to improve the representation of nutrient processes including a simple wetland approach, an extended by ammonium nitrogen cycle in the soils, as well as a detailed in-stream module, simulating algal growth, nutrient transformation processes and oxygen conditions in the river reaches, mainly driven by water temperature and light. Although this new approaches created a highly complex ecohydrological model with a large number of additional calibration parameters and rising uncertainty, the calibration and validation of the SWIM model enhanced by the new approaches in selected subcatchment and the entire Elbe river basin delivered satisfactory to good model results in terms of criteria of fit. Thus, the calibrated and validated model provided a sound base for the assessment of possible future changes and impacts in climate, land use and management in the Elbe river (sub)basin(s). The new enhanced modelling approach improved the applicability of the SWIM model for the WFD related research questions, where the ability to consider biological water quality components (such as phytoplankton) is important. It additionally enhanced its ability to simulate the behaviour of nutrients coming mainly from point sources (e.g. phosphate phosphorus). Scenario results can be used by decision makers and stakeholders to find and understand future challenges and possible adaptation measures in the Elbe river basin. KW - Elbe KW - SWIM KW - Wassergütemodellierung KW - water quality modelling KW - Nährstoffe KW - nutrients KW - Nährstoffretention KW - nutrient retention KW - Flussprozesse KW - in-stream processes KW - climate change KW - land use change KW - Klimaänderung KW - Landnutzungsänderung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-422957 ER - TY - THES A1 - von Nordheim, Danny T1 - Dielectric non-linearities of P(VDF-TrFE) single and multilayers for memory applications T1 - Dielektrische Nichtlinearitäten in P(VDF-TrFE) Einzel- und Mehrfachschichten für Speicheranwendungen N2 - Poly(vinylidene fluoride-trifluoroethylene) (P(VDF-TrFE)) ferroelectric thin films of different molar ratio have been studied with regard to data memory applications. Therefore, films with thicknesses of 200 nm and less have been spin coated from solution. Observations gained from single layers have been extended to multilayer capacitors and three terminal transistor devices. Besides conventional hysteresis measurements, the measurement of dielectric non-linearities has been used as a main tool of characterisation. Being a very sensitive and non-destructive method, non-linearity measurements are well suited for polarisation readout and property studies. Samples have been excited using a high quality, single-frequency sinusoidal voltage with an amplitude significantly smaller than the coercive field of the samples. The response was then measured at the excitation frequency and its higher harmonics. Using the measurement results, the linear and non-linear dielectric permittivities ɛ₁, ɛ₂ and ɛ₃ have been determined. The permittivities have been used to derive the temperature-dependent polarisation behaviour as well as the polarisation state and the order of the phase transitions. The coercive field in VDF-TrFE copolymers is high if compared to their ceramic competitors. Therefore, the film thickness had to be reduced significantly. Considering a switching voltage of 5 V and a coercive field of 50 MV/m, the film thickness has to be 100 nm and below. If the thickness becomes substantially smaller than the other dimensions, surface and interface layer effects become more pronounced. For thicker films of P(VDF-TrFE) with a molar fraction of 56/44 a second-order phase transition without a thermal hysteresis for an ɛ₁(T) temperature cycle has been predicted and observed. This however, could not be confirmed by the measurements of thinner films. A shift of transition temperatures as well as a temperature independent, non-switchable polarisation and a thermal hysteresis for P(VDF-TrFE) 56/44 have been observed. The impact of static electric fields on the polarisation and the phase transition has therefore been studied and simulated, showing that all aforementioned phenomena including a linear temperature dependence of the polarisation might originate from intrinsic electric fields. In further experiments the knowledge gained from single layer capacitors has been extended to bilayer copolymer thin films of different molar composition. Bilayers have been deposited by succeeding cycles of spin coating from solution. Single layers and their bilayer combination have been studied individually in order to prove the layers stability. The individual layers have been found to be physically stable. But while the bilayers reproduced the main ɛ₁(T) properties of the single layers qualitatively, quantitative numbers could not be explained by a simple serial connection of capacitors. Furthermore, a linear behaviour of the polarisation throughout the measured temperature range has been observed. This was found to match the behaviour predicted considering a constant electric field. Retention time is an important quantity for memory applications. Hence, the retention behaviour of VDF-TrFE copolymer thin films has been determined using dielectric non-linearities. The polarisation loss in P(VDF-TrFE) poled samples has been found to be less than 20% if recorded over several days. The loss increases significantly if the samples have been poled with lower amplitudes, causing an unsaturated polarisation. The main loss was attributed to injected charges. Additionally, measurements of dielectric non-linearities have been proven to be a sensitive and non-destructive tool to measure the retention behaviour. Finally, a ferroelectric field effect transistor using mainly organic materials (FerrOFET) has been successfully studied. DiNaphtho[2,3-b:2',3'-f]Thieno[3,2-b]Thiophene (DNTT) has proven to be a stable, suitable organic semiconductor to build up ferroelectric memory devices. Furthermore, an oxidised aluminium bottom electrode and additional dielectric layers, i.e. parylene C, have proven to reduce the leakage current and therefore enhance the performance significantly. N2 - Ferroelektrika eignen sich generell gut zur Realisierung von Datenspeichern, da einige dieser Materialien bei Raumtemperatur und darüber hinaus eine spontane Polarisation besitzen. Diese lässt sich durch Anlegen einer ausreichend großen Spannung definiert schalten. Die unterschiedlichen Zustände der Polarisation können dann ausgelesen und verschiedenen Speicherzuständen, insbesondere 0 und 1, zugeordnet werden. Da der Polarisationszustand auch nach Abschaltung der zur Polarisation verwendeten Spannung erhalten bleibt, bezeichnet man diese Speicher als nicht flüchtig, ähnlich wie herkömmliche Flash-Speicher (z.B. USB-Sticks). Bisher wurden vor allem ferroelektrische Speicher aus keramischen Materialien untersucht und implementiert. Ferroelektrische Speicher aus Polymeren bieten u.U. eine größere Freiheit bei der Formgebung. Weiterhin können Polymere einfacher verarbeitet werden. In der vorliegenden Arbeit wurden dünne Schichten des ferroelektrischen Copolymers VDF-TrFE mit verschiedenen Zusammensetzungen, 56/44 und 70/30 bezogen auf das molare Verhältnis von VDF und TrFE, hinsichtlich ihrer Eigenschaften für die Verwendung in Datenspeichern untersucht. Da die zum Schalten zwischen den Polarisationszuständen benötigte Feldstärke bei den verwendeten Copolymeren sehr hoch ist, musste die Schichtdicke reduziert werden. Auf diese Art und Weise war es möglich, auch mit kleinen, computer-typischen Arbeitsspannungen wie bspw. 5 Volt den Polarisationszustand bzw. Speicherzustand zu ändern. Dazu wurden Schichten mit einer Dicke von 200 Nanometern und weniger durch Aufschleudern einer Lösung (Polymer-Granulat in Lösungsmittel) abgeschieden. Nach der Charakterisierung von Einzelschichten wurden die Untersuchungen auf Doppelschichten und organische Feldeffekttransistoren ausgeweitet. Aus vorherigen Untersuchungen an dünnen VDF-TrFE Copolymer-Schichten mit einer Dicke von einigen Mikrometern war bereits bekannt, dass die Messung der Nichtlinearitäten ein nützliches Werkzeug zur Charakterisierung dieser Schichten ist. Besonders der bereits erwähnte Schaltzustand lässt sich gut auslesen. Weiterhin können auch das temperatur- und das zeitabhängige Verhalten der Polarisation bestimmt werden. Ersteres ist besonders für den Temperaturbereich ausschlaggebend, in welchem die Speicher eingesetzt werden. Ab einer gewissen Temperatur, der sogenannten Phasenübergangstemperatur, verlieren die Materialien ihre Polarisation und damit jegliche gespeicherte Information. Der zeitliche Verlauf der Polarisation ist für das sogenannte Retentionsverhalten eines nichtflüchtigen Speichers von Bedeutung. Es definiert, wie lange eine gespeicherte Information fehlerfrei erhalten bleibt bzw. ausgelesen werden kann. Bei der Auswertung der Ergebnisse zeigt sich, dass die hergestellten Schichten selbst bei einer Dicke von 30 Nanometern und weniger eine schaltbare Polarisation aufwiesen. Es konnte auch beobachtet werden, dass einige Charakteristika, wie z.B. der absolute Wert der Polarisation, die Phasenübergangstemperaturen sowie das Verhalten in der Nähe des Phasenübergangs von denen dickerer Schichten abwichen. Die Polarisation blieb, abhängig von der Zusammensetzung, bis ca. 60°C bzw. 80°C stabil. In Bezug auf das Retentionsverhalten der dünnen Schichten konnte festgestellt werden, dass die Polarisation nach einem anfänglichen Verlust auch über mehrere Tage stabil blieb. Weiterhin wurden Doppelschichten untersucht. Hierzu wurden zwei Schichten unterschiedlicher molarer Zusammensetzung aufeinander abgeschieden. Unter, zwischen und auf den Schichten wurden jeweils Elektroden abgeschieden. Diese wurden so platziert, dass sowohl die Schichten einzeln als auch das Schichtsystem gemessen werden konnten. Bei der Messung der Schichtsysteme und ihrer individuellen Schichten wurde festgestellt, dass Letztere das in vorherigen Messungen an Einzelschichten beobachtete Verhalten aufwiesen. Bei den Schichtsystemen hingegen wurde eine lineare Abhängigkeit der Polarisation von der Temperatur beobachtet. Abschließend wurden ferroelektrische organische Transistoren (FerrOFET) untersucht. Dabei erwies sich der organische Halbleiter DNTT als geeignetes Material für den leitfähigen Kanal. Weiterhin zeigte sich, dass sich mithilfe von zusätzlich oxidierten Aluminium-Grundelektroden sowie zusätzlichen Schichten von Parylene C die Funktionsfähigkeit der Bauelemente verbessern ließ. KW - Ferroelektrika KW - Speicheranwendungen KW - Dielektrische Nichtlinearitäten KW - Ferroelektrische Polymere KW - P(VDF-TrFE) KW - ferroelectrics KW - ferroelectric polymers KW - dielectric non-linearities KW - memory applications KW - P(VDF-TrFE) Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421778 ER - TY - THES A1 - Jensen, Anders Christian Solberg T1 - Structure and dynamics of amorphous carbonates related to biomineralization T1 - Struktur und Dynamik amorpher Carbonate im Zusammenhang mit der Biomineralisation BT - a neutron diffraction study N2 - Amorphous calcium carbonate(ACC) is a wide spread biological material found in many organisms, such as sea Urchins and mollusks, where it serves as either a precursor phase for the crystalline biominerals or is stabilized and used in the amorphous state. As ACC readily crystallizes, stabilizers such as anions, cations or macromolecules are often present to avoid or delay unwanted crystallization. Furthermore, additives often control the properties of the materials to suit the specific function needed for the organism. E.g. cystoliths in leaves that scatter light to optimize energy uptake from the sun or calcite/aragonite crystals used in protective shells in mussels and gastropods. Lifetime of the amorphous phase is controlled by the kinetic stability against crystallization. This has often been linked to water which plays a role in the mobility of ions and hence the probability of forming crystalline nuclei to initiate crystallization. However, it is unclear how the water molecules are incorporated within the amorphous phase, either as liquid confined in pores, as structural water binding to the ions or as a mixture of both. It is also unclear how this is perturbed when additives are added, especially Mg2+, one the most common additives found in biogenic samples. Mg2+ are expected to have a strong influence on the water incorporated into ACC, given the high energy barrier to dehydration of magnesium ions compared to calcium ions in solution. During the last 10-15 years, there has been a large effort to understand the local environment of the ions/molecules and how this affects the properties of the amorphous phase. But only a few aspects of the structure have so far been well-described in literature. The reason for this is partly caused by the low stability of ACC if exposed to air, where it tends to crystallize within minutes and by the limited quantities of ACC produced in traditional synthesis routes. A further obstacle has been the difficulty in modeling the local structure based on experimental data. To solve the problem of stability and sample size, a few studies have used stabilizers such as Mg2+ or OH- and severely dehydrated samples so as to stabilize the amorphous state, allowing for combined neutron and x-ray analysis to be performed. However, so far, a clear description of the local environments of water present in the structure has not been reported. In this study we show that ACC can be synthesized without any stabilizing additives in quantities necessary for neutron measurements and that accurate models can be derived with the help of empirical-potential structural refinement. These analyses have shown that there is a wide range of local environments for all of the components in the system suggesting that the amorphous phase is highly inhomogeneous, without any phase separation between ions and water. We also showed that the water in ACC is mainly structural and that there is no confined or liquid-like water present in the system. Analysis of amorphous magnesium carbonate also showed that there is a large difference in the local structure of the two cations and that Mg2+ surprisingly interacts with significantly less water molecules then Ca2+ despite the higher dehydration energy. All in all, this shows that the role of water molecules as a structural component of ACC, with a strong binding to cat- and anions probably retard or prevents the crystallization of the amorphous phase. N2 - Amorphes Calciumcarbonat (ACC) ist ein weit verbreitetes biologisches Material, das in vielen Organismen zu finden ist, beispielsweise in Seeigeln und Mollusken, wo es als Präkursorphase für kristalline Biomaterialien dient oder stabilisiert wird und im amorphen Zustand genutzt wird. Da ACC leicht kristallisiert, sind oft Stabilisatoren wie Anionen, Kationen und Makromoleküle zugegen, die eine ungewollte Kristallisation verzögern oder verhindern können. Zusätzlich kontrollieren Additive oftmals die Materialeigenschaften, um spezielle Funktionen erfüllen zu können, die der Organismus benötigt. Z.B. Zystolithen in Blättern, die das Licht streuen, um die Energieaufnahme durch das Sonnenlicht zu optimieren oder den Calcit-/Aragonitkristallen, die in den schützenden Schalen von Muscheln und Schnecken verwendet werden. Die Lebensdauer der amorphen Phase ist kontrolliert von der kinetischen Stabilität gegenüber der Kristallisation. Dies wurde oft mit Wasser verbunden, welches eine Rolle spielt für die Mobilität der Ionen und demzufolge für die Wahrscheinlichkeit der Bildung von Kristallisationskernen, die eine Kristallisation einleiten. Es ist jedoch unklar, wie die Wassermoleküle in die amorphe Phase integriert sind, ob als Flüssigkeit eingeschlossen in Poren, als strukturiertes Wasser gebunden an Ionen oder als Mischung aus beidem. Es ist ebenfalls unklar, wie dies gestört wird durch die Zugabe von Additiven, insbesondere Mg2+, eines der häufigsten Additive in biogenen Proben. Von Mg2+ wird ein starker Einfluss auf das in ACC integrierte Wasser vermutet, vergleicht man die hohe Energiebarriere gegen Dehydration von Magnesiumionen gegenüber Calciumionen in Lösung. Im Verlauf der letzten 10-15 Jahre wurden große Anstrengungen unternommen, um die lokale Umgebung der Ionen/Moleküle zu verstehen und wie diese die Eigenschaften der amorphen Phase beeinflusst. Jedoch wurden bisher nur wenige Aspekte der Struktur gut in der Literatur beschrieben. Dies wird zum Teil von der geringen Stabilität von ACC verursacht, wenn es der Luft ausgesetzt wird, wo es nach wenigen Minuten zur Kristallisation neigt und zum Teil von den begrenzten Mengen an ACC, welches auf traditionellen Synthesewegen produziert wird. Ein weiteres Hindernis stellte die Schwierigkeit dar, die lokale Struktur anhand von experimentellen Daten zu modellieren. Um das Problem der Stabilität und der Probenmenge zu beheben, haben einige Studien Stabilisatoren wie Mg2+ oder OH- und hochgradig dehydrierte Proben verwendet und dadurch den amorphen Zustand stabilisiert, welches eine kombinierte Neutronen- und Röntgenanalyse ermöglichte. Dennoch liegt bis jetzt keine klare Beschreibung der lokalen Umgebung von Wasser in der Struktur vor. In dieser Arbeit zeigen wir, dass ACC ohne stabilisierende Additive in Mengen hergestellt werden kann, wie sie für Neutronenmessungen benötigt werden und dass akkurate Modelle durch empirical-potential structural refinement abgeleitet werden können. Diese Analysen haben gezeigt, dass es eine große Bandbreite lokaler Umgebungen für alle Systemkomponenten gibt, was zu der Vermutung führt, dass die amorphe Phase hochgradig imhomogen ist ohne Phasentrennung zwischen Wasser und Ionen. Wir konnten ebenfalls zeigen, dass das Wasser in ACC hauptsächlich strukturiert ist und dass kein eingeschlossenes oder flüssigkeitsähnliches Wasser im System vorliegt. Die Analyse von amorphem Magnesiumcarbonat zeigte ebenfalls, dass es große Unterschiede in den lokalen Strukturen der beiden Kationen gibt und dass Mg2+ überraschenderweise mit signifikant weniger Wassermolekülen als Ca2+ interagiert, trotz der höheren Dehydrationsenergie. Zusammenfassend zeigt dies, dass die Wassermoleküle in der Rolle als strukturelle Komponenten von ACC, mit einer starken Bindung zu Kat- und Anionen wahrscheinlich die Kristallisation der amorphen Phase verzögern oder verhindern. KW - ACC KW - amorphes Calciumcarbonat KW - emperical potential structure refinement KW - Biomineralisierung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421691 ER - TY - THES A1 - Arora, Ashima T1 - Optical and electric field control of magnetism T1 - Optische und elektrische Feld Kontrolle des Magnetismus N2 - Future magnetic recording industry needs a high-density data storage technology. However, switching the magnetization of small bits requires high magnetic fields that cause excessive heat dissipation. Therefore, controlling magnetism without applying external magnetic field is an important research topic for potential applications in data storage devices with low power consumption. Among the different approaches being investigated, two of them stand out, namely i) all-optical helicity dependent switching (AO-HDS) and ii) ferroelectric control of magnetism. This thesis aims to contribute towards a better understanding of the physical processes behinds these effects as well as reporting new and exciting possibility for the optical and/or electric control of magnetic properties. Hence, the thesis contains two differentiated chapters of results; the first devoted to AO-HDS on TbFe alloys and the second to the electric field control of magnetism in an archetypal Fe/BaTiO3 system. In the first part, the scalability of the AO-HDS to small laser spot-sizes of few microns in the ferrimagnetic TbFe alloy is investigated by spatially resolving the magnetic contrast with photo-emission electron microscopy (PEEM) and X-ray magnetic circular dichroism (XMCD). The results show that the AO-HDS is a local effect within the laser spot size that occurs in the ring-shaped region in the vicinity of thermal demagnetization. Within the ring region, the helicity dependent switching occurs via thermally activated domain wall motion. Further, the thesis reports on a novel effect of thickness dependent inversion of the switching orientation. It addresses some of the important questions like the role of laser heating and the microscopic mechanism driving AO-HDS. The second part of the thesis focuses on the electric field control of magnetism in an artificial multiferroic heterostructure. The sample consists of an Fe wedge with thickness varying between 0:5 nm and 3 nm, deposited on top of a ferroelectric and ferroelastic BaTiO3 [001]-oriented single crystal substrate. Here, the magnetic contrast is imaged via PEEM and XMCD as a function of out-of-plane voltage. The results show the evidence of the electric field control of superparamagnetism mediated by a ferroelastic modification of the magnetic anisotropy. The changes in the magnetoelastic anisotropy drive the transition from the superparamagnetic to superferromagnetic state at localized sample positions. N2 - Die Herstellung zukünftiger magnetischer Datenspeicher erfordert eine hohe Speicherdichte mit entsprechend kleinen Bits. Das Schalten der Magnetisierung kleiner Strukturen benötigt jedoch starke Magnetfelder, die einen hohen Energieverbrauch und Wärmeeintrag verursachen. Daher ist das Schalten von Magnetismus ohne Anlegen eines externen Magnetfeldes ein wichtiges Forschungsthema für potentielle Anwendungen in der Datenspeicherung mit geringem Stromverbrauch. Unter den verschiedenen Ansätzen, die verfolgt werden, heben sich zwei hervor, nämlich i) rein optisches helizitätsabhängiges Schalten (AO-HDS) und ii) magnetoelektrische Kontrolle von Magnetismus. Diese Arbeit soll zu einem besseren Verständnis der physikalischen Prozesse beitragen, die hinter diesen Effekten stehen, sowie neue und aufregende Möglichkeiten für die optische und/ oder elektrische Kontrolle magnetischer Eigenschaften aufzeigen. Daher sind die Ergebnisse dieser Arbeit in zwei Kapitel gegliedert; das erste befasst sich mit dem helizitätsabhängigen optischen Schalten in Eisen-Terbium Legierungen und das zweite Kapitel widmet sich der magnetoelektrischen Kopplung in Hybridsystemen, bestehend aus einer ferromagnetischen Eisenschicht welche auf ferroelektrischen Bariumtitanat gewachsen wurde. Im ersten Kapitel wird die Skalierbarkeit des helizitätsabhängigen optischen Schaltens in ferrimagnetischen Eisen-Terbium Legierungen mit Laserspotgrößen im Mikrometer Bereich untersucht. Photoelektronenmikroskopie (PEEM) in Kombination mit magnetischem Röntgendichroismus (XMCD) wird verwendet um die resultierende Magnetisierung hochaufgelöst abzubilden. Die Ergebnisse zeigen, dass helizitätsabhängiges optisches Schalten ein lokaler Effekt innerhalb des Laserspots ist, der in der ringförmigen Region in der Nähe der thermischen Entmagnetisierung auftritt. Innerhalb der Ringregion erfolgt die Umkehr der Magnetisierung über thermisch aktivierte Domänenwandbewegung. Des Weiteren berichtet die Arbeit über einen neuartigen Effekt der die Helizitätsabhängigkeit mit zunehmender Schichtdicke umkehrt. Auch werden wichtigen Fragen wie der Rolle thermischer Effekt oder die mikroskopische Ursache helizitätsabhängigen Schaltens beleuchtet. Der zweite Teil der Arbeit konzentriert sich auf die elektrische Kontrolle des Magnetismus in einer künstlichen multiferroischen Heterostruktur. Die Probe besteht aus einem Eisen-Keil mit einer Dicke zwischen 0:5 nm und 3 nm, der auf einem ferroelektrischen und ferroelastischen Bariumtitanat abgeschieden ist. Hier wird der magnetische Kontrast als Funktion des elektrischen Feldes untersucht. Die Ergebnisse belegen die Möglichkeit superparamagnetische Bereiche per elektrischen Feld zu steuern. Die magnetelektrische Kopplung erfolgt durch eine ferroelastische Modifikation der magnetischen Anisotropie. Die Änderungen in der magnetoelastischen Anisotropie erlauben elektrisches Schalten zwischen dem superparamagnetischen zu dem superferromagnetischen Zustand. KW - magnetism KW - X-ray magnetic circular dichroism (XMCD) KW - all-optical helicity dependent switching KW - multiferroic heterostructure KW - photo-emission electron microscopy (PEEM) KW - magnetischem Röntgendichroismus (XMCD) KW - Photoelektronenmikroskopie (PEEM) KW - Magnetismus KW - multiferroischen Heterostruktur KW - rein optisches helizitätsabhängiges Schalten (AO-HDS) Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421479 ER - TY - THES A1 - Karras, Manfred T1 - Synthesis of enantiomerically pure helical aromatics such as NHC ligands and their use in asymmetric catalysis T1 - Die Synthese von enantiomerenreinen helikalen Aromaten wie NHC Liganden und deren Anwendung in asymmetrischer Katalyse N2 - Diese Arbeit beschäftigt sich mit der enantiomerenreinen Synthese helikaler, aromatischer Verbindungen. Verschiedene Verbindungen dieses Typs wurden erfolgreich hergestellt und charakterisiert. Desweiteren wurden einige der neuen Verbindungen in Übergangsmetallkomplexe eingebaut und diese dann als Katalysatoren für Metathese und Kreuzkupplungen getestet. Einer der getesteten Katalysatoren zeigte vielversprechende Ergebnisse in der asymmetrischen Olefinmetathese. Die Struktur des neuen Katalysators wurde untersucht. Anhand der Struktur des neuen Katalysators wurden Rückschlüsse auf einen möglichen Mechanismus gezogen. N2 - Various ways of preparing enantiomerically pure 2-amino[6]helicene derivatives were explored. Ni(0) mediated cyclotrimerization of enantiopure triynes provided (M)- and (P)-7,8-bis(p-tolyl)hexahelicene-2-amine in >99% ee as well as its benzoderivative in >99% ee. The stereocontrol was found to be inefficient for a 2- aminobenzo[6]helicene congener with an embedded five-membered ring. Helically chiral imidazolium salts bearing one or two helicene moieties have been synthesized and applied in enantioselective [2+2+2] cyclotrimerization catalyzed by an in situ formed Ni(0)-NHC complex. The synthesis of the first helically chiral Pd- and Ru-NHC complexes and their application in enantioselective catalysis was demonstrated. The latter shows promising results in enantioselective olefin metathesis reactions. A mechanistic proposal for asymmetric ring closing metathesis is provided. KW - helicene KW - catalysis KW - NHC KW - asymmetric KW - Helicen KW - Katalyse KW - NHC KW - asymmetrisch Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421497 ER - TY - THES A1 - Garcia, Rowena T1 - Thematic role assignment and word order preferences in the child language acquisition of Tagalog T1 - Zuweisung thematischer Rollen und Wortstellungspräferenz im kindlichen Spracherwerb von Tagalog N2 - A critical task in daily communications is identifying who did what to whom in an utterance, or assigning the thematic roles agent and patient in a sentence. This dissertation is concerned with Tagalog-speaking children’s use of word order and morphosyntactic markers for thematic role assignment. It aims to explain children’s difficulties in interpreting sentences with a non-canonical order of arguments (i.e., patient-before-agent) by testing the predictions of the following accounts: the frequency account (Demuth, 1989), the Competition model (MacWhinney & Bates, 1989), and the incremental processing account (Trueswell & Gleitman, 2004). Moreover, the experiments in this dissertation test the influence of a word order strategy in a language like Tagalog, where the thematic roles are always unambiguous in a sentence, due to its verb-initial order and its voice-marking system. In Tagalog’s voice-marking system, the inflection on the verb indicates the thematic role of the noun marked by 'ang.' First, the possible basis for a word order strategy in Tagalog was established using a sentence completion experiment given to adults and 5- and 7-year-old children (Chapter 2) and a child-directed speech corpus analysis (Chapter 3). In general, adults and children showed an agent-before-patient preference, although adults’ preference was also affected by sentence voice. Children’s comprehension was then examined through a self-paced listening and picture verification task (Chapter 3) and an eye-tracking and picture selection task (Chapter 4), where word order (agent-initial or patient-initial) and voice (agent voice or patient voice) were manipulated. Offline (i.e., accuracy) and online (i.e., listening times, looks to the target) measures revealed that 5- and 7-year-old Tagalog-speaking children had a bias to interpret the first noun as the agent. Additionally, the use of word order and morphosyntactic markers was found to be modulated by voice. In the agent voice, children relied more on a word order strategy; while in the patient voice, they relied on the morphosyntactic markers. These results are only partially explained by the accounts being tested in this dissertation. Instead, the findings support computational accounts of incremental word prediction and learning such as Chang, Dell, & Bock’s (2006) model. N2 - Eine zentrale Anforderung in der täglichen Kommunikation ist es, in Äußerungen zu identifizieren, wer was wem getan hat, sprich, die thematischen Rollen des Agens und Patiens in einem Satz zuzuweisen. Diese Dissertation behandelt die Nutzung der Wortstellung und morphosyntaktischer Markierungen für diese Zuweisung thematischer Rollen durch Tagalog sprechende Kinder. Das Ziel ist es zu klären, wieso Kinder Schwierigkeiten im Verständnis von Sätzen mit nicht-kanonischer Argumentstellung (z.B., Patiens-vor-Agens) haben. Hierfür wurden die Vorhersagen folgender Modelle getestet: der frequenzbasierte Ansatz (Demuth, 1989), das Konkurrenzmodell (Competition Model; MacWhinney & Bates, 1989), und die Annahme inkrementeller Verarbeitung (Trueswell & Gleitman, 2004). In erster Linie untersuchen die durchgeführten Experimente, die Auswirkungen einer möglichen wortstellungsbasierten Strategie in einer Sprache wie Tagalog, in der die thematische Rollen eines Satzes aufgrund der verbinitialen Wortstellung und der transparenten Diathesemarkierungen immer eindeutig bestimmbar sind. In der Diathesemarkierung in Tagalog deutet die Flexion am Verb die thematische Rolle des Nomens an, das mit 'ang' markiert ist. Zunächst wurde die mögliche Grundlage einer wortstellungsbasierten Strategie in Tagalog ermittelt. Zu diesem Zweck wurde neben einem Satzvervollständigungsexperiment mit Erwachsenen und 5- und 7-jährigen Kindern (Kapitel 2) auch die Analyse eines kindgerichteten Sprachkorpus durchgeführt. Grundsätzlich wiesen die Erwachsenen und Kinder eine Agens-vor-Patiens-Präferenz auf, wobei die Präferenz der Erwachsenen durch die Satzdiathese beeinflusst wurde. Die Verständnisfähigkeiten der Kinder wurde mithilfe einer selbstgesteuerten Hör- und Bildverifizierungsaufgabe (Kapitel 3), und einer Bildauswahlaufgabe mit Blickbewegungsmessung (Kapitel 4) bestimmt. In der letzteren Aufgabe, wurden Wortstellung (Agens-initial oder Patiens-initial) und Diathese (Agens-Diathese oder Patiens-Diathese) manipuliert. Offline- (d.h., Akkuratheit) und Online-Messungen (d.h., Hördauer, Blickdauer) zeigten, dass 5- und 7-jährige, Tagalog sprechende Kinder dazu neigen, das erste Nomen als Agens zu interpretieren. Darüber hinaus wurde festgestellt, dass die Verwendung der Wortstellung und morphosyntaktischer Markierungen durch die Diathese moduliert wird. In der Agens-Diathese verließen sich die Kinder dabei mehr auf die wortstellungsbasierte Strategie, während sie sich in der Patiensdiathese vermehrt auf morphosyntaktische Markierungen stützten. Diese Ergebnisse sind nur teilweise durch die in dieser Dissertation getesteten Ansätze erklärbar. Stattdessen scheinen die Ergebnisse computerbasierte Theorien inkrementeller Wortvorhersage und ihres Erwerbs, wie etwa das Modell von Chang, Dell, & Bock (2006), zu stützen. KW - thematic role assignment KW - Zuweisung thematischer Rollen KW - Tagalog acquisition KW - sentence processing KW - production KW - word order KW - voice KW - Erwerb des Tagalog KW - Satzverarbeitung KW - Produktion KW - Wortstellung KW - Diathese KW - eye-tracking KW - Blickbewegungsmessung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421742 CY - Potsdam ER - TY - THES A1 - Lopes, Pedro T1 - Interactive Systems Based on Electrical Muscle Stimulation N2 - How can interactive devices connect with users in the most immediate and intimate way? This question has driven interactive computing for decades. Throughout the last decades, we witnessed how mobile devices moved computing into users’ pockets, and recently, wearables put computing in constant physical contact with the user’s skin. In both cases moving the devices closer to users allowed devices to sense more of the user, and thus act more personal. The main question that drives our research is: what is the next logical step? Some researchers argue that the next generation of interactive devices will move past the user’s skin and be directly implanted inside the user’s body. This has already happened in that we have pacemakers, insulin pumps, etc. However, we argue that what we see is not devices moving towards the inside of the user’s body, but rather towards the body’s biological “interface” they need to address in order to perform their function. To implement our vision, we created a set of devices that intentionally borrow parts of the user’s body for input and output, rather than adding more technology to the body. In this dissertation we present one specific flavor of such devices, i.e., devices that borrow the user’s muscles. We engineered I/O devices that interact with the user by reading and controlling muscle activity. To achieve the latter, our devices are based on medical-grade signal generators and electrodes attached to the user’s skin that send electrical impulses to the user’s muscles; these impulses then cause the user’s muscles to contract. While electrical muscle stimulation (EMS) devices have been used to regenerate lost motor functions in rehabilitation medicine since the 1960s, in this dissertation, we propose a new perspective: EMS as a means for creating interactive systems. We start by presenting seven prototypes of interactive devices that we have created to illustrate several benefits of EMS. These devices form two main categories: (1) Devices that allow users eyes-free access to information by means of their proprioceptive sense, such as the value of a variable in a computer system, a tool, or a plot; (2) Devices that increase immersion in virtual reality by simulating large forces, such as wind, physical impact, or walls and heavy objects. Then, we analyze the potential of EMS to build interactive systems that miniaturize well and discuss how they leverage our proprioceptive sense as an I/O modality. We proceed by laying out the benefits and disadvantages of both EMS and mechanical haptic devices, such as exoskeletons. We conclude by sketching an outline for future research on EMS by listing open technical, ethical and philosophical questions that we left unanswered. N2 - Wie können interaktive Geräte auf unmittelbare und eng verknüpfte Weise mit dem Nutzer kommunizieren? Diese Frage beschäftigt die Forschung im Bereich Computer Interaktion seit Jahrzehnten. Besonders in den letzten Jahren haben wir miterlebt, wie Nutzer interaktive Geräte dauerhaft bei sich führen, im Falle von sogenannten Wearables sogar als Teil der Kleidung oder als Accessoires. In beiden Fällen sind die Geräte näher an den Nutzer gerückt, wodurch sie mehr Informationen vom Nutzer sammeln können und daher persönlicher erscheinen. Die Hauptfrage, die unsere Forschung antreibt, ist: Was ist der nächste logische Schritt in der Entwicklung interaktiver Geräte? Mache Wissenschaftler argumentieren, dass die Haut nicht mehr die Barriere für die nächste Generation von interaktiven Geräten sein wird, sondern dass diese direkt in den Körper der Nutzer implantiert werden. Zum Teil ist dies auch bereits passiert, wie Herzschrittmacher oder Insulinpumpen zeigen. Wir argumentieren jedoch, dass Geräte sich in Zukunft nicht zwingend innerhalb des Körpers befinden müssen, sondern sich an der richtigen „Schnittstelle“ befinden sollen, um die Funktion des Gerätes zu ermöglichen. Um diese Entwicklung voranzutreiben haben wir Geräte entwickelt, die Teile des Körpers selbst als Ein- und Ausgabe-Schnittstelle verwenden, anstatt weitere Geräte an den Körper anzubringen. In dieser Dissertation zeigen wir eine bestimmte Art dieser Geräte, nämlich solche, die Muskeln verwenden. Wir haben Ein-/Ausgabegeräte gebaut, die mit dem Nutzer interagieren indem sie Muskelaktivität erkennen und kontrollieren. Um Muskelaktivität zu kontrollieren benutzen wir Signalgeber von medizinischer Qualität, die mithilfe von auf die Haut geklebten Elektroden elektrische Signale an die Muskeln des Nutzers senden. Diese Signale bewirken dann eine Kontraktion des Muskels. Geräte zur elektrischen Muskelstimulation (EMS) werden seit den 1960er-Jahren zur Regeneration von motorischen Funktionen verwendet. In dieser Dissertation schlagen wir jedoch einen neuen Ansatz vor: elektrische Muskelstimulation als Kommunikationskanal zwischen Mensch und interaktiven Computersysteme. Zunächst stellen wir unsere sieben interaktiven Prototypen vor, welche die zahlreichen Vorteile von EMS demonstrieren. Diese Geräte können in zwei Hauptkategorien unterteilt werden: (1) Geräte, die Nutzern Zugang zu Information direkt über ihre propriozeptive Wahrnehmung geben ohne einen visuellen Reiz. Diese Informationen können zum Beispiel Variablen, Diagramme oder die Handhabung von Werkzeugen beinhalten. (2) Des Weiteren zeigen wir Geräte, welche die Immersion in virtuelle Umgebungen erhöhen indem sie physikalische Kräfte wie Wind, physischen Kontakt, Wände oder schwere Objekte, simulieren. Wir analysieren in dieser Arbeit außerdem das Potential von EMS für miniaturisierte interaktive Systeme und diskutieren, wie solche EMS Systeme die propriozeptive Wahrnehmung wirksam als Ein-/Ausgabemodalität nutzen können. Dazu stellen wir die Vor- und Nachteile von EMS und mechanisch-haptischen Geräten, wie zum Beispiel Exoskeletten, gegenüber. Zum Abschluss skizzieren wir zukünftige Richtungen in der Erforschung von interaktiven EMS Systemen, indem wir bislang offen gebliebene technische, ethische und philosophische Fragen aufzeigen. KW - electrical muscle stimulation KW - wearables KW - virtual reality KW - Wearable KW - elektrische Muskelstimulation KW - virtuelle Realität Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421165 ER - TY - THES A1 - Villatoro Leal, José Andrés T1 - A combined approach for the analysis of biomolecules using IR-MALDI ion mobility spectrometry and molecular dynamics simulations of peptide ions in the gas phase T1 - Kombinierter Einsatz von IR-MALDI Ionenmobilitätsspektrometrie und Simulationen der Molekulardynamik von Peptidionen in der Gasphase zur Analyse von Biomolekülen N2 - The aim of this doctoral thesis was to establish a technique for the analysis of biomolecules with infrared matrix-assisted laser dispersion (IR-MALDI) ion mobility (IM) spectrometry. The main components of the work were the characterization of the IR-MALDI process, the development and characterization of different ion mobility spectrometers, the use of IR-MALDI-IM spectrometry as a robust, standalone spectrometer and the development of a collision cross-section estimation approach for peptides based on molecular dynamics and thermodynamic reweighting. First, the IR-MALDI source was studied with atmospheric pressure ion mobility spectrometry and shadowgraphy. It consisted of a metal capillary, at the tip of which a self-renewing droplet of analyte solution was met by an IR laser beam. A relationship between peak shape, ion desolvation, diffusion and extraction pulse delay time (pulse delay) was established. First order desolvation kinetics were observed and related to peak broadening by diffusion, both influenced by the pulse delay. The transport mechanisms in IR-MALDI were then studied by relating different laser impact positions on the droplet surface to the corresponding ion mobility spectra. Two different transport mechanisms were determined: phase explosion due to the laser pulse and electrical transport due to delayed ion extraction. The velocity of the ions stemming from the phase explosion was then measured by ion mobility and shadowgraphy at different time scales and distances from the source capillary, showing an initially very high but rapidly decaying velocity. Finally, the anatomy of the dispersion plume was observed in detail with shadowgraphy and general conclusions over the process were drawn. Understanding the IR-MALDI process enabled the optimization of the different IM spectrometers at atmospheric and reduced pressure (AP and RP, respectively). At reduced pressure, both an AP and an RP IR-MALDI source were used. The influence of the pulsed ion extraction parameters (pulse delay, width and amplitude) on peak shape, resolution and area was systematically studied in both AP and RP IM spectrometers and discussed in the context of the IR-MALDI process. Under RP conditions, the influence of the closing field and of the pressure was also examined for both AP and RP sources. For the AP ionization RP IM spectrometer, the influence of the inlet field (IF) in the source region was also examined. All of these studies led to the determination of the optimal analytical parameters as well as to a better understanding of the initial ion cloud anatomy. The analytical performance of the spectrometer was then studied. Limits of detection (LOD) and linear ranges were determined under static and pulsed ion injection conditions and interpreted in the context of the IR-MALDI mechanism. Applications in the separation of simple mixtures were also illustrated, demonstrating good isomer separation capabilities and the advantages of singly charged peaks. The possibility to couple high performance liquid chromatography (HPLC) to IR-MALDI-IM spectrometry was also demonstrated. Finally, the reduced pressure spectrometer was used to study the effect of high reduced field strength on the mobility of polyatomic ions in polyatomic gases. The last focus point was on the study of peptide ions. A dataset obtained with electrospray IM spectrometry was characterized and used for the calibration of a collision cross-section (CCS) determination method based on molecular dynamics (MD) simulations at high temperature. Instead of producing candidate structures which are evaluated one by one, this semi-automated method uses the simulation as a whole to determine a single average collision cross-section value by reweighting the CCS of a few representative structures. The method was compared to the intrinsic size parameter (ISP) method and to experimental results. Additional MD data obtained from the simulations was also used to further analyze the peptides and understand the experimental results, an advantage with regard to the ISP method. Finally, the CCS of peptide ions analyzed by IR-MALDI were also evaluated with both ISP and MD methods and the results compared to experiment, resulting in a first validation of the MD method. Thus, this thesis brings together the soft ionization technique that is IR-MALDI, which produces mostly singly charged peaks, with ion mobility spectrometry, which can distinguish between isomers, and a collision cross-section determination method which also provides structural information on the analyte at hand. N2 - Das Ziel dieser Arbeit war die Zusammenführung der schonende Ionisationsquelle Infrared Matrix-Assisted Laser Dispersion Ionization (IR-MALDI), der Isomer-diskriminierende Ionenmobilitätsspektrometrie und einer neuartigen, auf Molecular Dynamics (MD) Simulationen basierte Berechnungsmethode für Stoßquerschnitte. Der erste Schritt war die Charakterisierung des Flüssigkeitsdispersionsphänomens in IR-MALDI: Zwei verschiedenen Ionentransportmechanismen wurden nachgewiesen und weiter studiert. Die Beziehung zwischen Peakform, Diffusion, Desolvatation und Ionen Extraktionspuls wurde beschrieben. Die Geschwindigkeit der Ionen, die aus dem Dispersionsphänomen stammen, wurde durch Ionenmobilitätsspektrometrie und Shadowgraphie untersucht. Shadowgraphie hat ebenfalls das Verhalten des Dispersionsphänomens erläutert. Eine hohe, schnell abklingende initielle Geschwindigkeit wurde beobachtet. Das Verständnis des IR-MALDI Verfahrens ermöglichte die Optimierung der verschiedenen Ionenmobilität (IM) Spektrometer zum analytischen Zweck. Eine Atmosphärendruck- und zwei Niederdruckvariante von IM Spektrometern wurden mit gepulster Ionenextraktion genutzt. Die Pulsparameter (Pulsverzögerung, ‑breite, -höhe) und verschiedene elektrische Felder an unterschiedlichen Stellen der Spektrometer wurden systematisch variiert. Deren Einfluss auf die Peakauflösung und -fläche wurde untersucht und im Rahmen des IR-MALDI Verfahrens erklärt. Das Verständnis der Anatomie der Anfangsionenwolke wurde ebenfalls durch diese Experimente vertieft. Die analytische Leistungsfähigkeit eines IM-Spektrometers wurde dann untersucht. Nachweisgrenzen und lineare Bereiche wurden bestimmt und in Zusammenhang mit dem IR-MALDI Verfahren interpretiert. Anhand der Trennung von Isomeren und einfachen Mischungen wurde die Anwendung dieser Technik demonstriert und ihre Vorteile, die Detektion einfachgeladener Ionen und die Möglichkeit der HPLC-Kopplung (High Performance Liquid Chromatography), aufgezeigt. Mit dem Niederdruckspektrometer wurde der Einfluss hoher reduzierter Feldstärken auf die Ionenmobilität von polyatomische Ionen in polyatomische Gasen untersucht. Der letzte Schwerpunkt war die Charakterisierung von Peptidionen. Die Peptiden wurden mit Elektrospray (ESI) IM-Spektrometrie vermessen. Der hieraus erhaltene Datensatz diente zur Etablierung einer Stoßquerschnitt Berechnungsmethode mittels MD. Anstatt verschiedener Kandidat-Strukturen und deren Stoßquerschnitte, ergibt diese neuartige semi-automatisierte Methode einen einzigen, gemittelten Stoßquerschnitt. Die MD Methode wurde dann mit einer anderen, einfacheren Methode und mit den experimentellen Ergebnissen von ESI und IR-MALDI-IM Spektrometrie verglichen. Zudem wurde der Zusammenhang zwischen Ladungszustands- und Stoßquerschnittsdifferenzen zwischen den Peptiden untersucht. Weitere Strukturelle Informationen konnten aus den Simulationen extrahiert, und zur Charakterisierung der Peptiden verwendet werden. KW - Ion mobility spectrometry KW - Molecular dynamics KW - IR-MALDI KW - Peptides KW - Shadowgraphy KW - Liquid dispersion KW - Ionenmobilitätsspektrometrie KW - Molekulardynamik KW - Collision cross-section KW - IR-MALDI KW - Peptiden KW - Shadowgraphie KW - Stoßquerschnitt KW - Flüssigkeitszerstäubung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-419723 ER - TY - THES A1 - Witt, Tanja Ivonne T1 - Camera Monitoring at volcanoes T1 - Kameramonitoring an Vulkanen BT - Identification and characterization of lava fountain activity and near-vent processes and their relevance for early warning systems BT - Identifikation und Charakterizierung der Aktivität von Lavafontänen und Near-Vent Prozesse und deren Relevanz für Frühwarnsysteme N2 - Basaltic fissure eruptions, such as on Hawai'i or on Iceland, are thought to be driven by the lateral propagation of feeder dikes and graben subsidence. Associated solid earth processes, such as deformation and structural development, are well studied by means of geophysical and geodetic technologies. The eruptions themselves, lava fountaining and venting dynamics, in turn, have been much less investigated due to hazardous access, local dimension, fast processes, and resulting poor data availability. This thesis provides a detailed quantitative understanding of the shape and dynamics of lava fountains and the morphological changes at their respective eruption sites. For this purpose, I apply image processing techniques, including drones and fixed installed cameras, to the sequence of frames of video records from two well-known fissure eruptions in Hawai'i and Iceland. This way I extract the dimensions of multiple lava fountains, visible in all frames. By putting these results together and considering the acquisition times of the frames I quantify the variations in height, width and eruption velocity of the lava fountains. Then I analyse these time-series in both time and frequency domains and investigate the similarities and correlations between adjacent lava fountains. Following this procedure, I am able to link the dynamics of the individual lava fountains to physical parameters of the magma transport in the feeder dyke of the fountains. The first case study in this thesis focuses on the March 2011 Pu'u'O'o eruption, Hawai'i, where a continuous pulsating behaviour at all eight lava fountains has been observed. The lava fountains, even those from different parts of the fissure that are closely connected, show a similar frequency content and eruption behaviour. The regular pattern in the heights of lava fountain suggests a controlling process within the magma feeder system like a hydraulic connection in the underlying dyke, affecting or even controlling the pulsating behaviour. The second case study addresses the 2014-2015 Holuhraun fissure eruption, Iceland. In this case, the feeder dyke is highlighted by the surface expressions of graben-like structures and fault systems. At the eruption site, the activity decreases from a continuous line of fire of ~60 vents to a limited number of lava fountains. This can be explained by preferred upwards magma movements through vertical structures of the pre-eruptive morphology. Seismic tremors during the eruption reveal vent opening at the surface and/or pressure changes in the feeder dyke. The evolving topography of the cinder cones during the eruption interacts with the lava fountain behaviour. Local variations in the lava fountain height and width are controlled by the conduit diameter, the depth of the lava pond and the shape of the crater. Modelling of the fountain heights shows that long-term eruption behaviour is controlled mainly by pressure changes in the feeder dyke. This research consists of six chapters with four papers, including two first author and two co-author papers. It establishes a new method to analyse lava fountain dynamics by video monitoring. The comparison with the seismicity, geomorphologic and structural expressions of fissure eruptions shows a complex relationship between focussed flow through dykes, the morphology of the cinder cones, and the lava fountain dynamics at the vents of a fissure eruption. N2 - Basaltische Spalteneruptionen, wie auf Hawaii oder Island, werden vermutlich durch die laterale Ausbreitung von Förderdikes und damit verbundener Grabenbildung verursacht. Prozesse der festen Erde sind mittels geophysikalischer und geodätischer Technologien gut erforscht. Die Ausbrüche selbst, d.h. die Lavafontä}nen und die Ventdynamik wiederum wurden aufgrund des gefährlichen Zugangs, der lokalen Dimension, der schnellen Prozesse und der daraus resultierenden schlechten Datenverfügbarkeit kaum untersucht. Diese Arbeit liefert ein detailliertes quantitatives Verständnis über Form und Dynamik von Lavafontänen und der morphologischen Veränderungen an ihren jeweiligen Eruptionsstellen. Mittels Bildverarbeitungstechniken, einschließlich Dronen und festen Kameras, wurden von mir die Videoframes von zwei bekannten Spaltausbrüchen auf Hawaii und Island ausgewertet. Auf diese Weise extrahiere ich die Dimensionen mehrerer Lavafontänen, die in allen Frames sichtbar sind. Durch die Zusammenstellung dieser Ergebnisse und unter Berücksichtigung der Erfassungszeiten quantifiziere ich die Schwankungen in Höhe, Breite und Eruptionsgeschwindigkeit. Dann analysiere ich diese Zeitreihen im Zeit- und Frequenzbereich und untersuche die Ähnlichkeiten und Zusammenhänge zwischen benachbarten Lavafontänen. Anschließend verknüpfte ich die Dynamik der einzelnen Lavafontänen mit den physikalischen Parametern des Magmatransports im Förderdike. Die erste Fallstudie dieser Arbeit konzentriert sich auf die Pu'u'O'o Ausbruch, Hawaii im März 2011, bei der ein kontinuierliches pulsierendes Verhalten an allen Lavafontänen beobachtet werden konnte. Lavafontänen verschiedener Teilsegmenten der Spalte sind eng miteinander verbunden, sie weisen Ähnlichkeiten im Frequenzgehalt und Ausbruchsverhalten auf. Das regelmäßige Muster in den Lavafontänenhöhen deutet auf eine hydraulische Verbindung im darunter liegenden Dike als steuernden Prozess innerhalb des Magma-Fördersystems hin. Die zweite Fallstudie befasst sich mit dem Holuhraun-Ausbruch 2014/2015. In diesem Fall wird der horizontale Förderdike durch grabenartige Strukturen und Bruchsysteme an der Oberfläche hervorgehoben. An der Ausbruchsstelle nimmt die Aktivität von einer kontinuierlichen Feuerlinie auf einzelne Lavafontänen ab. Dies lässt sich durch eine bevorzugte Aufwärtsbewegung des Magmas durch vertikale Strukturen der prä-eruptiven Morphologie erklären. Seismische Erschütterungen während des Ausbruchs zeigen Ventöffnungen an der Oberfläche und/oder Druckveränderungen im Förderdike. Die sich während des Ausbruchs entwickelnde Topographie der Schlackenkegel interagiert mit dem Verhalten der Lavafontänen. Lokale Schwankungen in Höhe und Breite der Lavafontäne werden jedoch durch den Schlotdurchmesser, die Tiefe des Lavaponds und die Form des Kraters gesteuert. Die Modellierung der Fontänenhöhe zeigt, dass das langfristige Ausbruchsverhalten vor allem durch Druckänderungen im Förderdike gesteuert wird. Diese Forschungsarbeit besteht aus sechs Kapiteln mit je zwei Papern als Erst- bzw. Co-Autor. Es etabliert eine neue Methode zur Analyse der Dynamik von Lavafontänen durch Videoüberwachung. Der Vergleich mit der Seismizität, den geomorphologischen und strukturellen Ausprägungen von Spalteneruptionen zeigt einen komplexen Zusammenhang zwischen der Dikeströmung, der Vulkanmorphologie und der Dynamik der Lavafontänen an einer Spalteneruption. KW - volcanology KW - Spalteneruption KW - fissure eruption KW - Vulkanologie KW - lava fountains KW - video analysis KW - basaltic volcanoes KW - Lavafontänen KW - Videoanalyse KW - Basalt-Vulkane Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421073 ER - TY - THES A1 - Alhajturki, Dema T1 - Characterization of altered inflorescence architecture in Arabidopsis thaliana BG-5 x Kro-0 hybrid T1 - Charakterisierung veränderter Blütenstandarchitektur in Arabidopsis thaliana BG-5 x Kro-0-Hybrid N2 - A reciprocal cross between two A. thaliana accessions, Kro-0 (Krotzenburg, Germany) and BG-5 (Seattle, USA), displays purple rosette leaves and dwarf bushy phenotype in F1 hybrids when grown at 17 °C and a parental-like phenotype when grown at 21 °C. This F1 temperature-dependent-dwarf-bushy phenotype is characterized by reduced growth of the primary stem together with an increased number of branches. The reduced stem growth was the strongest at the first internode. In addition, we found that a temperature switch from 21 °C to 17 °C induced the phenotype only before the formation of the first internode of the stem. Similarly, the F1 dwarf-bushy phenotype could not be reversed when plants were shifted from 17 °C to 21 °C after the first internode was formed. Metabolic analysis showed that the F1 phenotype was associated with a significant upregulation of anthocyanin(s), kaempferol(s), salicylic acid, jasmonic acid and abscisic acid. As it has been previously shown that the dwarf-bushy phenotype is linked to two loci, one on chromosome 2 from Kro-0 and one on chromosome 3 from BG-5, an artificial micro-RNA approach was used to investigate the necessary genes on these intervals. From the results obtained, it was found that two genes, AT2G14120 that encodes for a DYNAMIN RELATED PROTEIN3B and AT2G14100 that encodes a member of the Cytochrome P450 family protein CYP705A13, were necessary for the appearance of the F1 phenotype on chromosome 2. It was also discovered that AT3G61035 that encodes for another cytochrome P450 family protein CYP705A13 and AT3G60840 that encodes for a MICROTUBULE-ASSOCIATED PROTEIN65-4 on chromosome 3 were both necessary for the induction of the F1 phenotype. To prove the causality of these genes, genomic constructs of the Kro-0 candidate genes on chromosome 2 were transferred to BG-5 and genomic constructs of the chromosome 3 candidate genes from BG-5 were transferred to Kro-0. The T1 lines showed that these genes are not sufficient alone to induce the phenotype. In addition to the F1 phenotype, more severe phenotypes were observed in the F2 generations that were grouped into five different phenotypic classes. Whilst seed yield was comparable between F1 hybrids and parental lines, three phenotypic classes in the F2 generation exhibited hybrid breakdown in the form of reproductive failure. This F2 hybrid breakdown was less sensitive to temperature and showed a dose-dependent effect of the loci involved in F1 phenotype. The severest class of hybrid breakdown phenotypes was observed only in the population of backcross with the parent Kro-0, which indicates a stronger contribution of the BG-5 allele when compared to the Kro-0 allele on the hybrid breakdown phenotypes. Overall, the findings of my thesis provide a further understanding of the genetic and metabolic factors underlying altered shoot architecture in hybrid dysfunction. N2 - Die reziproke Kreuzung der zwei A. thaliana-Akzessionen Kro-0 aus Krotzenburg (Deutschland) sowie BG-5 aus Seattle (USA) manifestiert sich in einem Zwergbusch-Phänotyp in den F1 Hybriden bei 17 °C. Dagegen zeigen die Nachkommen bei 21 °C einen Phänotyp, der den Eltern ähnelt. Somit handelt es sich bei dieser Kreuzung um einen temperaturabhängigen Phänotyp. Dieser ist gekennzeichnet durch einen gestörten Wuchs des Primärstammes sowie einer vermehrten Anzahl an gebildeten Seitenzweigen. Das gestörte Wachstum des Hauptsprosses ist am gravierendsten rund um das 1. Internodium der Pflanzen. Es konnte gezeigt werden, dass durch einen Temperaturwechsel von 21 °C auf 17 °C der Phänotyp nur induziert werden kann vor der Bildung des 1. Internodiums. Im Gegenzug dazu ist ebenfalls die Rettung des parentalen Phänotyps nur möglich vor der Bildung des 1. Internodiums am Hauptspross. Des Weiteren zeigten metabolische und hormonelle Analysen der F1 Hybriden eine signifikante Erhöhung von Anthozyanen, Kaempferol, Salizylsäure, Jasmonsäure sowie Abscisinsäure. In Vorarbeiten wurde der Phänotyp bereits mit zwei verschiedenen Loci verknüpft, einer befindet sich auf Chromosom 2 der Elternlinie Kro-0, der andere auf Chromosom 3 von BG-5. Mittels eines micro-RNA Versuches konnte ich zeigen, dass die zwei Gene AT2G14120 DYNAMIN RELATED PROTEIN3B und CYP705A13, welches zur Familie des Zytochrom P450 gehört, auf dem Chromosom 2 von Kro-0 involviert sind. Auf Chromosom 3 von BG-5 gehören die Gene CYP76C8P (AT3G61035) sowie MICROTUBULE-ASSOCIATED65-4 (AT3G60840) zu den verantwortlichen Genen. Es wurden genomische Konstrukte der Kro-0-Kandidatengene auf BG-5 übertragen sowie ebenfalls genomische Konstrukte der Chr3-Kandidatengene auf Kro-0 übertragen. Die T1-Linien bewiesen keines dieser Gene als allein ausreichend. Zusätzlich zu dem F1-Phänotyp wurden in den F2-Generationen, die in fünf verschiedene phänotypische Klassen eingeteilt waren, schwerwiegendere Phänotypen beobachtet. Während die Samenausbeute zwischen F1-Hybriden und Elternlinien vergleichbar war, zeigten drei phänotypische Klassen in der F2-Generationen einen Hybridabbau in Form von Fortpflanzungsversagen. Dieser F2-Hybridabbau war weniger temperaturempfindlich und zeigte einen dosisabhängigen Effekt, basierend auf der genetischen Architektur der am F1-Phänotyp beteiligten Loci. Die schwerste Klasse von hybriden Abbauphänotypen wurde nur in der Population von Rückkreuzungen mit dem Elternteil Kro-0 beobachtet, was einen stärkeren Beitrag des BG-5-Allels im Vergleich zu dem Kro-0-Allel auf den hybriden Abbauphänotypen anzeigt. Insgesamt liefern die Ergebnisse meiner Dissertation ein weiteres Verständnis der genetischen und metabolischen Faktoren, die der veränderten Sprossarchitektur bei hybrider Dysfunktion zugrunde liegen. KW - hybrid incompatibility KW - hybride Inkompatibilität KW - hybrid breakdown KW - Hybridzerfall KW - altered shoot branching KW - veränderte Triebverzweigung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-420934 ER - TY - THES A1 - Eugster, Patricia T1 - Landscape evolution in the western Indian Himalaya since the Miocene T1 - Landschaftsentwicklung im westlichen indischen Himalaja seit dem Miozän N2 - The Himalayan arc stretches >2500 km from east to west at the southern edge of the Tibetan Plateau, representing one of the most important Cenozoic continent-continent collisional orogens. Internal deformation processes and climatic factors, which drive weathering, denudation, and transport, influence the growth and erosion of the orogen. During glacial times wet-based glaciers sculpted the mountain range and left overdeepend and U-shaped valleys, which were backfilled during interglacial times with paraglacial sediments over several cycles. These sediments partially still remain within the valleys because of insufficient evacuation capabilities into the foreland. Climatic processes overlay long-term tectonic processes responsible for uplift and exhumation caused by convergence. Possible processes accommodating convergence within the orogenic wedge along the main Himalayan faults, which divide the range into four major lithologic units, are debated. In this context, the identification of processes shaping the Earth’s surface on short- and on long-term are crucial to understand the growth of the orogen and implications for landscape development in various sectors along the arc. This thesis focuses on both surface and tectonic processes that shape the landscape in the western Indian Himalaya since late Miocene. In my first study, I dated well-preserved glacially polished bedrock on high-elevated ridges and valley walls in the upper of the Chandra Valley the by means of 10Be terrestrial cosmogenic radionuclides (TCN). I used these ages and mapped glacial features to reconstruct the extent and timing of Pleistocene glaciation at the southern front of the Himalaya. I was able to reconstruct an extensive valley glacier of ~200 km length and >1000 m thickness. Deglaciation of the Chandra Valley glacier started subsequently to insolation increase on the Northern Hemisphere and thus responded to temperature increase. I showed that the timing this deglaciation onset was coeval with retreat of further midlatitude glaciers on the Northern and Southern Hemispheres. These comparisons also showed that the post-LGM deglaciation very rapid, occurred within a few thousand years, and was nearly finished prior to the Bølling/Allerød interstadial. A second study (co-authorship) investigates how glacial advances and retreats in high mountain environments impact the landscape. By 10Be TCN dating and geomorphic mapping, we obtained maximal length and height of the Siachen Glacier within the Nubra Valley. Today the Shyok and Nubra confluence is backfilled with sedimentary deposits, which are attributed to the valley blocking of the Siachen Glacier 900 m above the present day river level. A glacial dam of the Siachen Glacier blocked the Shyok River and lead to the evolution of a more than 20 km long lake. Fluvial and lacustrine deposits in the valley document alternating draining and filling cycles of the lake dammed by the Siachen Glacier. In this study, we can show that glacial incision was outpacing fluvial incision. In the third study, which spans the million-year timescale, I focus on exhumation and erosion within the Chandra and Beas valleys. In this study the position and discussed possible reasons of rapidly exhuming rocks, several 100-km away from one of the main Himalayan faults (MFT) using Apatite Fission Track (AFT) thermochronometry. The newly gained AFT ages indicate rapid exhumation and confirm earlier studies in the Chandra Valley. I assume that the rapid exhumation is most likely related to uplift over subsurface structures. I tested this hypothesis by combining further low-temperature thermochronometers from areas east and west of my study area. By comparing two transects, each parallel to the Beas/Chandra Valley transect, I demonstrate similarities in the exhumation pattern to transects across the Sutlej region, and strong dissimilarities in the transect crossing the Dhauladar Range. I conclude that the belt of rapid exhumation terminates at the western end of the Kullu-Rampur window. Therewith, I corroborate earlier studies suggesting changes in exhumation behavior in the western Himalaya. Furthermore, I discussed several causes responsible for the pronounced change in exhumation patterns along strike: 1) the role of inherited pre-collisional features such as the Proterozoic sedimentary cover of the Indian basement, former ridges and geological structures, and 2) the variability of convergence rates along the Himalayan arc due to an increased oblique component towards the syntaxis. The combination of field observations (geological and geomorphological mapping) and methods to constrain short- and long-term processes (10Be, AFT) help to understand the role of the individual contributors to exhumation and erosion in the western Indian Himalaya. With the results of this thesis, I emphasize the importance of glacial and tectonic processes in shaping the landscape by driving exhumation and erosion in the studied areas. N2 - Der Himalaja, eines der wichtigsten känozoischen Kontinent-Kontinent Kollisionsgebirgen, erstreckt sich über 2500 km entlang des südlichen Randes des Tibetischen Plateaus von Ost nach West. Die Gebirgsbildung wird durch interne Deformationsprozesse und klimatische Faktoren, welche auf Verwitterung, Abtragung und Transport wirken, beeinflusst. In einem Zyklus von Eis- und Warmzeiten wurde die Landschaft durch Gletscher geformt. U-Täler sind noch heute erhaltene Spuren der Gletscher, die in den Warmzeiten durch abgetragene Sedimente verfüllt wurden. Diese Sedimente befinden sich teilweise bis heute in diesen übertieften Tälern, weil es an Kapazitäten zur Ausräumung der Täler ins Vorland mangelt. Die kurz-skaligen klimatischen Prozesse überlagern sich mit langzeitlichen tektonischen Prozessen wie Hebung und Exhumation, die durch Konvergenz verursacht werden. Im Zusammenhang mit dem Gebirgswachstum ist es entscheidend die Prozesse, welche die Erdoberfläche sowohl über kurze wie auch über längere Zeiträume formen zu bestimmen und damit auch deren Auswirkungen auf die Landschaftsentwicklung in den einzelnen Abschnitten des Gebirgsbogens. Diese Dissertation fokussiert auf tektonische und Erdoberflächenprozesse, welche den westlichen indischen Himalaja seit dem Miozän geprägt und beeinflusst haben. In der ersten Studie, habe ich im oberen Chandratal mittels 10Be terrestrischen kosmogenen Nukliden (TCN) gut erhaltene vom Gletscher geschliffene und polierte Gesteinsoberflächen auf höher gelegenen Bergrücken und entlang der Talseiten datiert. Basierend auf diesen Altern und kartierten glazialen Landformen habe ich nicht nur die Ausdehnung, sondern auch den Zeitpunkt einer Vergletscherung an der südlichen Front des Himalajas rekonstruiert. Dieser rekonstruierte Gletscher hat im Chandratal eine maximale Länge von ~200 km und >1000 m Dicke erreicht. Die Enteisung des Chandratales folgte dem Anstieg der Sonneneinstrahlung und somit der Temperaturerwärmung auf der nördlichen Hemisphäre. Der Zeitpunkt des Enteisungsbeginns stimmt mit dem Rückgang weiterer Gletscher der mittleren Breiten auf der südlichen wie auch auf der nördlichen Hemisphäre überein. Diese Vergleiche zeigen auch, dass die Enteisung der letzteiszeitlichen Vergletscherung schon vor dem Bølling/Allerød Stadium nahezu abgeschlossen war. In einer zweiten Studie (Ko-Autorenschaft) wird untersucht, wie Gletscher die Erdoberfläche formen und wie Gletschervorstöße und -rückzüge die Landschaft in alpinen Regionen beeinflussen. Die maximale Länge des Siachen Gletschers im Nubratal wurde auf mehr als 180 km rekonstruiert. Heute ist der Zusammenfluss der Flüsse Shyok und Nubra mit Sedimenten verfüllt, deren Ablagerung mit einer Blockierung des Tales durch den Siachen Gletscher bis zu 900 m über der heutigen Flusshöhe zusammenhängen. Demzufolge, staute der Siachen Gletscher den Fluss Shyok. Fluviatile und lakustrine Ablagerungen im Tal dokumentieren sich wechselnde Entleerungs- und Auffüllungszyklen dieses Gletscherstausees. In dieser Studie, konnte ebenso gezeigt werden, dass fluviatile Erosion durch die glaziale Erosion überholt wird. Über den längeren Zeitraum (Jahrmillionen) fokussiere ich auf Exhumation und Erosion in den Tälern Chandra und Beas. In dieser dritten Studie war es mir möglich mittels Apatit-Spaltspurdatierung (AFT) die Lage und Gründe der schnellen Exhumation in diesem Bereich, einige hundert Kilometer entfernt einer der Hauptstörungen des Himalajas (MFT), zu beschreiben. Die neuen AFT Alter deuten auf schnelle Exhumation hin und bestätigen frühere Studien aus dem Chandratal. Ich vermute, dass diese schnelle Exhumation mit einer Bewegung über eine krustale Rampe im Zusammenhang steht, welche auch im östlich anschließenden Sutlej Tal ausgeprägt ist. Diese Hypothese wurde durch die Kombination weiterer tieftemperatur Thermochronometer aus benachbarten Gebieten untersucht. Durch den Vergleich zweier Profile, welche parallel zum Chandra/Beas-Profil laufen wurden im östliche gelegenen Sutlej Gebiet ähnliche Exhumationsmuster gefunden. Daraus schließe ich, das Ende es "rapid exhumation belt" westlich des Kullu-Rampur Fensters im Beastal und bestätige damit auch frühere Studien. Im Weiteren wurden verschiedene Gründe wie ehemalige prä-kollisionale Strukturen und Sedimentbecken oder die abnehmende frontale Konvergenz gegen Westen diskutiert, welche sich Möglicherweise verantwortlich zeichnen für den Wechsel des Exhumationsverhaltens entlang des Streichens des Himalaja. Die Kombination aus Feldbeobachtungen (geologische und geomorphologische Kartierung) und Methoden, die über kurze und längere Zeiträume Prozesse auflösen (10Be, AFT), unterstützen die Erkenntnisse über die Rollenverteilung der einzelnen Akteure bezüglich Exhumation und Erosion im westlichen indischen Himalaja. Die Ergebnisse dieser Doktorarbeit heben die Wichtigkeit glazialer als auch tektonischer Prozesse als Steuerelemente von Exhumation und Erosion im Studiengebiet hervor. KW - Geologie KW - Himalaja KW - Thermochronologie KW - kosmogene Nuklide KW - Gletscher KW - geology KW - Himalaya KW - thermochronology KW - cosmogenic nuclides KW - glaciers Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-420329 ER - TY - THES A1 - Kegeles, Alexander T1 - Algebraic foundation of Group Field Theory T1 - Algebraische Grundlagen der Gruppenfeldtheorie N2 - In this thesis we provide a construction of the operator framework starting from the functional formulation of group field theory (GFT). We define operator algebras on Hilbert spaces whose expectation values in specific states provide correlation functions of the functional formulation. Our construction allows us to give a direct relation between the ingredients of the functional GFT and its operator formulation in a perturbative regime. Using this construction we provide an example of GFT states that can not be formulated as states in a Fock space and lead to math- ematically inequivalent representations of the operator algebra. We show that such inequivalent representations can be grouped together by their symmetry properties and sometimes break the left translation symmetry of the GFT action. We interpret these groups of inequivalent representations as phases of GFT, similar to the classification of phases that we use in QFT’s on space-time. N2 - Die Gruppenfeldtheorie (GFT) ist Kandidat für eine Theorie der Quantengravitation. Formuliert in der Sprache der Quantenfeldtheorie, beschreibt die GFT die Entstehung der Raum-Zeit. Jedoch, im Gegensatz zu den QFT's der Teilchenphysik, ist die GFT nicht auf der Raum-Zeit formuliert, sondern liefert einen möglichen Ansatz zur deren Entstehung. Dennoch, ähnlich wie in den QFT's der Teilchenphysik, existieren zwei Arten der GFT: die funktionale und die operator Formulierung. Der funktionale Formalismus, geschrieben mit Hilfe von Funktionalintegralen, stellt eine Verbindungen zu anderen Theorien der Quantengravitation dar, und liefert eine gute Basis für die Analyse der Renormierung. Seine Bestandteile lassen sich jedoch nicht ohne weiteres physikalisch interpretieren, was einen intuitiven Zugang bei der Entwicklung der Theorie verkompliziert. Die Operator-Formulierung wird dagegen in Operatoren auf Hilbert-Räumen angegeben und bietet eine Anschauliche Definition der GFT-Teilchen sowie eine Beschreibung der Theorie in der Sprache der Vielteilchenphysik. Allerdings ist weder ihre Verknüpfung zu dem funktionalen Zugang noch zu anderen, verwandten Theorien der Gravitation, bekannt, was diese Formulierung wenig praktikabel macht. Eine Beziehung zwischen funktionellem und dem operator Formalismus der GFT würde es uns ermöglichen, die klare Anschauung mit den Intuitionen anderer Theorien zu verbinden und würde somit die Entwicklung auf dem Gebiet vorantreiben. In dieser Arbeit stelle ich eine Konstruktion des Operator-Formalismus vor, ausgehend von der funktionalen Formulierung der GFT. Ich definiere Operatoralgebren auf Hilberträumen, deren Erwartungswerte in bestimmten Zuständen den Korrelationsfunktionen der funktionalen Formulierung entsprechen. Diese Konstruktion gibt uns, eine direkte Beziehung zwischen den Bestandteilen der funktionellen GFT und der Operator-Formulierung. KW - quantum gravity KW - quantum field theory KW - group field theory KW - Quantengravitation KW - Quantenfeldtheorie KW - Gruppenfeldtheorie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421014 ER - TY - THES A1 - Sixtus, Elena T1 - Subtle fingers – tangible numbers: The influence of finger counting experience on mental number representations T1 - Der Einfluss von Fingerzählerfahrung auf mentale Zahlenrepräsentationen N2 - Numbers are omnipresent in daily life. They vary in display format and in their meaning so that it does not seem self-evident that our brains process them more or less easily and flexibly. The present thesis addresses mental number representations in general, and specifically the impact of finger counting on mental number representations. Finger postures that result from finger counting experience are one of many ways to convey numerical information. They are, however, probably the one where the numerical content becomes most tangible. By investigating the role of fingers in adults’ mental number representations the four presented studies also tested the Embodied Cognition hypothesis which predicts that bodily experience (e.g., finger counting) during concept acquisition (e.g., number concepts) stays an immanent part of these concepts. The studies focussed on different aspects of finger counting experience. First, consistency and further details of spontaneously used finger configurations were investigated when participants repeatedly produced finger postures according to specific numbers (Study 1). Furthermore, finger counting postures (Study 2), different finger configurations (Study 2 and 4), finger movements (Study 3), and tactile finger perception (Study 4) were investigated regarding their capability to affect number processing. Results indicated that active production of finger counting postures and single finger movements as well as passive perception of tactile stimulation of specific fingers co-activated associated number knowledge and facilitated responses towards corresponding magnitudes and number symbols. Overall, finger counting experience was reflected in specific effects in mental number processing of adult participants. This indicates that finger counting experience is an immanent part of mental number representations. Findings are discussed in the light of a novel model. The MASC (Model of Analogue and Symbolic Codes) combines and extends two established models of number and magnitude processing. Especially a symbolic motor code is introduced as an essential part of the model. It comprises canonical finger postures (i.e., postures that are habitually used to represent numbers) and finger-number associations. The present findings indicate that finger counting functions both as a sensorimotor magnitude and as a symbolic representational format and that it thereby directly mediates between physical and symbolic size. The implications are relevant both for basic research regarding mental number representations and for pedagogic practices regarding the effectiveness of finger counting as a means to acquire a fundamental grasp of numbers. N2 - Zahlen begegnen uns allerorts im täglichen Leben und variieren sowohl in ihrer Darstellungsform als auch in ihrer Bedeutung, sodass es verblüfft, wie unser Hirn sie mehr oder weniger problemlos und flexibel verarbeiten kann. Die mentale Repräsentation von Zahlen im Allgemeinen bzw. die Bedeutung des Fingerzählens für das mentale Zahlenkonzept im Speziellen sind Inhalt der vorliegenden Arbeit. Fingerposen, die sich aus der Fingerzählerfahrung ergeben, sind eine von vielen Arten, numerische Information zu vermitteln – und sie sind vermutlich diejenige, bei der der numerische Inhalt am greifbarsten wird. In den vier vorgestellten Studien wurde untersucht, inwiefern noch bei Erwachsenen deren Zahlenrepräsentationen „in den Fingern“ verankert sind. Die Grundlage bildet der Embodied Cognition-Ansatz, welcher vorhersagt, dass die körperlichen Erfahrungen (z.B. Fingerzählen), durch welche kognitive Konzepte (z.B. Zahlen) erworben wurden, stets Teil dieser kognitiven Konzepte bleiben. Der Schwerpunkt der vorgestellten Studien lag dabei auf unterschiedlichen Aspekten der Fingerzählerfahrung. Zunächst wurde erfasst, wie Personen Zahlen spontan mit ihren Händen zeigten und wie konsistent sie in der Wahl der Fingerkonfigurationen waren (Studie 1). Weiterhin wurde getestet, inwiefern Fingerzählposen (Studie 2), unterschiedliche Fingerkonfigurationen (Studie 2 und 4), Fingerbewegungen (Studie 3) und taktile Fingerwahrnehmung (Studie 4) numerische Konzepte zu primen vermögen. Die berichteten Effekte deuteten darauf hin, dass die Ausführung von Fingerzählposen und Bewegungen einzelner Finger sowie die taktile Stimulation von spezifischen Fingern das entsprechende sensomotorisch verankerte bzw. symbolisch assoziierte Zahlenwissen aktivierte und dadurch Reaktionen auf die entsprechenden Magnituden oder Zahlensymbole erleichterte. Insgesamt zeigten die Ergebnisse aller Studien, dass Fingerzählerfahrung in spezifischen Effekten in der mentalen Zahlenverarbeitung bei Erwachsenen wiederzufinden ist, was dafür spricht, dass sie ein fester Bestandteil von mentalen Zahlenrepräsentationen ist. Die Befunde werden weiterhin insbesondere im Lichte eines neuen Modells betrachtet. Das MASC (Model of Analogue and Symbolic Codes) beruft sich auf zwei etablierte Modelle der Zahlen- und Magnitudenverarbeitung und erweitert diese. Insbesondere ein symbolischer motorischer Code, welcher kanonische Fingerposen (also solche, welche üblicherweise zur Darstellung von Zahlen genutzt werden) und Finger-Zahl-Assoziationen beinhaltet, wird als wichtiger Bestandteil des MASC vorgestellt. Die vorliegenden Befunde weisen darauf hin, dass Fingerzählen sowohl als sensomotorische Magnitude als auch als symbolische Zahlenrepräsentation fungiert und auf diesem Wege direkt zwischen physikalischer und symbolischer Größe vermittelt. Die Ergebnisse und deren Implikationen betreffen sowohl die Grundlagenforschung bezüglich mentaler Zahlenrepräsentation als auch die angewandte Pädagogik bezüglich der Effektivität des Fingerzählens als Mittel zur Erreichung eines kompetenten Zahlenverständnisses. KW - numerical cognition KW - finger counting KW - mental number representations KW - Model of Analogue and Symbolic Codes KW - MASC KW - numerische Kognition KW - mentale Zahlenrepräsentation KW - Fingerzählen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-420115 ER - TY - THES A1 - Dai, Xiaolin T1 - Synthesis of artificial building blocks for sortase-mediated ligation and their enzymatic linkage T1 - Synthese von artifiziellen Bausteinen für Sortase-vermittelte Ligationen und deren enzymatische Verknüpfung N2 - Das Enzym Sortase A katalysiert die Bildung einer Peptidbindung zwischen der Erkennungssequenz LPXTG und einem Oligoglycin. Während vielfältige Ligationen zwischen Proteinen und verschiedenen Biomolekülen, Proteinen und kleinen synthetischen Molekülen, sowie Proteinen und Oberflächen durchgeführt wurden, besteht das Ziel dieser Arbeit darin, die Sortase-katalysierte Verlinkung von synthetischen Bausteinen zu untersuchen. Dies könnte den Weg bereiten für die Anwendung von Sortase A für chemische Aufgabenstellungen und eventuell sogar in den Materialwissenschaften. Für diese grundsätzliche Untersuchung wurden die verwendeten Bausteine zunächst so einfach wie möglich gehalten und leicht zugängliche SiO2 Nanopartikel und kommerziell erhältliche Polymerblöcke ausgewählt. Die Bausteine wurden als erstes mit den Peptidsequenzen für Sortase-vermittelte Ligationen funktionalisiert. SiO2 Nanopartikel wurden mit Durchmessern von 60 und 200 nm hergestellt und mit C=C Doppelbindungen oberflächenmodifiziert. Dann wurden Peptide mit einem terminalen Cystein kovalent durch eine Thiol-en Reaktion angebunden. An die 60 nm NP wurden Peptide mit einem Pentaglycin und an die 200 nm Partikel Peptide mit LPETG Sequenz gebunden. Auf die gleiche Art und Weise wurden Peptide mit terminalem Cystein an die Polymere Polyethylenglykol (PEG) und Poly(N Isopropylacrylamid) (PNIPAM), die beide über C=C Endgruppen verfügen, gebunden und G5-PEG und PNIPAM-LPETG Konjugate erhalten. Mit den vier Bausteinen wurden nun durch Sortase-vermittelte Ligation NP–Polymer Hybride, NP–NP und Polymer–Polymer Strukturen hergestellt und die Produkte u. a. durch Transmissionselektronen-mikroskopie, MALDI-ToF Massenspektrometrie sowie Dynamische Lichtstreuung charakterisiert. Die Verlinkung dieser synthetischen Bausteine konnte eindeutig gezeigt werden. Das Verwenden von kommerziell erhältlichen Polymeren hat jedoch zu einem Gemisch der Polymer-Peptid Konjugate mit unmodifiziertem Polymer geführt, welches nicht gereinigt werden konnte. Deswegen wurden anschließend Synthesestrategien für reine Peptid-Polymer und Polymer-Peptid Konjugate als Bausteine für Sortase-vermittelte Ligationen entwickelt. Diese basieren auf der RAFT Polymerisation mit CTAs, die entweder an N- oder C-Terminus eines Peptids gebunden sind. GG-PNIPAM wurde durch das Anbinden eines geeigneten RAFT CTAs an Fmoc-GG in einer Veresterungsreaktion, Polymerisation von NIPAM und Abspalten der Fmoc Schutzgruppe synthetisiert. Weiterhin wurden mehrere Peptide durch Festphasen-Peptidsynthese erhalten. Die Anbindung eines RAFT CTAs (oder eines Polymerisationsinitiators) an den N-Terminus eines Peptids kann automatisiert als letzter Schritt in einem Peptid-Synthetisierer erfolgen. Die Synthese eines solchen Konjugats konnte in dem Zeithorizont dieser Arbeit noch nicht erreicht werden. Jedoch existieren mehrere vielversprechende Strategien, um diesen Ansatz mit verschiedenen Kopplungsreagenzien zur Anbindung des CTAs fortzusetzen. Solche Polymer Bausteine können in Zukunft für die Synthese von Protein-Polymer Konjugaten durch Sortase-Katalyse verwendet werden. Außerdem kann der Ansatz auch für die Synthese von Block-Copolymeren aus Polymerblöcken mit Peptidmotiven an beiden Enden ausgebaut werden. Auch wenn bei der grundsätzlichen Untersuchung im Rahmen dieser Arbeit Hybridstrukturen hergestellt wurden, die auch durch traditionelle chemische Synthesen erhalten werden könnten, wird ein Bausatz solcher Bausteine in Zukunft die Synthese neuer Materialien ermöglichen und kann auch den Weg für die Anwendung von Enzymen in den Materialwissenschaften ebnen. In Ergänzung zu Nanopartikeln und Block-Copolymeren können dann auch Hybridmaterialien unter Einbezug von Protein-basierten Bausteinen hergestellt werden. Daher könnten Sortase Enzyme zu einem Werkzeug werden, welches etablierte chemische Verlinkungstechniken ergänzt und mit den hoch spezifischen Peptidmotiven über funktionale Einheiten verfügt, die orthogonal zu allen chemischen Gruppen sind. N2 - The enzyme Sortase A catalyzes the formation of a peptide bond between the recognition sequence LPXTG and an oligoglycine. While manifold ligations between proteins and various biomolecules, proteins and small synthetic molecules as well as proteins and surfaces have been reported, the aim of this thesis was to investigate the sortase-catalyzed linkage between artificial building blocks. Hence, this could pave the way for the use of sortase A for tasks from a chemical point of view and maybe even materials science. For the proof of concept, the studied systems were kept as simple as possible at first by choosing easily accessible silica NPs and commercially available polymers. These building blocks were functionalized with peptide motifs for sortase-mediated ligation. Silica nanoparticles were synthesized with diameters of 60 and 200 nm and surface modified with C=C functionalities. Then, peptides bearing a terminal cysteine were covalently linked by means of a thiol-ene reaction. 60 nm SiO2 NPs were functionalized with pentaglycines, while peptides with LPETG motif were linked to 200 nm silica particles. Polyethyleneglycol (PEG) and poly(N isopropylacrylamide) (PNIPAM) were likewise functionalized with peptides by thiol-ene reaction between cysteine residues and C=C units in the polymer end groups. Hence, G5-PEG and PNIPAM-LPETG conjugates were obtained. With this set of building blocks, NP–polymer hybrids, NP–NP, and polymer–polymer structures were generated by sortase-mediated ligation and the product formation shown by transmission electron microscopy, MALDI-ToF mass spectrometry and dynamic light scatting, among others. Thus, the linkage of these artificial building blocks by the enzyme sortase A could be demonstrated. However, when using commercially available polymers, the purification of the polymer–peptide conjugates was impossible and resulted in a mixture containing unmodified polymer. Therefore, strategies were developed for the own synthesis of pure peptide-polymer and polymer-peptide conjugates as building blocks for sortase-mediated ligation. The designed routes are based on preparing polymer blocks via RAFT polymerization from CTAs that are attached to N- or C-terminus, respectively, of a peptide. GG-PNIPAM was synthesized through attachment of a suitable RAFT CTA to Fmoc-GG in an esterification reaction, followed by polymerization of NIPAM and cleavage of the Fmoc protection group. Furthermore, several peptides were synthesized by solid-phase peptide synthesis. The linkage of a RAFT CTA (or polymerization initiator) to the N-terminus of a peptide can be conducted in an automated fashion as last step in a peptide synthesizer. The synthesis of such a conjugate couldn’t be realized in the time frame of this thesis, but many promising strategies exist to continue this strategy using different coupling reagents. Such polymer building blocks can be used to synthesize protein-polymer conjugates catalyzed by sortase A and the approach can be carried on to the synthesis of block copolymers by using polymer blocks with peptide motifs on both ends. Although the proof of concept demonstrated in this thesis only shows examples that can be also synthesized by exclusively chemical techniques, a toolbox of such building blocks will enable the future formation of new materials and pave the way for the application of enzymes in materials science. In addition to nanoparticle systems and block copolymers, this also includes combination with protein-based building blocks to form hybrid materials. Hence, sortase could become an enzymatic tool that complements established chemical linking technologies and provides specific peptide motifs that are orthogonal to all existing chemical functional groups. KW - sortase-mediated ligation KW - enzyme KW - block copolymers KW - nanoparticles KW - Ligation KW - Enzym KW - Block-Copolymere KW - Nanopartikel Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-420060 ER - TY - THES A1 - Quade, Markus T1 - Symbolic regression for identification, prediction, and control of dynamical systems T1 - Symbolische Regression zur Identifikation, Vorhersage und Regelung dynamischer Systeme N2 - In the present work, we use symbolic regression for automated modeling of dynamical systems. Symbolic regression is a powerful and general method suitable for data-driven identification of mathematical expressions. In particular, the structure and parameters of those expressions are identified simultaneously. We consider two main variants of symbolic regression: sparse regression-based and genetic programming-based symbolic regression. Both are applied to identification, prediction and control of dynamical systems. We introduce a new methodology for the data-driven identification of nonlinear dynamics for systems undergoing abrupt changes. Building on a sparse regression algorithm derived earlier, the model after the change is defined as a minimum update with respect to a reference model of the system identified prior to the change. The technique is successfully exemplified on the chaotic Lorenz system and the van der Pol oscillator. Issues such as computational complexity, robustness against noise and requirements with respect to data volume are investigated. We show how symbolic regression can be used for time series prediction. Again, issues such as robustness against noise and convergence rate are investigated us- ing the harmonic oscillator as a toy problem. In combination with embedding, we demonstrate the prediction of a propagating front in coupled FitzHugh-Nagumo oscillators. Additionally, we show how we can enhance numerical weather predictions to commercially forecast power production of green energy power plants. We employ symbolic regression for synchronization control in coupled van der Pol oscillators. Different coupling topologies are investigated. We address issues such as plausibility and stability of the control laws found. The toolkit has been made open source and is used in turbulence control applications. Genetic programming based symbolic regression is very versatile and can be adapted to many optimization problems. The heuristic-based algorithm allows for cost efficient optimization of complex tasks. We emphasize the ability of symbolic regression to yield white-box models. In contrast to black-box models, such models are accessible and interpretable which allows the usage of established tool chains. N2 - In der vorliegenden Arbeit nutzen wird symbolische Regression zur automatisierten Modellierung dynamischer Systeme. Symbolische Regression ist eine mächtige und vielseitige Methode, welche zur Daten-getriebenen Identifikation von mathematischen Ausdrücken geeignet ist. Insbesondere werden dabei Struktur und Parameter des gesuchten Ausdrucks parallel ermittelt. Zwei Varianten der symbolischen Regression werden im Rahmen dieser Arbeit in Betracht gezogen: sparse regression und symbolischer Regression basierend auf genetischem Programmieren. Beide Verfahren werden für die Identifikation, Vor- hersage und Regelung dynamischer Systeme angewandt. Wir führen eine neue Methodik zur Identifikation von dynamischen Systemen, welche eine spontane Änderung erfahren, ein. Die Änderung eines Modells, wel- ches mit Hilfe von sparse regression gefunden wurde, ist definiert als sparsamste Aktualisierung im Hinblick auf das Modell vor der Änderung. Diese Technik ist beispielhaft am chaotischem Lorenz System und dem van der Pol Oszillator demonstriert. Aspekte wie numerische Komplexität, Robustheit gegenüber Rauschen sowie Anforderungen an Anzahl von Datenpunkten werden untersucht. Wir zeigen wie symbolische Regression zur Zeitreihenvorhersage genutzt wer- den kann. Wir nutzen dem harmonischen Oszillator als Beispielmodell, um Aspekte wie Robustheit gegenüber Rauschen sowie die Konvergenzrate der Optimierung zu untersuchen. Mit Hilfe von Einbettungsverfahren demonstrieren wir die Vorhersage propagierenden Fronten in gekoppelten FitzHugh-Nagumo Oszillatoren. Außerdem betrachten wir die kommerzielle Stromproduktionsvorhersage von erneuerbaren Energien. Wir zeigen wie man diesbezügliche die numerische Wettervorhersage mittels symbolischer Regression verfeinern und zur Stromproduktionsvorhersage anwenden kann. Wir setzen symbolische Regression zur Regelung von Synchronisation in gekoppelten van der Pol Oszillatoren ein. Dabei untersuchen wir verschiedene Topologien und Kopplungen. Wir betrachten Aspekte wie Plausibilität und Stabilität der gefundenen Regelungsgesetze. Die Software wurde veröffentlicht und wird u. a. zur Turbulenzregelung eingesetzt. Symbolische Regression basierend auf genetischem Programmieren ist sehr vielseitig und kann auf viele Optimierungsprobleme übertragen werden. Der auf Heuristik basierenden Algorithmus erlaubt die effiziente Optimierung von komplexen Fragestellungen. Wir betonen die Fähigkeit von symbolischer Regression, sogenannte white-box Modelle zu produzieren. Diese Modelle sind – im Gegensatz zu black-box Modellen – zugänglich und interpretierbar. Dies ermöglicht das weitere Nutzen von etablierten Methodiken. KW - dynamical systems KW - symbolic regression KW - genetic programming KW - identification KW - prediction KW - control KW - Dynamische Systeme KW - Symbolische Regression KW - Genetisches Programmieren KW - Identifikation KW - Vorhersage KW - Regelung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-419790 ER - TY - THES A1 - Saad Hassanin, Alshaimaa T1 - Dynamic coronal mass ejection process and magnetic reconnection T1 - Dynamische koronale Massenauswürfe und magnetische Rekonnexion N2 - The Sun is the nearest star to the Earth. It consists of an interior and an atmosphere. The convection zone is the outermost layer of the solar interior. A flux rope may emerge as a coherent structure from the convection zone into the solar atmosphere or be formed by magnetic reconnection in the atmosphere. A flux rope is a bundle of magnetic field lines twisting around an axis field line, creating a helical shape by which dense filament material can be supported against gravity. The flux rope is also considered as the key structure of the most energetic phenomena in the solar system, such as coronal mass ejections (CMEs) and flares. These magnetic flux ropes can produce severe geomagnetic storms. In particular, to improve the ability to forecast space weather, it is important to enrich our knowledge about the dynamic formation of flux ropes and the underlying physical mechanisms that initiate their eruption, such as a CME. A confined eruption consists of a filament eruption and usually an associated are, but does not evolve into a CME; rather, the moving plasma is halted in the solar corona and usually seen to fall back. The first detailed observations of a confined filament eruption were obtained on 2002 May 27by the TRACE satellite in the 195 A band. So, in the Chapter 3, we focus on a flux rope instability model. A twisted flux rope can become unstable by entering the kink instability regime. We show that the kink instability, which occurs if the twist of a flux rope exceeds a critical value, is capable of initiating of an eruption. This model is tested against the well observed confined eruption on 2002 May 27 in a parametric magnetohydrodynamic (MHD) simulation study that comprises all phases of the event. Very good agreement with the essential observed properties is obtained, only except for a relatively poor matching of the initial filament height. Therefore, in Chapter 4, we submerge the center point of the flux rope deeper below the photosphere to obtain a flatter coronal rope section and a better matching with the initial height profile of the erupting filament. This implies a more realistic inclusion of the photospheric line tying. All basic assumptions and the other parameter settings are kept the same as in Chapter 3. This complement of the parametric study shows that the flux rope instability model can yield an even better match with the observational data. We also focus in Chapters 3 and 4 on the magnetic reconnection during the confined eruption, demonstrating that it occurs in two distinct locations and phases that correspond to the observed brightenings and changes of topology, and consider the fate of the erupting flux, which can reform a (less twisted) flux rope. The Sun also produces series of homologous eruptions, i.e. eruptions which occur repetitively in the same active region and are of similar morphology. Therefore, in Chapter 5, we employ the reformed flux rope as a new initial condition, to investigate the possibility of subsequent homologous eruptions. Free magnetic energy is built up by imposing motions in the bottom boundary, such as converging motions, leading to flux cancellation. We apply converging motions in the sunspot area, such that a small part of the flux from the sunspots with different polarities is transported toward the polarity inversion line (PIL) and cancels with each other. The reconnection associated with the cancellation process forms more helical magnetic flux around the reformed flux rope, which leads to a second and a third eruption. In this study, we obtain the first MHD simulation results of a homologous sequence of eruptions that show a transition from a confined to two ejective eruptions, based on the reformation of a flux rope after each eruption. N2 - Die Sonne ist der uns am nächsten benachbarte Stern. Sie besteht aus einem Inneren und einer Atmosphäre. Die Konvektionszone ist die äußerste Schicht des Inneren. Eine magnetische Flussröhre kann als kohärente Struktur aus der Konvektionszone in die Atmosphäre aufsteigen oder durch magnetische Rekonnexion in der Atmosphäre gebildet werden. Unter magnetischer Flussröhre wird hier ein Bündel magnetischer Feldlinien verstanden, die um eine zentrale Feldlinie herum verdrillt sind. In der entstehenden helikalen Form der Feldlinien kann dichtes Filamentmaterial gegen die Gravitation magnetisch gestützt werden. Diese Flussröhren werden auch als ein Schlüsselelement der energetischsten Erscheinungen in unserem Sonnensystem, nämlich koronaler Massenauswürfe (CMEs) und Flares, angesehen. Auf diesem Wege können solare magnetische Flussröhren starke geomagnetische Stürme erzeugen. Für Voraussagen des Raumwetters ist es von entscheidender Bedeutung, sowohl die dynamischen Prozesse der Flussröhrenbildung zu verstehen als auch die physikalischen Mechanismen, die ihrer Eruption, z.B. einem CME, zugrunde liegen. Eine beschränkte Filamenteruption besteht aus einer Filamentaktivierung und üblicherweise einem mit ihr verbundenen Flare, wobei die Entwicklung zu einem CME jedoch ausbleibt; vielmehr wird aufsteigendes Plasma in der Korona gehalten und meist kann sein Rückfall beobachtet werden. Die ersten detaillierten Beobachtungen einer beschränkten Filamenteruption wurden am 27. Mai 2002 vom TRACE-Satelliten im 195A-Band gewonnen. Zu ihrer Analyse wird in Kapitel 3 die Instabilit� at einer Flussröhre untersucht. Eine verdrillte Flussröhre kann instabil gegenüber der Knick-(Kink-)Instabilität werden. Wir zeigen, dass die Knick-Instabilität, die auftritt, wenn die Verdrillung einen kritischen Wert überschreitet, eine Eruption auslösen kann. Eine parametrische magnetohydrodynamischen (MHD-) Simulation, die alle Phasen des Ereignisses umfasst, wird mit den Beobachtungen vom 27. Mai 2002 verglichen. Hinsichtlich der wesentlichen Eigenschaften wird eine sehr gute Übereinstimmung der Simulationsergebnisse mit den Beobachtungen festgestellt, allerdings mit Ausnahme der Anfangshöhe des Filamentes. Deshalb wird in Kapitel 4 das Zentrum der Flussröhre tiefer unterhalb das Niveau der Photosphäre gelegt. Das führt zu einem acheren koronalen Flussröhren-Abschnitt und einer realistischeren Modellierung der Feldlinienverankerung in der Photosphäre. Diese komplementäre parametrische Untersuchung zeigt eine noch bessere Übereinstimmung mit den Beobachtungen. In den Kapiteln 3 und 4 liegt ein spezielles Augenmerk auch auf der magnetischen Rekonnexion im Verlaufe der beschränkten Eruption. Es stellt sich heraus, dass die Rekonnexion an zwei unterschiedlichen Orten und in zwei unterschiedlichen Phasen stattfindet, die durch verstärkte Strahlungsemission und Änderung der magnetischen Topologie charakterisiert sind. In den späten Stadien der Entwicklung kommt es zur Neubildung einer (weniger verdrillten) Flussröhre. Die Sonne produziert auch Serien homologer Eruptionen, die wiederholt mit ähnlicher Morphologie in derselben aktiven Region auftreten. In Kapitel 5 wird die neu gebildete Flussröhre als neue Anfangsbedingung verwendet, um die Möglichkeit nachfolgender homologer Eruptionen zu untersuchen. Photosphärische Bewegungen speisen Energie in das Magnetfeld ein. Wir verwenden konvergierende Bewegungen, die die Flüsse von Flecken unterschiedlicher Polarität zur Inversionslinie der Polarität transportieren und dort teilweise neutralisieren. Die damit verbundene Rekonnexion erzeugt helikalen magnetischen Fluss um die neu gebildete Flussröhre herum, was zu einer zweiten und einer dritten Eruption führt. Unsere Simulationen einer Serie homologer Eruptionen zeigen erstmals einen Übergang von einer beschränkten Eruption zu zwei ejektiven Eruptionen. KW - solar corona KW - solar eruption KW - magnetohydrodynamic KW - instability KW - Sonnenkorona KW - solare Eruption KW - Magnetohydrodynamik KW - Instabiltät Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-419626 ER - TY - THES A1 - Khalil, Sara T1 - Boundary Value Problems on Manifolds with Singularities T1 - Randwertprobleme auf Mannigfaltigkeiten mit Singularitäten N2 - In the thesis there are constructed new quantizations for pseudo-differential boundary value problems (BVPs) on manifolds with edge. The shape of operators comes from Boutet de Monvel’s calculus which exists on smooth manifolds with boundary. The singular case, here with edge and boundary, is much more complicated. The present approach simplifies the operator-valued symbolic structures by using suitable Mellin quantizations on infinite stretched model cones of wedges with boundary. The Mellin symbols themselves are, modulo smoothing ones, with asymptotics, holomorphic in the complex Mellin covariable. One of the main results is the construction of parametrices of elliptic elements in the corresponding operator algebra, including elliptic edge conditions. N2 - In der Dissertation wurden neue Quantisierungen konstruiert für pseudo-differentielle Randwertprobleme auf Mannigfaltigkeiten mit Kanten-Singularitäten. Die Gestalt der hier behandelten Operatoren ist motiviert durch Boutet de Monvels Kalkül, der auf glatten Mannigfaltigkeiten mit Rand bekannt ist. Der singuläre Fall, hier mit Kanten und Rand, ist weitaus komplizierter. Der gegenwärtige Zugang vereinfacht die operatarwertigen Symbolstrukturen unter Verwendung geeigneter Mellin-Quantisierungen auf unendlichen gestreckten Modell- Kegeln, die entsprechenden Keilen mit Rand zugeordnet sind. Die Mellin-Symbole selbst sind holomorph in der komplexen Mellin Kovariablen bis auf glättende Restglieder mit Asymptotiken. Zu den Hauptresultaten gehört die Konstruktion von Parametrices elliptischer Elemente in der erzeugten Operator-Algebra, einschließlich elliptischer Kanten-Bedingungen. KW - manifolds with singularities KW - boundary value problems KW - pseudo-differential equation KW - manifolds with edge KW - Boutet de Monvel's calculus KW - edge boundary value problems KW - Mannigfaltigkeiten mit Singularitäten KW - Randwertprobleme KW - pseudo-differentielle Gleichungen KW - Mannigfaltigkeiten mit Kante KW - Boutet de Monvels Kalkül KW - Kanten-Randwertprobleme Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-419018 ER - TY - THES A1 - Kettner, Marie Therese T1 - Microbial colonization of microplastic particles in aquatic systems T1 - Mikrobielle Besiedlung von Mikroplastik-Partikeln in aquatischen Systemen N2 - The continuously increasing pollution of aquatic environments with microplastics (plastic particles < 5 mm) is a global problem with potential implications for organisms of all trophic levels. For microorganisms, trillions of these floating microplastics particles represent a huge surface area for colonization. Due to the very low biodegradability, microplastics remain years to centuries in the environment and can be transported over thousands of kilometers together with the attached organisms. Since also pathogenic, invasive, or otherwise harmful species could be spread this way, it is essential to study microplastics-associated communities. For this doctoral thesis, eukaryotic communities were analyzed for the first time on microplastics in brackish environments and compared to communities in the surrounding water and on the natural substrate wood. With Illumina MiSeq high-throughput sequencing, more than 500 different eukaryotic taxa were detected on the microplastics samples. Among them were various green algae, dinoflagellates, ciliates, fungi, fungal-like protists and small metazoans such as nematodes and rotifers. The most abundant organisms was a dinoflagellate of the genus Pfiesteria, which could include fish pathogenic and bloom forming toxigenic species. Network analyses revealed that there were numerous interaction possibilities among prokaryotes and eukaryotes in microplastics biofilms. Eukaryotic community compositions on microplastics differed significantly from those on wood and in water, and compositions were additionally distinct among the sampling locations. Furthermore, the biodiversity was clearly lower on microplastics in comparison to the diversity on wood or in the surrounding water. In another experiment, a situation was simulated in which treated wastewater containing microplastics was introduced into a freshwater lake. With increasing microplastics concentrations, the resulting bacterial communities became more similar to those from the treated wastewater. Moreover, the abundance of integrase I increased together with rising concentrations of microplastics. Integrase I is often used as a marker for anthropogenic environmental pollution and is further linked to genes conferring, e.g., antibiotic resistance. This dissertation gives detailed insights into the complexity of prokaryotic and eukaryotic communities on microplastics in brackish and freshwater systems. Even though microplastics provide novel microhabitats for various microbes, they might also transport toxigenic, pathogenic, antibiotic-resistant or parasitic organisms; meaning their colonization can pose potential threats to humans and the environment. Finally, this thesis explains the urgent need for more research as well as for strategies to minimize the global microplastic pollution. N2 - Die stetig steigende Verschmutzung der Gewässer mit Mikroplastik (Plastikteilchen < 5 mm) ist ein weltweites Umweltproblem und wirkt sich potentiell auf Organismen aller trophischen Ebenen aus. Für Mikroorganismen stellen Billionen dieser schwimmenden Mikroplastik-partikel eine riesige Fläche zur Besiedlung dar. Aufgrund der sehr schlechten Abbaubarkeit verbleibt Mikroplastik Jahre bis Jahrhunderte in der Umwelt und kann samt der angehefteten Organismen über mehrere Tausend Kilometer weit transportiert werden. Da sich darüber auch pathogene, invasive oder anderweitig gefährliche Arten verbreiten könnten, ist es essentiell, die Mikroplastik-assoziierten Gemeinschaften zu untersuchen. Im Rahmen dieser Doktorarbeit wurden erstmals die eukaryotischen Gemeinschaften auf Mikroplastik in Brackwasser-Habitaten analysiert und mit Gemeinschaften aus dem umgebenden Wasser und auf dem natürlichen Substrat Holz verglichen. Mit Illumina MiSeq Hochdurchsatz-Sequenzierungs-Verfahren wurde ermittelt, dass über 500 verschiedene eukaryotische Taxa auf den Mikroplastikproben vorkamen. Dazu gehörten unterschiedliche Grünalgen, Dinoflagellaten, Ciliaten, Pilze, pilz-ähnliche Protisten und kleine Metazoen wie Fadenwürmer oder Rädertierchen. Am häufigsten kamen Dinoflagellaten der Gattung Pfiesteria vor, zu der möglicherweise fischpathogene und toxische Algenblüten-bildende Arten gehören könnten. Netzwerk-Analysen zeigten, dass es auf Mikroplastik eine Vielzahl von Interaktionsmöglichkeiten zwischen den vorhandenen Eukaryoten und Prokaryoten gibt. Die Zusammensetzungen der Eukaryoten-Gemeinschaften auf Mikroplastik unterschieden sich signifikant von jenen auf Holz und im umgebenden Wasser, aber auch zwischen den verschiedenen Probenahme-Standorten. Die Mikroplastikproben wiesen im Vergleich zu Wasser und Holz die geringste Biodiversität auf. In einem weiteren Experiment wurde simuliert, dass Mikroplastik-haltiges Wasser aus dem Ablauf einer Kläranlage in einen See eingeleitet wird. Bei hohen Mikroplastikkonzentrationen reicherten sich besonders Bakterien aus dem Kläranlagenablauf an. Zudem hatten die Bakteriengemeinschaften auf Mikroplastik ein signifikant erhöhtes Vorkommen eines bestimmten genetischen Markers (Integrase I), welcher auf anthropogene Umweltverschmutzung hindeutet, sowie mit Genen verknüpft ist, die z. B. Antibiotika-Resistenzen übertragen können. Die Versuchsergebnisse dieser Doktorarbeit zeigen einerseits, wie komplex und vielseitig das mikrobielle Leben auf Mikroplastik sein kann, andererseits könnten diese Partikel aber auch Transportvehikel für toxische, pathogene, antibiotika-resistente oder parasitäre Organismen darstellen. Somit birgt ihre Besiedlung potentielle Gefahren für Mensch und Umwelt. Darüber hinaus weist diese Arbeit auf dringenden Forschungsbedarf hin und verdeutlicht die Notwendigkeit der Eindämmung der globalen Mikroplastik-Verschmutzung. KW - microplastics KW - eukaryotes KW - sequencing KW - fungi KW - biofilm KW - biodiversity KW - Biodiversität KW - Biofilm KW - Eukaryoten KW - Pilze KW - Mikroplastik KW - Sequenzierung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418854 ER - TY - THES A1 - Fuhrmann, Saskia T1 - Physiologically-based pharmacokinetic and mechanism-based pharmacodynamic modelling of monoclonal antibodies with a focus on tumour targeting T1 - Physiologie-basierte pharmakokinetische und mechanistische pharmakodynamische Modellierung von monoklonalen Antikörpern mit Fokus auf zielgerichtete Tumortherapie N2 - Monoclonal antibodies (mAbs) are an innovative group of drugs with increasing clinical importance in oncology, combining high specificity with generally low toxicity. There are, however, numerous challenges associated with the development of mAbs as therapeutics. Mechanistic understanding of factors that govern the pharmacokinetics (PK) of mAbs is critical for drug development and the optimisation of effective therapies; in particular, adequate dosing strategies can improve patient quality life and lower drug cost. Physiologically-based PK (PBPK) models offer a physiological and mechanistic framework, which is of advantage in the context of animal to human extrapolation. Unlike for small molecule drugs, however, there is no consensus on how to model mAb disposition in a PBPK context. Current PBPK models for mAb PK hugely vary in their representation of physiology and parameterisation. Their complexity poses a challenge for their applications, e.g., translating knowledge from animal species to humans. In this thesis, we developed and validated a consensus PBPK model for mAb disposition taking into account recent insights into mAb distribution (antibody biodistribution coefficients and interstitial immunoglobulin G (IgG) pharmacokinetics) to predict tissue PK across several pre-clinical species and humans based on plasma data only. The model allows to a priori predict target-independent (unspecific) mAb disposition processes as well as mAb disposition in concentration ranges, for which the unspecific clearance (CL) dominates target-mediated CL processes. This is often the case for mAb therapies at steady state dosing. The consensus PBPK model was then used and refined to address two important problems: 1) Immunodeficient mice are crucial models to evaluate mAb efficacy in cancer therapy. Protection from elimination by binding to the neonatal Fc receptor is known to be a major pathway influencing the unspecific CL of both, endogenous and therapeutic IgG. The concentration of endogenous IgG, however, is reduced in immunodeficient mouse models, and this effect on unspecific mAb CL is unknown, yet of great importance for the extrapolation to human in the context of mAb cancer therapy. 2) The distribution of mAbs into solid tumours is of great interest. To comprehensively investigate mAb distribution within tumour tissue and its implications for therapeutic efficacy, we extended the consensus PBPK model by a detailed tumour distribution model incorporating a cell-level model for mAb-target interaction. We studied the impact of variations in tumour microenvironment on therapeutic efficacy and explored the plausibility of different mechanisms of action in mAb cancer therapy. The mathematical findings and observed phenomena shed new light on therapeutic utility and dosing regimens in mAb cancer treatment. N2 - Monoklonale Antikörper (mAK) stellen durch ihre hohe Spezifität und geringe Toxizität eine innovative Arzneistoffklasse mit großer klinischer Bedeutung in der Krebstherapie dar. Es gibt jedoch eine Vielzahl an Herausforderungen, die mit der Entwicklung von mAK als Krebstherapeutika verbunden sind. Mechanistisches Verständnis der Pharmakokinetik (PK) von mAK ist wichtig für die Arzneimittelentwicklung sowie für die Therapieoptimierung. Adäquate Dosierungsstrategien können die Lebensqualität der Patienten erhöhen und die Gesundheitskosten senken. Physiologie-basierte PK (PBPK) Modelle bieten einen physiologischen und mechanistischen Rahmen für die Extrapolation von Tiermodellen auf den Menschen. Im Gegensatz zu kleinen chemischen Molekülen besteht für die PBPK Modellierung von mAK kein Konsens: Aktuelle Modelle unterscheiden sich stark hinsichtlich Physiologie und deren Parameterisierung. Die Komplexität dieser Modelle stellt eine große Herausforderung für ihre Anwendung dar. In der vorliegenden Arbeit entwickelten und validierten wir ein Konsens-PBPK-Modell für die mAK Disposition. Dabei wurden aktuelle Erkenntnisse zur mAK Verteilung berücksichtigt, um basierend auf Plasmadaten Vorhersagen für die PK im Gewebe verschiedener präklinischer sowie klinischer Spezies zu treffen. Das Modell erlaubt a priori Vorhersagen für die unspezifische (target-unabhängige) mAK Disposition als auch für die mAK Disposition in einem Konzentrationsbereich, für den die unspezifische Clearance (CL) die target-abhängige CL dominiert. Dies ist oft der Fall für mAK Therapien bei Steady-state-Dosierung. Anschließend wurde das Konsens-PBPK-Modell genutzt und verfeinert, um zwei wichtige Aspekte näher zu untersuchen: 1) Immundefiziente Mäuse sind wichtige Tiermodelle für die Evaluierung der mAK Wirksamkeit in der Tumortherapie. Die Bindung von Antikörpern an den neonatalen Fc Rezeptor schützt diese vor dem Abbau und beeinflusst somit maßgeblich die unspezifische CL von endogenen sowie therapeutischen Antikörpern. Die Konzentration von endogenem IgG in immundefizienten Mäusen ist reduziert. Dieser Effekt auf die unspezifische mAK CL ist unbekannt, jedoch wichtig für die Extrapolation auf den Menschen in der mAK Tumortherapie. 2) Die Verteilung von mAK innerhalb eines soliden Tumors ist von großer Bedeutung. Für die umfassende Untersuchung der mAK Verteilung innerhalb des Tumorgewebes wurde das Konsens-PBPK-Modell um ein detailliertes Tumor-Verteilungsmodell, welches die mAK-Target Interaktion auf Zellebene berücksichtigt, erweitert. Wir untersuchten den Einfluss von Variationen in der Tumor-Mikroumgebung auf die klinische Wirksamkeit von mAK und untersuchten die Plausibilität verschiedener Wirkmechanismen in der mAK Tumortherapie. Die mathematischen Ergebnisse sowie beobachteten Phänomene werfen ein neues Licht auf den therapeutischen Nutzen sowie Dosierungsschemata in der mAK Krebstherapie. KW - PBPK KW - monoclonal antibodies KW - modelling KW - PBPK KW - monoklonale Antikörper KW - Modellierung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418861 ER - TY - THES A1 - Elin, Kirill T1 - Morphological processing in older adults T1 - Morphologische Verarbeitung bei älteren Erwachsenen BT - evidence from Russian and German BT - Evidenz aus dem Russischen und dem Deutschen N2 - Over the last decades mechanisms of recognition of morphologically complex words have been extensively examined in order to determine whether all word forms are stored and retrieved from the mental lexicon as wholes or whether they are decomposed into their morphological constituents such as stems and affixes. Most of the research in this domain focusses on English. Several factors have been argued to affect morphological processing including, for instance, morphological structure of a word (e.g., existence of allomorphic stem alternations) and its linguistic nature (e.g., whether it is a derived word or an inflected word form). It is not clear, however, whether processing accounts based on experimental evidence from English would hold for other languages. Furthermore, there is evidence that processing mechanisms may differ across various populations including children, adult native speakers and language learners. Recent studies claim that processing mechanisms could also differ between older and younger adults (Clahsen & Reifegerste, 2017; Reifegerste, Meyer, & Zwitserlood, 2017). The present thesis examined how properties of the morphological structure, types of linguistic operations involved (i.e., the linguistic contrast between inflection and derivation) and characteristics of the particular population such as older adults (e.g., potential effects of ageing as a result of the cognitive decline or greater experience and exposure of older adults) affect initial, supposedly automatic stages of morphological processing in Russian and German. To this end, a series of masked priming experiments was conducted. In experiments on Russian, the processing of derived -ost’ nouns (e.g., glupost’ ‘stupidity’) and of inflected forms with and without allomorphic stem alternations in 1P.Sg.Pr. (e.g., igraju – igrat’ ‘to play’ vs. košu – kosit’ ‘to mow’) was examined. The first experiment on German examined and directly compared processing of derived -ung nouns (e.g., Gründung ‘foundation’) and inflected -t past participles (e.g., gegründet ‘founded’), whereas the second one investigated the processing of regular and irregular plural forms (-s forms such as Autos ‘cars’ and -er forms such as Kinder ‘children’, respectively). The experiments on both languages have shown robust and comparable facilitation effects for derived words and regularly inflected forms without stem changes (-t participles in German, forms of -aj verbs in Russian). Observed morphological priming effects could be clearly distinguished from purely semantic or orthographic relatedness between words. At the same time, we found a contrast between forms with and without allomorphic stem alternations in Russian and regular and irregular forms in German, with significantly more priming for unmarked stems (relative to alternated ones) and significantly more priming for regular (compared) word forms. These findings indicate the relevance of morphological properties of a word for initial stages of processing, contrary to claims made in the literature holding that priming effects are determined by surface form and meaning overlap only. Instead, our findings are more consistent with approaches positing a contrast between combinatorial, rule-based and lexically-stored forms (Clahsen, Sonnenstuhl, & Blevins, 2003). The doctoral dissertation also addressed the role of ageing and age-related cognitive changes on morphological processing. The results obtained on this research issue are twofold. On the one hand, the data demonstrate effects of ageing on general measures of language performance, i.e., overall longer reaction times and/or higher accuracy rates in older than younger individuals. These findings replicate results from previous studies, which have been linked to the general slowing of processing speed at older age and to the larger vocabularies of older adults. One the other hand, we found that more specific aspects of language processing appear to be largely intact in older adults as revealed by largely similar morphological priming effects for older and younger adults. These latter results indicate that initial stages of morphological processing investigated here by means of the masked priming paradigm persist in older age. One caveat should, however, be noted. Achieving the same performance as a younger individual in a behavioral task may not necessarily mean that the same neural processes are involved. Older people may have to recruit a wider brain network than younger individuals, for example. To address this and related possibilities, future studies should examine older people’s neural representations and mechanisms involved in morphological processing. N2 - In den letzten Jahrzehnten wurden die Mechanismen zur Erkennung morphologisch komplexer Wörter umfassend untersucht, um zu erforschen, ob alle Wortformen als Ganzes aus dem mentalen Lexikon abgerufen werden oder ob sie in ihre morphologischen Bestandteile (z. B. Wortstamm und Affixe) zerlegt werden. Der meisten Studien in diesem Bereich konzentrieren sich aufs Englische. Es wurde oft behauptet, dass mehrere Faktoren die morphologische Verarbeitung beeinflussen, darunter zum Beispiel die morphologische Struktur eines Wortes (z. B. das Vorhandensein allomorphischen Stammwechsels) und seine linguistische Natur (z. B. ob es sich um ein abgeleitetes Wort oder eine flektierte Wortform handelt). Es ist jedoch nicht klar, ob die postulierten Verarbeitungsmechanismen, die fast ausschließlich auf experimentellen Beweisen aus dem Englischen basieren, für andere Sprachen genauso gelten. Darüber hinaus gibt es Hinweise darauf, dass sich Verarbeitungsmechanismen in verschiedenen Bevölkerungsgruppen – einschließlich Kindern, erwachsenen Muttersprachlern und Sprachlernern – unterscheiden können. Neuere Studien behaupten, dass Verarbeitungsmechanismen zwischen älteren und jüngeren Erwachsenen möglicherweise auch unterschiedlich sind (Clahsen & Reifegerste, 2017; Reifegerste, Meyer, & Zwitserlood, 2017). In der vorliegenden Dissertation wurde untersucht, wie die morphologische Struktur, die Art der zugrunde liegenden linguistischen Operationen (z. B., der linguistische Kontrast zwischen Flexion und Ableitung) sowie Merkmale der jeweiligen Population, wie ältere Erwachsene (z. B. mögliche Auswirkungen des Alterns infolge kognitiven Rückgangs oder größerer Erfahrung von älteren Menschen) die ersten, vermeintlich automatischen Stadien der morphologischen Verarbeitung im Russischen und Deutschen beeinflussen. Zu diesem Zweck wurde eine Reihe von maskierten Priming Experimenten (auf English: masked priming) durchgeführt. In den Experimenten übers Russische wurde die Verarbeitung von abgeleiteten -ost'-Substantiven (z. B. glupost' - 'Dummheit') und von flektierten Formen mit und ohne allomorphischen Stammwechsel in der ersten Person Singular Präsens (z. B. igraju - igrat' 'spielen' im Vergleich zu košu - kosit' 'mähen') untersucht. Darüber hinaus wurden im ersten Experiment übers Deutsche die Verarbeitung von abgeleiteten Substantiven (z. B. Gründung 'founding') und von -t-Partizipien (z. B. gegründet 'founded') untersucht und direkt verglichen, während das zweite Experiment die Verarbeitung von regulären und irregulären Plural-Formen (d. h., -s-Pluralen wie z. B. Autos 'cars' und -er-Formen wie z. B, Kinder 'children') erforschte. Die Experimente in beiden Sprachen zeigten robuste und vergleichbare Priming-Effekte für abgeleitete Wörter und regelmäßig flektierte Formen ohne Stammveränderung (einschließlich -t-Partizipien im Deutschen und Formen von -aj- Verben im Russischen). Die gefundenen morphologischen Priming-Effekte konnten von rein semantischen oder orthographischen Verbindungen zwischen Wörtern klar abgegrenzt werden. Gleichzeitig fanden wir einen Kontrast zwischen Formen mit und ohne allomorphischen Stammwechsel im Russischen sowie zwischen regulären und irregulären Formen im Deutschen, mit signifikant mehr Priming für unmarkierte Stämme (im Vergleich zu alternierenden) und signifikant mehr Priming für reguläre Wortformen (im Vergleich zu irregulären). Diese Ergebnisse weisen auf die Relevanz morphologischer Eigenschaften eines Wortes für die ersten automatischen Phasen der Worterkennung hin, im Gegensatz zu Behauptungen in der fachlichen Literatur, die besagen, dass Priming-Effekte nur durch das Überlappen von Wörtern auf orthographischer und/oder semantischer Ebene entstehen. Stattdessen sind unsere Ergebnisse mehr im Einklang mit Ansätzen, die einen Kontrast zwischen kombinatorischen und regelbasierten versus lexikalisch gespeicherten Formen postulieren (Clahsen, Sonnenstuhl, & Blevins, 2003). Die Doktorarbeit befasste sich auch mit der Rolle des Alterns und altersbedingten kognitiven Veränderungen bei der morphologischen Verarbeitung. Die Ergebnisse dieses Forschungsthemas sind zweierlei. Einerseits demonstrieren die Daten die Auswirkungen des Alterns auf allgemeine Aspekte der Sprachleistung wie zum Beispiel generell längere Reaktionszeiten und/oder weniger Fehler bei älteren als bei jüngeren Personen. Ähnliche Ergebnisse in früheren Studien wurden oft mit allgemeiner Verringerung der Verarbeitungsgeschwindigkeit im höheren Alter und mit dem größeren Wortschatz älterer Erwachsener in Verbindung gebracht. Anderseits stellten wir fest, dass spezifische Aspekte der Sprachverarbeitung bei älteren Erwachsenen weitgehend intakt sind, was sich durch größtenteils vergleichbare morphologische Priming-Effekte für ältere und jüngere Erwachsene zeigt. Diese letzteren Ergebnisse weisen darauf hin, dass die ersten Stadien der morphologischen Verarbeitung, die hier mittels maskierter Priming-Experimente untersucht wurden, im höheren Alter fortbestehen. Folgender Vorbehalt sollte jedoch beachtet werden: Das Erreichen der gleichen Leistung bei jüngeren und älteren Personen in solchen Aufgaben muss nicht unbedingt bedeuten, dass dieselben neuralen Prozesse beteiligt sind. Ältere Menschen müssen unter Umständen ein breiteres Gehirnnetzwerk rekrutieren als jüngere Menschen. Aus diesem Grund sollten zukünftige Studien auch die neuralen Repräsentationen und Mechanismen untersuchen, die an der morphologischen Verarbeitung bei jüngeren und älteren Menschen beteiligt sind. KW - morphology KW - processing KW - ageing KW - Russian KW - German KW - linguistics KW - Morphologie KW - Worterkennung KW - Altern KW - Russisch KW - Deutsch KW - Sprachwissenschaft Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418605 ER - TY - THES A1 - Händel, Annabel T1 - Ground-motion model selection and adjustment for seismic hazard analysis T1 - Auswahl und Anpassung von Bodenbewegungsmodellen für die seismische Gefährdungsanalyse N2 - Erdbeben können starke Bodenbewegungen erzeugen und es ist wichtig, diese in einer seismischen Gefährdungsanalyse korrekt vorherzusagen. Üblicherweise werden dazu empirisch ermittelte Bodenbewegungsmodelle (GMPE) in einem logischen Baum zusammengefügt. Wenn jedoch die Bodenbewegung in einem Gebiet mit geringer Seismizität bestimmen werden soll, dann fehlen in der Regel die Daten, um regionsspezifische GMPEs zu entwickeln. In diesen Fällen ist es notwendig, auf Modelle aus anderen Gebieten mit guter Datengrundlage zurückzugreifen und diese an die Zielregion anzupassen. Zur korrekten Anpassung werden seismologische Informationen aus der Zielregion wie beispielsweise die standortspezifische Dämpfung kappa0 benötigt. Diese Parameter lassen sich jedoch ebenfalls nur unzuverlässig bestimmen, wenn die Datengrundlage schlecht ist. In meiner Dissertation beschäftige ich mich daher mit der Auswahl von GMPEs für den logischen Baum beziehungsweise deren Anpassung an Regionen mit geringer Seismizität. Ich folge dabei zwei verschiedenen Strategien. Im ersten Ansatz geht es um das Aufstellen eines logischen Baumes, falls kein regionsspezifisches Modell vorhanden ist. Ich stelle eine Methode vor, in der mehrere regionsfremde Modelle zu einem Mixmodell zusammengefügt werden. Die Modelle werden dabei je nach ihrer Eignung gewichtet und die Gewichte mittels der wenigen verfügbaren Daten aus der Zielregion ermittelt. Ein solches Mixmodell kann als sogenanntes 'Backbone'-Modell verwendet werden, welches in der Lage ist, mittlere Bodenbewegungen in der Zielregion korrekt vorherzusagen. Ich teste diesen Ansatz für Nordchile und acht GMPEs, die für verschiedene Subduktionszonen auf der Welt entwickelt wurden. Die Resultate zeigen, dass das Mixmodell bessere Ergebnisse liefert als die einzelnen GMPEs, die zu seiner Erzeugung genutzt wurden. Es ist außerdem ebenso gut in der Vorhersage von Bodenbewegungen wie ein Regressionsmodell, welches extra für Nordchile entwickelt wurde. Im zweiten Ansatz beschäftige ich mich mit der Bestimmung der standortspezifischen Dämpfung kappa0. kappa0 ist einer der wichtigsten Parameter zur Anpassung eines GMPEs an eine andere Region. Mein Ziel ist es, kappa0 aus seismischer Bodenunruhe anstelle von Erdbeben zu ermitteln, da diese kontinuierlich aufgezeichnet wird. Mithilfe von Interferometrie kann die Geschwindigkeit und Dämpfung von seismischen Wellen im Untergrund bestimmt werden. Dazu werden lange Aufzeichnungsreihen seismischer Bodenunruhe entweder kreuzkorreliert oder entfaltet (Dekonvolution). Die Bestimmung der Dämpfung aus Bodenunruhe bei Frequenzen über 1 Hz und in geringen Tiefen ist jedoch nicht trivial. Ich zeige in meiner Dissertation die Ergebnisse von zwei Studien. In der ersten Studie wird die Dämpfung von Love-Wellen zwischen 1-4 Hz für ein kleines Testarray in Griechenland ermittelt. In der zweiten Studie verwende ich die Daten einer Bohrloch und einer Oberflächenstation aus dem Vogtland, um die Dämpfung von S-Wellen zwischen 5-15 Hz zu bestimmen. Diese beiden Studien stellen jedoch nur den Ausgangspunkt für zukünftige Untersuchungen dar, in denen kappa0 direkt aus der seismischer Bodenunruhe hergeleitet werden soll. N2 - The prediction of the ground shaking that can occur at a site of interest due to an earthquake is crucial in any seismic hazard analysis. Usually, empirically derived ground-motion prediction equations (GMPEs) are employed within a logic-tree framework to account for this step. This is, however, challenging if the area under consideration has only low seismicity and lacks enough recordings to develop a region-specific GMPE. It is then usual practice to adapt GMPEs from data-rich regions (host area) to the area with insufficient ground-motion recordings (target area). Host GMPEs must be adjusted in such a way that they will capture the specific ground-motion characteristics of the target area. In order to do so, seismological parameters of the target region have to be provided as, for example, the site-specific attenuation factor kappa0. This is again an intricate task if data amount is too sparse to derive these parameters. In this thesis, I explore methods that can facilitate the selection of non-endemic GMPEs in a logic-tree analysis or their adjustment to a data-poor region. I follow two different strategies towards this goal. The first approach addresses the setup of a ground-motion logic tree if no indigenous GMPE is available. In particular, I propose a method to derive an optimized backbone model that captures the median ground-motion characteristics in the region of interest. This is done by aggregating several foreign GMPEs as weighted components of a mixture model in which the weights are inferred from observed data. The approach is applied to Northern Chile, a region for which no indigenous GMPE existed at the time of the study. Mixture models are derived for interface and intraslab type events using eight subduction zone GMPEs originating from different parts of the world. The derived mixtures provide satisfying results in terms of average residuals and average sample log-likelihoods. They outperform all individual non-endemic GMPEs and are comparable to a regression model that was specifically derived for that area. The second approach is concerned with the derivation of the site-specific attenuation factor kappa0. kappa0 is one of the key parameters in host-to-target adjustments of GMPEs but is hard to derive if data amount is sparse. I explore methods to estimate kappa0 from ambient seismic noise. Seismic noise is, in contrast to earthquake recordings, continuously available. The rapidly emerging field of seismic interferometry gives the possibility to infer velocity and attenuation information from the cross-correlation or deconvolution of long noise recordings. The extraction of attenuation parameters from diffuse wavefields is, however, not straightforward especially not for frequencies above 1 Hz and at shallow depth. In this thesis, I show the results of two studies. In the first one, data of a small-scale array experiment in Greece are used to derive Love wave quality factors in the frequency range 1-4 Hz. In a second study, frequency dependent quality factors of S-waves (5-15 Hz) are estimated by deconvolving noise recorded in a borehole and at a co-located surface station in West Bohemia/Vogtland. These two studies can be seen as preliminary steps towards the estimation of kappa0 from seismic noise. KW - ground-motion models KW - GMPE adjustment KW - mixture models KW - seismic noise KW - seismic attenuation KW - Bodenbewegungsmodelle KW - Modellanpassung KW - Mixmodelle KW - Bodenunruhe KW - seismische Dämpfung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418123 ER - TY - THES A1 - Przybylla, Mareen T1 - From Embedded Systems to Physical Computing: Challenges of the “Digital World” in Secondary Computer Science Education T1 - Von Eingebetteten Systemen zu Physical Computing: Herausforderungen der “Digitalen Welt” in der informatischen Bildung im Sekundarbereich N2 - Physical computing covers the design and realization of interactive objects and installations and allows learners to develop concrete, tangible products of the real world, which arise from their imagination. This can be used in computer science education to provide learners with interesting and motivating access to the different topic areas of the subject in constructionist and creative learning environments. However, if at all, physical computing has so far mostly been taught in afternoon clubs or other extracurricular settings. Thus, for the majority of students so far there are no opportunities to design and create their own interactive objects in regular school lessons. Despite its increasing popularity also for schools, the topic has not yet been clearly and sufficiently characterized in the context of computer science education. The aim of this doctoral thesis therefore is to clarify physical computing from the perspective of computer science education and to adequately prepare the topic both content-wise and methodologically for secondary school teaching. For this purpose, teaching examples, activities, materials and guidelines for classroom use are developed, implemented and evaluated in schools. In the theoretical part of the thesis, first the topic is examined from a technical point of view. A structured literature analysis shows that basic concepts used in physical computing can be derived from embedded systems, which are the core of a large field of different application areas and disciplines. Typical methods of physical computing in professional settings are analyzed and, from an educational perspective, elements suitable for computer science teaching in secondary schools are extracted, e. g. tinkering and prototyping. The investigation and classification of suitable tools for school teaching show that microcontrollers and mini computers, often with extensions that greatly facilitate the handling of additional components, are particularly attractive tools for secondary education. Considering the perspectives of science, teachers, students and society, in addition to general design principles, exemplary teaching approaches for school education and suitable learning materials are developed and the design, production and evaluation of a physical computing construction kit suitable for teaching is described. In the practical part of this thesis, with “My Interactive Garden”, an exemplary approach to integrate physical computing in computer science teaching is tested and evaluated in different courses and refined based on the findings in a design-based research approach. In a series of workshops on physical computing, which is based on a concept for constructionist professional development that is developed specifically for this purpose, teachers are empowered and encouraged to develop and conduct physical computing lessons suitable for their particular classroom settings. Based on their in-class experiences, a process model of physical computing teaching is derived. Interviews with those teachers illustrate that benefits of physical computing, including the tangibility of crafted objects and creativity in the classroom, outweigh possible drawbacks like longer preparation times, technical difficulties or difficult assessment. Hurdles in the classroom are identified and possible solutions discussed. Empirical investigations in the different settings reveal that “My Interactive Garden” and physical computing in general have a positive impact, among others, on learner motivation, fun and interest in class and perceived competencies. Finally, the results from all evaluations are combined to evaluate the design principles for physical computing teaching and to provide a perspective on the development of decision-making aids for physical computing activities in school education. N2 - Physical Computing ist die Gestaltung interaktiver Objekte und Installationen und ermöglicht Lernenden, konkrete, greifbare Produkte der realen Welt zu schaffen, die ihrer eigenen Vorstellung entsprechen. Dies kann in der informatischen Bildung genutzt werden, um Lernenden einen interessanten und motivierenden Zugang zu den verschiedenen Themengebieten des Lerngegenstandes in konstruktionistischen und kreativen Lernumgebungen anzubieten. Bisher wurde Physical Computing allerdings, wenn überhaupt, vorrangig in Nachmittagsaktivitäten und anderen extracurricularen Kontexten unterrichtet. Daher hat ein Großteil aller Schülerinnen und Schüler bisher keine Gelegenheit, im Rahmen von Schulunterricht selbst gestalterisch tätig zu werden und interaktive Objekte herzustellen. Trotz zunehmender Popularität, auch in Schulen, wurde das Thema bisher im Kontext der informatischen Bildung nicht hinreichend klar charakterisiert. Ziel dieser Dissertation ist es daher, Physical Computing aus informatikdidaktischer Sicht zu klären und sowohl inhaltlich als auch methodisch adäquat für den Schulunterricht in den Sekundarstufen aufzubereiten. Dazu werden Unterrichtsbeispiele, -aktivitäten, -materialien und -empfehlungen entwickelt, in Schulen eingesetzt und evaluiert. Im theoretischen Teil der Arbeit wird das Thema zunächst aus fachlicher Perspektive untersucht. Eine strukturierte Literaturanalyse zeigt, dass grundlegende Konzepte des Physical Computings aus dem Fachgebiet Eingebettete Systeme abgeleitet werden können, welches den Kern diverser Anwendungsgebiete und Disziplinen bildet. Typische Methoden des Physical Computings werden analysiert und geeignete Elemente für den Informatikunterricht der Sekundarstufen werden aus didaktischer Perspektive herausgearbeitet, beispielsweise Tinkering und Prototyping. Bei der Untersuchung und Klassifikation geeigneter Werkzeuge für den Schulunterricht kristallisieren sich Mikrocontroller und Mini-Computer, oft mit Erweiterungen zur deutlichen Vereinfachung der Handhabung zusätzlicher Komponenten, als besonders attraktive Werkzeuge für die Sekundarstufen heraus. Unter Berücksichtigung der Perspektiven der Fachwissenschaft, Lehrer, Schüler und Gesellschaft werden zusätzlich zu allgemeinen Gestaltungsprinzipien auch beispielhafte Unterrichtsansätze für die schulische Bildung und geeignete Lernmaterialien entwickelt und der Entwurf, die Produktion und Evaluation eines für den Unterricht geeigneten Physical-Computing-Baukastens beschrieben. Im praktischen Teil der Arbeit wird in einem Design-Based-Research-Ansatz mit „My Interactive Garden“ eine beispielhafte Umsetzung von Physical Computing im Informatikunterricht in verschiedenen Kursen getestet, evaluiert und entsprechend der Erkenntnisse überarbeitet. In einer Workshopreihe zum Thema Physical Computing, welche auf einem eigens entwickelten konstruktionistischen Lehrerfortbildungskonzept basiert, werden Lehrer befähigt und ermutigt, für ihre konkreten Unterrichtssituationen geeigneten Physical-Computing-Unterricht zu planen und durchzuführen. Aus ihren Unterrichtserfahrungen wird ein Prozessmodell für Physical-Computing-Unterricht abgeleitet. Interviews mit diesen Lehrern illustrieren, dass Vorteile des Physical Computings, z. B. die Greifbarkeit gebastelter Objekte und Kreativität im Unterricht, mögliche Nachteile wie längere Vorbereitungszeiten, technische Schwierigkeiten oder schwierige Leistungsbewertung, überwiegen. Hürden im Unterricht werden identifiziert und mögliche Ansätze, diese zu umgehen, diskutiert. Empirische Untersuchungen in den verschiedenen Unterrichtsumsetzungen zeigen, das sowohl „My Interactive Garden“ als auch Physical Computing im Allgemeinen einen positiven Einfluss unter anderem auf Lernermotivation, Spaß und Interesse im Unterricht und wahrgenommene Kompetenzen haben. Abschließend werden die Ergebnisse aller Untersuchungen zusammengeführt, um die Gestaltungsprinzipien für Physical-Computing-Unterricht zu evaluieren und einen Ausblick auf die Entwicklung von Entscheidungshilfen für Physical-Computing-Aktivitäten in der schulischen Bildung zu geben. KW - secondary computer science education KW - embedded systems KW - physical computing KW - educational reconstruction KW - design principles KW - classroom material KW - tools for teaching KW - informatische Bildung im Sekundarbereich KW - eingebettete Systeme KW - physical Computing KW - didaktische Rekonstruktion KW - Entwurfsprinzipien KW - Schulmaterial KW - Unterrichtswerkzeuge Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418339 ER - TY - THES A1 - Abouserie, Ahed T1 - Ionic liquid precursors for multicomponent inorganic nanomaterials T1 - Ionische Flüssigkeiten als Vorstufe für anorganische Mehrkomponenten-Nanomaterialien N2 - Health effects, attributed to the environmental pollution resulted from using solvents such as benzene, are relatively unexplored among petroleum workers, personal use, and laboratory researchers. Solvents can cause various health problems, such as neurotoxicity, immunotoxicity, and carcinogenicity. As such it can be absorbed via epidermal or respiratory into the human body resulting in interacting with molecules that are responsible for biochemical and physiological processes of the brain. Owing to the ever-growing demand for finding a solution, an Ionic liquid can use as an alternative solvent. Ionic liquids are salts in a liquid state at low temperature (below 100 C), or even at room temperature. Ionic liquids impart a unique architectural platform, which has been interesting because of their unusual properties that can be tuned by simple ways such as mixing two ionic liquids. Ionic liquids not only used as reaction solvents but they became a key developing for novel applications based on their thermal stability, electric conductivity with very low vapor pressure in contrast to the conventional solvents. In this study, ionic liquids were used as a solvent and reactant at the same time for the novel nanomaterials synthesis for different applications including solar cells, gas sensors, and water splitting. The field of ionic liquids continues to grow, and become one of the most important branches of science. It appears to be at a point where research and industry can work together in a new way of thinking for green chemistry and sustainable production. N2 - Der Einfluss von kommerziellen organischen Lösungsmitteln auf den menschlichen Körper ist bekannt, jedoch nicht ausreichend untersucht worden. Spezielle Lösungsmittel wie Benzol, welche auch vermehrt in der Petrolchemie genutzt werden, zeigen akute Toxizität auf den biologischen Organismus. Daher ist der Bedarf der Verwendung eines alternativen Lösungsmittel groß. Ionische Flüssigkeiten können hier potentiell eine Alternative sein. Als Ionische Flüssigkeiten (ILs) werden Salze in flüssigem Zustand bei niedriger Temperatur (unter 100 °C) oder sogar bei Raumtemperatur definiert. Aufgrund ihrer Variabilität in der Zusammensetzung der strukturellen ionischen Moleküle ergeben sich ungewöhnliche Eigenschaften, welche auf einfachste Weise durch Mischen zweier ionischer Flüssigkeiten beliebig angepasst werden können. ILs werden sowohl als gewöhnliche Lösungsmittel verwendet, jedoch entwickelten sie sich aufgrund ihrer besonderen Eigenschaften vermehrt zu Reaktionsagenzien. Dies ist zurückzuführen auf ihre gute thermische Stabilität, elektrische Leitfähigkeit und ihrem geringen Dampfdruck. In dieser Arbeit wurden nun spezielle Ionische Flüssigkeiten speziell auf ihr Verhalten in chemischen Reaktionen als Reagenz untersucht. Als Ausgangsreaktion diente hierbei eine neuartige Synthese von Nanomaterialen, welche speziell in Solarzellen, Gassensoren und auch in der katalytischen Wasserspaltung genutzt werden. Das Anwendungspotenzial der ILs gewinnt immer mehr an Bedeutung und führt in der Forschung sowie auch in der Industrie zu neuen Denkweisen für nachhaltige Produktionen und auch Entwicklungen. KW - ionic liquids KW - Alkylpyridinium salts KW - Structure elucidation KW - Phase transitions KW - Nanoparticles KW - Metal Chalcogenides KW - Organic photovoltaic Cell KW - Ionische Flüssigkeiten KW - Alkylpyridinium-Salze KW - Strukturaufklärung KW - Phasenübergänge KW - Nanopartikel KW - Metallchalkogenide KW - Organische Photovoltaikzelle Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418950 ER - TY - THES A1 - Behrendt, Felix Nicolas T1 - New bio-based polymers T1 - Neue biobasierte Polymere BT - synthesis and polymerization of cystine-based macrocycles BT - Synthese und Polymerisation von cystinbasierten Makrozyklen N2 - Redox-responsive polymers, such as poly(disulfide)s, are a versatile class of polymers with potential applications including gene- and drug-carrier systems. Their degradability under reductive conditions allows for a controlled response to the different redox states that are present throughout the body. Poly(disulfide)s are typically synthesized by step growth polymerizations. Step growth polymerizations, however, may suffer from low conversions and therefore low molar masses, limiting potential applications. The purpose of this thesis was therefore to find and investigate new synthetic routes towards the synthesis of amino acid-based poly(disulfide)s. The different routes in this thesis include entropy-driven ring opening polymerizations of novel macrocyclic monomers, derived from cystine derivatives. These monomers were obtained with overall yields of up to 77% and were analyzed by mass spectrometry as well as by 1D and 2D NMR spectroscopy. The kinetics of the entropy-driven ring-opening metathesis polymerization (ED-ROMP) were thoroughly investigated in dependence of temperature, monomer concentration, and catalyst concentration. The polymerization was optimized to yield poly(disulfide)s with weight average molar masses of up to 80 kDa and conversions of ~80%, at the thermodynamic equilibrium. Additionally, an alternative metal free polymerization, namely the entropy-driven ring-opening disulfide metathesis polymerization (ED-RODiMP) was established for the polymerization of the macrocyclic monomers. The effect of different solvents, concentrations and catalyst loadings on the polymerization process and its kinetics were studied. Polymers with very high weight average molar masses of up to 177 kDa were obtained. Moreover, various post-polymerization reactions were successfully performed. This work provides the first example of the homopolymerization of endo-cyclic disulfides by ED-ROMP and the first substantial study into the kinetics of the ED-RODiMP process. N2 - Redoxresponsive Polymere, wie etwa Polydisulfide, sind eine vielseitige Klasse von Polymeren, die unter anderem als Gen- und Wirkstoffträgersysteme eingesetzt werden können. Ihre Abbaubarkeit unter reduktiven Bedingungen ermöglicht eine kontrollierte Reaktion auf die verschiedenen Redoxzustände im Körper. Polydisulfide werden jedoch häufig durch Stufenwachstums-polymerisationen synthetisiert. Diese führen oft zu niedrigen Umsätzen und daher zu niedrigen molaren Massen. Das Ziel dieser Arbeit war daher neue Synthesewege für aminosäurebasierte Polydisulfide zu finden und zu untersuchen. Diese Wege beinhalteten entropiegetriebene ringöffnende Polymerisationen von neuen makrozyklischen Monomeren, auf der Basis von Cystin-Derivaten. Diese Monomere konnten mit einer Gesamtausbeute von bis zu 77% synthetisiert werden und wurden mit Massenspektrometrie sowie mit 1D- und 2D-NMR-Spektroskopie analysiert. Die Kinetik der entropiegetriebenen ringöffnenden Metathese Polymerisation (ED-ROMP) wurde im Hinblick auf Temperatur, Monomerkonzentration und Katalysatormenge sorgfältig untersucht. Durch Optimierungen konnten Polydisulfide mit gewichtsmittleren Molmassen von bis zu 80 kDa und Umsätzen von ~80%, im thermodynamischen Gleichgewicht synthetisiert werden. Zusätzlich wurde eine alternative metallfreie Polymerisation, die entropiegetriebene ringöffnende Disulfidmetathese Polymerisation (ED-RODiMP), für die Polymerisation der makrozyklischen Monomere etabliert. Die Auswirkungen verschiedener Lösungsmittel, Konzentrationen und Katalysatorkonzentrationen auf die Kinetik dieses Polymerisationsprozesses wurden untersucht. Hierdurch wurden Polymere mit sehr hohen gewichtsmittleren Molmassen von bis zu 177 kDa erhalten. Darüber hinaus wurden verschiedene Postpolymerisationsreaktionen erfolgreich durchgeführt. Diese Arbeit liefert das erste Beispiel für die Homopolymerisation endo-zyklischer Disulfide durch ROMP und eine erste substanzielle Studie der Kinetik des ED-RODiMP-Prozesses. KW - polymers KW - ADMET KW - ROMP KW - disulfide KW - macrocycles KW - ring-opening polymerization KW - amino acids KW - Polymere KW - ADMET KW - ROMP KW - Disulfide KW - Makrozyklen KW - ringöffnende Polymerisation KW - Aminosäuren Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418316 ER - TY - THES A1 - Xiong, Tao T1 - Vibrationally resolved absorption, emission, resonance Raman and photoelectron spectra of selected organic molecules, associated radicals and cations T1 - Schwingungsaufgelöste Absorptions-, Emissions-, Resonanz-Raman- und Photoelektronenspektren ausgewählter organischer Moleküle, assoziierter Radikale und Kationen BT - a time-dependent approach BT - ein zeitabhängiger Ansatz N2 - Time-dependent correlation function based methods to study optical spectroscopy involving electronic transitions can be traced back to the work of Heller and coworkers. This intuitive methodology can be expected to be computationally efficient and is applied in the current work to study the vibronic absorption, emission, and resonance Raman spectra of selected organic molecules. Besides, the "non-standard" application of this approach to photoionization processes is also explored. The application section consists of four chapters as described below. In Chapter 4, the molar absorptivities and vibronic absorption/emission spectra of perylene and several of its N-substituted derivatives are investigated. By systematically varying the number and position of N atoms, it is shown that the presence of nitrogen heteroatoms has a negligible effect on the molecular structure and geometric distortions upon electronic transitions, while spectral properties are more sensitive: In particular the number of N atoms is important while their position is less decisive. Thus, N-substitution can be used to fine-tune the optical properties of perylene-based molecules. In Chapter 5, the same methods are applied to study the vibronic absorption/emission and resonance Raman spectra of a newly synthesized donor-acceptor type molecule. The simulated absorption/emission spectra agree fairly well with experimental data, with discrepancies being attributed to solvent effects. Possible modes which may dominate the fine-structure in the vibronic spectra are proposed by analyzing the correlation function with the aid of Raman and resonance Raman spectra. In the next two chapters, besides the above types of spectra, the methods are extended to study photoelectron spectra of several small diamondoid-related systems (molecules, radicals, and cations). Comparison of the photoelectron spectra with available experimental data suggests that the correlation function based approach can describe ionization processes reasonably well. Some of these systems, cationic species in particular, exhibit somewhat peculiar optical behavior, which presents them as possible candidates for functional devices. Correlation function based methods in a more general sense can be very versatile. In fact, besides the above radiative processes, formulas for non-radiative processes such as internal conversion have been derived in literature. Further implementation of the available methods is among our next goals. N2 - Molekülsysteme bestehen aus Kernen und Elektronen, deren viel kleinere Masse sie in die Lage versetzten, sich der Bewegung des ersteren augenblicklich anzupassen. Daher ist die Bewegung der Elektronen und Kerne in einer guten ersten Annäherung "unabhängig", und die Energie der Elektronen kann zuerst berechnet werden, vorausgesetzt, die Kerne sind stationär. Die so gewonnene elektronische Energie wird zur Abstoßungsenergie zwischen den Kernen addiert, um ein Potential zu erhalten, das die Bewegung der Kerne bestimmt. Quantenmechanisch können sowohl die Elektronen als auch die Kerne nur bestimmte Energieniveaus haben. Die molekulare vibronische (= Schwingung + Elektronik) Absorptionsspektroskopie beinhaltet den Übergang der Elektronen und Kerne von ihrem Anfangs- in ihren Endzustand durch Photonenabsorption. Die größere elektronische Übergangsenergie bestimmt die Position des Absorptionsmaximums, während die kleinere nukleare Schwingungsübergangsenergie (ohne Berücksichtigung von Translation und Rotation) die Position der Teilmaxima innerhalb des Absorptionsbereichs bestimmt, wodurch die vibronische Feinstruktur entsteht. Ähnliche Ideen gelten auch für die vibronische Emissionsspektroskopie. Die Resonanz-Raman-Spektroskopie untersucht die Energieänderung des einfallenden Photons (dessen Energie ausreichend ist, um die Elektronen in einen höheren elektronischen Zustand anzuregen), nachdem es mit dem Molekül wechselwirkt. Der Energiegewinn oder -verlust des einfallenden Photons bewirkt eine Änderung des Schwingungszustandes. Die Photoelektronenspektroskopie ist ähnlich wie die vibronische Absorption, benötigt aber in der Regel mehr Energie des einfallenden Photons, da neben der Anregung des Moleküls in einen höheren vibronischen Zustand zusätzliche Energie benötigt wird, um ein Elektron aus dem Molekül zu entfernen. Diese spektroskopischen Techniken liefern wertvolle Informationen über die elektronische und nukleare Bewegung des Moleküls. Theoretisch können wir eine zeitabhängige Korrelationsfunktion verwenden, um die Spektren zu simulieren. Die Korrelationsfunktion für die Absorption ist beispielsweise eine Funktion der Zeit, deren Entwicklung Informationen über die elektronischen Energien und die nukleare Bewegung enthält. Um das Absorptionsspektrum in Form von Energie zu erhalten, wird ein mathematisches Verfahren, die so genannte Fourier-Transformation, auf die zeitabhängige Korrelationsfunktion angewendet, um ein energieabhängiges Spektrum zu erhalten. Diese Methode wird auf ausgewählte organische Moleküle, darunter einige Radikale und Kationen, angewandt, um deren elektronisches und optisches Verhalten unter dem Einfluss von einfallendem Licht zu untersuchen und Einblicke in das Design neuer optoelektronischer Bauelemente zu gewinnen. Bei einigen Molekülen/Systemen wird die vibronische Feinstruktur durch Faktoren wie molekulare Zusammensetzung und Umgebung wie Lösungsmittel beeinflusst, was darauf hindeutet, dass diese Systeme zur Feinabstimmung der gewünschten Eigenschaften verwendet werden können. Für andere Systeme gibt es fast keine sichtbare vibronische Feinstruktur, was bedeutet, dass sich die nukleare Bewegung solcher Systeme im Allgemeinen von derjenigen der vorherigen Kategorie unterscheidet. KW - vibrationally resolved electronic spectroscopy KW - photoelectron spectroscopy KW - resonance Raman spectroscopy KW - correlation function KW - ionization potential KW - time-dependent density functional theory KW - perylene KW - diamondoid KW - Schwingungsaufgelöste UV/VIS-Spektroskopie KW - Photoelektronenspektroskopie KW - Resonanz-Raman-Spektroskopie KW - Korrelationsfunktion KW - Ionisationspotential KW - Zeitabhängige Dichtefunktionaltheorie KW - Perylen KW - Diamondoide Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418105 ER - TY - THES A1 - Cheng, Lung-Pan T1 - Human actuation T1 - Menschlicher Aktuator N2 - Ever since the conception of the virtual reality headset in 1968, many researchers have argued that the next step in virtual reality is to allow users to not only see and hear, but also feel virtual worlds. One approach is to use mechanical equipment to provide haptic feedback, e.g., robotic arms, exoskeletons and motion platforms. However, the size and the weight of such mechanical equipment tends to be proportional to its target’s size and weight, i.e., providing human-scale haptic feedback requires human-scale equipment, often restricting them to arcades and lab environments. The key idea behind this dissertation is to bypass mechanical equipment by instead leveraging human muscle power. We thus create software systems that orchestrate humans in doing such mechanical labor—this is what we call human actuation. A potential benefit of such systems is that humans are more generic, flexible, and versatile than machines. This brings a wide range of haptic feedback to modern virtual reality systems. We start with a proof-of-concept system—Haptic Turk, focusing on delivering motion experiences just like a motion platform. All Haptic Turk setups consist of a user who is supported by one or more human actuators. The user enjoys an interactive motion simulation such as a hang glider experience, but the motion is generated by those human actuators who manually lift, tilt, and push the user’s limbs or torso. To get the timing and force right, timed motion instructions in a format familiar from rhythm games are generated by the system. Next, we extend the concept of human actuation from 3-DoF to 6-DoF virtual reality where users have the freedom to walk around. TurkDeck tackles this problem by orchestrating a group of human actuators to reconfigure a set of passive props on the fly while the user is progressing in the virtual environment. TurkDeck schedules human actuators by their distances from the user, and instructs them to reconfigure the props to the right place on the right time using laser projection and voice output. Our studies in Haptic Turk and TurkDeck showed that human actuators enjoyed the experience but not as much as users. To eliminate the need of dedicated human actuators, Mutual Turk makes everyone a user by exchanging mechanical actuation between two or more users. Mutual Turk’s main functionality is that it orchestrates the users so as to actuate props at just the right moment and with just the right force to produce the correct feedback in each other's experience. Finally, we further eliminate the need of another user, making human actuation applicable to single-user experiences. iTurk makes the user constantly reconfigure and animate otherwise passive props. This allows iTurk to provide virtual worlds with constantly varying or even animated haptic effects, even though the only animate entity present in the system is the user. Our demo experience features one example each of iTurk’s two main types of props, i.e., reconfigurable props (the foldable board from TurkDeck) and animated props (the pendulum). We conclude this dissertation by summarizing the findings of our explorations and pointing out future directions. We discuss the development of human actuation compare to traditional machine actuation, the possibility of combining human and machine actuators and interaction models that involve more human actuators. N2 - Seit der Konzeption des Virtual-Reality-Headsets im Jahr 1968 argumentieren Forscher, der nächste Schritt in der virtuellen Realität ist nicht nur zu sehen und zu hören, sondern in virtuelle Welten auch fühlen zu können. Ein Ansatz solch haptisches Feedback zu geben ist die Verwendung mechanischer Ausrüstung, etwa Roboterarme, Exoskelette und Bewegungsplattformen. Jedoch sind die Größe und das Gewicht solcher Ausrüstung proportional zur Größe und Gewicht der Person, d. h. haptisches Feedback für einen Menschen erfordert Ausrüstung mit Größe und Gewicht eines Menschen. Dieses Ausmaß an Gerätschaften ist oft limitiert auf Arkaden oder Laborumgebungen. Der Schlüsselgedanke dieser Dissertation besteht darin, mechanische Geräte zu umgehen und stattdessen menschliche Muskelkraft zu nutzen. Wir erstellen Softwaresystem, die Menschen bei mechanischen Arbeiten orchestrieren, um anderen Menschen haptisches Feedback zu geben. Dies nennen wir „Human Actuation“ – menschliche Aktuierung. Ein möglicher Vorteil solcher Systeme ist es, dass Menschen generischer, flexibler und vielseitiger sind als gängige mechanische Ausrüstung. Dies bringt eine neue Bandbreite von haptischen Feedbackmöglichkeiten in moderne Virtual-Reality-Systeme. Wir beginnen mit einem Proof-of-Concept-System– Haptic Turk, mit Schwerpunkt auf die Bewegungserlebnisse, die eine solche menschliche Bewegungsplattform liefert. Alle Haptic Turk Konfigurationen bestehen aus einem Nutzer, sowie einem oder mehreren Menschen, die den Nutzer unterstützen, den Aktuatoren. Der Nutzer genießt eine interaktive Bewegungssimulation wie zum Beispiel die Simulation eines Hängegleiters, jedoch wird die Bewegung von Menschen erzeugt, die die Gliedmaßen des Benutzers manuell heben, kippen und drücken. Um das Timing einzuhalten, folgen Sie den Anweisungen des Systems. Ein aus Rhythmusspielen bekanntes Format wird dabei dynamisch von dem System erzeugt. Als nächstes erweitern wir das Konzept von „Human Actuation“ um 3-DoF auf 6-DoF Virtual Reality. Das heißt, Nutzer haben nun die Freiheit in der virtuellen Welt umherzugehen. TurkDeck löst dieses Problem, indem es eine Gruppe menschlicher Aktuatoren orchestriert, die eine Reihe von Requisiten rekonfigurieren, die der Nutzer fühlen kann, während er sich in der virtuellen Umgebung fortbewegt. TurkDeck plant die Positionierung der Menschen und weist sie zur richtigen Zeit an, die Requisiten an den richtigen Ort zu stellen. TurkDeck erreicht dies mit Hilfe von Laserprojektion und einer Anweisung gebender synthetischen Stimme. Unsere Studien zu Haptic Turk und TurkDeck zeigen, dass menschliche Aktuatoren ihre Erfahrung zwar genießen, jedoch in dem Ausmaß wie der Nutzer selbst. Um menschliche Aktuatoren mehr einzubeziehen macht Mutual Turk aus jedem Aktuator einen Nutzer, d.h. mehrere Nutzer geben sich gegenseitig haptisches Feedback. Die Hauptfunktion von Mutual Turk besteht darin, dass es seine Nutzer so orchestriert, dass sie die richtigen Requisiten im richtigen Moment und im richtigen Ausmaß betätigen, um so das richtige Feedback in der Erfahrung des Anderen zu erzeugen. Schlussendlich eliminieren wir die Notwendigkeit anderer Nutzer gänzlich und ermöglichen Erfahrungen für Einzelnutzer. iTurk lässt seinen Nutzer passive Requisiten neu konfigurieren und animieren. Dadurch kann iTurk virtuelle Welten mit stetig wechselnden Möglichkeiten bereitstellen oder sogar haptische Effekte generieren, obwohl jede Bewegung im System vom Nutzer selbst ausgelöst wird. Unsere Demo-Applikation verfügt über je ein Beispiel der von iTurk ermöglichten zwei Haupttypen von Requisiten - rekonfigurierbare Requisiten (eine faltbare Tafel aus TurkDeck) und animierter Requisiten (ein Pendel). Wir schließen die Dissertation mit Verweisen auf mögliche Forschungsrichtungen ab, die sich durch die präsentierten Systeme ergeben. Wir diskutieren „Human Actuation“ sowohl im Vergleich zu herkömmlichen mechanischen Geräten, aber auch in der Kombination, da sich mechanische Geräte und Menschen gegenseitig ergänzen können. Zudem erkunden wir mögliche Interaktionsmodelle, die sich durch das Einbeziehen von menschlichen Aktuatoren ergeben. KW - haptic feedback KW - Virtual Reality KW - motion and force KW - props KW - haptisches Feedback KW - virtuelle Realität KW - Bewegung KW - Requisit Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418371 ER - TY - THES A1 - Riedel, Marc T1 - Photonic wiring of enzymatic reactions to photoactive entities for the construction of biohybrid electrodes T1 - Photonische Kontaktierung von enzymatischen Reaktionen mit photoaktiven Entitäten für den Aufbau von biohybriden Elektroden N2 - In this work, different strategies for the construction of biohybrid photoelectrodes are investigated and have been evaluated according to their intrinsic catalytic activity for the oxidation of the cofactor NADH or for the connection with the enzymes PQQ glucose dehydrogenase (PQQ-GDH), FAD-dependent glucose dehydrogenase (FAD-GDH) and fructose dehydrogenase (FDH). The light-controlled oxidation of NADH has been analyzed with InGaN/GaN nanowire-modified electrodes. Upon illumination with visible light the InGaN/GaN nanowires generate an anodic photocurrent, which increases in a concentration-dependent manner in the presence of NADH, thus allowing determination of the cofactor. Furthermore, different approaches for the connection of enzymes to quantum dot (QD)-modified electrodes via small redox molecules or redox polymers have been analyzed and discussed. First, interaction studies with diffusible redox mediators such as hexacyanoferrate(II) and ferrocenecarboxylic acid have been performed with CdSe/ZnS QD-modified gold electrodes to build up photoelectrochemical signal chains between QDs and the enzymes FDH and PQQ-GDH. In the presence of substrate and under illumination of the electrode, electrons are transferred from the enzyme via the redox mediators to the QDs. The resulting photocurrent is dependent on the substrate concentration and allows a quantification of the fructose and glucose content in solution. A first attempt with immobilized redox mediator, i.e. ferrocenecarboxylic acid chemically coupled to PQQ-GDH and attached to QD-modified gold electrodes, reveal the potential to build up photoelectrochemical signal chains even without diffusible redox mediators in solution. However, this approach results in a significant deteriorated photocurrent response compared to the situation with diffusing mediators. In order to improve the photoelectrochemical performance of such redox mediator-based, light-switchable signal chains, an osmium complex-containing redox polymer has been evaluated as electron relay for the electronic linkage between QDs and enzymes. The redox polymer allows the stable immobilization of the enzyme and the efficient wiring with the QD-modified electrode. In addition, a 3D inverse opal TiO2 (IO-TiO2) electrode has been used for the integration of PbS QDs, redox polymer and FAD-GDH in order to increase the electrode surface. This results in a significantly improved photocurrent response, a quite low onset potential for the substrate oxidation and a broader glucose detection range as compared to the approach with ferrocenecarboxylic acid and PQQ-GDH immobilized on CdSe/ZnS QD-modified gold electrodes. Furthermore, IO-TiO2 electrodes are used to integrate sulfonated polyanilines (PMSA1) and PQQ-GDH, and to investigate the direct interaction between the polymer and the enzyme for the light-switchable detection of glucose. While PMSA1 provides visible light excitation and ensures the efficient connection between the IO-TiO2 electrode and the biocatalytic entity, PQQ-GDH enables the oxidation of glucose. Here, the IO-TiO2 electrodes with pores of approximately 650 nm provide a suitable interface and morphology, which is required for a stable and functional assembly of the polymer and enzyme. The successful integration of the polymer and the enzyme can be confirmed by the formation of a glucose-dependent anodic photocurrent. In conclusion, this work provides insights into the design of photoelectrodes and presents different strategies for the efficient coupling of redox enzymes to photoactive entities, which allows for light-directed sensing and provides the basis for the generation of power from sun light and energy-rich compounds. N2 - In dieser Arbeit werden verschiedene Strategien für den Aufbau biohybrider Photoelektroden untersucht und hinsichtlich ihrer intrinsischen katalytischen Aktivität für die Oxidation des Kofaktors NADH oder für die Kontaktierung mit den Enzymen PQQ Glukosedehydrogenase (PQQ-GDH), FAD-abhängige Glukosedehydrogenase (FAD-GDH) und Fruktosedehydrogenase (FDH) evaluiert. Der Licht-gesteuerten Nachweis von NADH wurde mittels InGaN/GaN Nanodraht-modifizierten Elektroden untersucht. Bei Beleuchtung mit sichtbarem Licht generieren die InGaN/GaN Nanodrähte einen anodischen Photostrom, welcher in der Anwesenheit von NADH konzentrationsabhängig ansteigt und somit eine Bestimmung des Kofaktors erlaubt. Des Weiteren werden verschiedene Ansätze für die Kontaktierung von Enzymen mit Quantum Dot (QD)-modifizierten Elektroden unter Verwendung von kleinen Redoxmolekülen oder Redoxpolymeren analysiert und diskutiert. Zunächst wurden Interaktionsstudien mit den Redoxmediatoren Kaliumhexacyanoferrat(II) und Ferrocencarbonsäure in Lösung an CdSe/ZnS QD-modifizierten Goldelektroden durchgeführt um darauf aufbauend photoelektrochemische Signalketten zwischen QDs und den Enzymen FDH und PQQ-GDH aufzubauen und für den Nachweis von Fruktose und Glukose zu nutzen. In Anwesenheit von Substrat und unter Beleuchtung der Elektrode werden Elektronen von dem Enzym über die Redoxmediatoren zu den QDs übertragen. Der daraus resultierende Photostrom ist abhängig von der Substratkonzentration und erlaubt eine Bestimmung des Fruktose- und Glukosegehalts in Lösung. Ein erster Ansatz mit immobilisierten Redoxmediatoren, d.h. Ferrocencarbonsäure kovalent an PQQ-GDH gebunden und auf QD-modifizierten Goldelektroden immobilisiert, zeigt das Potential photoelektrochemische Signalketten auch ohne Redoxmediatoren in Lösung aufzubauen. Jedoch resultierte dieser Ansatz in einer deutlichen Verschlechterung der Photostromantwort im Vergleich zum Ansatz mit Mediatoren in Lösung. Um die photoelektrochemische Leistungsfähigkeit Redoxmediator-basierter, Licht-schaltbarer Signalketten zu verbessern, wurde ein Osmiumkomplex-Redoxpolymer für die elektronische Kontaktierung zwischen QDs und Enzymen untersucht. Das Redoxpolymer erlaubt eine stabile Immobilisierung des Enzymes und eine effiziente Kontaktierung mit der QD-modifizierten Elektrode. Zusätzlich wurde eine 3D „inverse opale“ TiO2 (IO-TiO2) Elektrode für die Integration der PbS QDs, des Redoxpolymers und der FAD-GDH verwendet um die Elektrodenoberfläche zu vergrößern. Dies führt zu einer deutlich verbesserten Leistungsfähigkeit hinsichtlich der Photostromantwort, des Startpotentials für die Substratoxidation und des Nachweisbereiches für Glukose im Vergleich zu dem Ansatz mit Ferrocencarbonsäure und PQQ-GDH immobilisiert auf CdSe/ZnS QD-modifizierten Goldelektroden. Des Weiteren wurden IO-TiO2 Elektroden verwendet um sulfonierte Polyaniline (PMSA1) und PQQ-GDH zu integrieren und die direkte Interaktion zwischen dem Polymer und dem Enzym für den Licht-schaltbaren Nachweis von Glukose zu untersuchen. Während PMSA1 eine Anregung mit sichtbaren Licht ermöglicht und die effiziente Verbindung zwischen der IO-TiO2-Elektrode und der biokatalytischen Einheit sicherstellt, ermöglicht die PQQ-GDH die Oxidation von Glukose. Hierbei bieten die IO-TiO2-Elektroden mit Poren von ca. 650 nm eine geeignete Schnittstelle und Morphologie, welche für eine stabile und funktionelle Assemblierung des Polymers und Enzyms benötigt wird. Die erfolgreiche Integration des Polymers und des Enzyms kann durch die Ausbildung eines Glukose-abhängigen anodischen Photostroms bestätigt werden. Zusammenfassend gibt diese Arbeit Einblicke in den Aufbau von Photoelektroden und präsentiert verschiedene, effiziente Kopplungsstrategien zwischen Redoxenzymen und photoaktiven Komponenten, welche einen Licht-gesteuerten Nachweis von Analyten ermöglichen und die Grundlage für die Energieerzeugung aus Licht und energiereichen Verbindungen bilden. KW - biocatalysis KW - photocatalysis KW - quantum dots KW - photoelectrochemical sensor KW - enzymes KW - Biokatalyse KW - Photokatalyse KW - Quantum Dots KW - Photoelektrchemischer Sensor KW - Enzyme Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-417280 ER - TY - THES A1 - Tan, Li T1 - Synthesis, assembly and thermo-responsivity of polymer-functionalized magnetic cobalt nanoparticles T1 - Synthese, Assemblierung und Temperatur-Responsivität von Polymer-funktionalisierten magnetischen Cobalt Nanopartikeln N2 - This thesis mainly covers the synthesis, surface modification, magnetic-field-induced assembly and thermo-responsive functionalization of superparamagnetic Co NPs initially stabilized by hydrophobic small molecules oleic acid (OA) and trioctylphosphine oxide (TOPO), as well as the synthesis of both superparamagnetic and ferromagnetic Co NPs by using end-functionalized-polystyrene as stabilizer. Co NPs, due to their excellent magnetic and catalytic properties, have great potential application in various fields, such as ferrofluids, catalysis, and magnetic resonance imaging (MRI). Superparamagnetic Co NPs are especially interesting, since they exhibit zero coercivity. They get magnetized in an external magnetic field and reach their saturation magnetization rapidly, but no magnetic moment remains after removal of the applied magnetic field. Therefore, they do not agglomerate in the body when they are used in biomedical applications. Normally, decomposition of metallic precursors at high temperature is one of the most important methods in preparation of monodisperse magnetic NPs, providing tunability in size and shape. Hydrophobic ligands like OA, TOPO and oleylamine are often used to both control the growth of NPs and protect them from agglomeration. The as-prepared magnetic NPs can be used in biological applications as long as they are transferred into water. Moreover, their supercrystal assemblies have the potential for high density data storage and electronic devices. In addition to small molecules, polymers can also be used as surfactants for the synthesis of ferromagnetic and superparamagnetic NPs by changing the reaction conditions. Therefore, chapter 2 gives an overview on the basic concept of synthesis, surface modification and self-assembly of magnetic nanoparticles. Various examples were used to illustrate the recent work. The hydrophobic Co NPs synthesized with small molecules as surfactants limit their biological applications, which require a hydrophilic or aqueous environment. Surface modification (e.g., ligand exchange) is a general idea for either phase transition or surface-functionalization. Therefore, in chapter 3, a ligand exchange process was conducted to functionalize the surface of Co NPs. PNIPAM is one of the most popular smart polymers and its lower critical solution temperature (LCST) is around 32 °C, with a reversible change in the conformation structure between hydrophobic and hydrophilic. The novel nanocomposites of superparamagnetic Co NPs and thermo-responsive PNIPAM are of great interest. Thus, well-defined superparamagnetic Co NPs were firstly synthesized through the thermolysis of cobalt carbonyl by using OA and TOPO as surfactants. A functional ATRP initiator, containing an amine (as anchoring group) and a 2-bromopropionate group (SI-ATRP initiator), was used to replace the original ligands. This process is rapid and facial for efficient surface functionalization and afterwards the Co NPs can be dispersed into polar solvent DMF without aggregation. FT-IR spectroscopy showed that the TOPO was completely replaced, but a small amount of OA remained on the surface. A TGA measurement allowed the calculation of the grafting density of the initiator as around 3.2 initiator/nm2. Then, the surface-initiated ATRP was conducted for the polymerization of NIPAM on the surface of Co NPs and rendered the nanocomposites water-dispersible. A temperature-dependent dynamic light scattering study showed the aggregation behavior of PNIPAM-coated Co NPs upon heating and this process was proven to be reversible. The combination of superparamagnetic and thermo-responsive properties in these hybrid nanoparticles is promising for future applications e.g. in biomedicine. In chapter 4, the magnetic-field-induced assembly of superparamagnetic cobalt nanoparticles both on solid substrates and at liquid-air interface was investigated. OA- and TOPO-coated Co NPs were synthesized via the thermolysis of cobalt carbonyl and dispersed into either hexane or toluene. The Co NP dispersion was dropped onto substrates (e.g., TEM grid, silicon wafer) and at liquid-air (water-air or ethylene glycol-air) interface. Due to the attractive dipolar interaction, 1-D chains formed in the presence of an external magnetic field. It is known that the concentration and the strength of the magnetic field can affect the assembly behavior of superparamagnetic Co NPs. Therefore, the influence of these two parameters on the morphology of the assemblies was studied. The formed 1-D chains were shorter and flexible at either lower concentration of the Co NP dispersion or lower strength of the external magnetic field due to thermal fluctuation. However, by increasing either the concentration of the NP dispersion or the strength of the applied magnetic field, these chains became longer, thicker and straighter. The reason could be that a high concentration led to a high fraction of short dipolar chains, and their interaction resulted in longer and thicker chains under applied magnetic field. On the other hand, when the magnetic field increased, the induced moments of the magnetic nanoparticles became larger, which dominated over the thermal fluctuation. Thus, the formed short chains connected to each other and grew in length. Thicker chains were also observed through chain-chain interaction. Furthermore, the induced moments of the NPs tended to direct into one direction with increased magnetic field, thus the chains were straighter. In comparison between the assembly on substrates, at water-air interface and at ethylene glycol-air interface, the assembly of Co NPs in hexane dispersion at ethylene glycol-air interface showed the most regular and homogeneous chain structures due to the better spreading of the dispersion on ethylene glycol subphase than on water subphase and substrates. The magnetic-field-induced assembly of superparamagnetic nanoparticles could provide a powerful approach for applications in data storage and electronic devices. Chapter 5 presented the synthesis of superparamagnetic and ferromagnetic cobalt nanoparticles through a dual-stage thermolysis of cobalt carbonyl (Co2(CO)8) by using polystyrene as surfactant. The amine end-functionalized polystyrene surfactants with different molecular weight were prepared via atom transfer radical polymerization technique. The molecular weight determination of polystyrene was conducted by gel permeation chromatography (GPC) and matrix-assisted laser desorption/ionization time-of-flight (MALDI-ToF) mass spectrometry techniques. The results showed that, when the molecular weight distribution is low (Mw/Mn < 1.2), the measurement by GPC and MALDI-ToF MS provided nearly similar results. For example, the molecular weight of 10600 Da was obtained by MALDI-ToF MS, while GPC gave 10500 g/mol (Mw/Mn = 1.17). However, if the polymer is poly distributed, MALDI-ToF MS cannot provide an accurate value. This was exemplified for a polymer with a molecular weight of 3130 Da measured by MALDI-TOF MS, while GPC showed 2300 g/mol (Mw/Mn = 1.38). The size, size distribution and magnetic properties of the hybrid particles were different by changing either the molecular weight or concentration of the polymer surfactants. The analysis from TEM characterization showed that the size of cobalt nanoparticles stabilized with polystyrene of lower molecular weight (Mn = 2300 g/mol) varied from 12–22 nm, while the size with middle (Mn = 4500 g/mol) and higher molecular weight (Mn = 10500 g/mol) of polystyrene-coated cobalt nanoparticles showed little change. Magnetic measurements exhibited that the small cobalt particles (12 nm) were superparamagnetic, while larger particles (21 nm) were ferromagnetic and assembled into 1-D chains. The grafting density calculated from thermogravimetric analysis showed that a higher grafting density of polystyrene was obtained with lower molecular weight (Mn = 2300 g/mol) than those with higher molecular weight (Mn = 10500 g/mol). Due to the larger steric hindrance, polystyrene with higher molecular weight cannot form a dense shell on the surface of the nanoparticles, which resulted in a lower grafting density. Wide angle X-ray scattering measurements revealed the epsilon cobalt crystalline phases of both superparamagnetic Co NPs coated with polystyrene (Mn = 2300 g/mol) and ferromagnetic Co NPs coated with polystyrene (Mn = 10500 g/mol). Furthermore, a stability study showed that PS-Co NPs prepared with higher polymer concentration and polymer molecular weight exhibited a better stability. N2 - Im Rahmen dieser Arbeit wurden superparamagnetische Cobalt Nanopartikel (NP) synthetisiert, die Selbstassemblierung im Magnetfeld untersucht und die ursprünglichen Liganden Ölsäure (Englisch oleic acid, OA) und Trioctylphosphanoxid (TOPO) ersetzt, um eine Funktionalisierung der Nanopartikel mit einem Temperatur-responsiven Polymer zu erreichen. Außerdem wurden superparamagnetische und ferromagnetische Co NP mit Polystyrol als Stabilisator synthetisiert. Co NP haben aufgrund ihrer herausragenden magnetischen und katalytischen Eigenschaften viele potentielle Anwendungen beispielsweise als Ferrofluide, in der Katalyse und der Magnetresonanztomografie (Englisch magnetic resonance imaging, MRI). Besonders interessant sind dabei superparamagnetische Co NP, die in einem äußeren Magnetfeld magnetisiert werden, aber nach Entfernen des angelegten Magnetfelds keine Magnetisierung mehr aufweisen. Bei biomedizinischen Anwendungen aggregieren sie daher nicht im Körper. Hydrophobe Co NP, die von kleinen Molekülen stabilisiert werden, eignen sich nicht für biologische Anwendungen, für die ein hydrophiles oder wässriges Medium vonnöten ist. Kapitel 3 beschreibt einen Ligandenaustausch zur Funktionalisierung von Co Nanopartikeln und das Herstellen neuer Nanokomposite aus superparamagnetischen Co NP und Temperatur-responsivem PNIPAM. Zunächst wurden wohldefinierte superparamagnetische Co NP mit OA und TOPO als Stabilisatoren durch die Thermolyse von Cobalt Carbonyl synthetisiert. Die ursprünglichen Liganden wurden dann durch einen funktionalen Liganden mit einer Amingruppe (zum Binden an die Oberfläche) und einer 2 Brompropionat-Gruppe (Polymerisationsinitiator) ersetzt. Nach diesem schnellen und einfachen Prozess der Oberflächenfunktionalisierung können die Nanopartikel ohne Aggregation in dem polaren Lösungsmittel DMF dispergiert werden. Nach thermogravimetrischen Messungen konnte die Dichte der Initiatoren mit ungefähr 3,2 Initiatoren / nm2 berechnet werden. Anschließend wurde Oberflächen-initiierte ATRP zur Polymerisation von NIPAM durchgeführt. Temperatur-abhängige Messungen der dynamischen Lichtstreuung der nun in Wasser dispergierbaren Nanokomposite zeigte das reversible Aggregationsverhalten nach Erhitzen über 32 °C. Kapitel 4 behandelt die Untersuchung der Assemblierung von superparamagnetischen OA- und TOPO-stabilisierten Co NP im äußeren Magnetfeld sowohl auf festen Oberflächen als auch der Flüssigkeit-Luft Grenzfläche. Durch die anziehende dipolare Wechselwirkung bildeten sich im äußeren Magnetfeld 1-D Ketten. Der Einfluss der Konzentration der Dispersion und der Stärke des Magnetfelds auf die Morphologie der assemblierten Strukturen wurde untersucht. Bei niedrigerer Konzentration der Dispersion und geringerer Magnetfeldstärke bildeten sich kurze und flexible Ketten. Bei höherer Konzentration oder höherer Magnetfeldstärke wurden die Ketten länger, breiter und gerader. Andererseits sind die induzierten magnetischen Momente bei erhöhter Magnetfeldstärke größer und dominieren über die thermische Fluktuation. Daher verbinden sich die kurzen Ketten zu längeren, und dickere Ketten entstehen durch Interaktion benachbarter Ketten. Außerdem zeigen die induzierten Momente der NP verstärkt in die gleiche Richtung je größer das äußere Magnetfeld ist, weshalb die Ketten gerader werden. Im Vergleich der Assemblierung auf Substraten (TEM-Grids, Siliciumwafer), an der Wasser-Luft und Ethylenglycol-Luft Grenzfläche, zeigte die Assemblierung von Co NP aus Hexan-Dispersion an der Ethylenglycol-Luft Grenzfläche die geordnetsten und homogensten Strukturen. Kapitel 5 präsentierte die Synthese von superparamagnetischen und ferromagnetischen Cobalt Nanopartikeln durch die zwei-stufige Thermolyse von Cobalt Carbonyl (Co2(CO)8) mit Polystyrol als Stabilisator. Polystyrol Polymere mit Amin-Endgruppen wurden durch ATRP-Technik mit unterschiedlichen Molekulargewichten hergestellt. Die Größe, Größenverteilung und magnetischen Eigenschaften der hybriden Partikel haben sich mit dem Molekulargewicht und der Konzentration der Polymer-Stabilisatoren unterschieden. Eine Analyse mit Transmissionselektronenmikroskopie zeigte, dass die Größe der Co NP zwischen 12–22 nm variierte, wenn sie durch Polystyrol geringen Molekulargewichts (Mn = 2300 g/mol) stabilisiert wurden, während sich die Größe der Partikel mit Polystyrol mittleren (Mn = 4500 g/mol) und höheren (Mn = 10500 g/mol) Molekulargewichts kaum unterschied. Messungen der magnetischen Eigenschaften zeigten, dass die kleinen Cobalt Partikel (12 nm) superparamagnetisch waren, während größere Partikel (21 nm) ferromagnetisch waren und zu 1-D Ketten assemblierten. Die Dichte der Polymere auf der Oberfläche wurde nach einer thermogravimetrischen Analyse berechnet. Mit kleinem Molekulargewicht (Mn = 2300 g/mol) wurde eine höhere Dichte erreicht als mit hohem Molekulargewicht (Mn = 10500 g/mol). Durch eine stärker ausgeprägte sterische Hinderung kann ein Polymer hohen Molekulargewichts keine dichte Hülle um die Nanopartikel bilden. Das Vorliegen einer epsilon kristallinen Phase wurde durch Weitwinkel-Röntgenstreuung sowohl für superparamagnetische Co NP (mit PS Mn = 2300 g/mol) als auch ferromagnetische Co NP (mit PS Mn = 10500 g/mol) bestimmt. KW - magnetic nanoparticles KW - assembly KW - polymer KW - cobalt nanoparticles KW - magnetische Nanopartikel KW - Assemblierung KW - Polymer KW - Cobalt Nanopartikeln Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418153 ER - TY - THES A1 - Rodriguez Cubillos, Andres Eduardo T1 - Understanding the impact of heterozygosity on metabolism, growth and hybrid necrosis within a local Arabidopsis thaliana collection site T1 - Den Einfluss von Heterozygotie auf Stoffwechsel, Wachstum und Hybridnekrose innerhalb einer lokalen Arabidopsis thaliana-Sammelstelle verstehen N2 - Plants are unable to move away from unwanted environments and therefore have to locally adapt to changing conditions. Arabidopsis thaliana (Arabidopsis), a model organism in plant biology, has been able to rapidly colonize a wide spectrum of environments with different biotic and abiotic challenges. In recent years, natural variation in Arabidopsis has shown to be an excellent resource to study genes underlying adaptive traits and hybridization’s impact on natural diversity. Studies on Arabidopsis hybrids have provided information on the genetic basis of hybrid incompatibilities and heterosis, as well as inheritance patterns in hybrids. However, previous studies have focused mainly on global accessions and yet much remains to be known about variation happening within a local growth habitat. In my PhD, I investigated the impact of heterozygosity at a local collection site of Arabidopsis and its role in local adaptation. I focused on two different projects, both including hybrids among Arabidopsis individuals collected around Tübingen in Southern Germany. The first project sought to understand the impact of hybridization on metabolism and growth within a local Arabidopsis collection site. For this, the inheritance patterns in primary and secondary metabolism, together with rosette size of full diallel crosses among seven parents originating from Southern Germany were analyzed. In comparison to primary metabolites, compounds from secondary metabolism were more variable and showed pronounced non-additive inheritance patterns. In addition, defense metabolites, mainly glucosinolates, displayed the highest degree of variation from the midparent values and were positively correlated with a proxy for plant size. In the second project, the role of ACCELERATED CELL DEATH 6 (ACD6) in the defense response pathway of Arabidopsis necrotic hybrids was further characterized. Allelic interactions of ACD6 have been previously linked to hybrid necrosis, both among global and local Arabidopsis accessions. Hence, I characterized the early metabolic and ionic changes induced by ACD6, together with marker gene expression assays of physiological responses linked to its activation. An upregulation of simple sugars and metabolites linked to non-enzymatic antioxidants and the TCA cycle were detected, together with putrescine and acids linked to abiotic stress responses. Senescence was found to be induced earlier in necrotic hybrids and cytoplasmic calcium signaling was unaffected in response to temperature. In parallel, GFP-tagged constructs of ACD6 were developed. This work therefore gave novel insights on the role of heterozygosity in natural variation and adaptation and expanded our current knowledge on the physiological and molecular responses associated with ACD6 activation. N2 - Pflanzen sind sessile Organismen, die nicht in der Lage sind sich unerwünschten Lebensräumen zu entziehen, sodass sie sich an verschiedene Umweltbedingungen anpassen müssen. Arabidopsis thaliana (Arabidopsis) als Modellorganismus der Pflanzenbiologie war in der Lage eine Vielzahl von Lebensräumen zu kolonisieren und dabei verschiedenen biotischen und abiotischen Problemen zu trotzen. Natürliche Variation in Arabidopsis hat sich in den letzten Jahren als Mittel bewährt, um Gene zu analysieren, welche für adaptive Eigenschaften und natürliche Vielfalt verantwortlich sind. Studien über Arabidopsis-Hybride haben Erkenntnisse über die genetische Basis von Hybridinkompatibilitäten, Heterosis und Vererbungsmustern von Hybriden geliefert. Jedoch haben diese sich bisher lediglich mit globalen ökotyp befasst, sodass noch viele Informationen über Variation in einem lokalen Wachstumsgebiet fehlen. In meiner Doktorarbeit habe ich den Einfluss von Heterozygotie in einer lokalen Arabidopsis-Population und deren Rolle bei der Adaption untersucht. Dabei habe ich mich auf zwei Themen fokussiert. Beide Themen beinhalteten Arabidopsis-Hybride zwischen Individuen, welche in der Region um Tübingen in Deutschland gesammelt wurden. Das erste Projekt zielte darauf ab, den Einfluss der Hybridisierung auf den Metabolismus und das Wachstum der Pflanzen in einer lokalen Arabidopsis-Population zu verstehen. Dafür wurden das Vererbungsmuster von Primär- und Sekundärmetaboliten, sowie die Rosettengröße von diallelen Kreuzungen zwischen sieben Elternpflanzen analysiert. Im Vergleich zum Primärstoffwechsel variierten Sekundärmetabolite stärker und zeigten nicht-additive Vererbungsmuster. Zusätzlich zeigten Abwehrstoffe – hauptsächlich Glukosinolate – die höchste Abweichung vom Mittelwert beider Eltern und waren in positiver Korrelation mit der Größe der Pflanzen. In dem zweiten Projekt wurde die Rolle von ACCELERATED CELL DEATH 6 (ACD6) im Abwehrsignalweg von nekrotischen Arabidopsis-Hybriden detaillierter charakterisiert. Da die genetische Interaktion zwischen ACD6-Allelen von globalen und lokalen Arabidopsis-ökotypen bereits mit Hybridnekrose verknüpft wurde, habe ich frühe Metaboliten-, Ionen- und Expressionsänderungen von Markergenen charakterisiert, welche durch die Aktivierung von ACD6 induziert wurden. Eine Erhöhung von einfachen Zuckern und Metaboliten nicht-enzymatischer Antioxidantien und dem TCA-Zyklus wurde detektiert, sowie von Putrescin und anderen Säuren abiotischer Stressantworten. Es wurde nachgewiesen, dass Seneszenz früher in nekrotischen Hybriden induziert und zytoplasmatisches Calcium-Signaling nicht durch Temperatur beeinflusst wurde. Zusätzlich wurden GFP-markierte Konstrukte von ACD6 generiert. Zusammenfassend kann gesagt werden, dass diese Arbeit weitere Erkenntnisse über die Rolle von Heterozygotie in natürlicher Variation und Adaptation liefert und sie unser Wissen über die physiologischen und molekularen Veränderungen, verursacht durch die ACD6-Aktivierung, erweitert. KW - arabidopsis KW - diallel KW - nonadditive KW - inheritance KW - metabolism KW - variation KW - ACD6 KW - adaptation KW - defense KW - necrosis KW - Arabidopsis KW - Dialel KW - nicht additiv KW - Erbe KW - Stoffwechsel KW - Variation KW - ACD6 KW - Anpassung KW - Verteidigung KW - Nekrose Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416758 ER - TY - THES A1 - Sander, Mathias T1 - Ultrafast tailored strain fields in nanostructures T1 - Ultraschnelle massgeschneiderte Dehnungsfelder in Nanostrukturen N2 - This publication based thesis, which consists of seven published articles, summarizes my contributions to the research field of laser excited ultrafast structural dynamics. The coherent and incoherent lattice dynamics on microscopic length scales are detected by ultrashort optical and X-ray pulses. The understanding of the complex physical processes is essential for future improvements of technological applications. For this purpose, tabletop soruces and large scale facilities, e.g. synchrotrons, are employed to study structural dynamics of longitudinal acoustic strain waves and heat transport. The investigated effects cover timescales from hundreds of femtoseconds up to several microseconds. The main part of this thesis is dedicated to the investigation of tailored phonon wave packets propagating in perovskite nanostructures. Tailoring is achieved either by laser excitation of nanostructured bilayer samples or by a temporal series of laser pulses. Due to the propagation of longitudinal acoustic phonons, the out-of-plane lattice spacing of a thin film insulator-metal bilayer sample is modulated on an ultrafast timescale. This leads to an ultrafast modulation of the X-ray diffraction efficiency which is employed as a phonon Bragg switch to shorten hard X-ray pulses emitted from a 3rd generation synchrotron. In addition, we have observed nonlinear mixing of high amplitude phonon wave packets which originates from an anharmonic interatomic potential. A chirped optical pulse sequence excites a narrow band phonon wave packet with specific momentum and energy. The second harmonic generation of these phonon wave packets is followed by ultrafast X-ray diffraction. Phonon upconversion takes place because the high amplitude phonon wave packet modulates the acoustic properties of the crystal which leads to self steepening and to the successive generation of higher harmonics of the phonon wave packet. Furthermore, we have demonstrated ultrafast strain in direction parallel to the sample surface. Two consecutive so-called transient grating excitations displaced in space and time are used to coherently control thermal gradients and surface acoustic modes. The amplitude of the coherent and incoherent surface excursion is disentangled by time resolved X-ray reflectivity measurements. We calibrate the absolute amplitude of thermal and acoustic surface excursion with measurements of longitudinal phonon propagation. In addition, we develop a diffraction model which allows for measuring the surface excursion on an absolute length scale with sub-Äangström precision. Finally, I demonstrate full coherent control of an excited surface deformation by amplifying and suppressing thermal and coherent excitations at the surface of a laser-excited Yttrium-manganite sample. N2 - Diese publikations basierte Dissertation enthält sieben veröffentlichte Artikel und ist ein Beitrag zum Forschungsfeld der laserangeregten ultraschnellen Strukturdynamik. Dabei wird die kohärente und inkohärente Gitterdynamik mit Hilfe von ultrakurzen optischen Pulsen sowie Röntgenpulsen auf mikroskopischer Längenskala untersucht. Das Verständnis dieser komplexen physikalischen Prozesse ist essenziell für die Verbesserung von zukünftigen technologischen Anwendungen. Hierfür wurde die Strukturdynamik von longitudinal akustischen Schallwellen und Wärmetransport mit Hilfe von verschieden Messinstrumenten, basierend auf Labor und Synchrotronstrahlungsquellen, untersucht. Die untersuchten Effekte umfassen Zeitskalen von einigen hundert Femtosekunden bis hin zu mehreren Mikrosekunden. Der Hauptteil meiner Dissertation beruht auf der Untersuchungen von definiert angeregten Phonon-Wellenpakten, die sich in Perowskit Nanostrukturen ausbreiten. Die Kontrolle wird entweder durch Laseranregung einer nanostruktieren Doppelschichtprobe oder durch eine zeitlich versetzte Laserpulsfolge erreicht. Dabei wird die Einheitszelle senkrecht zu den Gitterebenen auf ultraschnellen Zeiten modifiziert. Daraus folgt eine ultraschnelle Modulation der Röntgenbeugungs Effizienz, die als Phonon Braggschalter verwendet wird, um harte Röntgenpulse von Synchrotrons der dritten Generation zu verkürzen. Zudem haben wir die nichtlineare Mischung von Phonon-Wellenpaketen mit hoher Amplitude beobachtet, die der Anharmonizität des interatomaren Potential herrührt. Durch eine gechirpte optische Laserpulsfolge wird ein schmalbandiges Phonon-Wellenpaket mit definiertem Impuls und definierter Energie angeregt. Dabei wird die Erzeugung der zweiten Harmonischen mittels ultraschneller Röntgenbeugung untersucht. Die Phononkonversion findet hierbei durch die hohe Phononamplitude statt, die die akustischen Eigenschaften des Kristalls verändert. Dieser Prozess führt zum Aufsteilen der Wellenfront und folglich zur Erzeugung der höheren Harmonischen des Phonon-Wellenpakets. Außerdem habe ich ultraschnelle Schallpulse parallel zur Richtung der Probenoberfläche demonstriert. Dabei werden zwei sogenannte transiente Gitteranregungen verwendet, die räumlich und zeitlich zueinander versetzt sind, um thermische Gradienten und akustische Oberflächenmoden kohärent zu kontrollieren. Die Amplitude der kohärenten und inkohärenten Oberflächenausdehnung kann mit Hilfe von Röntgenreflektivität getrennt betrachtet werden. Zusätzlich haben wir ein Beugungsmodel entwickelt, mit dem wir die Oberflächenausdehnung auf einer absoluten Längenskale mit sub-Ängström Präzision kalibrieren. Schließlich zeige ich volle kohärente Kontrolle von der angeregten Oberflächenausdehnung durch Verstärkung und Unterdrückung von thermischen und kohärenten Anregungen auf der Oberfläche einer dünnen, laserangeregten Yttriummanganat Schicht. KW - Ultrafast X-ray diffraction KW - strain KW - acoustic waves KW - Ultraschnelle Röntgenbeugung KW - akustische Wellen KW - Dehnung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-417863 ER - TY - THES A1 - Arias Andrés, María de Jesús T1 - Microbial gene exchange on microplastic particles T1 - Mikrobieller Gentransfer auf Mikroplastikpartikel N2 - Plastic pollution is ubiquitous on the planet since several millions of tons of plastic waste enter aquatic ecosystems each year. Furthermore, the amount of plastic produced is expected to increase exponentially shortly. The heterogeneity of materials, additives and physical characteristics of plastics are typical of these emerging contaminants and affect their environmental fate in marine and freshwaters. Consequently, plastics can be found in the water column, sediments or littoral habitats of all aquatic ecosystems. Most of this plastic debris will fragment as a product of physical, chemical and biological forces, producing particles of small size. These particles (< 5mm) are known as “microplastics” (MP). Given their high surface-to-volume ratio, MP stimulate biofouling and the formation of biofilms in aquatic systems. As a result of their unique structure and composition, the microbial communities in MP biofilms are referred to as the “Plastisphere.” While there is increasing data regarding the distinctive composition and structure of the microbial communities that form part of the plastisphere, scarce information exists regarding the activity of microorganisms in MP biofilms. This surface-attached lifestyle is often associated with the increase in horizontal gene transfer (HGT) among bacteria. Therefore, this type of microbial activity represents a relevant function worth to be analyzed in MP biofilms. The horizontal exchange of mobile genetic elements (MGEs) is an essential feature of bacteria. It accounts for the rapid evolution of these prokaryotes and their adaptation to a wide variety of environments. The process of HGT is also crucial for spreading antibiotic resistance and for the evolution of pathogens, as many MGEs are known to contain antibiotic resistance genes (ARGs) and genetic determinants of pathogenicity. In general, the research presented in this Ph.D. thesis focuses on the analysis of HGT and heterotrophic activity in MP biofilms in aquatic ecosystems. The primary objective was to analyze the potential of gene exchange between MP bacterial communities vs. that of the surrounding water, including bacteria from natural aggregates. Moreover, the thesis addressed the potential of MP biofilms for the proliferation of biohazardous bacteria and MGEs from wastewater treatment plants (WWTPs) and associated with antibiotic resistance. Finally, it seeks to prove if the physiological profile of MP biofilms under different limnological conditions is divergent from that of the water communities. Accordingly, the thesis is composed of three independent studies published in peer-reviewed journals. The two laboratory studies were performed using both model and environmental microbial communities. In the field experiment, natural communities from freshwater ecosystems were examined. In Chapter I, the inflow of treated wastewater into a temperate lake was simulated with a concentration gradient of MP particles. The effects of MP on the microbial community structure and the occurrence of integrase 1 (int 1) were followed. The int 1 is a marker associated with mobile genetic elements and known as a proxy for anthropogenic effects on the spread of antimicrobial resistance genes. During the experiment, the abundance of int1 increased in the plastisphere with increasing MP particle concentration, but not in the surrounding water. In addition, the microbial community on MP was more similar to the original wastewater community with increasing microplastic concentrations. Our results show that microplastic particles indeed promote persistence of standard indicators of microbial anthropogenic pollution in natural waters. In Chapter II, the experiments aimed to compare the permissiveness of aquatic bacteria towards model antibiotic resistance plasmid pKJK5, between communities that form biofilms on MP vs. those that are free-living. The frequency of plasmid transfer in bacteria associated with MP was higher when compared to bacteria that are free-living or in natural aggregates. Moreover, comparison increased gene exchange occurred in a broad range of phylogenetically-diverse bacteria. The results indicate a different activity of HGT in MP biofilms, which could affect the ecology of aquatic microbial communities on a global scale and the spread of antibiotic resistance. Finally, in Chapter III, physiological measurements were performed to assess whether microorganisms on MP had a different functional diversity from those in water. General heterotrophic activity such as oxygen consumption was compared in microcosm assays with and without MP, while diversity and richness of heterotrophic activities were calculated by using Biolog® EcoPlates. Three lakes with different nutrient statuses presented differences in MP-associated biomass build up. Functional diversity profiles of MP biofilms in all lakes differed from those of the communities in the surrounding water, but only in the oligo-mesotrophic lake MP biofilms had a higher functional richness compared to the ambient water. The results support that MP surfaces act as new niches for aquatic microorganisms and can affect global carbon dynamics of pelagic environments. Overall, the experimental works presented in Chapters I and II support a scenario where MP pollution affects HGT dynamics among aquatic bacteria. Among the consequences of this alteration is an increase in the mobilization and transfer efficiency of ARGs. Moreover, it supposes that changes in HGT can affect the evolution of bacteria and the processing of organic matter, leading to different catabolic profiles such as demonstrated in Chapter III. The results are discussed in the context of the fate and magnitude of plastic pollution and the importance of HGT for bacterial evolution and the microbial loop, i.e., at the base of aquatic food webs. The thesis supports a relevant role of MP biofilm communities for the changes observed in the aquatic microbiome as a product of intense human intervention. N2 - Die Plastikverschmutzung ist auf dem Planeten allgegenwärtig, da jährlich mehrere Millionen Tonnen Plastikabfall in die aquatische Ökosystemen gelangen. Darüber hinaus wird erwartet, dass die Menge an produziertem Plastik in naher Zukunft exponentiell ansteigen wird. Die Heterogenität der Kunststoffmaterialien, ihrer Additive und physikalischen Eigenschaften ist typisch für diese neu auftretenden Schadstoffe und beeinflusst deren Umweltverhalten in Meeres- und Süßwasser. Als Folge kann Plastik in der Wassersäule, den Sedimenten oder Küstenlebensräumen aller aquatischen Ökosysteme gefunden werden. Die meisten dieser Plastikabfälle fragmentieren durch das Zusammenspiel physikalischer, chemischer und biologischer Kräfte, wodurch kleine Partikel erzeugt werden. Diese Partikel (<5mm) sind auch bekannt als "Mikroplastik" (MP). Aufgrund ihres hohen Oberflächen-Volumen-Verhältnisses stimuliert MP das Biofouling und somit die Bildung von Biofilmen in aquatischen Systemen. Aufgrund ihrer einzigartigen Struktur und Zusammensetzung werden die mikrobiellen Gemeinschaften in MP-Biofilmen als "Plastisphäre" bezeichnet. Während es immer mehr Daten über die spezifische Zusammensetzung und Struktur der mikrobiellen Gemeinschaften – die Teil dieser Plastisphäre sind – gibt, existieren hingegen nur wenige Informationen über die Aktivität von Mikroorganismen in MP-Biofilmen. Dieser Lebensstil des Anheftens und Besiedelns von Oberflächen ist oft mit der Zunahme von horizontalem Gentransfer (HGT) unter Bakterien verknüpft. Diese Art der mikrobiellen Aktivität stellt eine besonders relevante Funktion dar und sollte daher in MP-Biofilmen analysiert werden. Der horizontale Austausch von mobilen genetischen Elementen (MGEs) ist ein wesentliches Merkmal von Bakterien. Er ist verantwortlich für die schnelle Evolution dieser Prokaryoten und ihre Anpassungsfähigkeit an verschiedenste Umweltbedingungen. Der Prozess des HGT ist zudem entscheidend für die Verbreitung von Antibiotikaresistenzen sowie für die Entwicklung von Pathogenen, da viele MGEs bekanntermaßen Antibiotikaresistenzgene (ARGs) und genetische Determinanten für Pathogenität enthalten. Im Allgemeinen konzentriert sich die Forschung in der vorliegenden Dissertation auf die Analyse des HGT und der heterotrophen Aktivität in MP-Biofilmen in aquatischen Ökosystemen. Das Hauptziel besteht darin, das Potenzial des Genaustausches zwischen MP-Bakteriengemeinschaften und dem des umgebenden Wassers, einschließlich der Bakterien in natürlichen Aggregaten, zu analysieren. Darüber hinaus befasst sich diese Doktorarbeit mit dem Potenzial von MP-Biofilmen zur Ausbreitung biologisch gefährlicher Bakterien und MGEs, die aus Kläranlagen stammen und mit Antibiotikaresistenzen assoziiert sind. Schließlich soll bei verschiedenen limnologischen Bedingungen überprüft werden, ob das jeweilige physiologische Profil von MP-Biofilmen von dem der Wassergemeinschaften abweicht. Dementsprechend besteht die Arbeit aus drei unabhängigen Studien, die in Fachzeitschriften veröffentlicht wurden. In den beiden Laborstudien wurden sowohl mikrobielle Modell- als auch Umwelt-Gemeinschaften betrachtet. Im Freilandexperiment wurden schließlich die natürlichen Gemeinschaften aus Süßwasserökosystemen untersucht. In Kapitel I wurde der Zufluss von geklärtem Abwasser mit einem Konzentrationsgradienten von MP-Partikeln in einen See der gemäßigten Klimazone simuliert. Dabei wurden die Effekte von MP auf die mikrobielle Gemeinschaftsstruktur und das Auftreten von Integrase 1 (int 1) verfolgt. Int 1 ist ein Marker, der mit mobilen genetischen Elementen assoziiert ist und zur Abschätzung anthropogener Einflüsse auf die Ausbreitung antimikrobieller Resistenzgene verwendet ist. Während des Experiments erhöhte sich das Vorkommen von Int1 in der Plastisphäre mit zunehmender MP-Partikelkonzentration, jedoch nicht im umgebenden Wasser. Darüber hinaus ähnelte die mikrobielle Gemeinschaft auf MP zunehmend der ursprünglichen Abwassergemeinschaft mit steigender Mikroplastikkonzentration. Unsere Ergebnisse zeigen, dass Mikroplastikpartikel tatsächlich die Persistenz von Standardindikatoren mikrobieller anthropogener Verschmutzung in natürlichen Gewässern fördern. In Kapitel II wurde die Permissivität von aquatischen Bakterien gegen das Modell-Plasmid für Antibiotikaresistenz pKJK5 zwischen Gemeinschaften, die Biofilme auf MP bilden, gegenüber denen, die frei leben, verglichen. Die Häufigkeit des Plasmidtransfers unter den MP-assoziierten Bakterien war höher als unter Bakterien, die frei oder in natürlichen Aggregaten leben. Der verstärkte Genaustausch trat darüber hinaus bei einem breiten Spektrum phylogenetisch diverser Bakterien auf. Die Ergebnisse deuten auf eine unterschiedliche Aktivität von HGT in MP-Biofilmen hin, welche die Ökologie aquatischer mikrobieller Gemeinschaften auf globaler Ebene sowie die Verbreitung von Antibiotikaresistenzen beeinflussen könnten. Schließlich wurden in Kapitel III physiologische Messungen durchgeführt, um festzustellen, ob Mikroorganismen auf MP eine andere funktionelle Diversität aufwiesen als jene im Wasser. Die generelle heterotrophe Aktivität, wie der Sauerstoffverbrauch, wurde in Mikrokosmentests mit und ohne MP verglichen, während die Diversität und Vielfalt heterotropher Aktivitäten mit Hilfe von Biolog® EcoPlates berechnet wurden. Drei Seen mit unterschiedlichen Nährstoffbedingungen wiesen Unterschiede in der Ausprägung der MP-assoziierten Biomasse auf. In allen Seen unterschieden sich die funktionellen Diversitätsprofile der MP-Biofilme von denen der Gemeinschaften im umgebenden Wasser, aber nur die MP-Biofilme des oligo-mesotrophen Sees hatten eine höhere funktionelle Vielfalt im Verglichen zum Umgebungswasser. Die Ergebnisse verdeutlichen, dass MP-Oberflächen als neue Nischen für aquatische Mikroorganismen fungieren und die globale Kohlenstoffdynamik im Pelagial beeinflussen können. Insgesamt unterstützen die in den Kapiteln I und II vorgestellten experimentellen Studien ein Szenario, in dem die Umweltverschmutzung durch MP die HGT-Dynamik zwischen aquatischen Bakterien beeinflusst. Zu den Folgen dieser Veränderung gehört eine Erhöhung der Mobilisierungs- und Übertragungseffizienz von ARGs. Darüber hinaus wird vermutet, dass eine Beeinflussung des HGT die Evolution von Bakterien und die Umsetzung von organischem Material verändern könnte, was zu verschiedenen katabolischen Profilen führt, wie in Kapitel III gezeigt. Die Ergebnisse werden in Zusammenhang mit dem Ausmaß der Plastikverschmutzung sowie der Bedeutung von HGT für die bakterielle Entwicklung und „mikrobielle Schleife“, d. h. an der Basis der aquatischen Nahrungsnetze, diskutiert. Diese Doktorarbeit veranschaulicht die Bedeutung von MP-Biofilmgemeinschaften für die beobachteten Veränderungen des aquatischen Mikrobioms als eine Folge der intensiven anthropogenen Eingriffe. KW - microplastics KW - horizontal gene transfer KW - aquatic ecosystem KW - microorganisms KW - Mikroplastikpartikel KW - horizontaler Gentransfer KW - aquatische Ökosysteme KW - Mikroorganismen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-417241 ER - TY - THES A1 - Rafighi, Iman T1 - Plasma Instabilities from blazar-induced pair beams propagating through IGM T1 - Plasmainstabilitäten von blazarinduzierten, durch das IGM propagierenden Paarstrahlen BT - Particle-in-Cell Simulations BT - Particle-in-Cell Simulationen N2 - Modern gamma-ray telescopes, provide the main stream of data for astrophysicists in quest of detecting the sources of gamma rays such as active galactic nuclei (AGN). Many blazars have been detected with gamma-ray telescopes such as HESS, VERITAS, MAGIC and Fermi satellite as sources of gamma-rays with the energy E ≥ 100 GeV. These very-high-energy photons interact with extragalactic background light (EBL) producing ultra-relativistic electron-positron pairs. Observations with Fermi-LAT indicate that the GeV gamma-ray flux from some blazars is lower than that predicted from the full electromagnetic cascade. The pairs can induce electrostatic and electromagnetic instabilities. In this case, wave-particle interactions can reduce the energy of the pairs. Therefore, the collective plasma effects can also substantially suppress the GeV-band gamma-ray emission affecting as well the IGMF constraints. Using Particle in cell (PIC) simulations, we have revisited the issue of plasma instabilities induced by electron-positron beams in the fully ionized intergalactic medium. This problem is related to pair beams produced by TeV radiation of blazars. The main objective of our study is to clarify the feedback of the beam-driven instabilities on the pairs. The present dissertation provides new results regarding the plasma instabilities from blazar induced pair beams interacting with intergalactic medium. This clarifies the relevance of plasma instabilities and improves our understanding of blazars. N2 - Modern Gammateleskope, sowohl bodengebundene als auch Satelliten, liefern große Datenvolumen fur die Suche nach den Quellen der hochenergetischen Gammastrahlung im Universum wie z. B. aktive galaktische Kerne (englisch: active galactic nucleus, abgekürzt AGN). Ein AGN ist die Zentralregion einer Galaxie und er besteht aus einem akkretierenden supermassiven schwarzen Loch, dessen Zentralkern einen relativistischen Plasmastrahl senkrecht zur Akkretionsscheibe des schwarzen Lochs emmitiert. Blazare sind eine AGN-Subklasse und eine Quelle der hochenergetischen Gamma-strahlung. Zahlreiche Blazare mit der Photonenenergie E ≥ 100 GeV wurden in der letzten Zeit von den Gammateleskopen H.E.S.S., MAGIC, VERITAS und vom Satelliten FERMI detektiert. Diese hochenergetischen Photonen wechselwirken mit dem extragalaktischen Hintegrundlicht und erzeugen dadurch ultrarelativistische Elektron-Positron-Paare. Diese Teilchenpaare werden durch verschiedene Prozesse beeinflusst und bieten ein breites und interessantes Forschunggebiet. Die vorliegende Doktorarbeit widmet sich insbesondere der Untersuchung von Plasmainstabilitäten, welche die Elektron-Positron-Paare im intergalaktischen Medium induzieren. Diese Instabilitäten sind von besonderer Wichtigkeit, da die Paare durch sie Energieverluste erfahren, welche das reduzierte Gammastrahlensignal im GeV Bereich erklären können. Die Größenordnung der blazarinduzierten Elektron-Positron-Paaredichte ist zu klein, um mit modernern Rechnern simuliert zu werden. In dieser Arbeit wurden daher andere Parameterbereiche untersucht, in welchem die Teilchenpaare sich ähnlich verhalten. Die Doktorarbeit erklärt die Wahl der Simulationsparameter anhand des analytischen Modells und stellt die Simulationsergebnisse dar. Die Ergebnisse lassen sich auf den astrophysikalischen Parameterbereich extrapolieren, so dass eine Abschätzung der Energieverluste der Paare möglich ist. Es wird gezeigt, dass die Elektron-Positron-Paare ihre Energie durch die Wechselwirkung mit den Plasmainstabilitäten etwas schneller als durch die inverse Compton-Streuung dissipieren. Zusammenfassend liefert die vorliegende Doktorarbeit neue relevante Ergebnisse bezüglich der Plasmainstabilitäten, erzeugt von Elektron-Positron-Paaren im intergalaktischen Mendium. Die Ergebnisse verdeutlichen die Relevanz von Plasmainstabilitäten und verbessern unser Verständnis von Blazarspektren. KW - Plasma instability KW - Blazar KW - IGM KW - PIC simulation KW - gamma rays KW - Plasmainstabilität KW - Gammastrahlung KW - Blazar KW - intergalaktisches Medium (IGM) KW - Particle-in-Cell Simulationen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-417428 ER - TY - THES A1 - Feldmann, David T1 - Light-driven diffusioosmosis T1 - Licht-getriebene Diffusioosmose BT - the manipulation of colloids using azobenzene containing surfactant BT - Manipulation von Kolloiden mittels azobenzolhaltigen Tensiden N2 - The emergence of microfluidics created the need for precise and remote control of micron-sized objects. I demonstrate how light-sensitive motion can be induced at the micrometer scale by a simple addition of a photosensitive surfactant, which makes it possible to trigger hydrophobicity with light. With point-like laser irradiation, radial inward and outward hydrodynamic surface flows are remotely switched on and off. In this way, ensembles of microparticles can be moved toward or away from the irradiation center. Particle motion is analyzed according to varying parameters, such as surfactant and salt concentration, illumination condition, surface hydrophobicity, and surface structure. The physical origin of this process is the so-called light-driven diffusioosmosis (LDDO), a phenomenon that was discovered in the framework of this thesis and is described experimentally and theoretically in this work. To give a brief explanation, a focused light irradiation induces a local photoisomerization that creates a concentration gradient at the solid-liquid interface. To compensate for the change in osmotic pressure near the surface, a hydrodynamic flow along the surface is generated. Surface-surfactant interaction largely governs LDDO. It is shown that surfactant adsorption depends on the isomerization state of the surfactant. Photoisomerization, therefore, triggers a surfactant attachment or detachment from the surface. This change is considered to be one of the reasons for the formation of LDDO flow. These flows are introduced not only by a focused laser source but also by global irradiation. Porous particles show reversible repulsive and attractive interactions when dispersed in the solution of photosensitive surfactant. Repulsion and attraction is controlled by the irradiation wavelength. Illumination with red light leads to formation of aggregates, while illumination with blue light leads to the formation of a well-separated grid with equal interparticle distances, between 2µm and 80µm, depending on the particle surface density. These long-range interactions are considered to be a result of an increase or decrease of surfactant concentration around each particle, depending on the irradiation wavelength. Surfactant molecules adsorb inside the pores of the particles. A light-induced photoisomerization changes adsorption to the pores and drives surfactant molecules to the outside. The concentration gradients generate symmetric flows around each single particle resulting in local LDDO. With a break of the symmetry (i.e., by closing one side of the particle with a metal cap), one can achieve active self-propelled particle motion. N2 - Mit Aufkommen der Mikrofluidik entstand eine größere Nachfrage nach präziser und berührungsfreier Manipulation von mikrometergroßen Objekten. In dieser Arbeit wird gezeigt, wie Bewegung im Mikrometerbereich durch ein lichtschaltbares Tensid erzeugt werden kann, deren Hydrophobizität sich durch Beleuchtung ändert. Eine fokussierte punktförmige Laserbestrahlung erzeugt einen radial nach außen oder innen gerichteten Fluss an der Substratoberfläche je nach Laserwellenlänge. Mikropartikel die sich auf der Oberfläche befinden, bewegen sich dadurch passiv mit dem Fluss entweder zum Bestrahlungspunkt hin oder vom Bestrahlungspunkt weg. Die Partikelbewegung wird in Abhängigkeit von den folgenden Parametern untersucht: Tensid- und Salzkonzentration, Bestrahlungsbedingungen, Hydrophobizität der Oberfläche und Oberflächenstruktur. Der Grund für die Bewegung kann in einem Prozess gefunden werden, der sogenannten lichtgetriebenen Diffusioosmose (LDDO), die im Rahmen dieser Dissertation entdeckt und theoretisch sowie experimentell beschrieben wurde. Der Prozess kann wie folgt betrachtet werden: Die fokussierte Bestrahlung induziert eine lokale Photo-Isomerisation der Tensidmoleküle, die eine Monomer-Konzentrationsänderung zur Folge hat. Lokal entsteht ein hierdurch ein höherer osmotischer Druck an der Oberfläche. Um den Druckunterschied an der Oberfläche auszugleichen, wird ein hydrodynamischer Fluss nahe der Oberfläche erzeugt. Hierbei bestimmt vor allem die Wechselwirkung zwischen Tensid und Oberfläche den induzierten Fluss. Es wird gezeigt, dass die Oberflächenadsorption des Tensids vom Isomerisationszustand abhängt. Somit kann eine Bestrahlung ein Ablösen von oder Anhaften an der Oberfläche erzeugen. Diese Änderung der Oberflächenkonzentration kann als einer der Gründe für die Flussentstehung angesehen werden. Diese hydrodynamischen Oberflächenflüssen können nicht nur durch einen fokussierten Laser erzeugt werden, sondern auch durch eine gesamte Bestrahlung der Oberfläche. Hierbei zeigen poröse Partikel eine reversible Anziehung und Abstoßung, wenn sie sich in einer Tensidlösung und an einer Substratoberfläche befinden. Die Wechselwirkung kann hierbei durch die Bestrahlungswellenlänge kontrolliert werden. In Dunkelheit oder in rotem Licht ziehen sich die Partikel gegenseitig an, währenddessen sie sich unter blauer Bestrahlung abstoßen und ein Partikelnetz erzeugen mit äquidistanten Abständen zwischen den Partikeln. Die Partikelabstände hängen von der Partikeldichte an der Oberfläche ab und variieren zwischen 2µm und 80µm. Der Grund für die reversible Anziehung und Abstoßung wird ähnlich zu LDDO in einer lichtinduzierten Konzentrationsänderung gesehen. Tensidmoleküle adsorbieren innerhalb der Poren der Partikel. Durch eine lichtinduzierte Isomerisation werden die Moleküle ausgestoßen. Hierbei entsteht die Konzentrationsänderung um jedes poröse Partikel herum, währenddessen sie in LDDO um den Laserpunkt entsteht. Somit werden diffusioosmotische Flüsse symmetrisch um jedes Partikel erzeugt, wohingegen sie in LDDO nur um den Laserpunkt erzeugt werden.Demzufolge stoßen sich die Partikel durch eine hydrodynamische Wechselwirkung ab. Es wird gezeigt, dass aufgrund eines Symmetriebruchs durch ein Abdecken einer Partikelhälfte eine aktive selbstgetriebene Partikelbewegung erzeugt werden kann. KW - azobenzene surfactant KW - Diffusioosmosis KW - Janus particle KW - surface KW - solid-liquid interface KW - surface flow KW - micro swimmer KW - self-propelled particle KW - light-driven KW - particles KW - azobenzolhaltige Tenside KW - Diffusioosmose KW - Janus Partikel KW - Oberfläche KW - fest-flüssig Grenzfläche KW - Oberflächenfluss KW - Mikroschwimmer KW - selbst-getriebene Partikel KW - licht-getrieben KW - Partikel Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-417184 ER - TY - THES A1 - Konon, Alexander T1 - Essays on career choice under risk and ambiguity T1 - Essays über Karrierewahl unter Risiko und Unsicherheit N2 - This dissertation consists of five self-contained essays, addressing different aspects of career choices, especially the choice of entrepreneurship, under risk and ambiguity. In Chapter 2, the first essay develops an occupational choice model with boundedly rational agents, who lack information, receive noisy feedback, and are restricted in their decisions by their personality, to analyze and explain puzzling empirical evidence on entrepreneurial decision processes. In the second essay, in Chapter 3, I contribute to the literature on entrepreneurial choice by constructing a general career choice model on the basis of the assumption that outcomes are partially ambiguous. The third essay, in Chapter 4, theoretically and empirically analyzes the impact of media on career choices, where information on entrepreneurship provided by the media is treated as an informational shock affecting prior beliefs. The fourth essay, presented in Chapter 5, contains an empirical analysis of the effects of cyclical macro variables (GDP and unemployment) on innovative start-ups in Germany. In the fifth, and last, essay in Chapter 6, we examine whether information on personality is useful for advice, using the example of career advice. N2 - Diese Dissertation besteht aus fünf eigenständigen Aufsätzen, die sich mit verschiedenen Aspekten von Berufswahl, insbesondere der Wahl von Entrepreneurship, unter Risiko und Unsicherheit befassen. In Kapitel 2 entwickelt der erste Aufsatz ein Berufswahlmodell mit begrenzt-rationalen Agenten, die eingeschränkte Information haben, Feedback mit Rauschkomponenten erhalten und in ihren Entscheidungen durch ihre Persönlichkeit eingeschränkt sind, um einige bisher unerklärte Charakteristika von unternehmerischen Entscheidungsprozessen zu analysieren und zu erklären. Im zweiten Aufsatz in Kapitel 3 wird die Literatur zur Karrierewahl durch eine neue Perspektive ergänzt. Der Aufsatz konstruiert ein allgemeines Modell auf der Grundlage der Annahme, dass Entscheidungsergebnisse (teilweise) unsicher sind. Der dritte Aufsatz in Kapitel 4 analysiert theoretisch und empirisch die Auswirkung von Medien auf Berufsentscheidungen. Informationen über Entrepreneurship, die von den Medien zur Verfügung gestellt werden, werden als Informationsschocks behandelt, die vorherige Überzeugungen beeinflussen. Der vierte Aufsatz, der in Kapitel 5 vorgestellt wird, enthält eine empirische Analyse der Auswirkungen von zyklischen, regionalen Makrovariablen (Bruttoinlandsprodukt und Arbeitslosigkeit) auf innovative Start-Ups in Deutschland. Im fünften und letzten Aufsatz in Kapitel 6 untersuchen wir am Beispiel der Berufsberatung, ob Informationen über die Persönlichkeit für Vorhersagen und Empfehlungen nützlich sind. KW - ambiguity KW - entrepreneurship KW - Bayesian learning KW - simulation KW - Unsicherheit KW - Entrepreneurship KW - Bayes'sches Lernen KW - Simulationsmodelle Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416466 ER - TY - THES A1 - Ma, Siyuan T1 - Analysis of Teukolsky equations on slowly rotating Kerr spacetimes T1 - Analyse von Teukolsky-Gleichungen auf langsam rotierende Kerr-Raumzeiten N2 - In this thesis, we treat the extreme Newman-Penrose components of both the Maxwell field (s=±1) and the linearized gravitational perturbations (or "linearized gravity" for short) (s=±2) in the exterior of a slowly rotating Kerr black hole. Upon different rescalings, we can obtain spin s components which satisfy the separable Teukolsky master equation (TME). For each of these spin s components defined in Kinnersley tetrad, the resulting equations by performing some first-order differential operator on it once and twice (twice only for s=±2), together with the TME, are in the form of an "inhomogeneous spin-weighted wave equation" (ISWWE) with different potentials and constitute a linear spin-weighted wave system. We then prove energy and integrated local energy decay (Morawetz) estimates for this type of ISWWE, and utilize them to achieve both a uniform bound of a positive definite energy and a Morawetz estimate for the regular extreme Newman-Penrose components defined in the regular Hawking-Hartle tetrad. We also present some brief discussions on mode stability for TME for the case of real frequencies. This says that in a fixed subextremal Kerr spacetime, there is no nontrivial separated mode solutions to TME which are purely ingoing at horizon and purely outgoing at infinity. This yields a representation formula for solutions to inhomogeneous Teukolsky equations, and will play a crucial role in generalizing the above energy and Morawetz estimates results to the full subextremal Kerr case. N2 - In dieser Arbeit behandeln wir die extremen Newman-Penrose-Komponenten des Maxwell-Feldes (s=±1) und die linearisierten Gravitationsstörungen (kurz "linearisierte Gravitation") (s=±2) im Äußeren eines langsam rotierenden Kerr-Schwarzen Lochs. Nach verschiedenen Reskalierungen können wir Spin s-Komponenten erhalten, die die separierbare Teukolsky-Master-Gleichung (TME) erfüllen. Für jede dieser spin s-Komponenten, die in der Kingersley-Tetrade definiert sind, werden die resultierenden Gleichungen durch Ausführen eines Differentialoperators erster Ordnung einmal und zweimal (zweimal nur für s=±2) zusammen mit dem TME ausgeführt. liegen in Form einer "inhomogenen spin-weighted wave equation" (ISWWE) mit unterschiedlichen Potentialen vor und bilden ein lineares spingewichtetes Wellensystem. Wir zeigen dann Energie und integrierte lokale Zerfall (Morawetz) Schätzungen für diese Art von ISWWE, und nutzen sie, um sowohl eine einheitliche Grenze einer positiven bestimmten Energie und eine Morawetz-Schätzung für die regulären extremen Newman-Penrose-Komponenten zu erreichen definiert in der regulären Hawking-Hartle-Tetrade. Wir präsentieren auch einige kurze Diskussionen über die Modenstabilität für TME für den Fall von echten Frequenzen. Dies besagt, dass es in einer festen subextremalen Kerr-Raumzeit keine nicht-trivialen getrennten Modenlösungen für TME gibt, die rein am Horizont und rein im Unendlichen ausgehen. Dies ergibt eine Repräsentationsformel für Lösungen zu inhomogenen Teukolsky-Gleichungen und wird eine entscheidende Rolle bei der Verallgemeinerung der obigen Energie- und Morawetz-Schätzergebnisse auf den vollen sutextremalen Kerr-Fall spielen. KW - energy estimate KW - Morawetz estimate KW - Teukolsky equations KW - slowly rotating Kerr spacetimes KW - mode stability KW - Energieschätzung KW - Morawetz-Schätzung KW - Teukolsky-Gleichungen KW - langsam rotierende Kerr-Raumzeiten KW - Modenstabilität Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-414781 ER - TY - THES A1 - Paganini, Claudio Francesco T1 - The role of trapping in black hole spacetimes T1 - Über die Rolle gefangener lichtartiger Kurven in Raumzeiten mit Schwarzen Löchern N2 - In the here presented work we discuss a series of results that are all in one way or another connected to the phenomenon of trapping in black hole spacetimes. First we present a comprehensive review of the Kerr-Newman-Taub-NUT-de-Sitter family of black hole spacetimes and their most important properties. From there we go into a detailed analysis of the bahaviour of null geodesics in the exterior region of a sub-extremal Kerr spacetime. We show that most well known fundamental properties of null geodesics can be represented in one plot. In particular, one can see immediately that the ergoregion and trapping are separated in phase space. We then consider the sets of future/past trapped null geodesics in the exterior region of a sub-extremal Kerr-Newman-Taub-NUT spacetime. We show that from the point of view of any timelike observer outside of such a black hole, trapping can be understood as two smooth sets of spacelike directions on the celestial sphere of the observer. Therefore the topological structure of the trapped set on the celestial sphere of any observer is identical to that in Schwarzschild. We discuss how this is relevant to the black hole stability problem. In a further development of these observations we introduce the notion of what it means for the shadow of two observers to be degenerate. We show that, away from the axis of symmetry, no continuous degeneration exists between the shadows of observers at any point in the exterior region of any Kerr-Newman black hole spacetime of unit mass. Therefore, except possibly for discrete changes, an observer can, by measuring the black holes shadow, determine the angular momentum and the charge of the black hole under observation, as well as the observer's radial position and angle of elevation above the equatorial plane. Furthermore, his/her relative velocity compared to a standard observer can also be measured. On the other hand, the black hole shadow does not allow for a full parameter resolution in the case of a Kerr-Newman-Taub-NUT black hole, as a continuous degeneration relating specific angular momentum, electric charge, NUT charge and elevation angle exists in this case. We then use the celestial sphere to show that trapping is a generic feature of any black hole spacetime. In the last chapter we then prove a generalization of the mode stability result of Whiting (1989) for the Teukolsky equation for the case of real frequencies. The main result of the last chapter states that a separated solution of the Teukolsky equation governing massless test fields on the Kerr spacetime, which is purely outgoing at infinity, and purely ingoing at the horizon, must vanish. This has the consequence, that for real frequencies, there are linearly independent fundamental solutions of the radial Teukolsky equation which are purely ingoing at the horizon, and purely outgoing at infinity, respectively. This fact yields a representation formula for solutions of the inhomogenous Teukolsky equation, and was recently used by Shlapentokh-Rothman (2015) for the scalar wave equation. N2 - In Newtons Gravitationstheorie bewegt sich Licht auf geraden Linien durch den Raum. Entsprechend beeinflussen Massen den Verlauf von Lichtstrahlen nicht. In Einsteins Allgemeiner Relativitätstheorie führt die Präsenz von Massen dazu, dass sich die Raumzeit, sprich das Koordinatensystem für alle physikalischen Vorgänge, verkrümmt. Da das Licht immer den kürzesten Weg nimmt, wird es nun auch abgelenkt wenn es nahe an einem Körper mit grosser Masse vorbeikommt. Der Nachweis der Lichtablenkung durch die Masse der Sonne bei einer Sonnenfinsternis durch Eddington 1919 war der erste direkte Nachweis, dass Einstein mit seiner Allgemeinen Relativitätstheorie richtig liegt. Eine der erstaunlichsten Vorhersagen aus Einsteins Relativitätstheorie ist die Existenz von Schwarzen Löchern. Es wird gemeinhin angenommen, dass Schwarzen Löcher die dichtesten Objekte sind, welche im Universum existieren können. Ein Schwarzes Loch ist eine Raumzeit, die so stark verkrümmt ist, dass ein Bereich existiert aus welchem nicht einmal mehr Licht entfliehen kann. Die Grenze dieses Bereiches bezeichnet man als Ereignishorizont. Beobachter, welche den Ereignishorizont überqueren, können danach nicht mehr mit Beobachtern ausserhalb kommunizieren. Die Krümmung der Raumzeit in der Nähe des Ereignishorizontes ist so stark, dass sehr gewisse Lichtstrahlen, ähnlich der Planeten im Sonnensystem, auf Kreisbahnen bewegen. Das heisst, dass das Licht weder ins Schwarze Loch fällt, noch ins unendliche davon läuft. Die Bahn solcher Lichtstrahlen bezeichnet man als gefangene lichtartige Kurven. Solche Kurven existieren nur in einem beschränkten Bereich in der Nähe des Ereignishorizontes. Allerdings ist es an jedem Ort der Raumzeit möglich, lichtartige Kurven durch diesen Punkt zu finden, welche sich in der Zukunft einer gefangenen lichtartigen Kurve beliebig annähern und weder ins Schwarze Loch fallen noch ins unendliche davon laufen. Die Gesamtheit aller möglichen Lichtstrahlen durch einen Punkt kann durch eine Kugel, der Himmelssphäre des Beobachters, bestehend aus allen möglichen Raumrichtungen beschrieben werden. In unserer Arbeit zeigen wir, dass die Strahlen, welche sich in der Zukunft einer gefangenen lichtartigen Kurve annähern, die Himmelssphäre in zwei Bereiche unterteilt. Der eine Teil besteht aus jenen Richtungen, in welche der Lichtstrahl im Schwarzen Loch endet, der andere Teil aus jenen Richtungen in welche der Lichtstrahl ins unendliche davon läuft. Die Richtungen in welcher sich die Lichtstrahlen in der Zukunft einer gefangenen lichtartigen Kurve annähern bilden eine geschlossene Kurve auf der Himmelssphäre. Diese Kurve, zusammen mit den Richtungen unter welchen das Licht im Schwarzen Loch endet, bilden den Schatten des Schwarzen Loches auf der Himmelssphäre des Beobachters. Wir konnten zeigen, dass die Form dieses Schattens Rückschlüsse auf die physikalischen Parameter, wie Ladung und Drehmoment des Schwarzen Loches, sowie die Distanz zwischen Beobachter und Schwarzem Loch zulässt. Ausserdem haben wir gezeigt, dass für masselose Felder (Skalarfelder, elektromagnetische Felder, linearisierte Gravitation) auf Raumzeiten mit einem rotierenden Schwarzen Loch, die sogenannte Modenstabillität gilt. Modenlösungen für partielle Differentialgleichungen sind Lösungen, welche ein Produkt von Lösungen in einzelner Koordinatenrichtungen sind. Modenstäbilität bedeutet nun, dass es zu diesen Feldgleichungen, auf diesen Raumzeiten keine Modenlösungen mit realen Frequenzen gibt, welche nur Energie aus der Raumzeit hinaustragen. KW - black hole KW - trapping KW - black hole shadows KW - Teukolsky master equation KW - mode stability KW - Schwarzes Loch KW - gefangene lichtartige Kurven KW - Schatten eines Schwarzen Lochs KW - Teukolsky Gleichung KW - Moden Stabilität Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-414686 ER - TY - THES A1 - Kotha, Sreeram Reddy T1 - Quantification of uncertainties in seismic ground-motion prediction T1 - Quantifizierung von Unsicherheiten bei der seismischen Bodenbewegungsvorhersage N2 - The purpose of Probabilistic Seismic Hazard Assessment (PSHA) at a construction site is to provide the engineers with a probabilistic estimate of ground-motion level that could be equaled or exceeded at least once in the structure’s design lifetime. A certainty on the predicted ground-motion allows the engineers to confidently optimize structural design and mitigate the risk of extensive damage, or in worst case, a collapse. It is therefore in interest of engineering, insurance, disaster mitigation, and security of society at large, to reduce uncertainties in prediction of design ground-motion levels. In this study, I am concerned with quantifying and reducing the prediction uncertainty of regression-based Ground-Motion Prediction Equations (GMPEs). Essentially, GMPEs are regressed best-fit formulae relating event, path, and site parameters (predictor variables) to observed ground-motion values at the site (prediction variable). GMPEs are characterized by a parametric median (μ) and a non-parametric variance (σ) of prediction. μ captures the known ground-motion physics i.e., scaling with earthquake rupture properties (event), attenuation with distance from source (region/path), and amplification due to local soil conditions (site); while σ quantifies the natural variability of data that eludes μ. In a broad sense, the GMPE prediction uncertainty is cumulative of 1) uncertainty on estimated regression coefficients (uncertainty on μ,σ_μ), and 2) the inherent natural randomness of data (σ). The extent of μ parametrization, the quantity, and quality of ground-motion data used in a regression, govern the size of its prediction uncertainty: σ_μ and σ. In the first step, I present the impact of μ parametrization on the size of σ_μ and σ. Over-parametrization appears to increase the σ_μ, because of the large number of regression coefficients (in μ) to be estimated with insufficient data. Under-parametrization mitigates σ_μ, but the reduced explanatory strength of μ is reflected in inflated σ. For an optimally parametrized GMPE, a ~10% reduction in σ is attained by discarding the low-quality data from pan-European events with incorrect parametric values (of predictor variables). In case of regions with scarce ground-motion recordings, without under-parametrization, the only way to mitigate σ_μ is to substitute long-term earthquake data at a location with short-term samples of data across several locations – the Ergodic Assumption. However, the price of ergodic assumption is an increased σ, due to the region-to-region and site-to-site differences in ground-motion physics. σ of an ergodic GMPE developed from generic ergodic dataset is much larger than that of non-ergodic GMPEs developed from region- and site-specific non-ergodic subsets - which were too sparse to produce their specific GMPEs. Fortunately, with the dramatic increase in recorded ground-motion data at several sites across Europe and Middle-East, I could quantify the region- and site-specific differences in ground-motion scaling and upgrade the GMPEs with 1) substantially more accurate region- and site-specific μ for sites in Italy and Turkey, and 2) significantly smaller prediction variance σ. The benefit of such enhancements to GMPEs is quite evident in my comparison of PSHA estimates from ergodic versus region- and site-specific GMPEs; where the differences in predicted design ground-motion levels, at several sites in Europe and Middle-Eastern regions, are as large as ~50%. Resolving the ergodic assumption with mixed-effects regressions is feasible when the quantified region- and site-specific effects are physically meaningful, and the non-ergodic subsets (regions and sites) are defined a priori through expert knowledge. In absence of expert definitions, I demonstrate the potential of machine learning techniques in identifying efficient clusters of site-specific non-ergodic subsets, based on latent similarities in their ground-motion data. Clustered site-specific GMPEs bridge the gap between site-specific and fully ergodic GMPEs, with their partially non-ergodic μ and, σ ~15% smaller than the ergodic variance. The methodological refinements to GMPE development produced in this study are applicable to new ground-motion datasets, to further enhance certainty of ground-motion prediction and thereby, seismic hazard assessment. Advanced statistical tools show great potential in improving the predictive capabilities of GMPEs, but the fundamental requirement remains: large quantity of high-quality ground-motion data from several sites for an extended time-period. N2 - Der Zweck der probabilistischen seismischen Gefährdungsbeurteilung (PSHA) auf einer Baustelle besteht darin, den Ingenieuren eine probabilistische Schätzung des Bodenbewegungspegels zu liefern, die mindestens einmal in der Entwurfslebensdauer der Struktur erreicht oder überschritten werden könnte. Eine Gewissheit über die vorhergesagte Bodenbewegung erlaubt es den Ingenieuren, das strukturelle Design sicher zu optimieren und das Risiko von weitreichenden Schäden oder im schlimmsten Fall eines Zusammenbruchs zu minimieren. Es liegt daher im Interesse des Ingenieurwesens, der Versicherung, der Katastrophenvorsorge und der Sicherheit der Gesellschaft insgesamt, die Unsicherheiten bei der Vorhersage der Bodenbewegungsebenen des Entwurfs zu reduzieren. In dieser Studie, beschäftige ich mich mit der Quantifizierung und Reduzierung der Vorhersageunsicherheit von Regressions-basierten Bodenbewegungsvorhersage-Gleichungen (GMPEs). Im Wesentlichen sind GMPEs am besten angepasste Formeln, die Ereignis-, Pfad- und Standortparameter (Prädiktorvariablen) auf beobachtete Bodenbewegungswerte an der Stelle (Vorhersagevariable) beziehen. GMPEs sind gekennzeichnet durch einen parametrischen Median (μ) und eine nichtparametrische Varianz (σ) der Vorhersage. μ erfasst die bekannte Bodenbewegungs-Physik, d. h. Skalierung mit Erdbebenbrucheigenschaften (Ereignis), Dämpfung mit Abstand von der Quelle (Region/Pfad) und Verstärkung aufgrund lokaler Bodenbedingungen (Standort); während σ die natürliche Variabilität von Daten quantifiziert, die sich dem μ entziehen. In einem weiten Sinne ist die GMPE-Vorhersageunsicherheit kumulativ von 1) Unsicherheit bezüglich der geschätzten Regressionskoeffizienten (Unsicherheit auf μ; σ_μ) und 2) der inhärenten natürlichen Zufälligkeit von Daten (σ). Das Ausmaß der μ-Parametrisierung, die Menge und die Qualität der Bodenbewegungsdaten, die in einer Regression verwendet werden, bestimmen die Größe der Vorhersageunsicherheit: σ_μ und σ. Im ersten Schritt stelle ich den Einfluss der μ-Parametrisierung auf die Größe von σ_μ und σ vor. Überparametrisierung scheint die σ_μ zu erhöhen, da die große Anzahl von Regressionskoeffizienten (in μ) mit unzureichenden Daten geschätzt werden muss. Unterparametrisierung mindert σ_μ, aber die reduzierte Erklärungsstärke von μ spiegelt sich in aufgeblähtem σ wider. Für eine optimal parametrisierte GMPE wird eine ~ 10% ige Verringerung von σ erreicht, indem die Daten niedriger Qualität aus paneuropäischen Ereignissen mit inkorrekten Parameterwerten (von Prädiktorvariablen) verworfen werden. In Regionen mit wenigen Bodenbewegungsaufzeichnungen, ohne Unterparametrisierung, besteht die einzige Möglichkeit, σ_μ abzuschwächen, darin, langfristige Erdbebendaten an einem Ort durch kurzzeitige Datenproben an mehreren Orten zu ersetzen - die Ergodische Annahme. Der Preis der ergodischen Annahme ist jedoch aufgrund der Unterschiede in der Bodenbewegungsphysik von Region-zu-Region und von Ort-zu-Ort ein erhöhter σ. σ einer ergodischen GMPE, die aus einem generischen ergodischen Datensatz entwickelt wurde, ist viel größer als die von nicht-ergodischen GMPEs, die aus regions- und ortsspezifischen nicht-ergodischen Teilmengen entwickelt wurden - die zu dünn waren, um ihre spezifischen GMPEs zu erzeugen. Glücklicherweise konnte ich mit dem dramatischen Anstieg der erfassten Bodenbewegungsdaten an mehreren Standorten in Europa und im Nahen Osten die regions- und standortspezifischen Unterschiede bei der Bodenbewegungsskalierung quantifizieren und die GMPE mit 1) wesentlich genauerer Regionalität verbessern, und ortspezifische μ für Standorte in Italien und der Türkei, und 2) signifikant kleinere Vorhersage Varianz σ. Der Vorteil solcher Verbesserungen für GMPEs ist ziemlich offensichtlich in meinem Vergleich von PSHA-Schätzungen von ergodischen gegenüber regions- und ortsspezifischen GMPEs; wo die Unterschiede in den prognostizierten Bodenbewegungsebenen an verschiedenen Standorten in Europa und im Nahen Osten bis zu ~ 50% betragen. Die Lösung der ergodischen Annahme mit gemischten Regressionen ist machbar, wenn die quantifizierten bereichs- und ortsspezifischen Effekte physikalisch sinnvoll sind und die nicht-ergodischen Teilmengen (Regionen und Standorte) a priori durch Expertenwissen definiert werden. In Ermangelung von Expertendefinitionen demonstriere ich das Potential von maschinellen Lerntechniken bei der Identifizierung effizienter Cluster von ortsspezifischen nicht-ergodischen Untergruppen, basierend auf latenten Ähnlichkeiten in ihren Bodenbewegungsdaten. Geclusterte ortsspezifische GMPEs überbrücken die Lücke zwischen ortsspezifischen und vollständig ergodischen GMPEs mit ihrem teilweise nicht-ergodischen μ und ~ 15% kleiner als die ergodische Varianz. Die methodischen Verbesserungen der GMPE-Entwicklung, die in dieser Studie entwickelt wurden, sind auf neue Bodenbewegungsdatensätze anwendbar, um die Sicherheit der Bodenbewegungsvorhersage und damit die Bewertung der seismischen Gefährdung weiter zu verbessern. Fortgeschrittene statistische Werkzeuge zeigen ein großes Potenzial bei der Verbesserung der Vorhersagefähigkeiten von GMPEs, aber die grundlegende Anforderung bleibt: eine große Menge an hochwertigen Bodenbewegungsdaten von mehreren Standorten für einen längeren Zeitraum. KW - ground-motion variability KW - predictive modeling KW - mixed-effect analysis KW - Probabilistic Seismic Hazard and Risk Assessment KW - machine learning Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-415743 ER - TY - THES A1 - Lama, Sandy M. G. T1 - Functionalization of Porous Carbon Materials with Heteroatoms and Application as Supports in Industrial Heterogeneous Catalysis T1 - Funktionalisierung von porösen Kohlenstoffmaterialien mit Heteroatomen und Anwendung als Träger in der industriellen heterogenen Katalyse N2 - Due to a challenging population growth and environmental changes, a need for new routes to provide required chemicals for human necessities arises. An effective solution discussed in this thesis is industrial heterogeneous catalysis. The development of an advanced industrial heterogeneous catalyst is investigated herein by considering porous carbon nano-material as supports and modifying their surface chemistry structure with heteroatoms. Such modifications showed a significant influence on the performance of the catalyst and provided a deeper insight regarding the interaction between the surface structure of the catalyst and the surrounding phase. This thesis contributes to the few present studies about heteroatoms effect on the catalyst performance and emphasizes on the importance of understanding surface structure functionalization in a catalyst in different phases (liquid and gaseous) and for different reactions (hydrogenolysis, oxidation, and hydrogenation/ polymerization). Herein, the heteroatoms utilized for the modifications are hydrogen (H), oxygen (O), and nitrogen (N). The heteroatoms effect on the metal particle size, on the polarity of the support/ the catalyst, on the catalytic performance (activity, selectivity, and stability), and on the interaction with the surrounding phase has been explored. First hierarchical porous carbon nanomaterials functionalized with heteroatoms (N) is synthesized and applied as supports for nickel nanoparticles for hydrogenolysis process of kraft lignin in liquid phase. This reaction has been performed in batch and flow reactors for three different catalysts, two of comparable hierarchical porosity, yet one is modified with N and the other is not, and a third is a prepared catalyst from a commercial carbon support. The reaction production and analyses show that the catalysts with hierarchical porosity perform catalytically much better than in presence of a commercial carbon support with lower surface area. Moreover, the modification with N-heteroatoms enhanced the catalytic performance because the heteroatom modified porous carbon material with nickel nanoparticles catalyst (Ni-NDC) performed highest among the other catalysts. In the flow reactor, Ni-NDC selectively degraded the ether bonds (β-O-4) in kraft lignin with an activity of 2.2 x10^-4 mg lignin mg Ni-1 s-1 for 50 h at 350°C and 3.5 mL min-1 flow, providing ~99 % conversion to shorter chained chemicals (mainly guaiacol derivatives). Then, the functionalization of carbon surface was further studied in selective oxidation of glucose to gluconic acid using < 1 wt. % of gold (Au) deposited on the previously-mentioned synthesized carbon (C) supports with different functionalities (Au-CGlucose, Au-CGlucose-H, Au-CGlucose-O, Au-CGlucoseamine). Except for Au-CGlucose-O, the other catalysts achieved full glucose conversion within 40-120 min and 100% selectivity towards gluconic acid with a maximum activity of 1.5 molGlucose molAu-1 s-1 in an aqueous phase at 45 °C and pH 9. Each heteroatom influenced the polarity of the carbon differently, affecting by that the deposition of Au on the support and thus the activity of the catalyst and its selectivity. The heteroatom effect was further investigated in a gas phase. The Fischer-Tropsch reaction was applied to convert synthetic gas (CO and H2) to short olefins and paraffins using surface-functionalized carbon nanotubes (CNTs) with heteroatoms as supports for ion (Fe) deposition in presence and absence of promoters (Na and S). The results showed the promoted Fe-CNT doped with nitrogen catalyst to be stable up to 180 h and selective to the formation of olefins (~ 47 %) and paraffins (~6 %) with a conversion of CO ~ 92 % at a maximum activity of 94 *10^-5 mol CO g Fe-1 s-1. The more information given regarding this topic can open wide range of applications not only in catalysis, but in other approaches as well. In conclusion, incorporation of heteroatoms can be the next approach for an advanced industrial heterogeneous catalyst, but also for other applications (e.g. electrocatalysis, gas adsorption, or supercapacitors). N2 - Herausforderungen wie Bevölkerungszuwachs und Umweltveränderungen erfordern neue Wege, chemische Substanzen zu erzeugen, um menschliche Anforderungen zu befriedigen. Eine mögliche effektive Lösung dafür, welche in dieser Arbeit diskutiert wird ist die industrielle heterogene Katalyse. Es werden unter dem Einsatz poröser Kohlenstoffträger neue industrielle Katalysatoren untersucht und entwickelt wobei die Oberflächenstruktur dieser Trägermaterialien mit Heteroatomen modifiziert wird. Diese Modifikationen zeigten einen signifikanten Einfluss auf die Eigenschaften der Katalysatoren und erlaubten Rückschlüsse hinsichtlich der Interaktion zwischen Katalysatoroberfläche und umgebender Phase. Die vorliegende Arbeit trägt zu einigen wenigen existierenden Studien bei die sich mit den Einflüssen solcher Heteroatome auf Katalysatoren beschäftigen. Es wird versucht, die Wichtigkeit dieser Oberflächeneigenschaften in Reaktionen (Hydrogenolyse, Oxidation, Hydrierung/ Polymerisation) in verschiedenen Phasen (flüssig oder gasförmig) zu verstehen. Die für die Modifikationen eingesetzten Heteroatome sind Wasserstoff (H), Sauerstoff (O) und Stickstoff (N). Ihr Effekt auf die Größe der Metallpartikel, die Polarität der Träger bzw. Katalysatoren, die eigentlichen katalytischen Eigenschaften und die Interaktion mit der umgebenden Phase wurde untersucht. Zuerst wurden hierarchisch poröse Kohlenstoffmaterialien hergestellt, die mit Stickstoff als Heteroatome funktionalisiert wurden. Diese wurden als Trägermaterialien für Nickel-Nanopartikel in der Hydrogenolyse von Kraft Lignin in flüssiger Phase eingesetzt. Diese Reaktion wurde mit drei unterschiedlichen Katalysatoren in Batch- und Flussreaktoren durchgeführt. Zwei der Katalysatoren hatten vergleichbare hierarchische Porosität. Einer davon war mit Heteroatomen funktionalisiert, einer dagegen nicht. Ein dritter Katalysator wurde mit einem kommerziell erhältlichen Kohlenstoffmaterial hergestellt. Die Reaktion zeigte, dass die Katalysatoren mit hierarchischer Porosität deutlich bessere Eigenschaften zeigen als das kommerzielle Trägermaterial mit geringerer Oberfläche. Darüber hinaus zeigte sich, dass die Modifizierung mit Stickstoffatomen die katalytischen Eigenschaften verbessert, da das modifizierte Kohlenstoffmaterial mit den Nickelpartikeln (Ni-NDC) die besten Ergebnisse aller untersuchten Katalysatoren zeigte. Im Durchflussreaktor wurden von Ni-NDC die Etherbindungen des Kraft Lignins (β-O-4) selektiv mit einer Aktivität von 2.2 x10^-4 mg lignin mg Ni-1 s-1 für 50 h bei 99% Umsatz zu kurzkettigeren Strukturen (hauptsächlich Guajakol-Derivat) gespalten. Außerdem wurde der Einfluss der Funktionalisierung der Kohlenstoffoberfläche in der selektiven Oxidation von Glucose zu Gluconsäure mit 1 Gew.% Gold (Au) auf den vorher angesprochenen Kohlenstoffträgermaterialien mit unterschiedlichen Oberflächenfunktionalitäten (Au-CGlucose, Au-CGlucose-H, Au-CGlucose-O, Au-CGlucoseamine) untersucht. Mit Ausnahme von Au-CGlucose-O erreichten alle Katalysatoren innerhalb von 40-120 min 100% Glucose Umsatz bei 100%iger Selektivität zu Gluconsäure und einer maximalen katalytischen Aktivität von 1.5 molGlucose molAu-1 s-1 in wässriger Phase bei 45°C und pH 9. Die unterschiedlichen Heteroatome wirkten sich unterschiedlich auf die Polarität der Kohlenstoffe und damit auch auf die Abscheidung der Goldpartikel auf die Trägermaterialien und die Katalysatoraktivität und -selektivität aus. Der Einfluss der Heteroatome wurde außerdem in einer Gasphasenreaktion untersucht. Die Fischer-Tropsch Reaktion kam zum Einsatz um Synthesegas (CO und H2) mit Hilfe von Katalysatoren bestehend aus Eisen (Fe) auf Heteroatomfunktionalisierten Kohlenstoffnanoröhrchen (engl. Carbon nanotubes, CNTs) in Gegenwart und Abwesenheit von Promotoren (Na und S) zu kurzkettigen Olefinen und Paraffinen umzuwandeln. Die Ergebnisse zeigten dass die Fe-CNT Katalysatoren mit Promotoren und stickstoffdotierten Trägern bis zu 180 h stabil waren und Olefine (~ 47 %) sowie Paraffine (~6 %) mit guten Selektivitäten bei einem CO Umsatz von 92% und einer maximalen Aktivität von 94 *10^-5 mol CO gFe-1 s-1 hergestellt werden konnten. Je mehr Informationen zu diesem Thema zur Verfügung gestellt werden, kann dies zu einer großen Bandbreite von Anwendungen nicht nur in der Katalyse, sondern auch in anderen Ansätzen beitragen. Zusammenfassend kann der Einbau von Heteroatomen der nächste Ansatz für einen fortgeschrittenen industriellen heterogenen Katalysator sein, aber auch für andere Anwendungen (z.B. Elektrokatalyse, Gasadsorption oder Superkondensatoren). KW - catalysis KW - carbon material KW - carbon supports KW - glucose oxidation KW - Kraft lignin hydrogenolysis KW - Fischer-Tropsch Synthesis KW - Syngas Hydrogenation KW - gold-carbon catalysts KW - nickel-carbon catalysts KW - iron-carbon nanotube catalysts KW - hierarchical porosity KW - heteroatom modification KW - catalyst functionalization KW - Katalyse KW - Kohlenstoffmaterial KW - Kohlenstoffträger KW - Glukoseoxidation KW - Kraftlignin KW - Hydrogenolyse KW - Fischer-Tropsch-Synthese KW - Syngashydrierung KW - Gold-Kohlenstoff-Katalysatoren KW - Nickel-Kohlenstoff-Katalysatoren KW - Eisen-Kohlenstoff-Nanoröhrchen-Katalysatoren KW - hierarchische Porosität KW - Heteroatom-Modifikation KW - Funktionalisierung von Katalysatoren Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-415797 ER - TY - THES A1 - Weiß, Katharina T1 - Three Essays on EFRAG T1 - Drei Studien zu EFRAG N2 - This cumulative doctoral thesis consists of three papers that deal with the role of one specific European accounting player in the international accounting standard-setting, namely the European Financial Reporting Advisory Group (EFRAG). The first paper examines whether and how EFRAG generally fulfills its role in articulating Europe’s interests toward the International Accounting Standards Board (IASB). The qualitative data from the conducted interviews reveal that EFRAG influences the IASB’s decision making at a very early stage, long before other constituents are officially asked to comment on the IASB’s proposals. The second paper uses quantitative data and investigates the formal participation behavior of European constituents that seek to determine EFRAG’s voice. More precisely, this paper analyzes the nature of the constituents’ participation in EFRAG’s due process in terms of representation (constituent groups and geographical distribution) and the drivers of their participation behavior. EFRAG’s official decision making process is dominated by some specific constituent groups (such as preparers and the accounting profession) and by constituents from some specific countries (e.g. those with effective enforcement regimes). The third paper investigates in a first step who of the European constituents choose which lobbying channel (participation only at IASB, only at EFRAG, or at both institutions) and unveils in a second step possible reasons for their lobbying choices. The paper comprises quantitative and qualitative data. It reveals that English skills, time issues, the size of the constituent, and the country of origin are factors that can explain why the majority participates only in the IASB’s due process. N2 - Die vorliegende kumulative Doktorarbeit umfasst drei Arbeiten, die sich mit der Rolle der Europäischen Beratungsgruppe zur Rechnungslegung (European Financial Reporting Advisory Group (EFRAG)) beschäftigen. Die erste Arbeit untersucht, ob EFRAG ihre Rolle bei der Beteiligung am Standardsetzungsprozess des International Accounting Standards Board (IASB) erfüllt. Da EFRAG konkret Europäische Sichtweisen beim IASB nicht nur vertreten, sondern auch dafür Sorge tragen soll, dass diese beim IASB berücksichtigt werden, ist die zweite Fragestellung dieser Arbeit wie EFRAG ihre Rolle erfüllt. Die qualitativen Daten aus den durchgeführten Interviews zeigen, dass EFRAG den Standardsetzungsprozess des IASB in einer sehr frühen Phase beeinflusst, lange bevor die interessierte Öffentlichkeit offiziell zur Stellungnahme aufgefordert wird. Die zweite Arbeit untersucht mit quantitativen Daten das formale Teilnahmeverhalten von Europäern am Meinungsbildungsprozess der EFRAG. Hier wird insbesondere untersucht, welche Interessengruppen und welche Länder in dem Konsultationsverfahren der EFRAG vertreten sind und was jeweils Gründe für ein intensives (bzw. weniger intensives) Teilnahmeverhalten sind. EFRAG’s offizieller Meinungsbildungsprozess ist von Teilnehmern bestimmter Interessengruppen (wie z.B. Erstellern von Jahresabschlüssen und Vertretern aus der Wirtschaftsprüfungsbranche) und von Teilnehmers aus bestimmten Ländern (z.B. solche mit effektivem Enforcement-Systemen) dominiert. Die dritte Arbeit untersucht zunächst die Nutzung verschiedener Lobbyingkanäle der Europäischen interessierten Öffentlichkeit (Teilnahme nur beim IASB, nur bei der EFRAG oder an beiden Kanälen) und im zweiten Schritt werden mögliche Gründe für deren Wahl ergründet. Diese Arbeit umfasst quantitative und qualitative Daten. Sie zeigt, dass Sprachdefizite, zeitliche Engpässe, die Größe bzw. Sichtbarkeit eines Teilnehmers sowie das Herkunftsland erklärende Faktoren sind, warum der Großteil der Europäer nur am Due Prozess des IASB teilnimmt. KW - EFRAG KW - IASB KW - lobbying KW - standard-setting KW - EFRAG KW - IASB KW - Lobbying KW - Standardsetzungsverfahren Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-415355 ER - TY - THES A1 - Ott, Florian T1 - Late Glacial and Holocene climate and environmental evolution in the southern Baltic lowlands derived from varved lake sediments T1 - Spätglaziale und Holozäne Klima- und Umwelentwicklung im südlichen Ostseeraum abgeleitet aus warvierten Seesedimenten N2 - Holocene climate variability is generally characterized by low frequency changes than compared to the last glaciations including the Lateglacial. However, there is vast evidence for decadal to centennial scale oscillations and millennial scale climate trends, which are within and beyond a human lifetime perception, respectively. Within the Baltic realm, a transitional zone between oceanic and continental climate influence, the impact of Holocene and Lateglacial climate and environmental change is currently partly understood. This is mainly attributed to the scarcity of well-dated and high-resolution sediment records and to the lacking continuity of already investigated archives. The aim of this doctoral thesis is to reconstruct Holocene and Late Glacial climate variability on local to (over)regional scales based on varved (annually laminated) sediments from Lake Czechowskie down to annual resolution. This project was carried out within the Virtual Institute for Integrated Climate and Landscape Evolution Analyses (ICLEA) and funded by the Helmholtz Association and the Helmholtz Climate Initiative REKLIM (Regional Climate Change). ICLEA intended to gain a better understanding of climate variability and landscape evolution processes in the Northern Central European lowlands since the last deglaciation. REKLIM Topic 8 “Abrupt climate change derived from proxy data” aims at identifying spatiotemporal patterns of climate variability between e.g. higher and lower latitudes. The main aim of this thesis was (i) to establish a robust chronology based on a multiple dating approach for Lake Czechowskie covering the Late Glacial and Holocene and for the Trzechowskie palaeolake for the Lateglacial, respectively, (ii) to reconstruct past climatic and environmental conditions on centennial to multi-millennial time scales and (iii) to distinguish between local to regional different sediments responses to climate change. Addressing the first aim, the Lake Czechowskie chronology has been established by a multiple dating approach comprising information from varve counting, tephrochronology, AMS 14C dating of terrestrial plant remains, biostratigraphy and 137Cs activity concentration measurements. Those independent age constraints covering the Lateglacial and the entire Holocene and have been further implemented in a Bayesian age model by using OxCal v.4.2. Thus, even within non-varved sediment intervals, robust chronological information has been used for absolute age determination. The identification of five cryptotephras, of which three are used as unambiguous isochrones, is furthermore a significant improvement of the Czechowskie chronology and currently unique for the Holocene within Poland. The first findings of coexisting early Holocene Hässeldalen and Askja-S cryptotephras within a varved sequence even allowed differential dating between both volcanic ashes and stimulated the discussion of revising the absolute ages of the Askja-S tephra. The Trzechowskie palaeolake chronology has been established by a multiple dating approach comprising varve counting, tephrochronology, AMS 14C dating of terrestrial plant remains and biostratigraphy, covers the Lateglacial period (Allerød and Younger Dryas) and has been implemented in OxCal v.4.2. Those age constraints allowed regional correlation to other high-resolution climate archives and identifying leads and lags of proxy responses at the onset of the Younger Dryas. The second aim has been accomplished by detailed micro-facies and geochemical analyses of the Czechowskie sediments for the entire Holocene. Thus, especially micro-facies changes had been linked to enhanced productivity at Lake Czechowskie. Most prominent changes have been recorded at 7.3, 6.5, 4.3 and 2.8 varve kyrs BP and are linked to a stepwise increasing influence of Atlantic air masses. Especially, the mid-Holocene change, which had been widely reported from palaeohydrological records in low latitudes, has been identified and linked to large scale reorganization of atmospheric circulation patterns. Thus, especially long-term changes of climatic and environmental boundary conditions are widely recorded by the Czechowskie sediments. The pronounced response to (multi)millennial scale changes is further corroborated by the lack of clear sediment responses to early Holocene centennial scale climate oscillations (e.g. the Preboreal Oscillation). However, decadal scale changes at Lake Czechowskie during the most recent period (last 140 years) have been investigated in a lake comparison study. To fulfill the third aim of the doctoral thesis, three lakes in close vicinity to each other have been investigated in order to better distinguish how local, site-specific parameters, may superimpose regional climate driven changes. All lakes haven been unambiguously linked by the Askja AD1875 cryptotephra and independent varve chronologies. As a result, climate warming has only been recorded by sedimentation changes at the smallest and best sheltered lake (Głęboczek), whereas the largest lake (Czechowskie) and the shallowest lake (Jelonek) showed attenuated and less clear sediment responses, respectively. The different responses have been linked to morphological lake characteristics (lake size and depth, catchment area). This study highlights the potential of high-resolution lake comparison for robust proxy based climate reconstructions. In summary, the doctoral thesis presents a high-resolution sediment record with an underlying age model, which is prerequisite for unprecedented age control down to annual resolution. Sediment proxy based climate reconstructions demonstrate the importance of the Czechowskie sediments for better understanding climate variability in the southern Baltic realm. Case studies showed the clear response on millennial time scale, while decadal scale fluctuations are either less well expressed or superimposed by local, site-specific parameters. The identification of volcanic ash layers is not only used for unambiguous isochrones, those are key tie lines for local to supra regional archive synchronization and establish the Lake Czechowskie as a key climate archive. N2 - Die holozäne Klimavariabilität ist im Vergleich zur letzten Eiszeit und dem Spätglazial durch schwächere Veränderungen gekennzeichnet. Dennoch zeigt eine Vielzahl von Klimaarchiven deutlich Klimaoszillationen auf kürzeren Zeitskalen sowie langfristige Klimatrends, die z. T. nicht innerhalb einer menschlichen Generation wahrnehmbar sind. Im Ostseeraum, einer Übergangsregion zwischen denm maritimen und kontinentalen Klimaeinfluss, sind holozäne und spätglaziale Umwelt- und Klimaveränderungen nur teilweise untersucht und verstanden. Das ist hauptsächlich auf die geringe Anzahl erstklassiger und hochaufgelöster Klimaarchive sowie der nur teilweise untersuchten Archive zurückzuführen. Das Ziel dieser Doktorarbeit ist die hochaufgelöste Rekonstruktion holozäner und spätglazialer Klimavariabilität auf lokaler wie überregionaler Ebene basierend auf warvierten (jährlich abgelagerten) Sedimenten des Czechowskie Sees. Das Projekt ist Bestandteil des Virtuellen Instituts zur Integrierten Klima- und Landschaftsentwicklungsanalyse (ICLEA), welches von der Helmholtz-Gemeinschaft finanziert wurde und der Helmholtz-Klimainitiative REKLIM (Regionaler Klimawandel). Thema von ICLEA ist das bessere Verständnis der Klimadynamik und der Landschaftsgenese im nördlichen mitteleuropäischen Tiefland seit dem Ende der letzten Eiszeit. Das REKLIM Thema 8 “Schnelle Klimaänderungen aus Proxy-Daten” untersucht räumlich-zeitliche Muster von Klimaveränderungen zwischen z. B. hohen und niederen Breiten. Die Ziele der Doktarbeit umfassen (i) die Erstellung eines Altersmodells mittels unterschiedlicher Datierungsmethoden die für den Czechowskie-See das Spätglazial und das Holozän bzw. für den Trzechowskie-Paläosee das Spätglazial umfassen, (ii) die Klima- und Umweltrekonstruktion auf unterschiedlichen Zeitskalen und (iii) zwischen lokal und regional beeinflussten Sedimentwechseln zu unterscheiden. Um das erste Ziel zu realisieren, wurde die Czechowskie Chronologie mittels unterschiedlicher Datierungsmethoden erstellt. Diese enthält Information der Warven- und Tephrachronologie, Biostratigraphie und von radiometrischen Messungen (AMS 14C und 137Cs Konzentration). Diese unabhängigen Altersinformationen decken das Spätglazial und das komplette Holozän ab und wurden durch softwarebasierte Bayesische Statistik mittels OxCal v.4.2 in ein Altersmodell umgewandelt. Das ermögliche eine präzise Altersinformation für das gesamte Sedimentprofil, selbst in den nicht-warvierten Abschnitten. Die Identifizierung von fünf Kryptotephren, von denen drei als eindeutige Zeitmarker dienen, ist eine weitere deutliche Verbesserung der Czechowskie Chronologie und momentan einzigartig für das Holozän in Polen. Das erstmalige Auffinden zweier frühholozäner Tephren innerhalb eines warvierten Sedimentabschnittes erlaubte die genaue Zeitspanne zwischen beiden Eruptionen zu ermitteln und regte eine Diskussion zur Revision der absoluten Alter beider Tephren an. Die Trzechowskie Paläosee Chronologie beruht auch auf unterschiedlichen Datierungsmethoden und umfasst Warven- und Tephrachronologie, Biostratigraphie AMS 14C-Messungen. Diese wurden durch OxCal v.4.2 in ein Altersmodell umgewandelt und umfassen das Spätglazial (Allerød bis Jüngere Dryas). Das zweite Ziel der Doktorarbeit wurde durch detaillierte mikrofazielle und geochemische Analysen erreicht. Insbesondere konnten Veränderungen in der Warvenstruktur auf erhöhte Produktivität des Sees zurückgeführt werden. Die markantesten Wechsel wurden vor 7.3; 6.5; 4.3 und 2.8 kyrs BP festgestellt und konnten auf eine schrittweise Etablierung atlantischer Luftmassen zurückgeführt werden. Der Wechsel im mittleren Holozän, welcher vor allem von paläohydrologischen Archiven in den niederen Breiten bekannt ist, wurde in den Czechowskie Sedimenten identifiziert und mit einer großskaligen Reorganisation atmosphärischer Zirkulationsmuster verbunden. Insbesondere werden langfristige Veränderungen der Klima- und Umweltrandbedingungen in den Czechowskie-Sedimenten abgespeichert. Die ausgeprägte Reaktion von Sedimentveränderungen auf vor allem langfristige Wechsel wird durch das Fehlen kurzfristiger Klimaoszillationen des Frühholozäns (z.B. Preboreale Oszillation) in den Sedimenten gestärkt. Demgegenüber wurden kurzfristige Sedimentveränderungen in der jüngsten Vergangenheit (letzte 140 Jahre) am Czechowskie See in einer Seenvergleichsstudie untersucht. Das dritte Ziel der Doktorarbeit umfasste eine Vergleichsstudie zwischen drei benachbarten Seen, um zwischen regionalen Klimaveränderungen und einer möglichen Überprägung durch lokale Parameter unterscheiden zu können. Die Realisierung erfolgte durch unabhängige Warvenchronologien und der Identifizierung der Askja AD1875 Kryptotephra in allen drei Seen. Das Hauptergebnis zeigt, dass die Klimaerwärmung der letzten 140 Jahre durch Sedimentveränderungen nur im kleinsten See (Głęboczek) abgespeichert wurde, wohingegen der größte (Czechowskie) und der kleinste (Jelonek) See nur abgeschwächte bzw. fehlende Sedimentwechsel aufzeigen. Die unterschiedliche Reaktion der drei Seen konnte auf morphologische Parameter (Seegröße und –tiefe, Einzugsgebietsgröße) zurückgeführt werden und hebt das Potential von hochauflösenden Seenvergleichen für eine proxybasierte Klimarekonstruktion hervor. Zusammenfassend lässt sich festhalten, das die Doktorarbeit ein hochaufgelöstes Sedimentarchiv präsentiert. Das allen Klima- und Umweltrekonstruktionen zugrunde liegende Altersmodell ist die Voraussetzung für eine beispiellose Alterskontrolle bishin zu jährlicher Auflösung. Die sedimentproxybasierte Klimarekonstruktion demonstriert den enormen Stellenwert der Czechowskie-Sedimente, die dem besseren Verständnis der Klimavariabilität im südlichen Ostseeraum dienen. Fallstudien zeigen die deutliche Reaktion von Sedimentänderungen auf langfristige Klimaänderungen, wohingegen dekadische Klimaoszillationen nicht durch Sedimentänderungen gekennzeichnet sind oder durch lokale Faktoren überprägt werden. Die Identifizierung von vulkanischen Aschelagen werden nicht nur für die eindeutige Bestimmung von chronologischen Markerhorizonten verwendet, sondern werden weiterhin für die Korrelation mit weit entfernten Klimaarchiven genutzt und unterstreichen die überregionale Bedeutung des Czechowskie-Sees als wertvolles Geoarchiv. KW - varved lake sediments KW - climate reconstruction KW - Holocene KW - warvierte Seesedimente KW - Klimarekonstruktion KW - Holozän Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-414805 ER - TY - THES A1 - Platz, Anna T1 - Novel pre-stack data confinement and selection for magnetotelluric data processing and its application to data of the Eastern Karoo Basin, South Africa T1 - Neue "pre-stack" Datenbeschränkungs- und Selektionskriterien für die magnetotellurische Datenbearbeitung und ihre Anwendung auf Daten aus dem östlichen Karoo-Becken in Südafrika N2 - Magnetotellurics (MT) is a geophysical method that is able to image the electrical conductivity structure of the subsurface by recording time series of natural electromagnetic (EM) field variations. During the data processing these time series are divided into small segments and for each segment spectral values are computed which are typically averaged in a statistical manner to obtain MT transfer functions. Unfortunately, the presence of man-made EM noise sources often deteriorates a significant amount of the recorded time series resulting in disturbed transfer functions. Many advanced processing techniques, e.g. robust statistics, pre-stack data selection or remote reference, have been developed to tackle this problem. The first two techniques reduce the amount of outliers and noise in the data whereas the latter approach removes noise by using data from another MT station. However, especially in populated regions the data processing is still quite challenging even with these approaches. In this thesis, I present two novel pre-stack data confinement and selection criteria for the detection of outliers and noise affected data based on (i) a distance measure of each data segment with regard to the entire sample distribution and (ii) the evaluation of the magnetic polarisation direction of all segments. The first criterion is able to remove data points that scatter around the desired MT distribution and furthermore it can, under some circumstances, even reject complete data cluster originating from noise sources. The second criterion eliminates data points caused by a strongly polarised magnetic signal. Both criteria have been successfully applied to many stations with different noise contaminations showing that they can significantly improve the transfer function estimation. The novel criteria were used to evaluate a MT data set from the Eastern Karoo Basin in South Africa. The corresponding field experiment is part of an extensive research programme to collect information of the current e.g. geological setting in this region prior to a potential shale gas exploitation. The aim was to investigate whether a three-dimensional (3D) inversion of the newly measured data fosters a more realistic mapping of physical properties of the target horizon. For this purpose, a comprehensive 3D model was derived by using all available data. In a second step, I analysed parameters of the target horizon, e.g. its conductivity, that are proxies for physical properties such as thermal maturity and porosity. N2 - Magnetotellurik (MT) kann die elektrische Leitfähigkeit des Untergrundes abbilden indem Zeitreihen von natürlichen elektromagnetischen (EM) Wechselfeldern gemessen werden. Während der Datenbearbeitung werden die Zeitreihen in Abschnitte unterteilt und für jeden Abschnitt werden Spektren berechnet, welche auf statistische Art gemittelt werden um MT Übertragungsfunktionen zu bestimmen. Unglücklicherweise beeinflusst die Anwesenheit von künstlichen EM Rauschquellen oft eine signifikante Menge der aufgezeichneten Zeitreihen. Dies führt zu gestörten bzw. falschen Übertragungsfunktionen. Mehrere Methoden wurden entwickelt um dieses Problem zu beheben, z.B. robuste Statistik, pre-stack Datenselektion oder das "remote reference" Verfahren. Die ersten beiden Techniken reduzieren den Anteil von Ausreißern und Rauschen in den Daten während das letzte Verfahren Rauschen mit Hilfe von Daten einer zusätzlichen MT Station entfernt. Trotzdem bleibt die Datenbearbeitung vor allem in besiedelten Gebieten selbst mit diesen Methoden schwierig. In dieser Arbeit präsentiere ich zwei neue pre-stack Datenselektionskriterien zur Bestimmung von Ausreißern und verrauschten Datenpunkten basierend auf (i) einem Distanzmaß unter Berücksichtigung der gesamten Datenverteilung und (ii) der Auswertung der magnetischen Polarisierungsrichtung für jeden Abschnitt. Mit Hilfe des ersten Kriteriums können Datenpunkte entfernt werden, die um die eigentliche MT Verteilung streuen. Außerdem kann es unter bestimmten Umständen sogar ganze Datencluster beseitigen, welche von Rauschquellen hervorgerufen werden. Das zweite Kriterium eliminiert Datenpunkte, welche durch ein stark polarisiertes magnetisches Signal verursacht werden. Beide Kriterien wurden erfolgreich auf viele Stationen mit unterschiedlichen Rauschverhalten angewandt. Weiterhin wurden sie genutzt um MT Daten aus dem östlichen Karoo-Becken in Südafrika auszuwerten. Das dazugehörige Feldexperiment ist Teil eines umfangreichen Forschungsprojektes, welches Informationen über die aktuelle geologische Situation in dem Gebiet sammelt, bevor eine mögliche Schiefergasförderung stattfindet. Der Fokus lag darauf zu untersuchen, ob eine 3D Inversion der neu gemessenen Daten eine realistischere Abbildung der physikalischen Eigenschaften des Zielhorizonts fördert. Zu diesem Zweck wurde ein 3D Modell mit Hilfe aller verfügbaren Daten entwickelt. Anschließend habe ich verschiedene Parameter des Zielhorizonts analysiert, welche Rückschlüsse auf die physikalischen Eigenschaften wie thermische Reife und Porosität erlauben. KW - magnetotellurics KW - Eastern Karoo Basin KW - data processing KW - Mahalanobis distance KW - magnetic polarisation direction KW - Magnetotellurik KW - Östliches Karoo-Becken KW - Datenbearbeitung KW - Mahalanobis-Distanz KW - magnetische Polarisationsrichtung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-415087 ER - TY - THES A1 - Münch, Thomas T1 - Interpretation of temperature signals from ice cores T1 - Interpretation von Temperatursignalen aus Eisbohrkernen BT - insights into the spatial and temporal variability of water isotopes in Antarctica BT - Einblicke in die räumliche und zeitliche Variabilität antarktischer Isotopendaten N2 - Earth's climate varies continuously across space and time, but humankind has witnessed only a small snapshot of its entire history, and instrumentally documented it for a mere 200 years. Our knowledge of past climate changes is therefore almost exclusively based on indirect proxy data, i.e. on indicators which are sensitive to changes in climatic variables and stored in environmental archives. Extracting the data from these archives allows retrieval of the information from earlier times. Obtaining accurate proxy information is a key means to test model predictions of the past climate, and only after such validation can the models be used to reliably forecast future changes in our warming world. The polar ice sheets of Greenland and Antarctica are one major climate archive, which record information about local air temperatures by means of the isotopic composition of the water molecules embedded in the ice. However, this temperature proxy is, as any indirect climate data, not a perfect recorder of past climatic variations. Apart from local air temperatures, a multitude of other processes affect the mean and variability of the isotopic data, which hinders their direct interpretation in terms of climate variations. This applies especially to regions with little annual accumulation of snow, such as the Antarctic Plateau. While these areas in principle allow for the extraction of isotope records reaching far back in time, a strong corruption of the temperature signal originally encoded in the isotopic data of the snow is expected. This dissertation uses observational isotope data from Antarctica, focussing especially on the East Antarctic low-accumulation area around the Kohnen Station ice-core drilling site, together with statistical and physical methods, to improve our understanding of the spatial and temporal isotope variability across different scales, and thus to enhance the applicability of the proxy for estimating past temperature variability. The presented results lead to a quantitative explanation of the local-scale (1–500 m) spatial variability in the form of a statistical noise model, and reveal the main source of the temporal variability to be the mixture of a climatic seasonal cycle in temperature and the effect of diffusional smoothing acting on temporally uncorrelated noise. These findings put significant limits on the representativity of single isotope records in terms of local air temperature, and impact the interpretation of apparent cyclicalities in the records. Furthermore, to extend the analyses to larger scales, the timescale-dependency of observed Holocene isotope variability is studied. This offers a deeper understanding of the nature of the variations, and is crucial for unravelling the embedded true temperature variability over a wide range of timescales. N2 - Das Klima der Erde verändert sich stetig sowohl im Raum als auch in der Zeit, jedoch hat die Menschheit nur einen Bruchteil dieser Entwicklung direkt verfolgen können und erst seit 200 Jahren mit instrumentellen Beobachtungen aufgezeichnet. Unser Wissen bezüglich früherer Klimaveränderungen beruht daher fast ausschließlich auf indirekten Proxydaten, also Stellvertreterdaten, welche sensitiv auf Veränderungen in bestimmten Klimavariablen reagieren und in Klimaarchiven abgespeichert werden. Essentiell ist eine hohe Genauigkeit der erhaltenen Proxydaten. Sie erlaubt, Modellvorhersagen früherer Klimazustände quantitativ zu überprüfen und damit die Modelle zu validieren. Erst dann können mit Hilfe der Modelle verlässliche Aussagen über die anthropogen bedingten zukünftigen Klimaveränderungen getroffen werden. Die polaren Eisschilde von Grönland und Antarktika sind eines der wichtigsten Klimaarchive. Über die isotopische Zusammensetzung der im Eis eingelagerten Wassermoleküle zeichnen sie Veränderungen der lokalen Lufttemperatur auf. Jedoch stellen die Daten dieses Temperaturproxys keine perfekte Aufzeichnung früherer Klimaschwankungen dar – was im Übrigen für alle Proxydaten gilt –, da neben der Temperatur eine Fülle anderer Effekte Mittelwert und Varianz der Proxyschwankungen beeinflussen und damit die direkte Interpretation der Daten in Bezug auf klimatische Veränderungen beeinträchtigen. Insbesondere trifft dies auf Gebiete mit geringen jährlichen Schneefallmengen zu, wie z.B. das Polarplateau des antarktischen Kontinents. Diese Gebiete erlauben zwar prinzipiell die Gewinnung von Proxydatensätzen, die weit in die Vergangenheit zurückreichen, allerdings erwartet man im Allgemeinen auch eine starke Beeinträchtigung des ursprünglichen, in der isotopischen Zusammensetzung des Schnees eingeprägten Temperatursignals. Unter Verwendung von Beobachtungsdaten aus der Antarktis – hauptsächlich aus dem Niedrigakkumulationsgebiet von Dronning Maud Land in Ostantarktika, in dem auch die Kohnen-Station liegt –, sowie durch Anwendung statistischer und physikalischer Methoden, trägt diese Dissertation zu einem besseren Verständnis der räumlichen und zeitlichen Variabilität der Isotopendaten über einen weiten Skalenbereich bei. Damit verbessert die vorliegende Arbeit die Anwendbarkeit dieses Temperaturproxys in Bezug auf die Rekonstruktion natürlicher Klimavariabilität. Im Speziellen wird aus den Beobachtungsdaten ein statistisches Modell abgeleitet, welches quantitativ die lokale räumliche (1–500 m-Skala) Variabilität erklärt; des Weiteren wird gezeigt, dass die zeitliche Variabilität hauptsächlich bedingt wird durch die Kombination zweier Effekte: einen klimatischen Jahreszyklus angetrieben durch den Jahresgang der Temperatur, und die Wirkung des Diffusionsprozesses auf einen zeitlich unkorrelierten Rauschterm. Diese Resultate führen zum einen zu einer wesentlich eingegrenzten Abschätzung der Repräsentativität einzelner, isotopenbasierter Proxyzeitreihen in Bezug auf lokale Temperaturveränderungen. Zum anderen beeinflussen sie erheblich die Interpretation scheinbarer Periodizitäten im Isotopensignal. Es wird darüber hinaus vermutet, dass die Gesamtstärke des Rauschens im Isotopensignal nicht nur durch die örtliche Akkumulationsrate bestimmt wird, sondern auch durch andere Parameter wie die lokale mittlere Windstärke und die räumliche und zeitliche Kohärenz der Niederschlagswichtung. Schließlich erlaubt die Erweiterung der Analyse auf größere räumliche und zeitliche Skalen die Untersuchung, inwieweit die Variabilität isotopenbasierter Proxyzeitreihen aus dem Holozän von der Zeitskala abhängt. Dadurch wird ein tieferes Verständnis der Proxyvariabilität erzielt, welches grundlegend dafür ist, die tatsächliche, in den Daten einzelner Zeitreihen verdeckt vorhandene Temperaturvariabilität, über einen weiten Zeitskalenbereich zu entschlüsseln. KW - climate physics KW - temperature variability KW - temperature proxy KW - proxy understanding KW - proxy uncertainty KW - stable isotopes KW - isotope variations KW - ice core KW - firn KW - noise KW - post-depositional KW - two-dimensional KW - Antarctica KW - Dronning Maud Land KW - Kohnen KW - Klimaphysik KW - Klimavariabilität KW - Temperaturproxy KW - Proxyverständnis KW - Proxyunsicherheit KW - stabile Isotope KW - Eisbohrkern KW - Antarktis KW - Dronning Maud Land KW - Kohnen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-414963 ER - TY - THES A1 - Lee, Hui-Chun T1 - Toward ultimate control of polymerization and catalytic property T1 - In Richtung ultimative Kontrolle der Polymerisation und der katalytischen Eigenschaft BT - a combination of metal-organic frameworks and ATRP BT - eine Kombination von Metall-organischen Gerüsten und ATRP N2 - Reversible-deactivation radical polymerization (RDRP) is without any doubt one of the most prevalent and powerful strategies for polymer synthesis, by which well-defined living polymers with targeted molecular weight (MW), low molar dispersity (Ɖ) and diverse morphologies can be prepared in a controlled fashion. Atom transfer radical polymerization (ATRP) as one of the most extensive studied types of RDRP has been particularly emphasized due to the high accessibility to hybrid materials, multifunctional copolymers and diverse end group functionalities via commercially available precursors. However, due to catalyst-induced side reactions and chain-chain coupling termination in bulk environment, synthesis of high MW polymers with uniform chain length (low Ɖ) and highly-preserved chain-end fidelity is usually challenging. Besides, owing to the inherited radical nature, the control of microstructure, namely tacticity control, is another laborious task. Considering the applied catalysts, the utilization of large amounts of non-reusable transition metal ions which lead to cumbersome purification process, product contamination and complicated reaction procedures all delimit the scope ATRP techniques. Metal-organic frameworks (MOFs) are an emerging type of porous materials combing the properties of both organic polymers and inorganic crystals, characterized with well-defined crystalline framework, high specific surface area, tunable porous structure and versatile nanochannel functionalities. These promising properties of MOFs have thoroughly revolutionized academic research and applications in tremendous aspects, including gas processing, sensing, photoluminescence, catalysis and compartmentalized polymerization. Through functionalization, the microenvironment of MOF nanochannel can be precisely devised and tailored with specified functional groups for individual host-guest interactions. Furthermore, properties of high transition metal density, accessible catalytic sites and crystalline particles all indicate MOFs as prominent heterogeneous catalysts which open a new avenue towards unprecedented catalytic performance. Although beneficial properties in catalysis, high agglomeration and poor dispersibility restrain the potential catalytic capacity to certain degree. Due to thriving development of MOF sciences, fundamental polymer science is undergoing a significant transformation, and the advanced polymerization strategy can eventually refine the intrinsic drawbacks of MOF solids reversely. Therefore, in the present thesis, a combination of low-dimensional polymers with crystalline MOFs is demonstrated as a robust and comprehensive approach to gain the bilateral advantages from polymers (flexibility, dispersibility) and MOFs (stability, crystallinity). The utilization of MOFs for in-situ polymerizations and catalytic purposes can be realized to synthesize intriguing polymers in a facile and universal process to expand the applicability of conventional ATRP methodology. On the other hand, through the formation of MOF/polymer composites by surface functionalization, the MOF particles with environment-adjustable dispersibility and high catalytic property can be as-prepared. In the present thesis, an approach via combination of confined porous textures from MOFs and controlled radical polymerization is proposed to advance synthetic polymer chemistry. Zn2(bdc)2(dabco) (Znbdc) and the initiator-functionalized Zn MOFs, ZnBrbdc, are utilized as a reaction environment for in-situ polymerization of various size-dependent methacrylate monomers (i.e. methyl, ethyl, benzyl and isobornyl methacrylate) through (surface-initiated) activators regenerated by electron transfer (ARGET/SI-ARGET) ATRP, resulting in polymers with control over dispersity, end functionalities and tacticity with respect to distinct molecular size. While the functionalized MOFs are applied, due to the strengthened compartmentalization effect, the accommodated polymers with molecular weight up to 392,000 can be achieved. Moreover, a significant improvement in end-group fidelity and stereocontrol can be observed. The results highlight a combination of MOFs and ATRP is a promising and universal methodology to synthesize versatile well-defined polymers with high molecular weight, increment in isotactic trial and the preserved chain-end functionality. More than being a host only, MOFs can act as heterogeneous catalysts for metal-catalyzed polymerizations. A Cu(II)-based MOF, Cu2(bdc)2(dabco), is demonstrated as a heterogeneous, universal catalyst for both thermal or visible light-triggered ARGET ATRP with expanded monomer range. The accessible catalytic metal sites enable the Cu(II) MOF to polymerize various monomers, including benzyl methacrylate (BzMA), styrene, methyl methacrylate (MMA), 2-(dimethylamino)ethyl methacrylate (DMAEMA) in the fashion of ARGET ATRP. Furthermore, due to the robust frameworks, surpassing the conventional homogeneous catalyst, the Cu(II) MOF can tolerate strongly coordinating monomers and polymerize challenging monomers (i.e. 4-vinyl pyridine, 2-vinyl pyridine and isoprene), in a well-controlled fashion. Therefore, a synthetic procedure can be significantly simplified, and catalyst-resulted chelation can be avoided as well. Like other heterogeneous catalysts, the Cu(II) MOF catalytic complexes can be easily collected by centrifugation and recycled for an arbitrary amount of times. The Cu(II) MOF, composed of photostimulable metal sites, is further used to catalyze controlled photopolymerization under visible light and requires no external photoinitiator, dye sensitizer or ligand. A simple light trigger allows the photoreduction of Cu(II) to the active Cu(I) state, enabling controlled polymerization in the form of ARGET ATRP. More than polymerization application, the synergic effect between MOF frameworks and incorporated nucleophilic monomers/molecules is also observed, where the formation of associating complexes is able to adjust the photochemical and electrochemical properties of the Cu(II) MOF, altering the band gap and light harvesting behavior. Owing to the tunable photoabsorption property resulting from the coordinating guests, photoinduced Reversible-deactivation radical polymerization (PRDRP) can be achieved to further simplify and fasten the polymerization. More than the adjustable photoabsorption ability, the synergistic strategy via a combination of controlled/living polymerization technique and crystalline MOFs can be again evidenced as demonstrated in the MOF-based heterogeneous catalysts with enhanced dispersibility in solution. Through introducing hollow pollen pivots with surface immobilized environment-responsive polymer, PDMAEMA, highly dispersed MOF nanocrystals can be prepared after associating on polymer brushes via the intrinsic amine functionality in each DMAEMA monomer. Intriguingly, the pollen-PDMAEMA composite can serve as a “smart” anchor to trap nanoMOF particles with improved dispersibility, and thus to significantly enhance liquid-phase photocatalytic performance. Furthermore, the catalytic activity can be switched on and off via stimulable coil-to-globule transition of the PDMAEMA chains exposing or burying MOF catalytic sites, respectively. N2 - Die sogenannte „Reversible-Deactivation Radical Polymerization (RDRP)“ ist eine der am häufigsten genutzten und leistungsstärksten Methoden für die Polymersynthese, mit Hilfe derer genau definierte Polymere mit gezieltem Molekulargewicht (MW), niedriger molarer Dispersität (Ɖ) und verschiedenen Morphologien hergestellt werden können. Die sogenannte „Atom Transfer Radical Polymerization (ATRP) ist eine der am intensivsten untersuchten RDRP Methoden, da sie eine hohe Zugänglichkeit zu Hybridmaterialien, multifunktionellen Copolymeren und diversen Endgruppenfunktionalitäten ermöglicht. Jedoch ist die Synthese von Polymeren mit hohem Molekulargewicht, niedriger Dispersität, exakten Endgruppen und der Steuerung der Taktizität für gewöhnlich schwierig. Außerdem führt die Verwendung von großen Mengen an nichtwiederverwendbaren Übergangsmetallionen zu einem umständlichen Reinigungsprozess, wobei Produktverunreinigungen und komplizierte Reaktionsverfahren die Anwendungsbereiche der ATRP Techniken weiter begrenzen. “Metal-organic frameworks (MOFs)“ sind eine vielversprechende Art von porösen Materialien, die die Eigenschaften von organischen Polymeren und anorganischen Kristallen in sich vereinen und sich durch ein kristallines Gerüst, hohe spezifische Oberflächen, einstellbare poröse Strukturen und vielseitige Nanokanal-Funktionalitäten auszeichnen. Diese vielversprechenden Eigenschaften von MOFs haben die akademische Forschung und ihre Anwendung vielseitig revolutioniert, einschließlich der Photolumineszenz, Katalyse und kompartimentierter Polymerisation. Durch gezielte Funktionalisierung kann die Mikroumgebung von MOF-Nanokanälen mit spezifischen funktionellen Gruppen für individuelle Schlüssel-Schloss-Wechselwirkungen präzise entworfen und maßgeschneidert werden. Darüber hinaus weist die hohe Übergangsmetalldichte, zugängliche katalytische Zentren und die kristallinen Partikel auf MOFs als herausragende heterogene Katalysatoren hin, welche eine vielversprechende Möglichkeit für zukünftige Anwendungen erlauben. Ungeachtet der vorteilhaften Eigenschaften in der Katalyse halten eine hohe Agglomerationstendenz und die schlechte Dispergierbarkeit die potentiellen katalytischen Vorteile bis zu einem gewissen Grad zurück. In der vorliegenden Arbeit wurde eine Kombination von niederdimensionalen Polymeren mit kristallinen MOFs als robuster und umfassender Ansatz zur Erzielung der bilateralen Vorteile von Polymeren (Flexibilität, Dispergierbarkeit) und MOFs (Stabilität, Kristallinität) gezeigt. Die Verwendung von MOFs für in-situ-Polymerisationen und katalytische Zwecke kann realisiert werden, um verblüffende Polymere in einem einfachen und universellen Prozess zu synthetisieren, um die Anwendbarkeit herkömmlicher ATRP Methoden zu erweitern. MOFs können nicht nur als Gerüst dienen, sondern auch selbst als heterogene Katalysatoren für metall-katalysierte Polymerisationen, bedingt durch thermische Behandlung oder sichtbares Licht, fungieren. Auf der anderen Seite können MOF / Polymer-Komposite durch Oberflächenfunktionalisierung hergestellt werden, welche sich schließlich durch einstellbare Dispergierbarkeit und guter katalytischer Eigenschaften auszeichnen. KW - metal organic framework KW - controlled polymerization KW - environmental response KW - liquid-phase catalysis KW - confined polymerization KW - ATRP KW - visible light photocatalysis KW - metallorganischen Gerüstverbindungen KW - kontrollierte Polymerisation KW - Umweltreaktion KW - Flüssigphasenkatalyse KW - begrenzte Polymerisation KW - ATRP KW - sichtbares Licht Photokatalyse Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-414973 ER - TY - THES A1 - Kraft, Frederik T1 - Be Creative, Now! T1 - Sei jetzt kreativ! BT - The Paradox of Freedom in Organizations BT - Das Paradoxon der Freiheit in Organisationen N2 - Purpose – This thesis set out to explore, describe, and evaluate the reality behind the rhetoric of freedom and control in the context of creativity. The overarching subject is concerned with the relationship between creativity, freedom, and control, considering freedom is also seen as an element of control to manage creativity. Design/methodology/approach – In-depth qualitative data gathered from at two innovative start-ups. Two ethnographic studies were conducted. The data are based on participatory observations, interviews, and secondary sources, each of which included a three months field study and a total of 41 interviews from both organizations. Findings – The thesis provides explanations for the practice of freedom and the control of creativity within organizations and expands the existing theory of neo-normative control. The findings indicate that organizations use complex control systems that allow a high degree of freedom that paradoxically leads to more control. Freedom is a cover of control, which in turn leads to creativity. Covert control even results in the responsibility to be creative outside working hours. Practical implications – Organizations, which rely on creativity might use the results of this thesis. Positive workplace control of creativity provides both freedom and structure for creative work. While freedom leads to organizational members being more motivated and committing themselves more strongly to their and the organization’s goals, and a specific structure also helps to provide the requirements for creativity. Originality/value – The thesis provides an insight into an approach to workplace control, which has mostly neglected in creativity research and proposes a modified concept of neo-normative control. It serves to provide a further understanding of freedom for creativity and to challenge the liberal claims of new control forms. N2 - Relevanz – Diese Dissertation hat das Ziel zu erforschen, zu beschreiben und zu bewerten, wie Freiheit als Kontrollform für Kreativität in Organisationen instrumentalisiert werden kann. Die Arbeit untersucht das Verhältnis von Kreativität, Freiheit und Kontrolle. Dabei wird Freiheit auch als eine Form der Kontrolle zur Einflussnahme auf Kreativität gesehen. Methode – Ausführliche qualitative Daten wurden in jeweils dreimonatigen Feldstudien, in zwei innovativen Start-ups erhoben. Für die beiden ethnographischen Studien wurden insgesamt 41 Interviews geführt. Ergänzt wurden die Daten aus den Interviews durch Feldbeobachtungen und Sekundärquellen. Resultate – Die Dissertation liefert Erklärungen für die Instrumentalisierung von Freiheit um Kreativität zu kontrollieren und erweitert die bestehende Theorie der neo-normativen Kontrolle. Die Ergebnisse zeigen, dass Organisationen komplexe Kontrollsysteme einsetzen, die einen hohen Freiheitsgrad erlauben, der paradoxerweise zu mehr Kontrolle führt. Freiheit wird dadurch zu einer verdeckten Kontrolle, die wiederum zu mehr Kreativität führt. Diese verdeckte Kontrolle kann sogar zu der Verantwortung führen, außerhalb der Arbeitszeit kreativ sein zu müssen. Implikationen – Die Ergebnisse sind relevant für Organisationen die Kreativität brauchen. Eine kreativitätsunterstützende Kontrolle bietet sowohl Freiheit, als auch Struktur. Die Freiheit führt dazu, dass die Mitglieder der Organisation motivierter sind und sich stärker für ihre und die Ziele der Organisation engagieren. Eine spezifische Struktur hilft, die Voraussetzungen für Kreativität zu schaffen und die Mitarbeiter zu entlasten, indem ihre Arbeitszeit reguliert wird. Originalität – Die Dissertation gibt einen neuartigen Einblick in die Arbeitsplatzkontrolle, die in der Kreativitätsforschung meist vernachlässigt wurde und ein modifiziertes Konzept der neo-normativen Kontrolle vorschlägt. Die Forschungsarbeit dient dazu, ein breiteres Verständnis für die Wechselbeziehung von Freiheit und Kreativität zu schaffen und stellt gleichzeitig die liberalen Ansprüche neuer Kontrollformen in Frage. KW - Kreativität KW - Freiheit KW - Neo-normative Kontrolle KW - Organisationen KW - creativity KW - freedom KW - neo-normative control KW - organization Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-414009 ER - TY - THES A1 - Stolle, Amelie T1 - Catastrophic Sediment Pulses in the Pokhara Valley, Nepal T1 - Katastrophale Sediment Ablagerungen im Pokhara Tal, Nepal N2 - Fluvial terraces, floodplains, and alluvial fans are the main landforms to store sediments and to decouple hillslopes from eroding mountain rivers. Such low-relief landforms are also preferred locations for humans to settle in otherwise steep and poorly accessible terrain. Abundant water and sediment as essential sources for buildings and infrastructure make these areas amenable places to live at. Yet valley floors are also prone to rare and catastrophic sedimentation that can overload river systems by abruptly increasing the volume of sediment supply, thus causing massive floodplain aggradation, lateral channel instability, and increased flooding. Some valley-fill sediments should thus record these catastrophic sediment pulses, allowing insights into their timing, magnitude, and consequences. This thesis pursues this theme and focuses on a prominent ~150 km2 valley fill in the Pokhara Valley just south of the Annapurna Massif in central Nepal. The Pokhara Valley is conspicuously broad and gentle compared to the surrounding dissected mountain terrain, and is filled with locally more than 70 m of clastic debris. The area’s main river, Seti Khola, descends from the Annapurna Sabche Cirque at 3500-4500 m asl down to 900 m asl where it incises into this valley fill. Humans began to settle on this extensive fan surface in the 1750’s when the Trans-Himalayan trade route connected the Higher Himalayas, passing Pokhara city, with the subtropical lowlands of the Terai. High and unstable river terraces and steep gorges undermined by fast flowing rivers with highly seasonal (monsoon-driven) discharge, a high earthquake risk, and a growing population make the Pokhara Valley an ideal place to study the recent geological and geomorphic history of its sediments and the implication for natural hazard appraisals. The objective of this thesis is to quantify the timing, the sedimentologic and geomorphic processes as well as the fluvial response to a series of strong sediment pulses. I report diagnostic sedimentary archives, lithofacies of the fan terraces, their geochemical provenance, radiocarbon-age dating and the stratigraphic relationship between them. All these various and independent lines of evidence show consistently that multiple sediment pulses filled the Pokhara Valley in medieval times, most likely in connection with, if not triggered by, strong seismic ground shaking. The geomorphic and sedimentary evidence is consistent with catastrophic fluvial aggradation tied to the timing of three medieval Himalayan earthquakes in ~1100, 1255, and 1344 AD. Sediment provenance and calibrated radiocarbon-age data are the key to distinguish three individual sediment pulses, as these are not evident from their sedimentology alone. I explore various measures of adjustment and fluvial response of the river system following these massive aggradation pulses. By using proxies such as net volumetric erosion, incision and erosion rates, clast provenance on active river banks, geomorphic markers such as re-exhumed tree trunks in growth position, and knickpoint locations in tributary valleys, I estimate the response of the river network in the Pokhara Valley to earthquake disturbance over several centuries. Estimates of the removed volumes since catastrophic valley filling began, require average net sediment yields of up to 4200 t km−2 yr−1 since, rates that are consistent with those reported for Himalayan rivers. The lithological composition of active channel-bed load differs from that of local bedrock material, confirming that rivers have adjusted 30-50% depending on data of different tributary catchments, locally incising with rates of 160-220 mm yr−1. In many tributaries to the Seti Khola, most of the contemporary river loads come from a Higher Himalayan source, thus excluding local hillslopes as sources. This imbalance in sediment provenance emphasizes how the medieval sediment pulses must have rapidly traversed up to 70 km downstream to invade the downstream reaches of the tributaries up to 8 km upstream, thereby blocking the local drainage and thus reinforcing, or locally creating new, floodplain lakes still visible in the landscape today. Understanding the formation, origin, mechanism and geomorphic processes of this valley fill is crucial to understand the landscape evolution and response to catastrophic sediment pulses. Several earthquake-triggered long-runout rock-ice avalanches or catastrophic dam burst in the Higher Himalayas are the only plausible mechanisms to explain both the geomorphic and sedimentary legacy that I document here. In any case, the Pokhara Valley was most likely hit by a cascade of extremely rare processes over some two centuries starting in the early 11th century. Nowhere in the Himalayas do we find valley fills of comparable size and equally well documented depositional history, making the Pokhara Valley one of the most extensively dated valley fill in the Himalayas to date. Judging from the growing record of historic Himalayan earthquakes in Nepal that were traced and dated in fault trenches, this thesis shows that sedimentary archives can be used to directly aid reconstructions and predictions of both earthquake triggers and impacts from a sedimentary-response perspective. The knowledge about the timing, evolution, and response of the Pokhara Valley and its river system to earthquake triggered sediment pulses is important to address the seismic and geomorphic risk for the city of Pokhara. This thesis demonstrates how geomorphic evidence on catastrophic valley infill can help to independently verify paleoseismological fault-trench records and may initiate re-thinking on post-seismic hazard assessments in active mountain regions. N2 - Der Transport von Sedimenten in Flüssen ist wichtig, um Landschaftsformen in Gebirgsregionen entstehen zu lassen. Eine erhöhte, plötzliche Sedimentzufuhr, beispielsweise durch Massenbewegungen ausgelöst, kann ein Flusssystem schnell aus dem Gleichgewicht bringen. Innerhalb kurzer Zeit transportiertes Sediment wird häufig an Überschwemmungsflächen abgelagert, was zu instabilen Flussverläufen, erhöhtem Sedimentabtrag und vermehrten Überschwemmungen führen kann. Talverfüllungen, Schwemmmfächer, Flussterrassen und Überschwemmungsebenen sind in diesem Zusammenhang die am häufigsten vorkommenden Landschaftsformen, um große Materialvolumen zu speichern. Weil Wasser und Sediment als Baustoff in ausreichenden Mengen zur Verfügung stehen, sind sie bevorzugte Siedlungsflächen. Diese Dissertation untersucht in drei Studien die Entstehung, geomorphologische und sedimentologische Prozesse, sowie die Anpassung des Flusssystems auf einen erhöhten Sedimenteintrag des heute mit Sedimenten verfüllten Pokhara Tals im zentralen Himalaya. Die Stadt Pokhara liegt am Fuße des bis zu 8000 m hohen Annapurna Massivs auf einem ~150 km2 großen, aus klastischen Sedimentablagerungen bestehender Fächer. Das Tal ist von bis zu 70 m hohen Terrassen gekennzeichnen und auffallend flach im Vergleich zur umliegenden Topographie. Der Seti Khola entwässert das Annapurna Massiv in einer Höhe von 3500-5000 m ü.N.N. und erreicht nach kurzer Distanz den Pokhara Fächer. Erste Bewohner siedelten sich in den 1750er Jahren an als die frühere Handelsroute den Hohen Himalaya mit dem subtropischen Tiefland (Terai) verbunden hat. Seither wächst die Stadt stetig und ist heute, nach Kathmandu, die zweitgrößte Stadt Nepals. Durch die Nähe der geologischen Hauptstörung zwischen dem Hohen Himalaya und dem tiefer liegenden Vorderen Himalaya herrscht ein hohes Erdbebenrisiko im Pokhara Tal. Die Kombination aus hohen Terrassen und tiefen, von schnell fließenden Flüssen ausgespülten Schluchten, machen das Tal zu einem geeigneten Ort, um die kaum untersuchte geologische und geomorphologische Geschichte der in diesem Tal abgelagernten Sedimente zu erforschen. Um Landschaftsveränderungen und -entwicklungen zu verstehen sowie die Reaktion des Flussnetzes auf erhöhte Sedimentzufuhr zu überblicken, ist es unabdingbar, den Ursprung des Materials, die sedimentologischen Prozesse und mögliche Auslöser der Talverfüllung zu analysieren. Daten und Proben aus dem Gelände, die später im Labor datiert, ausgewertet, mit sedimentologischen Aufzeichnungen kombiniert und durch fernerkundliche Methoden ergänzt und analysiert wurden, bilden die Basis der Ergebnisse dieser Dissertation. Da solche massiven, in sehr kurzer Zeit abgelagerten Sedimente auf eine katastrophale Entstehung hindeuten, spielt auch der zeitliche Aspekt eine wichtige Rolle. erschiedene Beweise zeigen, dass mindestens drei Sedimentereignisse das Pokhara Tal verfüllt haben. Ich dokumentiere ein aufschlussreiches Sedimentarchiv, Sedimentabfolgen geochemische Provenienz, Radiokarbonalter und die stratigraphische Beziehung zwischen diesen Ergebnissen. Diese unabhängig voneinander gewonnen Ergebnisse zeigen, dass geomorphologische und sedimentologische Beweise mit den Altersdatierungen konsistent sind und wir mit diesen Untersuchungen die abgelagerten Geröllmassen mit historischen Starkbeben in Verbindung bringen können (~1100, 1255, 1344 AD). Provenienz in Kombination mit den Altersdatierungen lassen uns wiederum die drei Ereignisse in ihren Mächtigkeit unterscheiden und individuel das Volumen bestimmen. Messungen zur Anpassung des Flusssystems ergeben, dass das System noch stark von seinem Gleichgewicht abweicht, da erst 30-70% des über kurze Zeit abgelagerten Materials aus dem Flussbett ausgeräumt wurden. Hierfür benutzte Marker sind unter Anderem volumetrische Berechnungen, Erosionsund Einschneideraten der Flüsse, Bäume in ihrer Wachstumsposition zur Altersdatierung und Stufen im Längsgerinneprofil der Seitenflüsse. Das bis heute abgetragene Volumen ergibt Sedimentaustragsraten von bis zu 4200 t km−2 yr−1 am Fuß des Fächers. Die lithologische Zusammensetzung aktiver Flussbänke in Seitentälern zeigt, dass Material der Formation gegenüber lokalem Grundgestein immer noch dominiert. Dieses lithologische Ungleichgewicht verdeutlicht, wie schnell Sedimentmassen in drei Ereignissen über 70 km talabwärts und bis zu 8 km flussaufwärts (in die Seitentäler) abgelagert wurden. Lokale Einschneideraten in die Pokhara Formation liegen zwischen 0.16-0.22 m yr−1 und weisen auf einen sich schnell verändernden Flussverlauf hin. Um die Landschaftsentwicklung nach solch massiven Sedimentablagerungen analysieren zu können, müssen die Sedimentologie, die geomorphologischen Prozesse, der Ursprung und die Mechanismen der Talverfüllung verstanden und als Basiswissen vorausgesetzt werden. Aus den gewonnen Resultaten schließen wir, dass das Pokhara Tal von mehreren katastrophal aufeinanderfolgenden Naturereignissen in einem Zeitraum von ~200 Jahren seit dem 12. Jahrhundert heimgesucht wurde. Nirgendwo im Himalaya finden wir vergleichbare Talverfüllungen, weder in ihrer Größe, noch in dieser detailliert aufgenommenen geomorphologischen Geschichte und sedimentologischen Aufzeichnungen. Das Pokhara Tals ist damit eine der am besten datierten Talverfüllungen des gesamten Himalaya. Diese Arbeit zeigt, dass in sedimentären Archiven - unabhängig von der Paleoseismologie - historische Starkbeben datiert und erkannt werden können. So hilft das Wissen über den zeitlichen Verlauf der Talverfüllung, die Entwicklung des Fächers und die Anpassung des Flusssystems in Zukunft Entscheidungen zu treffen, die das geomorphologische Risiko für die Stadt Pokhara vermindern und gleichzeitig bauliche Maßnahmen besser an die lokalen Risikofaktoren angepasst werden können. KW - geomorphology KW - geohazards KW - Himalaya KW - radiocarbon age dating KW - Geomorphologie KW - Naturgefahren KW - Himalaya KW - Radiokarbondatierung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413341 ER - TY - THES A1 - Aktan, Oktay T1 - Turkish football clubs in Berlin T1 - Türkische Fußballvereine in Berlin BT - an empirical study on the constitution of social positioning and ethnic belonging BT - eine empirische Studie zur Konstitution von sozialer Positionierung und ethnischer Zugehörigkeit N2 - Es gibt in Berlin eine einzigartige Vereinslandschaft im Amateur – und semiprofessionellen Fußballsport, in der einst von türkischen Migranten gegründete Vereine einen festen Platz einnehmen. Fußballsport bietet einen sozialen Raum für Jugendliche verschiedener kultureller, ethnischer und religiöser Herkunft, in dem Gruppen gebildet werden, um gegen einander zu konkurrieren. Ebenso eröffnet Fußball dem Einzelnen die Möglichkeit, die Gültigkeit und Relevanz von Vorurteilen und von gängigen Stereotypisierungen anderer Gruppen im Spielalltag einer ständigen Prüfung zu unterziehen. Fußballspieler können sich sowohl zwischen multi-kulturellen als auch mono-ethnischen Gruppenkonstellationen, in einigen Fällen auch in transnationalen Konstellationen bewegen, womit sie dabei wesentlich an der Sinngebung ihrer eigenen sozialen Zugehörigkeit mitwirken, die sich aus dem Spannungsfeld von Selbst- und Fremdwahrnehmungsmustern ergibt. In Folge dessen werden in diesem Raum Anerkennungsmechanismen konstituiert. Die vorliegende Dissertation befasst sich mit dem alltäglichen Leben von türkisch-stämmigen, jugendlichen Amateur- und semiprofessionellen Fußballspielern (delikanli), sowie von anderen sozialen Akteuren der türkischen Fußballwelt, wie zum Beispiel „ältere“ Fußballspieler (agbi) und Fußballtrainer (hoca). Hauptanliegen der Arbeit war die Rekonstruktion kollektiver Wahrnehmungs-, Deutungs - und Handlungsmuster von Mitgliedern türkischer Fußballvereine im allgemeinen und ihrer Selbstdarstellung aber auch ihrer Wahrnehmung der „Anderen“ im besonderen. Mittels dieser Studie sollte nachvollzogen werden, ob und inwiefern sich traditionelle soziale Verhaltensmuster der gewählten Gruppe im technisch regulierten und stark Konkurrenz-orientierten Handlungsraum widerspiegeln und die reziproken Beziehungen zwischen dem „Selbst“ und den „Anderen“ regulieren. Dabei wurde die Relevanz von herkunftsbezogenen Stereotypisierungen und Vorurteilen in der kollektiven Konstitution von Selbstwahrnehmungen und Fremdverstehen im partikularen sozialen Feld (Bourdieu, 2001) des Fußballs rekonstruiert. In dieser Arbeit wurde darüber hinaus beleuchtet, welche Rolle türkische Fußballvereine auf der einen Seite bei der Entstehung sozialer Raumzugehörigkeit zu den Stadtquartieren in Berlin einnehmen und welche Art von Mechanismen der sozialen Integration sie in diesen Vereinen herstellen. Auf der anderen Seite wurde hinterfragt, inwiefern sie zur sozialen Kohäsion zwischen diversen Kulturen beitragen. Daher wurde geprüft, ob und inwiefern die negativ konnotierte ethnozentrische Wahrnehmung von „Differenz“ (Bielefeld, 1998), die als soziales Konstrukt zwischen autochthonen und allochthonen Gruppen hergestellt wird, durch das Engagement der Vereinsakteure einen konstruktiven Wandel erfährt. Übergeordnetes Ziel all dieser Forschungsfragen war es, ein fundiertes Verständnis über die Rolle von türkischen Fußballvereinen als soziale Mechanismen zu erlangen und deren Funktionsweise bei der Konstitution von Anpassungsstrategien in diesem sozialen Feld untersuchen. Detailliert wurde diese Rolle unter der Konzeptualisierung von sozialen Positionierungsmuster betrachtet, die als Gefüge von Deutungen des Alltäglichen verstanden werden, das individuelle und kollektive Handlungsmuster und implizit Muster des Fremdverstehens sowie des othering im Migrationskontext reguliert. Eine Rekonstruktion der sozialen Positionierungsmuster bietet eine eingehende soziologische Untersuchung dieser Teilnehmergruppe, die zudem Aufschluss über die Bedeutung und das Verständnis von ethnischer Zugehörigkeit für letztere gibt. Neben umfangreicher Feldbeobachtung wurden in dieser qualitativen Studie mit Spielern verschiedener Vereine insgesamt zehn Gruppendiskussionen (Bohnsack, 2004) innerhalb ihrer Mannschaften zu gemeinsamen alltäglichen Erlebnissen und Erfahrungen durchgeführt, aufgezeichnet und mittels sozialwissenschaftlichem hermeneutischem Verfahren (Soeffner, 2004) interpretiert. Auch mit anderen Vereinsmitgliedern, d. h. mit Trainern bzw. hoca, Vorsitzenden, Managern und Sponsoren wurden jeweils zehn narrative und sieben biographische Einzelinterviews sowie sieben Experteninterviews durchgeführt. Deren Analyse erlaubt es, die Rolle dieser Mitglieder sowie wirkende Autoritätsmechanismen und kollektiv konstituierte Verhaltensmuster innerhalb der gesamten Vereinsgruppe zu rekonstruieren. Dabei wurde bezweckt, die Gesamtheit des sozialen Netzwerkes bzw. die Beziehungsschemata innerhalb der türkischen Fußballvereine Berlins zu verdeutlichen. In der Arbeit werden zwei Standpunkte der theoretischen Auseinandersetzung verwendet. Auf der einen Seite wird die Lebensweltanalyse (Schütz und Luckmann, 1979, 1990) angewendet, um das soziale Erbe der in der Vergangenheit gesellschaftlich konstituierten Titulierung „Menschen mit Migrationshintergrund“ zu rekonstruieren, bzw. den Einfluss dieser sozialen Reproduktion auf die Wahrnehmungs-, Deutungs- und Handlungsmuster der Akteure zu untersuchen. Auf der anderen Seite wird die soziale Wirkung der tatsächlichen, alltäglichen Erfahrungsschemata im sozialen Feld des Fußballs auf die Selbstpositionierungen der Akteure mittels Goffmanscher Rahmenanalyse (Goffman, 1980) herausgearbeitet. KW - Migration KW - Türkische Vereine KW - Migrantensport KW - migration KW - Turkish migrant organisations KW - migrant sport clubs Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413616 ER - TY - THES A1 - Valliappan, Senthamizh Pavai T1 - Solar Activity Reconstruction from Historical Observations of Sunspots T1 - Rekonstruktion der Sonnenaktivität aus historischen Beobachtungen von Sonnenflecken N2 - The solar activity and its consequences affect space weather and Earth’s climate. The solar activity exhibits a cyclic behaviour with a period of about 11 years. The solar cycle properties are governed by the dynamo taking place in the interior of the Sun, and they are distinctive. Extending the knowledge about solar cycle properties into the past is essential for understanding the solar dynamo and forecasting space weather. It can be acquired through the analysis of historical sunspot drawings. Sunspots are the dark areas, which are associated with strong magnetic fields, on the solar surface. Sunspots are the oldest and longest available observed features of solar activity. One of the longest available records of sunspot drawings is the collection by Samuel Heinrich Schwabe during 1825–1867. The sunspot sizes measured from digitized Schwabe drawings are not to scale and need to be converted into physical sunspot areas. We employed a statistical approach assuming that the area distribution of sunspots was the same in the 19th century as it was in the 20th century. Umbral areas for about 130 000 sunspots observed by Schwabe were obtained. The annually averaged sunspot areas correlate reasonably well with the sunspot number. Tilt angles and polarity separations of sunspot groups were calculated assuming them to be bipolar. There is, of course, no polarity information in the observations. We derived an average tilt angle by attempting to exclude unipolar groups with a minimum separation of the two surmised polarities and an outlier rejection method, which follows the evolution of each group and detects the moment, when it turns unipolar as it decays. As a result, the tilt angles, although displaying considerable natural scatter, are on average 5.85° ± 0.25°, with the leading polarity located closer to the equator, in good agreement with tilt angles obtained from 20th century data sets. Sources of uncertainties in the tilt angle determination are discussed and need to be addressed whenever different data sets are combined. Digital images of observations printed in the books Rosa Ursina and Prodromus pro sole mobili by Christoph Scheiner, as well as the drawings from Scheiner’s letters to Marcus Welser, are analyzed to obtain information on the positions and sizes of sunspots that appeared before the Maunder minimum. In most cases, the given orientation of the ecliptic is used to set up the heliographic coordinate system for the drawings. Positions and sizes are measured manually displaying the drawings on a computer screen. Very early drawings have no indication of the solar orientation. A rotational matching using common spots of adjacent days is used in some cases, while in other cases, the assumption that images were aligned with a zenith–horizon coordinate system appeared to be the most likely. In total, 8167 sunspots were measured. A distribution of sunspot latitudes versus time (butterfly diagram) is obtained for Scheiner’s observations. The observations of 1611 are very inaccurate, but the drawings of 1612 have at least an indication of the solar orientation, while the remaining part of the spot positions from 1618–1631 have good to very good accuracy. We also computed 697 tilt angles of apparent bipolar sunspot groups, which were observed in the period 1618–1631. We find that the average tilt angle of nearly 4° does not significantly differ from the 20th century values. The solar cycle properties seem to be related to the tilt angles of sunspot groups, and it is an important parameter in the surface flux transport models. The tilt angles of bipolar sunspot groups from various historical sets of solar drawings including from Schwabe and Scheiner are analyzed. Data by Scheiner, Hevelius, Staudacher, Zucconi, Schwabe, and Spörer deliver a series of average tilt angles spanning a period of 270 years, in addition to previously found values for 20th-century data obtained by other authors. We find that the average tilt angles before the Maunder minimum were not significantly different from modern values. However, the average tilt angles of a period 50 years after the Maunder minimum, namely for cycles 0 and 1, were much lower and near zero. The typical tilt angles before the Maunder minimum suggest that abnormally low tilt angles were not responsible for driving the solar cycle into a grand minimum. With the Schwabe (1826–1867) and Spörer (1866–1880) sunspot data, the butterfly diagram of sunspot groups extends back till 1826. A recently developed method, which separates the wings of the butterfly diagram based on the long gaps present in sunspot group occurrences at different latitudinal bands, is used to separate the wings of the butterfly diagram. The cycle-to-cycle variation in the start (F), end (L), and highest (H) latitudes of the wings with respect to the strength of the wings are analyzed. On the whole, the wings of the stronger cycles tend to start at higher latitudes and have a greater extent. The time spans of the wings and the time difference between the wings in the northern hemisphere display a quasi-periodicity of 5–6 cycles. The average wing overlap is zero in the southern hemisphere, whereas it is 2–3 months in the north. A marginally significant oscillation of about 10 solar cycles is found in the asymmetry of the L latitudes. This latest, extended database of butterfly wings provides new observational constraints, regarding the spatio-temporal distribution of sunspot occurrences over the solar cycle, to solar dynamo models. N2 - Die Sonnenaktivität und ihre Folgen beeinflussen das Weltraumwetter und das Klima. Sie zeigt ein zyklisches Verhalten mit einer Periode von etwa 11 Jahren. Die Eigenschaften des Sonnenzyklus werden durch den magnetischen Dynamo bestimmt, der im Innern der Sonne Wärmeenergie über Bewegungsenergie in magnetische Energie umwandelt. Unser Wissen über den Sonnenzyklus in der Vergangenheit zu verbessern ist wichtig für das Verständnis des Sonnendynamos und die Vorhersage des Weltraumwetters. Durch die Auswertung historischer Sonnenfleckenzeichnungen können wir diese Kenntnisse erweitern. Sonnenflecken sind die dunklen Bereiche auf der Sonnenoberfläche, die mit starken Magnetfeldern verbunden sind. Sonnenflecken sind das am längsten beobachtete Phänomen der Sonnenaktivität. Eine der umfangreichsten Beobachtungsreihen von Sonnenflecken ist die Sammlung von Samuel Heinrich Schwabe aus den Jahren 1825–1867. Die in den Zeichnungen eingetragenen Sonnenflecken sind jedoch nicht maßstäblich. In der vorliegenden Arbeit wurde ein Verfahren entwickelt, mit dem die Fleckendaten des 19. Jahrhunderts unter der Annahme rekonstruiert werden können, dass deren Größnverteilung identisch zu der heutigen ist. Insgesamt konnten wir Positionen und Flächen von etwa 130 000 Sonnenflecken aus Schwabes Archiv bestimmen. Die Jahresmittel der Flächen korrelieren gut mit der so genannten Sonnenfleckenrelativzahl, einer Größe, die aus der Anzahl der Fleckengruppen und der Gesamtzahl der Flecken konstruiert wird und üblicherweise als Standardmaß für die Sonnenaktivität verwendet wird. Fleckengruppen sind zumeist bipolar mit einer magnetisch positiven und einer magnetisch negativen Teilgruppe. Der Neigungswinkel dieser Gruppen gegen den Sonnenäquator wurde ebenfalls bestimmt. Ihr Mittelwert von 5.85° ± 0.25° stimmt gut mit Werten aus dem 20. Jahrhundert überein. Zusätzlich wurden Digitalsierte Beobachtungen von Christoph Scheiner aus dem 17. Jahrhundert analysiert, um Informationen über die Zeit vor dem Maunder-Minimum, einer Periode äußerst geringer Sonnenaktivität, zu erlangen. Bei den frühesten Beobachtungen gibt es keinen Hinweis auf die Ausrichtung des Sonnenbildes. Durch die Nutzung der Sonnenrotation über zwei oder mehr Tage können wir jedoch die Ausrichtungen fixieren. Insgesamt wurden 8167 Sonnenflecken vermessen. Darüberhinaus wurden auch 697 Neigungswinkel von bipolaren Gruppen aus den Jahren 1618–1631 berechnet. Der durchschnittliche Neigungswinkel von fast 4° unterscheidet sich nicht signifikant von den Werten im 20. Jahrhundert. Die Neigungswinkel der Sonnenfleckengruppen scheinen Einfluss auf den Dynamo zu haben. Es wurden in der vorliegenden Arbeit noch weitere Neigungen bipolarer Sonnenfleckengruppen aus verschiedenen historischen Beobachtungsreihen aus 270 Jahren bestimmt, insgesamt von den Beobachtern Scheiner, Hevelius, Staudacher, Zucconi, Schwabe und Spörer. Die durchschnittlichen Neigungswinkel vor dem Maunder-Minimum unterschieden sich nicht wesentlich von modernen Werten, außer etwa 50 Jahren nach dem Maunder-Minimum, als die mittlere Neigung nahe Null war. Da die typischen Neigungswinkel vor dem Maunder-Minimum sich jedoch nicht wesentlich von modernen Werten unterscheiden, legt dies nahe, dass die ungewöhnlich niedrige Werte nicht für das Eintreten der Sonne in eine solche Minimums-Periode verantwortlich waren. Mit den Sonnenfleckendaten von Schwabe (1826–1867) und Spörer (1866–1880) reicht das so genannte Schmetterlingsdiagramm von Sonnenfleckengruppen bis 1826 zurück. Eine kürzlich entwickelte Methode, die Nord- und Südhälften des Schmetterlingsdiagramms zu trennen, zeigte Zyklus-zu-Zyklus-Variationen in der Start-, End-, und höchsten Breite der Teilflächen. Die “Schmetterlingsflächen” der stärkeren Zyklen tendieren dazu, in höheren Breiten zu starten und eine größere Ausdehnung zu haben. Nord- und Südhemisphäre der Sonne zeigen einen neu beginnenden Zyklus zu leicht unterschiedlichen Zeiten. Der Phasenunterschied schwankt langsam mit einer Quasiperiode von 5–6 Zyklen. Die oben erwähnten Resultate zeigen, wie hilfreich historische langzeit Analysen sind, um die Parameter des Sonnendynamos zu bestimmen und so Rückschlüsse auf die ihm zugrunde liegenden Prozesse ziehen zu können. KW - solar activity KW - sunspot group tilt angle KW - cycle-averaged tilt angle KW - history and philosophy of astronomy KW - Sonnenaktivität KW - Neigungswinkel Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413600 ER - TY - THES A1 - Kruse, Sebastian T1 - Scalable data profiling T1 - Skalierbares Data Profiling BT - distributed discovery and analysis of structural metadata BT - Entdecken und Analysieren struktureller Metadaten N2 - Data profiling is the act of extracting structural metadata from datasets. Structural metadata, such as data dependencies and statistics, can support data management operations, such as data integration and data cleaning. Data management often is the most time-consuming activity in any data-related project. Its support is extremely valuable in our data-driven world, so that more time can be spent on the actual utilization of the data, e. g., building analytical models. In most scenarios, however, structural metadata is not given and must be extracted first. Therefore, efficient data profiling methods are highly desirable. Data profiling is a computationally expensive problem; in fact, most dependency discovery problems entail search spaces that grow exponentially in the number of attributes. To this end, this thesis introduces novel discovery algorithms for various types of data dependencies – namely inclusion dependencies, conditional inclusion dependencies, partial functional dependencies, and partial unique column combinations – that considerably improve over state-of-the-art algorithms in terms of efficiency and that scale to datasets that cannot be processed by existing algorithms. The key to those improvements are not only algorithmic innovations, such as novel pruning rules or traversal strategies, but also algorithm designs tailored for distributed execution. While distributed data profiling has been mostly neglected by previous works, it is a logical consequence on the face of recent hardware trends and the computational hardness of dependency discovery. To demonstrate the utility of data profiling for data management, this thesis furthermore presents Metacrate, a database for structural metadata. Its salient features are its flexible data model, the capability to integrate various kinds of structural metadata, and its rich metadata analytics library. We show how to perform a data anamnesis of unknown, complex datasets based on this technology. In particular, we describe in detail how to reconstruct the schemata and assess their quality as part of the data anamnesis. The data profiling algorithms and Metacrate have been carefully implemented, integrated with the Metanome data profiling tool, and are available as free software. In that way, we intend to allow for easy repeatability of our research results and also provide them for actual usage in real-world data-related projects. N2 - Data Profiling bezeichnet das Extrahieren struktureller Metadaten aus Datensätzen. Stukturelle Metadaten, z.B. Datenabhängigkeiten und Statistiken, können bei der Datenverwaltung unterstützen. Tatsächlich beansprucht das Verwalten von Daten, z.B. Datenreinigung und -integration, in vielen datenbezogenen Projekten einen Großteil der Zeit. Die Unterstützung solcher verwaltenden Aktivitäten ist in unserer datengetriebenen Welt insbesondere deswegen sehr wertvoll, weil so mehr Zeit auf die eigentlich wertschöpfende Arbeit mit den Daten verwendet werden kann, z.B. auf das Erstellen analytischer Modelle. Allerdings sind strukturelle Metadaten in den meisten Fällen nicht oder nur unvollständig vorhanden und müssen zunächst extahiert werden. Somit sind effiziente Data-Profiling-Methoden erstrebenswert. Probleme des Data Profiling sind in der Regel sehr berechnungsintensiv: Viele Datenabhängigkeitstypen spannen einen exponentiell in der Anzahl der Attribute wachsenden Suchraum auf. Aus diesem Grund beschreibt die vorliegende Arbeit neue Algorithmen zum Auffinden verschiedener Arten von Datenabhängigkeiten – nämlich Inklusionsabhängigkeiten, bedingter Inklusionsabhängigkeiten, partieller funktionaler Abhängigkeiten sowie partieller eindeutiger Spaltenkombinationen – die bekannte Algorithmen in Effizienz und Skalierbarkeit deutlich übertreffen und somit Datensätze verarbeiten können, an denen bisherige Algorithmen gescheitert sind. Um die Nützlichkeit struktureller Metadaten für die Datenverwaltung zu demonstrieren, stellt diese Arbeit des Weiteren das System Metacrate vor, eine Datenbank für strukturelle Metadaten. Deren besondere Merkmale sind ein flexibles Datenmodell; die Fähigkeit, verschiedene Arten struktureller Metadaten zu integrieren; und eine umfangreiche Bibliothek an Metadatenanalysen. Mithilfe dieser Technologien führen wir eine Datenanamnese unbekannter, komplexer Datensätze durch. Insbesondere beschreiben wir dabei ausführlicher, wie Schemata rekonstruiert und deren Qualität abgeschätzt werden können. Wir haben oben erwähnte Data-Profiling-Algorithmen sowie Metacrate sorgfältig implementiert, mit dem Data-Profiling-Programm Metanome integriert und stellen beide als freie Software zur Verfügung. Dadurch wollen wir nicht nur die Nachvollziehbarkeit unserer Forschungsergebnisse möglichst einfach gestalten, sondern auch deren Einsatz in der Praxis ermöglichen. KW - data profiling KW - metadata KW - inclusion dependencies KW - functional dependencies KW - distributed computation KW - metacrate KW - Data Profiling KW - Metadaten KW - Inklusionsabhängigkeiten KW - funktionale Abhängigkeiten KW - verteilte Berechnung KW - Metacrate Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412521 ER - TY - THES A1 - Nizardo, Noverra Mardhatillah T1 - Thermoresponsive block copolymers with UCST-behavior aimed at biomedical environments T1 - Thermoresponsive Blockcopolymere mit UCST-Verhalten unter biomedizinisch relevanten Bedingungen N2 - Thermoresponsive block copolymers of presumably highly biocompatible character exhibiting upper critical solution temperature (UCST) type phase behavior were developed. In particular, these polymers were designed to exhibit UCST-type cloud points (Tcp) in physiological saline solution (9 g/L) within the physiologically interesting window of 30-50°C. Further, their use as carrier for controlled release purposes was explored. Polyzwitterion-based block copolymers were synthesized by atom transfer radical polymerization (ATRP) via a macroinitiator approach with varied molar masses and co-monomer contents. These block copolymers can self-assemble in the amphiphilic state to form micelles, when the thermoresponsive block experiences a coil-to-globule transition upon cooling. Poly(ethylene glycol) methyl ether (mPEG) was used as the permanently hydrophilic block to stabilize the colloids formed, and polyzwitterions as the thermoresponsive block to promote the temperature-triggered assembly-disassembly of the micellear aggregates at low temperature. Three zwitterionic monomers were used for this studies, namely 3-((2-(methacryloyloxy)ethyl)dimethylammonio)propane-1-sulfonate (SPE), 4-((2-(methacryloyl- oxy)ethyl)dimethylammonio)butane-1-sulfonate (SBE), and 3-((2-(methacryloyloxy)ethyl)- dimethylammonio)propane-1-sulfate) (ZPE). Their (co)polymers were characterized with respect to their molecular structure by proton nuclear magnetic resonance (1H-NMR) and gel permeation chromatography (GPC). Their phase behaviors in pure water as well as in physiological saline were studied by turbidimetry and dynamic light scattering (DLS). These (co)polymers are thermoresponsive with UCST-type phase behavior in aqueous solution. Their phase transition temperatures depend strongly on the molar masses and the incorporation of co-monomers: phase transition temperatures increased with increasing molar masses and content of poorly water-soluble co-monomer. In addition, the presence of salt influenced the phase transition dramatically. The phase transition temperature decreased with increasing salt content in the solution. While the PSPE homopolymers show a phase transition only in pure water, the PZPE homopolymers are able to exhibit a phase transition only in high salinity, as in physiological saline. Although both polyzwitterions have similar chemical structures that differ only in the anionic group (sulfonate group in SPE and sulfate group in ZPE), the water solubility is very different. Therefore, the phase transition temperatures of targeted block copolymers were modulated by using statistical copolymer of SPE and ZPE as thermoresponsive block, and varying the ratio of SPE to ZPE. Indeed, the statistical copolymers of P(SPE-co-ZPE) show phase transitions both in pure water as well as in physiological saline. Surprisingly, it was found that mPEG-b-PSBE block copolymer can display “schizophrenic” behavior in pure water, with the UCST-type cloud point occurring at lower temperature than the LCST-type one. The block copolymer, which satisfied best the boundary conditions, is block copolymer mPEG114-b-P(SPE43-co-ZPE39) with a cloud point of 45°C in physiological saline. Therefore, it was chosen for solubilization studies of several solvatochromic dyes as models of active agents, using the thermoresponsive block copolymer as “smart” carrier. The uptake and release of the dyes were explored by UV-Vis and fluorescence spectroscopy, following the shift of the wavelength of the absorbance or emission maxima at low and high temperature. These are representative for the loaded and released state, respectively. However, no UCST-transition triggered uptake and release of these dyes could be observed. Possibly, the poor affinity of the polybetaines to the dyes in aqueous environtments may be related to the widely reported antifouling properties of zwitterionic polymers. N2 - Neue thermisch-responsive Blockcopolymere mit vermutlich hoher biokompatibilität wurden entwickelt, die ein Phasenverhalten mit oberer kritischer Lösungstemperatur (UCST) in wässriger zeigen. Insbesondere wurden diese Polymere so gestaltet, dass sie Trübungspunkte des UCST-Übergangs (Tcp) in physiologischer Kochsalzlösung (9 g/l) innerhalb des physiologischen interessanten Temperaturfensters von 30-50°C zeigen. Außerdem wurde ihre Eignung als Träger für kontrollierte Freisetzungszwecke untersucht. Diese Polyzwitterionen-basierte Blockcopolymere wurden durch „Atom transfer radikal polymerisation“ (ATRP) unter Verwendung eines Makroinitiators mit verschiedenen Molmassen und Anteilen von Comonomeren dargestellt. Diese Blockcopolymere können sich im amphiphilen Zustand zu Mizellen selbstorganisieren, wenn der thermisch-responsive Block beim Abkühlen einen Übergang vom Knäulen zur Kügel erfährt. Poly (ethylenglycol) methylether (mPEG) wurde als permanent hydrophiler Blockverwendet, der die gebildeten Kolloide stabilisiert, und Polyzwitterionen als thermisch-responsiver Block, der bei niedriger Temperatur die temperaturinduzierte Bildung von Mizellen bewirkt. Drei zwitterionische Monomere wurden für diese Untersuchungen verwendet, 3-((2-(meth- acryloyloxy)ethyl)dimethylammonio)propane-1-sulfonate (SPE), 4-((2-(methacryloyloxy)- ethyl)dimethylammonio)butane-1-sulfonate (SBE), und 3-((2-(methacryloyloxy)ethyl) dimethylammonio)propane-1-sulfate) (ZPE). Die (Co)Polymere wurden durch protonen-kernmagnetische Resonanz (1H-NMR) und Gelpermeationschromatographie (GPC) charakterisiert. Ihr Phasenübergangsverhalten im Wasser sowie in physiologischer Kochsalzlösung wurde durch Trübheitsmessungen und dynamische Lichtstreuung (DLS) untersucht. Diese (Co)Polymere sind thermisch-responsiv mit einem UCST-Übergang als Phasenverhalten in wässriger Lösung. Die Übergangstemperaturen hängen stark von den Molmassen und von dem Anteil der Co-Monomeren ab: Eine Vergrößerung der Molmasse und des Anteils an schwerwasserlöslichem Comonomer führt zu einer Erhöhung der Phasenübergangstemperaturen. Des Weiteren beeinflusst ein Salzzusatz den Phasenübergang sehr stark. Während die PSPE-Homopolymere nur in Wasser einen Phasenübergang aufweisen, zeigen die PZPE-Homopolymere nur bei hohem Salzgehalt, wie in physiologischer Kochsalzlösung, einen Phasenübergang. Obwohl beide Polyzwitterionen ähnliche chemische Strukturen besitzen und sich nur in der anionischen Gruppe (Sulfonatgruppe in SPE und Sulfatgruppe in ZPE) unterscheiden, ist die Wasserlöslichkeit sehr verschieden. Daher wurden die Phasenübergangstemperaturen der Blockcopolymere durch Verwendung von statistischen Copolymeren aus SPE und ZPE als thermisch-responsivem Block mittels des Verhältnisses von SPE zu ZPE moduliert. Solche statistischen Copolymere P(SPE-co-ZPE) zeigen Phasenübergänge sowohl in Wasser als auch in physiologischer Kochsalzlösung. Darüber hinaus wurde überraschenderweise gefunden, dass PSBE-basierte Blockcopolymer z. T. "schizophrenes" Verhalten in Wasser besitzen, wobei der Trübungspunkt des UCST-Übergangs niedriger als der des LCST-Übergangs liegt. Das Blockcopolymer mPEG114-b-P(SPE43-co-ZPE39) erfüllte am besten die Zielsetzung mit einem Trübungspunkt von 45°C in physiologischer Kochsalzlösung. Deswegen wurde es für Solubilisierungsexperimente verschiedener solvatochromer Farbstoffe als Modelle von Wirkstoffen ausgewählt, wobei die Eignung des thermisch-responsiven Blockcopolymers als "intelligenter" Träger untersucht wurde. Die Aufnahme und Freisetzung der Farbstoffe wurden durch UV-Vis- und Fluoreszenzspektroskopie anhand der Verschiebung der Wellenlänge der Extinktions- oder Emissionsmaxima bei niedriger und hoher Temperatur verfolgt. Diese Temperaturen entsprechen dem aggregierten bzw. gelösten Zustand des Polymeren. Jedoch wurde keine Aufnahme und Freisetzung dieser Farbstoffe durch UCST-Übergang beobachtet. Möglicherweise hängt die schwache Affinität der Polybetaine zu den Farbstoffen in wässrigen Systemen mit den bekannten Antifouling-Eigenschaften von zwitterionischen Polymeren zusammen. KW - block copolymer KW - thermoresponsive KW - polyzwitterion KW - upper critical solution temperature KW - self-assembly KW - Blockcopolymer KW - thermoresponsiv KW - Polyzwitterion KW - obere kritische Lösetemperatur KW - Selbstorganisation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412217 ER - TY - THES A1 - Chaleawlert-Umpon, Saowaluk T1 - Sustainable electrode materials based on lignin T1 - Ligninbasierte nachhaltige Elektrodenmaterialien N2 - The utilization of lignin as renewable electrode material for electrochemical energy storage is a sustainable approach for future batteries and supercapacitors. The composite electrode was fabricated from Kraft lignin and conductive carbon and the charge storage contribution was determined in terms of electrical double layer (EDL) and redox reactions. The important factors at play for achieving high faradaic charge storage capacity contribute to high surface area, accessibility of redox sites in lignin and their interaction with conductive additives. A thinner layer of lignin covering the high surface area of carbon facilitates the electron transfer process with a shorter pathway from the active sites of nonconductive lignin to the current collector leading to the improvement of faradaic charge storage capacity. Composite electrodes from lignin and carbon would be even more sustainable if the fluorinated binder can be omitted. A new route to fabricate a binder-free composite electrode from Kraft lignin and high surface area carbon has been proposed by crosslinking lignin with glyoxal. A high molecular weight of lignin is obtained to enhance both electroactivity and binder capability in composite electrodes. The order of the processing step of crosslinking lignin on the composite electrode plays a crucial role in achieving a stable electrode and high charge storage capacity. The crosslinked lignin based electrodes are promising since they allow for more stable, sustainable, halogen-free and environmentally benign devices for energy storage applications. Furthermore, improvement of the amount of redox active groups (quinone groups) in lignin is useful to enhance the capacity in lithium battery applications. Direct oxidative demethylation by cerium ammonium nitrate has been carried out under mild conditions. This proves that an increase of quinone groups is able to enhance the performance of lithium battery. Thus, lignin is a promising material and could be a good candidate for application in sustainable energy storage devices. N2 - Die Verwendung von Lignin als erneuerbares Ausgangsmaterial für Elektroden ist ein nachhaltiger Ansatz für die Herstellung der nächsten Generation von Batterien und Superkondensatoren. In dieser Arbeit werden Verbundelektroden auf der Basis von Kraft-Lignin und leitfähigem Kohlenstoff hergestellt und getestet. Die Beiträge des Aufbaus einer elektrischen Doppelschicht (EDL) und der Redoxreaktionen zur Kapazität der Elektrode werden diskutiert. Die wichtigsten Faktoren um eine hohe faradaysche Kapazität der aktiven Gruppen in Lignin zu erreichen sind eine große Oberfläche, die Zugänglichkeit der redoxaktiven Gruppen, sowie die Wechselwirkung mit leitfähigen Additiven. Dabei verringert eine dünnere Ligninschicht auf der Oberfläche des leitfähigen Kohlenstoffs den Elektronentransportweg zwischen den redoxaktiven Gruppen und dem Stromabnehmer und wirkt sich somit positiv auf die faradaysche Kapazität aus. Traditionelle Verbundelektroden enthalten in der Regel fluorierte Bindemittel, was deren Nachhaltigkeit in Frage stellt. Die Verwendung von Glyoxal als Quervernetzer für Lignin stellt eine Alternative zur Herstellung von bindemittelfreien ligninbasierten Verbundelektroden dar. Durch die Quervernetzung wird Lignin mit hohem Molekulargewicht erhalten, was sich insbesondere vorteilhaft auf die Stabilität der Elektroden auswirkt. Für das Erreichen einer hohen Kapazität spielt allerdings die Reihenfolge der Produktionsschritte eine entscheidende Rolle, was hier auch diskutiert wird. Eine Erhöhung der Anzahl an redoxativen Gruppen, insbesondere Chinon-Funktionalitäten, im Lignin führt darüber hinaus zur Erhöhung der Kapazität in primären Lithiumbatterien. Die direkte oxidative Demethylierung von Phenylethern mit Hilfe von Cerammoniumnitrat wurde in dieser Arbeit unter milden Reaktionsbedingungen durchgeführt und die verbesserte Kapazität in Lithiumbatterien aufgrund der erhöhten Anzahl an redoxaktiven Gruppen aufgezeigt. Abschließend kann Lignin, quervernetzt oder oxidiert, als vielversprechender Wegbereiter für nachhaltige Materialen in der Energiespeicherung angesehen werden. KW - lignin KW - energy storage KW - sustainable energy storage materials KW - Lignin KW - Energiespeicher KW - nachhaltige Energiespeichermaterialien Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411793 ER - TY - THES A1 - Kox, Thomas T1 - Perception and use of uncertainty in severe weather warnings T1 - Wahrnehmung und Verwendung von Unsicherheit in Wetterwarnungen N2 - Uncertainty is an essential part of atmospheric processes and thus inherent to weather forecasts. Nevertheless, weather forecasts and warnings are still predominately issued as deterministic (yes or no) forecasts, although research suggests that providing weather forecast users with additional information about the forecast uncertainty can enhance the preparation of mitigation measures. Communicating forecast uncertainty would allow for a provision of information on possible future events at an earlier time. The desired benefit is to enable the users to start with preparatory protective action at an earlier stage of time based on the their own risk assessment and decision threshold. But not all users have the same threshold for taking action. In the course of the project WEXICOM (‘Wetterwarnungen: Von der Extremereignis-Information zu Kommunikation und Handlung’) funded by the Deutscher Wetterdienst (DWD), three studies were conducted between the years 2012 and 2016 to reveal how weather forecasts and warnings are reflected in weather-related decision-making. The studies asked which factors influence the perception of forecasts and the decision to take protective action and how forecast users make sense of probabilistic information and the additional lead time. In a first exploratory study conducted in 2012, members of emergency services in Germany were asked questions about how weather warnings are communicated to professional endusers in the emergency community and how the warnings are converted into mitigation measures. A large number of open questions were selected to identify new topics of interest. The questions covered topics like users’ confidence in forecasts, their understanding of probabilistic information as well as their lead time and decision thresholds to start with preparatory mitigation measures. Results show that emergency service personnel generally have a good sense of uncertainty inherent in weather forecasts. Although no single probability threshold could be identified for organisations to start with preparatory mitigation measures, it became clear that emergency services tend to avoid forecasts based on low probabilities as a basis for their decisions. Based on this findings, a second study conducted with residents of Berlin in 2014 further investigated the question of decision thresholds. The survey questions related to the topics of the perception of and prior experience with severe weather, trustworthiness of forecasters and confidence in weather forecasts, and socio-demographic and social-economic characteristics. Within the questionnaire a scenario was created to determine individual decision thresholds and see whether subgroups of the sample lead to different thresholds. The results show that people’s willingness to act tends to be higher and decision thresholds tend to be lower if the expected weather event is more severe or the property at risk is of higher value. Several influencing factors of risk perception have significant effects such as education, housing status and ability to act, whereas socio-demographic determinants alone are often not sufficient to fully grasp risk perception and protection behaviour. Parallel to the quantitative studies, an interview study was conducted with 27 members of German civil protection between 2012 and 2016. The results show that the latest developments in (numerical) weather forecasting do not necessarily fit the current practice of German emergency services. These practices are mostly carried out on alarms and ground truth in a reactive manner rather than on anticipation based on prognosis or forecasts. As the potential consequences rather than the event characteristics determine protective action, the findings support the call and need for impact-based warnings. Forecasters will rely on impact data and need to learn the users’ understanding of impact. Therefore, it is recommended to enhance weather communication not only by improving computer models and observation tools, but also by focusing on the aspects of communication and collaboration. Using information about uncertainty demands awareness about and acceptance of the limits of knowledge, hence, the capabilities of the forecaster to anticipate future developments of the atmosphere and the capabilities of the user to make sense of this information. N2 - Obwohl atmosphärische Prozesse wesentlich durch Unsicherheit gekennzeichnet sind, werden Wettervorhersagen und Warnungen in Deutschland überwiegend noch als deterministische (ja oder nein) Vorhersagen herausgegeben. Dagegen legen jüngere Forschungsergebnisse nahe, dass durch die frühzeitige Bereitstellung von Informationen über die Vorhersageunsicherheit, die Vorbereitung von Vorsorgemaßnahmen verbessert werden kann. Der gewünschte Vorteil bestünde darin, es der Empfängerin und dem Empfänger zu ermöglichen auf Grundlage der eigenen Risikobewertung zu einem möglichen früheren Zeitpunkt mit Schutzmaßnahmen zu beginnen. Offen ist dabei, ob diese mit probabilistischen Wettervorhersagen, der Unsicherheit und den Implikationen durch die zusätzliche Vorlaufzeit umgehen können, wie sich Vorhersagen und Warnungen in wetterbezogenen Entscheidungen widerspiegeln und welche Einflussfaktoren auf die Entscheidung wirken. Im Rahmen des vom Deutschen Wetterdienst (DWD) geförderten Projektes WEXICOM (Wetterwarnungen: Von der Extremereignis-Information zu Kommunikation und Handlung) wurden dazu zwischen den Jahren 2012 und 2016 drei Studien durchgeführt. In einer ersten explorativen Studie wurden Vertreterinnen und Vertreter des deutschen Bevölkerungsschutzes gefragt, wieWetterwarnungen an sie kommuniziert werden und wie sie diese Informationen in Maßnahmen umsetzten. Die Studie bestand aus mehreren offenen Fragen, um möglichst viele neue Themen zu identifizieren. Thematische Schwerpunkte waren das Vertrauen in Wettervorhersagen, das Verständnis von Wahrscheinlichkeiten und die benötigte Vorlaufzeit für vorbereitende Maßnahmen. Die Ergebnisse zeigen, dass die Befragten im Allgemeinen die Unsicherheit in Wettervorhersagen gut einschätzen. Obwohl kein eindeutiger Wahrscheinlichkeitswert identifiziert werden konnte, bei dem sie mit vorbereitenden Maßnahmen beginnen würden, wurde deutlich, dass Feuerwehren und Rettungsdienste es vermeiden ihre Entscheidungen auf Grund von Vorhersagen mit niedriger Eintrittswahrscheinlichkeit zu treffen. In einer zweiten Fragebogenstudie wurde das Thema der Schwellenwerte für Entscheidungen mit Bewohnern von Berlin weiter untersucht. Es wurde geprüft, welche mögliche Faktoren die individuellen Wahrscheinlichkeitswerte beeinflussen. Der Fragebogen beinhaltete dafür ein fiktives Entscheidungs-Szenario und weitere Fragen zur Wahrnehmung und vorherigen Erfahrung mit Unwetter, der Einschätzung der Vertrauenswürdigkeit von Forecastern und das Vertrauen inWettervorhersagen sowie soziodemografische und sozioökonomische Merkmale. Die Ergebnisse zeigen, dass die Handlungsbereitschaft tendenziell höher ist und die Schwellenwerte tendenziell niedriger ausfallen, wenn das erwartete Wetterereignis schwerwiegender ist oder das gefährdete Eigentum einen höheren Wert hat. Mehrere Faktoren beeinflussen die Risikowahrnehmung und den Schwellenwert. Darunter Bildung, Wohnstatus und Selbstwirksamkeitserwartung. Wohingegen soziodemografische Merkmale nicht ausreichen, um Risikowahrnehmung und Schutzverhalten vollständig zu erfassen. Parallel zu den quantitativen Studien wurde eine Interviewstudie mit 27 Vertreterinnen und Vertretern des deutschen Bevölkerungsschutzes durchgeführt. Die Ergebnisse zeigen, dass die technologischen Entwicklungen durch die numerische Wettervorhersage nicht zwangsläufig durch die derzeitige Praxis des deutschen Bevölkerungsschutzes aufgegriffen werden können. Dieser reagiert zumeist auf Grundlage von Alarmen und Bestätigungen durch Lagebilder von Ort, anstatt auf der Grundlage von (Wetter-) Vorhersagen zu arbeiten. Die Ergebnisse zeigen insgesamt, dass letztendlich die Konsequenzen von Wetter und nicht das Wetterereignis an sich die Handlungen prägen. Impact-basierende Warnungen können hier aufgrund der Praxisnähe eine hilfreiche Unterstützung für einige Empfängergruppen darstellen. Für diese Form der Warnung benötigen die Wetterdienste Daten zu den Auswirkungen von Wetter. Notwendig dafür ist eine verbesserte Kommunikation und Zusammenarbeit zwischen Wetterdiensten und professionellen Empfängergruppen. So erlernen die Wetterdienste die Bedeutung von Auswirkungen für den einzelnen Empfänger und unterstützen gleichzeitig das Verständnis von numerischen Wettervorhersagen. Die Kommunikation von Vorhersageunsicherheiten erfordert grundlegend ein Bewusstsein und Verständnis über die Grenzen des Wissens und somit über die Fähigkeiten der Forecaster, zukünftige Entwicklungen der Atmosphäre vorherzusagen und über die Fähigkeiten der Empfängerinnen und Empfänger, diese Informationen zu verstehen und umzusetzen. KW - uncertainty KW - risk KW - warning KW - Unsicherheit KW - Risiko KW - Warnung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411541 ER - TY - THES A1 - Genderjahn, Steffi T1 - Biosignatures of Present and Past Microbial Life in Southern African Geoarchives T1 - Biosignaturen von gegenwärtigem und vergangenem mikrobiellen Leben in südafrikanischen Geoarchiven N2 - Global climate change is one of the greatest challenges of the 21st century, with influence on the environment, societies, politics and economies. The (semi-)arid areas of Southern Africa already suffer from water scarcity. There is a great variety of ongoing research related to global climate history but important questions on regional differences still exist. In southern African regions terrestrial climate archives are rare, which makes paleoclimate studies challenging. Based on the assumption that continental pans (sabkhas) represent a suitable geo-archive for the climate history, two different pans were studied in the southern and western Kalahari Desert. A combined approach of molecular biological and biogeochemical analyses is utilized to investigate the diversity and abundance of microorganisms and to trace temporal and spatial changes in paleoprecipitation in arid environments. The present PhD thesis demonstrates the applicability of pan sediments as a late Quaternary geo-archive based on microbial signature lipid biomarkers, such as archaeol, branched and isoprenoid glycerol dialkyl glycerol tetraethers (GDGTs) as well as phospholipid fatty acids (PLFA). The microbial signatures contained in the sediment provide information on the current or past microbial community from the Last Glacial Maximum to the recent epoch, the Holocene. The results are discussed in the context of regional climate evolution in southwestern Africa. The seasonal shift of the Innertropical Convergence Zone (ITCZ) along the equator influences the distribution of precipitation- and climate zones. The different expansion of the winter- and summer rainfall zones in southern Africa was confirmed by the frequency of certain microbial biomarkers. A period of increased precipitation in the south-western Kalahari could be described as a result of the extension of the winter rainfall zone during the last glacial maximum (21 ± 2 ka). Instead a period of increased paleoprecipitation in the western Kalahari was indicated during the Late Glacial to Holocene transition. This was possibly caused by a southwestern shift in the position of the summer rainfall zone associated to the southward movement of the ITCZ. Furthermore, for the first time this study characterizes the bacterial and archaeal life based on 16S rRNA gene high-throughput sequencing in continental pan sediments and provides an insight into the recent microbial community structure. Near-surface processes play an important role for the modern microbial ecosystem in the pans. Water availability as well as salinity might determine the abundance and composition of the microbial communities. The microbial community of pan sediments is dominated by halophilic and dry-adapted archaea and bacteria. Frequently occurring microorganisms such as, Halobacteriaceae, Bacillus and Gemmatimonadetes are described in more detail in this study. N2 - Der globale Klimawandel beeinflusst Umwelt, Gesellschaft, Politik sowie Wirtschaft und ist eine der größten Herausforderungen des 21. Jahrhunderts. Die semi-ariden bzw. ariden Gebiete im südlichen Afrika leiden bereits unter Wasserknappheit. Eine Vielzahl laufender Forschungsprojekte befasst sich mit der globalen Klimageschichte, wobei häufig Fragen zu regionalen Unterschieden offen bleiben. In den südafrikanischen Gebieten sind terrestrische Klimaarchive (wie z.B. Seen) selten, so dass die Durchführung von Paleoklimastudien schwierig ist. Basierend auf der Annahme, dass kontinentale Pfannen (Sabkhas) zur Klimarekonstruktion geeignet sind, wurden in der vorliegenden Doktorarbeit zwei unterschiedliche Pfannen in der süd- und in der westlichen Kalahari untersucht. Mittels eines kombinierten Ansatzes aus molekularbiologischen und biogeochemischen Methoden wurde die Diversität und Abundanz der Mikroorganismen analysiert, um räumliche und zeitliche Veränderungen in Bezug auf den Niederschlag in diesen trockenen Gebieten zu rekonstruieren. Diese Dissertation betrachtet u.a. das Potential der Pfannensedimente als Geoarchiv auf Basis der mikrobiellen Biomarkeranalyse, wie Archaeol, verzweigte und isoprenoiden Glycerol Dialkyl Glycerol Tetraethern (GDGTs) sowie Phospholipidfettsäuren (PLFAs). Die im Sediment enthaltenen mikrobiellen Signaturen geben Auskunft über die gegenwärtige bzw. vergangene mikrobielle Gemeinschaft vom Letzten Glazialen Maximum bis zur jüngsten Epoche, dem Holozän. Die Ergebnisse werden im Kontext der regionalen Klimaentwicklung im südwestlichen Afrika diskutiert. Bedingt durch die saisonale Verschiebung der Innertropischen Konvergenzzone (ITCZ) entlang des Äquators verändert sich die Verteilung von Niederschlags- und Klimazonen. Die unterschiedliche Ausdehnung der Winter- und Sommerregenzonen im südlichen Afrika konnte anhand der Häufigkeit bestimmter mikrobieller Biomarker bestätigt werden. Aufgrund der Ausdehnung der Winterregenzone während des Letzten Glazialen Maximums (LGM, 21 ± 2 ka) konnte eine Periode erhöhten Niederschlags in der südwestlichen Kalahari beschrieben werden. Im Gegensatz dazu konnte eine Niederschlagszunahme zwischen dem letzten Glazial bis zum Holozän (17 – 12 ka) in der westlichen Kalahari aufgezeigt werden, ausgelöst durch eine Verschiebung der ITCZ in Richtung Süden. Darüber hinaus charakterisiert diese Studie erstmals das bakterielle und archaelle Leben auf Basis der 16S rRNA Gen Hochdurchsatz-Sequenzierung in kontinentalen Pfannensedimenten und gibt einen Einblick in die Struktur der mikrobiellen Gemeinschaft. Oberflächennahe Prozesse spielen eine wichtige Rolle für das moderne mikrobielle Ökosystem in den Pfannen. Wasserverfügbarkeit sowie der Salzgehalt bestimmen die Abundanz und Diversität der mikrobiellen Gemeinschaften. Gelegentliche Regenschauer können die Bedingungen an den oberflächennahen Sedimenten schnell verändern und das mikrobielle Leben beeinflussen. Die mikrobielle Gemeinschaft der Pfannensedimente wird von halophilen und an die Trockenheit angepassten Archaeen und Bakterien dominiert. Häufig vorkommende Mikroorganismen, wie zum Beispiel Halobacteriaceae, Bacillus und Gemmatimonadetes werden in der vorliegenden Arbeit näher beschrieben. Diese Arbeit gibt einen Einblick in die Diversität und Verteilung der mikrobiellen Gemeinschaft in nährstoffarmen und niederschlagsarmen, semi-ariden Habitaten. Sie beschreibt die Verwendung von Lipidbiomarkern als Proxy der mikrobiellen Abundanz in Bezug auf vergangene klimatische Veränderungen in der Kalahari. KW - biomarker KW - paleoclimate KW - Kalahari KW - halophiles KW - next generation sequencing KW - Biomarker KW - Paläoklima KW - Kalahari KW - Halophile KW - Hochdurchsatzsequenzierung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410110 ER - TY - THES A1 - Li, Lina T1 - Preparation of novel photoactive materials T1 - Herstellung von neuen photoaktiven Materialien BT - different pre-compositions, post-modifications and improved performance BT - verschiedene Vorzusammensetzungen, Post-Modifikationen und verbesserte Leistung N2 - Photocatalysis is considered significant in this new energy era, because the inexhaustibly abundant, clean, and safe energy of the sun can be harnessed for sustainable, nonhazardous, and economically development of our society. In the research of photocatalysis, the current focus was held by the design and modification of photocatalyst. As one of the most promising photocatalysts, g-C3N4 has gained considerable attention for its eye-catching properties. It has been extensively explored in photocatalysis applications, such as water splitting, organic pollutant degradation, and CO2 reduction. Even so, it also has its own drawbacks which inhibit its further application. Inspired by that, this thesis will mainly present and discuss the process and achievement on the preparation of some novel photocatalysts and their photocatalysis performance. These materials were all synthesized via the alteration of classic g-C3N4 preparation method, like using different pre-compositions for initial supramolecular complex and functional group post-modification. By taking place of cyanuric acid, 2,5-Dihydroxy-1,4-benzoquinone and chloranilic acid can form completely new supramolecular complex with melamine. After heating, the resulting products of the two complex shown 2D sheet-like and 1D fiber-like morphologies, respectively, which maintain at even up to high temperature of 800 °C. These materials cover crystals, polymers and N-doped carbons with the increase of synthesis temperature. Based on their different pre-compositions, they show different dye degradation performances. For CLA-M-250, it shows the highest photocatalytic activity and strong oxidation capacity. It shows not only great photo-performance in RhB degradation, but also oxygen production in water splitting. In the post-modification method, a novel photocatalysis solution was proposed to modify carbon nitride scaffold with cyano group, whose content can be well controlled by the input of sodium thiocyanate. The cyanation modification leads to narrowed band gap as well as improved photo-induced charges separation. Cyano group grafted carbon nitride thus shows dramatically enhanced performance in the photocatalytic coupling reaction between styrene and sodium benzenesulfinate under green light irradiation, which is in stark contrast with the inactivity of pristine g-C3N4. N2 - Die Sonne stellt eine Quelle für unerschöpfliche, saubere und sichere Energie dar, die für eine nachhaltige, ungefährliche und ökonomische Entwicklung unserer Gesellschaft genutzt werden kann, daher wird Photokatalyse heutzutage als äußerst vielversprechend angesehen. Bei der Erforschung der Photokatalyse lag der Fokus auf dem Design und der Modifizierung von Photokatalysatoren. Als einer der vielversprechendsten Photokatalysatoren hat sich g-C3N4 erwiesen. Es wurde ausführlich für Anwendungen wie z.B. Wasserspaltung, den Abbau organischer Schadstoffe und CO2-Reduktion untersucht. Trotzdem hat es auch Nachteile, die eine weitere Anwendung erschweren. Deshalb wird in dieser Arbeit hauptsächlich die Herstellung und Eigenschaften von neuartigen auf auf g-C3N4 basierenden Photokatalysatoren vorgestellt und diskutiert. Diese Materialien wurden mittels Verfahren hergestellt, bei denen die klassische g-C3N4-Herstellungsmethode geändert wurde, wie z.B. durch die Verwendung unterschiedlicher Zusammensetzungen und durch die Modifizierung von funktionellen Gruppen. Im Vergleich zu g-C3N4 weisen diese neu hergestellten Materialien unterschiedliche photokatalytische Eigenschaften auf. KW - photocatalysis KW - Photokatalyse KW - CN materials KW - CN-Materialien KW - supramolecular KW - Supramolekular KW - post-modification KW - Post-Modifikationen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410952 ER - TY - THES A1 - Westbury, Michael V. T1 - Unraveling evolution through Next Generation Sequencing T1 - Entschlüsselung von Evolution durch Sequenzierung der nächsten Generation N2 - The sequencing of the human genome in the early 2000s led to an increased interest in cheap and fast sequencing technologies. This interest culminated in the advent of next generation sequencing (NGS). A number of different NGS platforms have arisen since then all promising to do the same thing, i.e. produce large amounts of genetic information for relatively low costs compared to more traditional methods such as Sanger sequencing. The capabilities of NGS meant that researchers were no longer bound to species for which a lot of previous work had already been done (e.g. model organisms and humans) enabling a shift in research towards more novel and diverse species of interest. This capability has greatly benefitted many fields within the biological sciences, one of which being the field of evolutionary biology. Researchers have begun to move away from the study of laboratory model organisms to wild, natural populations and species which has greatly expanded our knowledge of evolution. NGS boasts a number of benefits over more traditional sequencing approaches. The main benefit comes from the capability to generate information for drastically more loci for a fraction of the cost. This is hugely beneficial to the study of wild animals as, even when large numbers of individuals are unobtainable, the amount of data produced still allows for accurate, reliable population and species level results from a small selection of individuals. The use of NGS to study species for which little to no previous research has been carried out on and the production of novel evolutionary information and reference datasets for the greater scientific community were the focuses of this thesis. Two studies in this thesis focused on producing novel mitochondrial genomes from shotgun sequencing data through iterative mapping, bypassing the need for a close relative to serve as a reference sequence. These mitochondrial genomes were then used to infer species level relationships through phylogenetic analyses. The first of these studies involved reconstructing a complete mitochondrial genome of the bat eared fox (Otocyon megalotis). Phylogenetic analyses of the mitochondrial genome confidently placed the bat eared fox as sister to the clade consisting of the raccoon dog and true foxes within the canidae family. The next study also involved reconstructing a mitochondrial genome but in this case from the extinct Macrauchenia of South America. As this study utilised ancient DNA, it involved a lot of parameter testing, quality controls and strict thresholds to obtain a near complete mitochondrial genome devoid of contamination known to plague ancient DNA studies. Phylogenetic analyses confidently placed Macrauchenia as sister to all living representatives of Perissodactyla with a divergence time of ~66 million years ago. The third and final study of this thesis involved de novo assemblies of both nuclear and mitochondrial genomes from brown and striped hyena and focussed on demographic, genetic diversity and population genomic analyses within the brown hyena. Previous studies of the brown hyena hinted at very low levels of genomic diversity and, perhaps due to this, were unable to find any notable population structure across its range. By incorporating a large number of genetic loci, in the form of complete nuclear genomes, population structure within the brown hyena was uncovered. On top of this, genomic diversity levels were compared to a number of other species. Results showed the brown hyena to have the lowest genomic diversity out of all species included in the study which was perhaps caused by a continuous and ongoing decline in effective population size that started about one million years ago and dramatically accelerated towards the end of the Pleistocene. The studies within this thesis show the power NGS sequencing has and its utility within evolutionary biology. The most notable capabilities outlined in this thesis involve the study of species for which no reference data is available and in the production of large amounts of data, providing evolutionary answers at the species and population level that data produced using more traditional techniques simply could not. N2 - Die Sequenzierung des ersten menschlichen Genoms Anfang der 2000er Jahre förderte das Interesse an kostengünstigen und gleichzeitig schnelleren Sequenziertechniken. Dieses Interesse erreichte seinen derzeitigen Höhepunkt in der Einführung des sogenannten Next Generation Sequencings (NGS). Seitdem wurden zahlreiche NGS-Plattformen entwickelt, die alle dem gleichen Prinzip folgen, nämlich das Erzeugen großer Mengen genetischer Information zu relativ geringen Preisen verglichen mit herkömmlichen Methoden wie der Sanger-Sequenzierung. Die neue Leistungsfähigkeit von NGS bedeutete, dass Forscher nicht mehr länger an Organismen gebunden waren an denen bereits seit Jahren geforscht wurde (bspw. Modellorganismen oder der Mensch), sondern ermöglichte eine Verschiebung in Richtung neuerer und unterschiedlicher Arten von Interesse. Dieses Potential hat viele Wissenschaftsfelder positiv beeinflusst innerhalb der Biowissenschaften, u.a. das Feld der Evolutionsbiologie. Forscher haben angefangen sich zunehmend von Modellorganismen in Laboratorien wegzubewegen hinzu wildlebenden, natürlich vorkommenden Populationen und Arten, was unser Verständnis von Evolution maßgeblich erweitert hat. NGS hat mehrere Vorteile aufzuweisen gegenüber den herkömmlichen Sequenziermethoden. Der wohl größte Vorteil ist die Gewinnung genetischer Daten für mehrere Genorte (Loci) gleichzeitig zu einem Bruchteil der bisherigen Kosten. Das ist besonders nützlich für die Untersuchung wildlebender Tiere da, selbst wenn nicht ausreichend viele Individuen vorliegen, die gewonnene Menge an Daten genaue und verlässliche Ergebnisse auf Populations- sowie Artebene für eine kleine Auswahl an Individuen liefert. Die Verwendung von NGS zur Untersuchung von Arten, für die bisher wenig oder gar keine vorherigen Forschungsergebnisse vorliegen sowie die Gewinnung neuartiger Informationen im Bereich Evolution ebenso wie die Erstellung eines Referenzdatensatzes, der der wissenschaftlichen Gemeinschaft zur Verfügung gestellt werden kann, waren der Fokus dieser Arbeit. Zwei Studien in dieser Arbeit setzten ihren Fokus in der Gewinnung noch nicht publizierter, mitochondrialer Genome, die mittels iterative mapping erstellt wurden und so das Vorhandensein einer Referenzsequenz eines nahen Verwandten der untersuchten Art unnötig machten. In beiden Fällen wurden Shotgun Sequenzierungsdaten verwendet. Die so gewonnenen mitochondrialen Genome wurden dann genutzt, um innerartliche Verwandtschaftsverhältnisse mit hilfe von phylogenetischen Analysen zu klären. Die erste Studie befasste sich mit der Rekonstruktion des kompletten mitochondrialen Genoms des Löffelhundes (Otocyon megalotis). Die phylogenetische Analyse des mitochondrialen Genoms positionierten den Löffelhund sicher als Schwestergruppe der Klade bestehend aus Marderhund und echten Füchsen innerhalb der Familie Canidae. Die zweite Studie hat sich ebenfalls mit der Rekonstruktion eines mitochondrialen Genoms auseinandergesetzt, diesmal von einer bereits ausgestorbenen Art Südamerikas, dem Macrauchenia. Da diese Studie auf sehr alter DNA (ancient DNA) basiert, schließt sie viele Parametertests, Qualitätskontrollen sowie strenge Filterkriterien ein um ein fast vollständiges mitochondriales Genom erhalten zu können, frei von den für ancient DNA typischen Kontaminationen. Phylogenetische Analysen positionieren Macrauchenia als Schwestergruppe zu allen anderen lebenden Vertretern der Perissodactyla mit einer Abspaltung vor ~66 Millionen Jahren. Die dritte und letzte Studie dieser Arbeit beinhaltet die de novo Konstruktionen von nukleären und mitochondrialen Genomen der Schabracken- und Streifenhyäne mit Fokus auf demographische, genetische Diversität sowie Populationsgenomische Analysen innerhalb der Schabrackenhyänen. Vorausgehende Studien an der Schabrackenhyäne gaben Hinweise für einen geringen Grad an genomischer Diversität und, waren vielleicht deshalb, bisher nicht in der Lage eine nennenswerte Populationsstruktur der Schabrackenhyäne aufzudecken. Zusätzlich wurde die genomische Diversität mit der von einer Reihe anderer Arten verglichen. Die Ergebnisse zeigen, dass die Schabrackenhyäne die niedrigste genomische Diversität aufweist im Vergleich zu den in dieser Studie verwendeten Arten, was vielleicht mit einem kontinuierlichen und fortschreitenden Rückgang der effektiven Populationsgröße dieser Spezies zu erklären ist, der vor ca. einer Million Jahre eingesetzt hat und dramatisch zugenommen hat zum Ende des Pleistozän. Die Studien dieser Arbeit zeigen das Potential von NGS Sequenzierung und ihren Nutzen innerhalb der Evolutionsbiologie. Die nennenswertesten Anwendungen von NGS, die in dieser Arbeit hervorgehoben wurden, sind zum Einen der Nutzen für Organismen bzw. Arten für die es keine verfügbaren Referenzdaten gibt sowie zum Anderen die Gewinnung von großen Datenmengen, die die Grundlage bilden zur Beantwortung evolutionsbiologischer Fragestellungen auf Art- und Populationsebene, was vorhergegangene, traditionelle Methoden bisher nicht leisten konnten. KW - Next generation sequencing KW - Evolution KW - Hyena KW - Evolution KW - Hyäne KW - Sequenzierung der nächsten Generation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409981 ER - TY - THES A1 - Rosenwinkel, Swenja T1 - Rock glaciers and natural dams in Central Asia T1 - Blockgletscher und natürliche Staudämme in Zentralasien N2 - The formation and breaching of natural dammed lakes have formed the landscapes, especially in seismically active high-mountain regions. Dammed lakes pose both, potential water resources, and hazard in case of dam breaching. Central Asia has mostly arid and semi-arid climates. Rock glaciers already store more water than ice-glaciers in some semi-arid regions of the world, but their distribution and advance mechanisms are still under debate in recent research. Their impact on the water availability in Central Asia will likely increase as temperatures rise and glaciers diminish. This thesis provides insight to the relative age distribution of selected Kyrgyz and Kazakh rock glaciers and their single lobes derived from lichenometric dating. The size of roughly 8000 different lichen specimens was used to approximate an exposure age of the underlying debris surface. We showed that rock-glacier movement differs signifcantly on small scales. This has several implications for climatic inferences from rock glaciers. First, reactivation of their lobes does not necessarily point to climatic changes, or at least at out-of-equilibrium conditions. Second, the elevations of rock-glacier toes can no longer be considered as general indicators of the limit of sporadic mountain permafrost as they have been used traditionally. In the mountainous and seismically active region of Central Asia, natural dams, besides rock glaciers, also play a key role in controlling water and sediment infux into river valleys. However, rock glaciers advancing into valleys seem to be capable of infuencing the stream network, to dam rivers, or to impound lakes. This influence has not previously been addressed. We quantitatively explored these controls using a new inventory of 1300 Central Asian rock glaciers. Elevation, potential incoming solar radiation, and the size of rock glaciers and their feeder basins played key roles in predicting dam appearance. Bayesian techniques were used to credibly distinguish between lichen sizes on rock glaciers and their lobes, and to find those parameters of a rock-glacier system that are most credibly expressing the potential to build natural dams. To place these studies in the region's history of natural dams, a combination of dating of former lake levels and outburst flood modelling addresses the history and possible outburst flood hypotheses of the second largest mountain lake of the world, Issyk Kul in Kyrgyzstan. Megafoods from breached earthen or glacial dams were found to be a likely explanation for some of the lake's highly fluctuating water levels. However, our detailed analysis of candidate lake sediments and outburst-flood deposits also showed that more localised dam breaks to the west of Issyk Kul could have left similar geomorphic and sedimentary evidence in this Central Asian mountain landscape. We thus caution against readily invoking megafloods as the main cause of lake-level drops of Issyk Kul. In summary, this thesis addresses some new pathways for studying rock glaciers and natural dams with several practical implications for studies on mountain permafrost and natural hazards. N2 - Die Entstehung und das Ausbrechen natürlicher Stauseen prägen die Landschaft, insbesondere in seinsmisch aktiven Hochgebirgsregionen. Stauseen bergen zugleich Potential für Wasserressourcen, aber Gefahr durch Überflutungen. Mit steigenden Temperaturen und voranschreitender Gletscherschmelze wird der Bedarf an alternativen Wasserressourcen steigen. Zentralasien unterliegt größtenteils ariden und semiariden Klimabedingungen. In manchen semiariden Gebieten der Welt speichern Blockgletscher heute schon mehr Wasser als Eisgletscher. Ihr Anteil an der Wasserverfügbarkeit in Zentralasien wird in Zukunft vermutlich steigen. Die Verteilung und die Mechanismen, die das Auftreten und das Vorrücken der Blockgletscher beeinflussen, sind allerdings noch nicht gut erforscht. In der vorliegenden Arbeit wurden Blockgletscher in Kirgistan und Kasachstan ausgewählt, um die Altersverteilung ihrer Loben relativ mit Lichenometrie zu bestimmen. Dafür wurden etwa 8000 Flechtendurchmesser gemessen, die, bei bekannter Wachstumsrate, Aussagen über das Expositionsalter des unterliegenden Gesteins zulassen und somit über die Zeit, seitdem keine Bewegungen mehr stattgefunden haben, die eine andere Seite des Gesteins exponiert hätten. Es zeigte sich, dass die Blockgletscherbewegungen auf kleinräumiger Skala sehr unterschiedlich sind und nicht allein von großräumigen topoklimatischen Gegebenheiten abhängen. Diese Erkenntnis bedeutet eine Einschränkung des in der Literatur häufig gezogenen Rückschlusses von Blockgletscherbewegungen auf klimatische Veränderungen oder der Nutzung von Blockgletscherhöhen als Indikator für die untere Grenze des Permafrostbereiches. Natürliche Staudämme spielen eine Schlüsselrolle dabei den Wasser- und Sedimenteintrag in die Flüsse zu kontrollieren. Blockgletscher können ebenfalls so weit in das Tal vorrücken, dass sie Flussläufe beeinflussen und Seen aufstauen. Diesem Phenomen wurde in dieser Arbeit erstmals nachgegangen und mit einem neu erstellten Inventar von 1300 Blockgletschern die möglichen Kontrollfaktoren, die zu der Bildung eines Blockglestcherdamms führen, ausgewertet. Die Blockgletscherhöhe, die potentielle Sonneneinstrahlung, sowie die Größe der Blockgletscher und ihrer Einzugsgebiete spielen dabei eine große Rolle für die Vorhersage des Auftretens von Blockgletscherdämmen. Für die beiden eben genannten Studien wurde ein Bayesisches Verfahren gewählt, um die mit Hilfe der Größenunterschiede der Flechtendurchmesser auf den einzelnen Blockgletschern und ihren Loben gewonnenen relativen Gesteinsexpositonsaltersunterschiede zu identifizieren. Desweiteren wurde die Methode genutzt, um die Parameter ausfindig zu machen, die am wahrscheinlichsten dazu führen, dass Blockgletscher Dämme bilden. Mit einer Kombination aus Datierungen vergangener Seespiegelstände und Flutmodellierungen möglicher Seeausbrüche des Issyk Kul in Kirgistan, des zweitgrößten Bergsees der Welt, geht diese Arbeit der Plausibilit ät der Zusammenhänge zwischen Seespiegelschwankungen und -ausbrüchen nach, die sich im Quartär zugetragen haben. Dabei wurde ein zeitlicher Zusammenhang zwischen Seespiegelsenkung und Flutablagerungen bestätigt. Die Modellierungen deuten auf groÿe Seeausbrüche hin, zeigen allerdings auch die Möglichkeit auf, dass ein kleinerer aufgestauter See westlich des Issyk Kul auch ähnliche Spuren im Sedimentarchiv hinterlassen haben könnte. Somit sind die Seespiegelabfälle nicht eindeutig katastrophalen Seeausbrüchen zuzuordnen. Zusammenfassend zeigt diese Arbeit neueWege Blockgletscher und natürliche Staudämme zu analysieren und die Ergebnisse liefern praktische Hinweise für die Permafrost- und Naturgefahrenforschung. KW - rock glaciers KW - natural dams KW - natural hazard KW - lichenometry KW - lake-level change KW - cosmogenic nuclide dating KW - Bayes KW - Bayesische Statistik KW - Altersdatierung mit kosmogenen Nukliden KW - Seespiegelschwankungen KW - Lichenometrie KW - Natürliche Staudämme KW - Naturgefahren KW - Blockgletscher Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410386 ER - TY - THES A1 - Bazhenova, Ekaterina T1 - Discovery of Decision Models Complementary to Process Models T1 - Das Konstruieren von Entscheidungsmodellen als Ergänzung zu Prozessmodellen N2 - Business process management is an acknowledged asset for running an organization in a productive and sustainable way. One of the most important aspects of business process management, occurring on a daily basis at all levels, is decision making. In recent years, a number of decision management frameworks have appeared in addition to existing business process management systems. More recently, Decision Model and Notation (DMN) was developed by the OMG consortium with the aim of complementing the widely used Business Process Model and Notation (BPMN). One of the reasons for the emergence of DMN is the increasing interest in the evolving paradigm known as the separation of concerns. This paradigm states that modeling decisions complementary to processes reduces process complexity by externalizing decision logic from process models and importing it into a dedicated decision model. Such an approach increases the agility of model design and execution. This provides organizations with the flexibility to adapt to the ever increasing rapid and dynamic changes in the business ecosystem. The research gap, identified by us, is that the separation of concerns, recommended by DMN, prescribes the externalization of the decision logic of process models in one or more separate decision models, but it does not specify this can be achieved. The goal of this thesis is to overcome the presented gap by developing a framework for discovering decision models in a semi-automated way from information about existing process decision making. Thus, in this thesis we develop methodologies to extract decision models from: (1) control flow and data of process models that exist in enterprises; and (2) from event logs recorded by enterprise information systems, encapsulating day-to-day operations. Furthermore, we provide an extension of the methodologies to discover decision models from event logs enriched with fuzziness, a tool dealing with partial knowledge of the process execution information. All the proposed techniques are implemented and evaluated in case studies using real-life and synthetic process models and event logs. The evaluation of these case studies shows that the proposed methodologies provide valid and accurate output decision models that can serve as blueprints for executing decisions complementary to process models. Thus, these methodologies have applicability in the real world and they can be used, for example, for compliance checks, among other uses, which could improve the organization's decision making and hence it's overall performance. N2 - Geschäftsprozessmanagement ist eine anerkannte Strategie, um Unternehmen produktiv und nachhaltig zu führen. Einer der wichtigsten Faktoren des Geschäftsprozessmanagements ist die Entscheidungsfindung – tagtäglich und auf allen Ebenen. In den letzten Jahren wurden – zusätzlich zu existierenden Geschäftsprozessmanagementsystemen – eine Reihe von Frameworks zum Entscheidungsmanagement entwickelt. Um die weit verbreitete Business Process Model and Notation (BPMN) zu ergänzen, hat das OMG-Konsortium kürzlich die Decision Model and Notation (DMN) entwickelt. Einer der Treiber für die Entwicklung der DMN ist das wachsende Interesse an dem aufstrebenden Paradigma der “Separation of Concerns” (Trennung der Sichtweisen). Dieses Prinzip besagt, dass die Prozesskomplexität reduziert wird, wenn Entscheidungen komplementär zu den Prozessen modelliert werden, indem die Entscheidungslogik von Prozessmodellen entkoppelt und in ein dediziertes Entscheidungsmodel aufgenommen wird. Solch ein Ansatz erhöht die Agilität von Modelentwurf und –ausführung und bietet Unternehmen so die Flexibilität, auf die stetig zunehmenden, rasanten Veränderungen in der Unternehmenswelt zu reagieren. Während die DMN die Trennung der Belange empfiehlt und die Entkopplung der Entscheidungslogik von den Prozessmodellen vorschreibt, gibt es bisher keine Spezifikation, wie dies erreicht werden kann. Diese Forschungslücke ist der Ausgangspunkt der vorliegenden Arbeit. Das Ziel dieser Doktorarbeit ist es, die beschriebene Lücke zu füllen und ein Framework zur halbautomatischen Konstruktion von Entscheidungsmodellen zu entwickeln, basierend auf Informationen über existierende Prozessentscheidungsfindung. In dieser Arbeit werden die entwickelten Methoden zur Entkopplung von Entscheidungsmodellen dargestellt. Die Extraktion der Modelle basiert auf folgenden Eingaben: (1) Kontrollfluss und Daten aus Prozessmodellen, die in Unternehmen existieren; und (2) von Unternehmensinformationssystemen aufgezeichnete Ereignisprotokolle der Tagesgeschäfte. Außerdem stellen wir eine Erweiterung der Methode vor, die es ermöglicht, auch in von Unschärfe geprägten Ereignisprotokollen Entscheidungsmodelle zu entdecken. Hier wird mit Teilwissen über die Prozessausführung gearbeitet. Alle vorgestellten Techniken wurden implementiert und in Fallstudien evaluiert – basierend auf realen und künstlichen Prozessmodellen, sowie auf Ereignisprotokollen. Die Evaluierung der Fallstudien zeigt, dass die vorgeschlagenen Methoden valide und akkurate Entscheidungsmodelle produzieren, die als Blaupause für das Vollziehen von Entscheidungen dienen können und die Prozessmodelle ergänzen. Demnach sind die vorgestellten Methoden in der realenWelt anwendbar und können beispielsweise für Übereinstimmungskontrollen genutzt werden, was wiederum die Entscheidungsfindung in Unternehmen und somit deren Gesamtleistung verbessern kann. KW - business process management KW - decision management KW - process models KW - decision models KW - decision mining KW - Geschäftsprozessmanagement KW - Entscheidungsmanagement KW - Entscheidungsfindung KW - Entscheidungsmodelle KW - Prozessmodelle Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410020 ER -