TY - THES A1 - Pédèches, Laure T1 - Stochastic models for collective motions of populations T1 - Modèles stochastiques pour des mouvements collectifs de populations T1 - Stochastisches Modell für kollektive Bewegung von Populationen N2 - Stochastisches Modell für kollektive Bewegung von Populationen In dieser Doktorarbeit befassen wir uns mit stochastischen Systemen, die eines der mysteriösesten biologischen Phänomene als Modell darstellen: die kollektive Bewegung von Gemeinschaften. Diese werden bei Vögel- und Fischschwärmen, aber auch bei manchen Bakterien, Viehherden oder gar bei Menschen beobachtet. Dieser Verhaltenstyp spielt ebenfalls in anderen Bereichen wie Finanzwesen, Linguistik oder auch Robotik eine Rolle. Wir nehmen uns der Dynamik einer Gruppe von N Individuen, insbesondere zweier asymptotischen Verhaltenstypen an. Einerseits befassen wir uns mit den Eigenschaften der Ergodizität in Langzeit: Existenz einer invarianten Wahrscheinlichkeitsverteilung durch Ljapunow-Funktionen, und Konvergenzrate der Übergangshalbgruppe gegen diese Wahrscheinlichkeit. Eine ebenfalls zentrale Thematik unserer Forschung ist der Begriff Flocking: es wird damit definiert, dass eine Gruppe von Individuen einen dynamischen Konsens ohne hierarchische Struktur erreichen kann; mathematisch gesehen entspricht dies der Aneinanderreihung der Geschwindigkeiten und dem Zusammenkommen des Schwarmes. Andererseits gehen wir das Phänomen der "Propagation of Chaos" an, wenn die Anzahl N der Teilchen ins Unendliche tendiert: die Bewegungen der jeweiligen Individuen werden asymptotisch unabhängig. Unser Ausgangspunkt ist das Cucker-Smale-Modell, ein deterministisches kinetisches Molekular-Modell für eine Gruppe ohne hierarchische Struktur. Die Wechselwirkung zwischen zwei Teilchen variiert gemäß deren "Kommunikationsrate", die wiederum von deren relativen Entfernung abhängt und polynomisch abnimmt. Im ersten Kapitel adressieren wir das asymptotische Verhalten eines Cucker-Smale-Modells mit Rauschstörung und dessen Varianten. Kapitel 2 stellt mehrere Definitionen des Flockings in einem Zufallsrahmen dar: diverse stochastische Systeme, die verschiedenen Rauschformen entsprechen (die eine gestörte Umgebung, den "freien Willen" des jeweiligen Individuums oder eine unterbrochene Übertragung suggerieren) werden im Zusammenhang mit diesen Begriffen unter die Lupe genommen. Das dritte Kapitel basiert auf der "Cluster Expansion"-Methode aus der statistischen Mechanik. Wir beweisen die exponentielle Ergodizität von gewissen nicht-Markow-Prozessen mit nicht-glattem Drift und wenden diese Ergebnisse auf Störungen des Ornstein-Uhlenbeck-Prozesses an. Im letzten Teil, nehmen wir uns der zweidimensionalen parabolisch-elliptischen Gleichung von Keller-Segel an. Wir beweisen die Existenz einer Lösung, welche in gewisser Hinsicht einzig ist, indem wir, mittels Vergleich mit Bessel-Prozessen und der Dirichlet Formtheorie, mögliche Stoßtypen zwischen den Teilchen ermitteln. N2 - In this thesis, stochastic dynamics modelling collective motions of populations, one of the most mysterious type of biological phenomena, are considered. For a system of N particle-like individuals, two kinds of asymptotic behaviours are studied : ergodicity and flocking properties, in long time, and propagation of chaos, when the number N of agents goes to infinity. Cucker and Smale, deterministic, mean-field kinetic model for a population without a hierarchical structure is the starting point of our journey : the first two chapters are dedicated to the understanding of various stochastic dynamics it inspires, with random noise added in different ways. The third chapter, an attempt to improve those results, is built upon the cluster expansion method, a technique from statistical mechanics. Exponential ergodicity is obtained for a class of non-Markovian process with non-regular drift. In the final part, the focus shifts onto a stochastic system of interacting particles derived from Keller and Segel 2-D parabolicelliptic model for chemotaxis. Existence and weak uniqueness are proven. N2 - Dans cette thése, on s’intéresse á des systémes stochastiques modélisant un des phénoménes biologiques les plus mystérieux, les mouvements collectifs de populations. Pour un groupe de N individus, vus comme des particules sans poids ni volume, on étudie deux types de comportements asymptotiques : d’un côté, en temps long, les propriétés d’ergodicité et de flocking, de l’autre, quand le nombre de particules N tend vers l’infini, les phénoménes de propagation du chaos. Le modéle, déterministe, de Cucker-Smale, un modéle cinétique de champ moyen pour une population sans structure hiérarchique, est notre point de départ : les deux premiers chapitres sont consacrés á la compréhension de diverses dynamiques stochastiques qui s’en inspirent, du bruit étant rajouté sous différentes formes. Le troisiéme chapitre, originellement une tentative d’amélioration de ces résultats, est basé sur la méthode du développement en amas, un outil de physique statistique. On prouve l’ergodicité exponentielle de certains processus non-markoviens á drift non-régulier. Dans la derniére partie, on démontre l’existence d’une solution, unique dans un certain sens, pour un systéme stochastique de particules associé au mod`ele chimiotactique de Keller et Segel. KW - stochastic interacting particles KW - flocking KW - stochastisches interagierendes System KW - Flocking Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405491 ER - TY - THES A1 - Peldszus, Andreas T1 - Automatic recognition of argumentation structure in short monological texts N2 - The aim of this thesis is to develop approaches to automatically recognise the structure of argumentation in short monological texts. This amounts to identifying the central claim of the text, supporting premises, possible objections, and counter-objections to these objections, and connecting them correspondingly to a structure that adequately describes the argumentation presented in the text. The first step towards such an automatic analysis of the structure of argumentation is to know how to represent it. We systematically review the literature on theories of discourse, as well as on theories of the structure of argumentation against a set of requirements and desiderata, and identify the theory of J. B. Freeman (1991, 2011) as a suitable candidate to represent argumentation structure. Based on this, a scheme is derived that is able to represent complex argumentative structures and can cope with various segmentation issues typically occurring in authentic text. In order to empirically test our scheme for reliability of annotation, we conduct several annotation experiments, the most important of which assesses the agreement in reconstructing argumentation structure. The results show that expert annotators produce very reliable annotations, while the results of non-expert annotators highly depend on their training in and commitment to the task. We then introduce the 'microtext' corpus, a collection of short argumentative texts. We report on the creation, translation, and annotation of it and provide a variety of statistics. It is the first parallel corpus (with a German and English version) annotated with argumentation structure, and -- thanks to the work of our colleagues -- also the first annotated according to multiple theories of (global) discourse structure. The corpus is then used to develop and evaluate approaches to automatically predict argumentation structures in a series of six studies: The first two of them focus on learning local models for different aspects of argumentation structure. In the third study, we develop the main approach proposed in this thesis for predicting globally optimal argumentation structures: the 'evidence graph' model. This model is then systematically compared to other approaches in the fourth study, and achieves state-of-the-art results on the microtext corpus. The remaining two studies aim to demonstrate the versatility and elegance of the proposed approach by predicting argumentation structures of different granularity from text, and finally by using it to translate rhetorical structure representations into argumentation structures. N2 - Ziel dieser Arbeit ist die Entwicklung von Methoden zur automatischen Erkennung der Argumentationsstruktur in kurzen, monologischen Texten. Dies umfasst einerseits, die zentrale These des Textes, stützende Prämissen, mögliche Einwände und Widersprüche gegen diese zu identifizieren. Andererseits gilt es, diese Elemente in einer Gesamtstruktur zu verbinden, die die im Text vorgebrachte Argumentation angemessen beschreibt. Hierzu muss zuerst eine geeignete Darstellung der Argumentationsstruktur gefunden werden. Anhand einer Reihe von Anforderungen wird die Literatur zu Theorien der Diskurs- sowie der Argumentationsstruktur systematisch ausgewertet. Die Theorie von J. B. Freeman (1991, 2011) erweist sich hierbei als geeigneter Kandidat zur Repräsentation von Argumentationsstruktur. Darauf aufbauend wird ein Annotationsschema abgeleitet, welches auch komplexe Strukturen klar darstellen und mit verschiedenen, für authentischen Text typischen Segmentierungsproblemen umgehen kann. Um das Schema hinsichtlich der Zuverlässigkeit der Annotation empirisch zu testen, werden mehrere Annotationsexperimente durchgeführt, von denen das wichtigste die Übereinstimmung bei der Rekonstruktion der Argumentationsstruktur erfasst. Die Ergebnisse zeigen, dass Fachexperten sehr verlässlich annotieren, während die Ergebnisse von Nicht-Experten in hohem Maße vom Training und ihrem Engagement für die Aufgabe abhängen. Schließlich wird das "microtext"-Korpus vorgestellt, eine Sammlung kurzer argumentativer Texte. Die Erstellung, Übersetzung und Annotation wird beschrieben, die Strukturen statistisch ausgewertet. Es handelt sich um das erste mit Argumentationsstrukturen annotierte Parallelkorpus (in Deutsch und Englisch) und -- dank der Arbeit unserer Kollegen -- auch um das erste, das mit verschiedenartigen Diskursstrukturen annotiert wurde. In einer Reihe von sechs Studien werden dann Methoden zur automatischen Erkennung von Argumentationsstrukturen entwickelt und am Korpus erprobt: Die ersten beiden konzentrieren sich auf das Lernen lokaler Modelle für einzelne Aspekte der Argumentationsstruktur. In der dritten Studie wird der in dieser Dissertation vorgeschlagene Ansatz entwickelt: das "Evidenzgraph"-Modell, mit dem global optimale Argumentationsstrukturen erkannt werden können. Dieses wird dann in der vierten Studie systematisch mit anderen Ansätzen verglichen und erzielt beste Ergebnisse auf dem microtext-Korpus. Die verbleibenden zwei Studien zielen darauf ab, die Vielseitigkeit und Eleganz des Ansatzes zu demonstrieren, z.B. bei der Ableitung von Argumentationsstrukturen unterschiedlicher Granularität oder bei der Übersetzung rhetorischer Strukturen in Argumentationsstrukturen. T2 - Automatische Erkennung der Argumentationsstruktur in kurzen monologischen Texten KW - argumentation KW - argumentation structure KW - discourse structure KW - argument mining KW - argumentation mining KW - argumentation structure parsing KW - discourse parsing KW - annotation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421441 ER - TY - THES A1 - Pavashe, Prashant T1 - Synthesis and transformations of 2-thiocarbohydrates T1 - Synthese und Transformationen von 2-Thiokohlenhydraten BT - a practical approach for functionalization of thiosugars BT - ein Praktischer Zugang zur Funktionalisierung von Thiozuckern N2 - I. Ceric ammonium nitrate (CAN) mediated thiocyanate radical additions to glycals In this dissertation, a facile entry was developed for the synthesis of 2-thiocarbohydrates and their transformations. Initially, CAN mediated thiocyanation of carbohydrates was carried out to obtain the basic building blocks (2-thiocyanates) for the entire studies. Subsequently, 2-thiocyanates were reduced to the corresponding thiols using appropriate reagents and reaction conditions. The screening of substrates, stereochemical outcome and the reaction mechanism are discussed briefly (Scheme I). Scheme I. Synthesis of the 2-thiocyanates II and reductions to 2-thiols III & IV. An interesting mechanism was proposed for the reduction of 2-thiocyanates II to 2-thiols III via formation of a disulfide intermediate. The water soluble free thiols IV were obtained by cleaving the thiocyanate and benzyl groups in a single step. In the subsequent part of studies, the synthetic potential of the 2-thiols was successfully expanded by simple synthetic transformations. II. Transformations of the 2-thiocarbohydrates The 2-thiols were utilized for convenient transformations including sulfa-Michael additions, nucleophilic substitutions, oxidation to disulfides and functionalization at the anomeric position. The diverse functionalizations of the carbohydrates at the C-2 position by means of the sulfur linkage are the highlighting feature of these studies. Thus, it creates an opportunity to expand the utility of 2-thiocarbohydrates for biological studies. Reagents and conditions: a) I2, pyridine, THF, rt, 15 min; b) K2CO3, MeCN, rt, 1 h; c) MeI, K2CO3, DMF, 0 °C, 5 min; d) Ac2O, H2SO4 (1 drop), rt, 10 min; e) CAN, MeCN/H2O, NH4SCN, rt, 1 h; f) NaN3, ZnBr2, iPrOH/H2O, reflux, 15 h; g) NaOH (1 M), TBAI, benzene, rt, 2 h; h) ZnCl2, CHCl3, reflux, 3 h. Scheme II. Functionalization of 2-thiocarbohydrates. These transformations have enhanced the synthetic value of 2-thiocarbohydrates for the preparative scale. Worth to mention is the Lewis acid catalyzed replacement of the methoxy group by other nucleophiles and the synthesis of the (2→1) thiodisaccharides, which were obtained with complete β-selectivity. Additionally, for the first time, the carbohydrate linked thiotetrazole was synthesized by a (3 + 2) cycloaddition approach at the C-2 position. III. Synthesis of thiodisaccharides by thiol-ene coupling. In the final part of studies, the synthesis of thiodisaccharides by a classical photoinduced thiol-ene coupling was successfully achieved. Reagents and conditions: 2,2-Dimethoxy-2-phenylacetophenone (DPAP), CH2Cl2/EtOH, hv, rt. Scheme III. Thiol-ene coupling between 2-thiols and exo-glycals. During the course of investigations, it was found that the steric hindrance plays an important role in the addition of bulky thiols to endo-glycals. Thus, we successfully screened the suitable substrates for addition of various thiols to sterically less hindered alkenes (Scheme III). The photochemical addition of 2-thiols to three different exo-glycals delivered excellent regio- and diastereoselectivities as well as yields, which underlines the synthetic potential of this convenient methodology. N2 - I. Cerammoniumnitrat (CAN) vermittelte Thiocyanat Radikaladditionen an Glycale In dieser Dissertation wurde ein einfacher synthetischer Zugang zu 2-Thiokohlenhydraten und dessen Transformationsprodukten entwickelt. Zu Beginn wurden CAN vermittelte Funktionalisierungen von Kohlenhydraten mit Thiocyanat durchgeführt, um die notwendigen Ausgangsverbindungen (2-Thiocyanate) für die weiteren Studien zu erhalten. Im Folgenden wurden diese 2-Thiocyanate mit entsprechenden Reagenzien unter geeigneten Reduktionsbedingungen zu den Thiolen reduziert. Das Screening der Substrate, der stereochemische Verlauf und der Reaktionsmechanismus wird kurz diskutiert (Schema I). Schema I. Synthese der 2-Thiocyanate II und Reduktionen zu den 2-Thiolen III & IV. Es wurde ein interessanter Mechanismus für die Reduktion der 2-Thiocyanate II zu den 2-Thiolen III via Bildung von Disulfid-Zwischenstufen vorgeschlagen. Die wasserlöslichen freien Thiole IV wurden durch Spaltung der Thiocyanat- und Benzylgruppen in einem Einzelschritt freigesetzt. Im darauf folgenden Teil der Arbeit wurde das synthetische Potenzial der 2-Tiole erfolgreich durch einfache synthetische Transformationen erweitert. II. Transformationen der 2-Thiokohlenhydrate Die 2-Thiole wurden für die Ausführung praktischer Transformationen eingesetzt, die Sulfa-Michael Additionen, nukleophile Substitutionen, Oxidationen zu Disulfiden und Funktionalisierungen an der anomeren Position beinhalten. Die mannigfaltigen Funktionalisierungen der Kohlenhydrate an den C-2 Positionen mittels der Schwefel Gruppe ist das hervortretende Merkmal dieser Arbeit. Reagenzien und Reaktionsbedingungen: a) I2, Pyridin, THF, rt, 15 min; b) K2CO3, MeCN, rt, 1 h; c) MeI, K2CO3, DMF, 0 °C, 5 min; d) Ac2O, H2SO4 (1 Tropfen), rt, 10 min; e) CAN, MeCN/H2O, NH4SCN, rt, 1 h; f) NaN3; ZnBr2; iPrOH/H2O, Rückfluss 15 h; g) NaOH (1 M), TBAI, Benzol, rt 2 h; h) ZnCl2, CHCl3, Rückfluss, 3 h. Schema II. Funktionalisierungen von 2-Thiokohlenhydraten Daraus eröffnet sich die Möglichkeit, den Nutzwert von 2-Thiokohlenhydraten auf biologische Studien auszuweiten. Diese Transformationen haben den synthetischen Wert von 2-Thiokohlenhydraten für den präparativen Maßstab gesteigert. Hervorzuheben ist hier der Lewis Säure katalysierte Austausch der Methoxygruppe durch weitere Nukleophile und die Synthese von (2→1) Thiodisacchariden, die mit quantitativer β-Selektivität erhalten wurden. Zusätzlich wurde zum ersten Mal ein Zucker gebundenes Thiotetrazol über eine (3+2) Cycloaddition an der C-2 Position synthetisiert. III. Synthese von Thiodisacchariden durch Thiol-En-Kopplungen Im letzten Teil der Arbeit gelang die Synthese von Thiodisacchariden durch eine klassische Thiol-En-Kopplung. Reagenzien und Reaktionsbedingungen: 2,2-Dimethoxy-2-phenylacetophenone (DPAP), CH2Cl2/EtOH, hv, rt. Schema III. Thiol-En-Kopplungen zwischen 2-Thiolen und exo-Glycalen. Im Verlauf der Untersuchungen wurde aufgezeigt, dass die räumlische Hinderung bei der Addition von sterisch anspruchsvollen 2-Thiolen an endo-Glycale eine wichtige Rolle spielt. Dazu erprobten wir geeignete Substrate zur Addition von 2-Thiolen an sterisch wenig anspruchsvolle Alkene (Schema III). Die photochemische Addition der 2-Thiole an drei verschiedene exo-Glycale lieferte exzellente Regio- und Diastereoselektivitäten und Ausbeuten, was das synthetische Potenzial dieser bequem durchführbaren Methodik unterstreicht. KW - carbohydrates KW - 2-Thiodisaccharides KW - radical reactions KW - Ceric Ammonium Nitrate (CAN) KW - photochemistry KW - Kohlenhydrate KW - 2-Thiodisaccharide KW - Radikalreaktionen KW - Cer Ammonium Nitrat (CAN) KW - Photochemie Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397739 ER - TY - THES A1 - Paul, Fabian T1 - Markov state modeling of binding and conformational changes of proteins T1 - Markow-Modellierung von Bindung und Konformationsänderungen bei Proteinen N2 - Proteins are molecules that are essential for life and carry out an enormous number of functions in organisms. To this end, they change their conformation and bind to other molecules. However, the interplay between conformational change and binding is not fully understood. In this work, this interplay is investigated with molecular dynamics (MD) simulations of the protein-peptide system Mdm2-PMI and by analysis of data from relaxation experiments. The central task it to uncover the binding mechanism, which is described by the sequence of (partial) binding events and conformational change events including their probabilities. In the simplest case, the binding mechanism is described by a two-step model: binding followed by conformational change or conformational change followed by binding. In the general case, longer sequences with multiple conformational changes and partial binding events are possible as well as parallel pathways that differ in their sequences of events. The theory of Markov state models (MSMs) provides the theoretical framework in which all these cases can be modeled. For this purpose, MSMs are estimated in this work from MD data, and rate equation models, which are related to MSMs, are inferred from experimental relaxation data. The MD simulation and Markov modeling of the PMI-Mdm2 system shows that PMI and Mdm2 can bind via multiple pathways. A main result of this work is a dissociation rate on the order of one event per second, which was calculated using Markov modeling and is in agreement with experiment. So far, dissociation rates and transition rates of this magnitude have only been calculated with methods that speed up transitions by acting with time-dependent, external forces on the binding partners. The simulation technique developed in this work, in contrast, allows the estimation of dissociation rates from the combination of free energy calculation and direct MD simulation of the fast binding process. Two new statistical estimators TRAM and TRAMMBAR are developed to estimate a MSM from the joint data of both simulation types. In addition, a new analysis technique for time-series data from chemical relaxation experiments is developed in this work. It allows to identify one of the above-mentioned two-step mechanisms as the mechanism that underlays the data. The new method is valid for a broader range of concentrations than previous methods and therefore allows to choose the concentrations such that the mechanism can be uniquely identified. It is successfully tested with data for the binding of recoverin to a rhodopsin kinase peptide. N2 - Proteine sind für das Leben essentielle Moleküle, die eine Vielzahl von Funktionen in Organismen ausüben. Dazu ändern sie ihre Konformation und binden an andere Moleküle. Jedoch ist das Zusammenspiel zwischen Konformationsänderung und Bindung nicht vollständig verstanden. In dieser Arbeit wird dieses Zusammenspiel mit Molekulardynamik-Simulationen (MD) des Protein-Peptid-Systems Mdm2-PMI und mit der Analyse von Daten aus Relaxationsexperimenten untersucht. Die zentrale Aufgabe ist, den Bindungsmechanismus aufzudecken, welcher durch die Reihenfolge von (partiellen) Bindungsereignissen und Konformationsänderungsereignissen beschrieben wird, inklusive der Wahrscheinlichkeiten dieser Ereignisse. Im einfachsten Fall lässt sich der Bindungsmechanismus durch ein Zwei-Schritt-Modell beschreiben: erst Bindung, dann Konformationsänderung oder erst Konformationsänderung und dann Bindung. Im allgemeinen Fall sind längere Schrittfolgen mit mehreren Konformationsänderungen und partiellen Bindungsereignissen möglich, ebenso wie parallele Wege, die sich in ihrer Schrittfolge unterscheiden. Die Theorie der Markow-Modelle (MSM) bildet den theoretischen Rahmen, in dem alle diese Fälle modelliert werden können. Dazu werden in dieser Arbeit MSMs aus MD-Daten geschätzt und Ratengleichungsmodelle, die mit MSMs verwandt sind, aus experimentellen Relaxationsdaten abgeleitet. Die MD-Simulation und Markow-Modellierung des PMI-Mdm2-Systems zeigt, dass PMI und Mdm2 auf verschiedenen Wegen binden können. Ein Hauptergebnis dieser Arbeit ist die durch Markow-Modellierung berechnete Dissoziationsrate von der Größenordnung von einem Ereignis pro Sekunde in Übereinstimmung mit experimentellen Daten. Dissoziations- und Übergangsraten in dieser Größenordnung wurden bisher nur mit Methoden berechnet, die Übergänge beschleunigen, indem mit zeitabhängigen, externen Kräften auf die Bindungspartner eingewirkt wird. Die in dieser Arbeit entwickelte Simulationstechnik dagegen erlaubt die Schätzung von Dissoziationsraten aus der Kombination von Freien-Energie-Rechnungen und direkter MD-Simulation des schnellen Bindungsprozesses. Zwei neue statistische Schätzer, TRAM und TRAMMBAR wurden entwickelt um ein MSM aus dem Gesamtdatensatz aus beiden Simulationstypen zu schätzen. Zudem wird in dieser Arbeit eine neue Analysetechnik für Zeitreihen aus chemischen Relaxationsexperimenten entwickelt. Sie ermöglicht es einen der beiden oben erwähnten Zwei-Schritt-Mechanismen als den den Daten zugrundeliegenden Mechanismus zu identifizieren. Die neue Methode ist für einen größeren Konzentrationsbereich gültig als frühere Methoden und erlaubt es daher, die Konzentrationen so zu wählen, dass der Mechanismus eindeutig identifiziert werden kann. Sie wurde erfolgreich mit Daten für die Bindung von Recoverin an ein Rhodopsinkinasenpeptid getestet. KW - protein-protein interaction KW - Protein-Protein-Interaktion KW - conformational selection KW - Konformationsselektion KW - induced fit KW - induzierte Passform KW - Markov state models KW - Markowketten KW - importance sampling KW - protein kinetics KW - Proteinkinetik KW - stopped-flow KW - flussunterbrechende Analyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404273 ER - TY - THES A1 - Papenbrock, Thorsten T1 - Data profiling - efficient discovery of dependencies T1 - Profilerstellung für Daten - Effiziente Entdeckung von Abhängigkeiten N2 - Data profiling is the computer science discipline of analyzing a given dataset for its metadata. The types of metadata range from basic statistics, such as tuple counts, column aggregations, and value distributions, to much more complex structures, in particular inclusion dependencies (INDs), unique column combinations (UCCs), and functional dependencies (FDs). If present, these statistics and structures serve to efficiently store, query, change, and understand the data. Most datasets, however, do not provide their metadata explicitly so that data scientists need to profile them. While basic statistics are relatively easy to calculate, more complex structures present difficult, mostly NP-complete discovery tasks; even with good domain knowledge, it is hardly possible to detect them manually. Therefore, various profiling algorithms have been developed to automate the discovery. None of them, however, can process datasets of typical real-world size, because their resource consumptions and/or execution times exceed effective limits. In this thesis, we propose novel profiling algorithms that automatically discover the three most popular types of complex metadata, namely INDs, UCCs, and FDs, which all describe different kinds of key dependencies. The task is to extract all valid occurrences from a given relational instance. The three algorithms build upon known techniques from related work and complement them with algorithmic paradigms, such as divide & conquer, hybrid search, progressivity, memory sensitivity, parallelization, and additional pruning to greatly improve upon current limitations. Our experiments show that the proposed algorithms are orders of magnitude faster than related work. They are, in particular, now able to process datasets of real-world, i.e., multiple gigabytes size with reasonable memory and time consumption. Due to the importance of data profiling in practice, industry has built various profiling tools to support data scientists in their quest for metadata. These tools provide good support for basic statistics and they are also able to validate individual dependencies, but they lack real discovery features even though some fundamental discovery techniques are known for more than 15 years. To close this gap, we developed Metanome, an extensible profiling platform that incorporates not only our own algorithms but also many further algorithms from other researchers. With Metanome, we make our research accessible to all data scientists and IT-professionals that are tasked with data profiling. Besides the actual metadata discovery, the platform also offers support for the ranking and visualization of metadata result sets. Being able to discover the entire set of syntactically valid metadata naturally introduces the subsequent task of extracting only the semantically meaningful parts. This is challenge, because the complete metadata results are surprisingly large (sometimes larger than the datasets itself) and judging their use case dependent semantic relevance is difficult. To show that the completeness of these metadata sets is extremely valuable for their usage, we finally exemplify the efficient processing and effective assessment of functional dependencies for the use case of schema normalization. N2 - Data Profiling ist eine Disziplin der Informatik, die sich mit der Analyse von Datensätzen auf deren Metadaten beschäftigt. Die verschiedenen Typen von Metadaten reichen von einfachen Statistiken wie Tupelzahlen, Spaltenaggregationen und Wertverteilungen bis hin zu weit komplexeren Strukturen, insbesondere Inklusionsabhängigkeiten (INDs), eindeutige Spaltenkombinationen (UCCs) und funktionale Abhängigkeiten (FDs). Diese Statistiken und Strukturen dienen, sofern vorhanden, dazu die Daten effizient zu speichern, zu lesen, zu ändern und zu verstehen. Die meisten Datensätze stellen ihre Metadaten aber nicht explizit zur Verfügung, so dass Informatiker sie mittels Data Profiling bestimmen müssen. Während einfache Statistiken noch relativ schnell zu berechnen sind, stellen die komplexen Strukturen schwere, zumeist NP-vollständige Entdeckungsaufgaben dar. Es ist daher auch mit gutem Domänenwissen in der Regel nicht möglich sie manuell zu entdecken. Aus diesem Grund wurden verschiedenste Profiling Algorithmen entwickelt, die die Entdeckung automatisieren. Keiner dieser Algorithmen kann allerdings Datensätze von heutzutage typischer Größe verarbeiten, weil entweder der Ressourcenverbrauch oder die Rechenzeit effektive Grenzen überschreiten. In dieser Arbeit stellen wir neuartige Profiling Algorithmen vor, die automatisch die drei populärsten Typen komplexer Metadaten entdecken können, nämlich INDs, UCCs, und FDs, die alle unterschiedliche Formen von Schlüssel-Abhängigkeiten beschreiben. Die Aufgabe dieser Algorithmen ist es alle gültigen Vorkommen der drei Metadaten-Typen aus einer gegebenen relationalen Instanz zu extrahieren. Sie nutzen dazu bekannte Entdeckungstechniken aus verwandten Arbeiten und ergänzen diese um algorithmische Paradigmen wie Teile-und-Herrsche, hybrides Suchen, Progressivität, Speichersensibilität, Parallelisierung und zusätzliche Streichungsregeln. Unsere Experimente zeigen, dass die vorgeschlagenen Algorithmen mit den neuen Techniken nicht nur um Größenordnungen schneller sind als alle verwandten Arbeiten, sie erweitern auch aktuelle Beschränkungen deutlich. Sie können insbesondere nun Datensätze realer Größe, d.h. mehrerer Gigabyte Größe mit vernünftigem Speicher- und Zeitverbrauch verarbeiten. Aufgrund der praktischen Relevanz von Data Profiling hat die Industrie verschiedene Profiling Werkzeuge entwickelt, die Informatiker in ihrer Suche nach Metadaten unterstützen sollen. Diese Werkzeuge bieten eine gute Unterstützung für die Berechnung einfacher Statistiken. Sie sind auch in der Lage einzelne Abhängigkeiten zu validieren, allerdings mangelt es ihnen an Funktionen zur echten Entdeckung von Metadaten, obwohl grundlegende Entdeckungstechniken schon mehr als 15 Jahre bekannt sind. Um diese Lücke zu schließen haben wir Metanome entwickelt, eine erweiterbare Profiling Plattform, die nicht nur unsere eigenen Algorithmen sondern auch viele weitere Algorithmen anderer Forscher integriert. Mit Metanome machen wir unsere Forschungsergebnisse für alle Informatiker und IT-Fachkräfte zugänglich, die ein modernes Data Profiling Werkzeug benötigen. Neben der tatsächlichen Metadaten-Entdeckung bietet die Plattform zusätzlich Unterstützung bei der Bewertung und Visualisierung gefundener Metadaten. Alle syntaktisch korrekten Metadaten effizient finden zu können führt natürlicherweise zur Folgeaufgabe daraus nur die semantisch bedeutsamen Teile zu extrahieren. Das ist eine Herausforderung, weil zum einen die Mengen der gefundenen Metadaten überraschenderweise groß sind (manchmal größer als der untersuchte Datensatz selbst) und zum anderen die Entscheidung über die Anwendungsfall-spezifische semantische Relevanz einzelner Metadaten-Aussagen schwierig ist. Um zu zeigen, dass die Vollständigkeit der Metadaten sehr wertvoll für ihre Nutzung ist, veranschaulichen wir die effiziente Verarbeitung und effektive Bewertung von funktionalen Abhängigkeiten am Anwendungsfall Schema Normalisierung. KW - data profiling KW - functional dependency KW - unique column combination KW - inclusion dependency KW - dependency KW - metanome KW - metadata KW - discovery KW - hybrid KW - divide-and-conquer KW - Profilerstellung für Daten KW - funktionale Abhängigkeit KW - eindeutige Spaltenkombination KW - Inklusionsabhängigkeit KW - Abhängigkeit KW - Metanome KW - Metadaten KW - Entdeckung KW - Hybrid KW - Teile und Herrsche Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406705 ER - TY - THES A1 - Paape, Dario L. J. F. T1 - Antecedent complexity effects on ellipsis processing T1 - Einflüsse der Antezedenskomplexität auf die Verarbeitung von Ellipsen N2 - This dissertation explores whether the processing of ellipsis is affected by changes in the complexity of the antecedent, either due to added linguistic material or to the presence of a temporary ambiguity. Murphy (1985) hypothesized that ellipsis is resolved via a string copying procedure when the antecedent is within the same sentence, and that copying longer strings takes more time. Such an account also implies that the antecedent is copied without its structure, which in turn implies that recomputing its syntax and semantics may be necessary at the ellipsis gap. Alternatively, several accounts predict null effects of antecedent complexity, as well as no reparsing. These either involve a structure copying mechanism that is cost-free and whose finishing time is thus independent of the form of the antecedent (Frazier & Clifton, 2001), treat ellipsis as a pointer into content-addressable memory with direct access (Martin & McElree, 2008, 2009), or assume that one structure is ‘shared’ between antecedent and gap (Frazier & Clifton, 2005). In a self-paced reading study on German sluicing, temporarily ambiguous garden-path clauses were used as antecedents, but no evidence of reparsing in the form of a slowdown at the ellipsis site was found. Instead, results suggest that antecedents which had been reanalyzed from an initially incorrect structure were easier to retrieve at the gap. This finding that can be explained within the framework of cue-based retrieval parsing (Lewis & Vasishth, 2005), where additional syntactic operations on a structure yield memory reactivation effects. Two further self-paced reading studies on German bare argument ellipsis and English verb phrase ellipsis investigated if adding linguistic content to the antecedent would increase processing times for the ellipsis, and whether insufficiently demanding comprehension tasks may have been responsible for earlier null results (Frazier & Clifton, 2000; Martin & McElree, 2008). It has also been suggested that increased antecedent complexity should shorten rather than lengthen retrieval times by providing more unique memory features (Hofmeister, 2011). Both experiments failed to yield reliable evidence that antecedent complexity affects ellipsis processing times in either direction, irrespectively of task demands. Finally, two eye-tracking studies probed more deeply into the proposed reactivation-induced speedup found in the first experiment. The first study used three different kinds of French garden-path sentences as antecedents, with two of them failing to yield evidence for reactivation. Moreover, the third sentence type showed evidence suggesting that having failed to assign a structure to the antecedent leads to a slowdown at the ellipsis site, as well as regressions towards the ambiguous part of the sentence. The second eye-tracking study used the same materials as the initial self-paced reading study on German, with results showing a pattern similar to the one originally observed, with some notable differences. Overall, the experimental results are compatible with the view that adding linguistic material to the antecedent has no or very little effect on the ease with which ellipsis is resolved, which is consistent with the predictions of cost-free copying, pointer-based approaches and structure sharing. Additionally, effects of the antecedent’s parsing history on ellipsis processing may be due to reactivation, the availability of multiple representations in memory, or complete failure to retrieve a matching target. N2 - Diese Dissertation untersucht, ob die Verarbeitung elliptischer Strukturen von Veränderungen der Komplexität des Antezedens beeinflusst wird, entweder durch zusätzliches linguistisches Material oder durch die Präsenz einer temporären Ambiguität. Murphy (1985) stellte die Hypothese auf, dass Ellipsen durch das Kopieren von Zeichenketten aufgelöst werden, sofern das Antezedens sich im selben Satz befindet, und dass das Kopieren längerer Zeichenketten mehr Zeit in Anspruch nimmt. Ein solcher Ansatz impliziert auch, dass das Antezedens ohne seine Struktur kopiert wird, was wiederum impliziert, dass seine Struktur und Semantik an der Auslassungsstelle möglicherweise erneut berechnet werden müssen. Alternativ existieren mehrere Ansätze, die Nulleffekte der Antezedenskomplexität sowie keine strukturelle Neuberechnung vorhersagen. Diese Ansätze involvieren entweder einen Mechanismus, der die bestehende Struktur kostenfrei überträgt und dessen Latenz von der Form des Antezedens unabhängig ist (Frazier & Clifton, 2001), behandeln die Ellipse als Verweis in einen inhaltsadressierbaren Gedächtnisspeicher (Martin & McElree, 2008, 2009) oder nehmen an, dass die Struktur des Antezedens mit der Ellipse "geteilt" wird (Frazier & Clifton, 2005). In einer Self-Paced Reading-Studie mit deutschen Sluicing-Strukturen wurden temporär ambige Garden Path-Sätze als Antezedenten verwendet, es konnte aber keine Evidenz für strukturelle Neuberechnung in Form höherer Lesezeiten am Punkt der Ellipse gefunden werden. Stattdessen zeigte sich, dass Antezedenten, deren ursprünglich inkorrekt zugewiesene Strukturen reanalysiert worden waren, am Punkt der Ellipse leichter abzurufen waren. Dieses Resultat kann im Kontext des Cue-Based Retrieval Parsing (Lewis & Vasishth, 2005) erklärt werden, wo zusätzliche syntaktische Operationen auf einer Struktur zur Stärkung der assoziierten Gedächtnisspur führen. Zwei weitere Self-Paced Reading-Studien zu deutschen Bare Argument-Ellipsen und englischen VP-Ellipsen sollten ausloten, ob zusätzliches linguistisches Material im Antezedens zu längeren Verarbeitungszeiten für die Ellipse führen würde und ob zu wenig fordernde Verständnistests der Grund für frühere Nullresultate waren (Frazier & Clifton, 2000; Martin & McElree, 2008). Auch gibt es die Theorie, dass erhöhte Komplexität des Antezedens Abrufzeiten verkürzen und nicht verlangsamen sollte, da mehr einzigartige Gedächtnismerkmale zur Verfügung stehen (Hofmeister, 2011). Beide Experimente lieferten keine Evidenz für einen Einfluss der Antezedenskomplexität auf die Verarbeitungszeit der Ellipse in die eine oder in die andere Richtung, unabhängig von der Aufgabenschwierigkeit. Schließlich wurde in zwei Eyetracking-Studien der in der ersten Studie beschriebene Reaktivierungseffekt genauer betrachtet. Die erste dieser Studien verwendete drei verschiedene Typen von Garden Path-Strukturen im Französischen als Antezedenten, von denen zwei keine Evidenz für Reaktivierung zeigten. Darüber hinaus zeigte die dritte getestete Struktur Evidenz dafür, dass eine Verlangsamung am Punkt der Ellipse sowie Regressionen zum Antezedens auftreten, wenn dem Antezedens anfänglich keine Struktur zugewiesen wurde. Die zweite Eyetracking-Studie verwendete dieselben deutschen Materialen wie die ursprüngliche Self-Paced Reading-Studie, mit größtenteils ähnlichen Resultaten und einigen beachtenswerten Abweichungen. Insgesamt sind die experimentellen Ergebnisse mit der Ansicht kompatibel, dass das Hinzufügen von linguistischen Material zum Antezedens keine oder nur sehr minimale Effekte auf die Verarbeitungszeit der Ellipse hat, was mit den Vorhersagen auf Basis eines kostenfreien Kopiermechanismus, eines inhaltsadressierten Gedächtnisspeichers oder einer "geteilten" Struktur übereinstimmt. Effekte, die sich aus der Verarbeitungsgeschichte des Antezedens ergeben, sind möglicherweise auf Reaktivierung, das Vorhandensein mehrerer Gedächtnisspuren oder ein komplettes Scheitern des Gedächtnisabrufs zurückzuführen. KW - ellipsis KW - antecedent complexity KW - psycholinguistics KW - task demands KW - garden path KW - Ellipse KW - Psycholinguistik KW - Temporäre Ambiguität Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411689 ER - TY - THES A1 - Otto, Christopher T1 - Numerical analysis of thermal, hydraulic and mechanical processes in the near- and far-field of underground coal gasification reactors T1 - Numerische Analyse von thermalen, hydraulischen und mechanischen Prozessen im Nah- und Fernfeld von Untertage-Kohlevergasungs-Reaktoren N2 - Die Untertagevergasung von Kohle (UTV) ermöglicht die Erschließung konventionell nicht förderbarer Kohleressourcen und bietet dadurch Potenzial zur Erhöhung der weltweiten Kohlereserven. Bei der in-situ Kohleumwandlung entsteht ein hochkalorisches Synthesegas, das elektrifiziert oder zur Gewinnung chemischer Rohstoffe und synthetischer Kraftstoffe eingesetzt werden kann. Neben den wirtschaftlichen Möglichkeiten, bestehen jedoch auch standort-spezifische Umweltgefährdungspotentiale durch Subsidenz und Schadstoffmigration von UTV-Rückständen in nutzbare Grundwasserleiter. Eine nachhaltige und effiziente UTV erfordert ein umfangreiches Verständnis der thermisch, hydraulisch und mechanisch gekoppelten Prozesse im UTV-Reaktornahbereich. Aufgrund der hohen Investitionskosten von UTV-Pilotanlagen, sind numerische Simulationen gekoppelter Prozesse von entscheidender Bedeutung für die Bewertung möglicher UTV-Umweltauswirkungen. Im Rahmen dieser Arbeit wird die UTV-induzierte Permeabilitätsveränderung, Erzeugung möglicher hydraulischer Kurzschlüsse benachbarter Reaktoren und Dynamik nicht-isothermer Multiphasenflüsse mit gekoppelten Simulationen analysiert. Die Simulationsergebnisse zeigen, dass eine Implementierung temperaturabhängiger thermo-mechanischer Gesteinsparameter nur für Untersuchungen von Permeabilitäts-änderungen im Reaktornachbereich notwendig ist. Die Ergebnisse erlauben somit eine recheneffiziente Realisierung von komplexen thermo-mechanisch gekoppelten Simulations-studien regionalskaliger Modelle mit konstanten Gesteinsparametern, bei nahezu gleichbleibender Ergebnisgenauigkeit, die zur Bewertung von UTV-Umweltgefährdungs-potenzialen beitragen. Simulationen zur Ausbildung hydraulischer Kurzschlüsse zwischen einzelnen UTV-Reaktoren auf regionaler Skala, verdeutlichen die Relevanz von geologischen Störungen an einem UTV-Standort, da diese durch Reaktivierung hydraulische Verbindungen induzieren und somit einen effizienten und nachhaltigen UTV-Betrieb negativ beeinträchtigen können. In diesem Zusammenhang kommt der Ausbildung einer Wasserdampfphase, der sogenannte „steam jacket“, im Hochtemperaturnahbereich von UTV-Reaktoren, als potenzielle Barriere zur Vermeidung von UTV-Schadstoffaustritten und zur potenziellen Minimierung von Energieverlusten eine entscheidende Bedeutung zu. Diese steam jackets entstehen durch evaporiertes Formationswasser und sind komplexe nicht-isotherme Multiphasenfluss-Phänomene. Für ein verbessertes Prozessverständnis dieser Multiphasenflüsse, wurde ein neuartiges Modellkonzept entwickelt, welches, validiert gegen Feldversuchsdaten, erstmals sowohl eine Quantifizierung als auch Prognose von Wasserflussraten in und aus einem UTV-Reaktor erlaubt. Die Ergebnisse der vorgelegten Doktorarbeit bilden eine wichtige Grundlage für eine erfolgreiche Integration gekoppelter thermo-hydro-mechanischer Simulationen in weiterführende Studien. Vor dem Hintergrund hoher UTV-Umweltgefährdungspotentiale, können diese zur verbesserten Bewertung und Minderung von UTV-Umweltauswirkungen beitragen, sowie die UTV-Effizienz nachhaltig optimieren. N2 - Underground coal gasification (UCG) has the potential to increase worldwide coal reserves by developing coal resources, currently not economically extractable by conventional mining methods. For that purpose, coal is combusted in situ to produce a high-calorific synthesis gas with different end-use options, including electricity generation as well as production of fuels and chemical feedstock. Apart from the high economic potentials, UCG may induce site‐specific environmental impacts, including ground surface subsidence and pollutant migration of UCG by-products into shallow freshwater aquifers. Sustainable and efficient UCG operation requires a thorough understanding of the coupled thermal, hydraulic and mechanical processes, occurring in the UCG reactor vicinity. The development and infrastructure costs of UCG trials are very high; therefore, numerical simulations of coupled processes in UCG are essential for the assessment of potential environmental impacts. Therefore, the aim of the present study is to assess UCG-induced permeability changes, potential hydraulic short circuit formation and non-isothermal multiphase fluid flow dynamics by means of coupled numerical simulations. Simulation results on permeability changes in the UCG reactor vicinity demonstrate that temperature-dependent thermo-mechanical parameters have to be considered in near-field assessments, only. Hence, far-field simulations do not become inaccurate, but benefit from increased computational efficiency when thermo-mechanical parameters are maintained constant. Simulations on potential hydraulic short circuit formation between single UCG reactors at regional-scale emphasize that geologic faults may induce hydraulic connections, and thus compromise efficient UCG operation. In this context, the steam jacket surrounding high-temperature UCG reactors plays a vital role in avoiding UCG by-products escaping into freshwater aquifers and in minimizing energy consumption by formation fluid evaporation. A steam jacket emerges in the close reactor vicinity due to phase transition of formation water and is a non-isothermal flow phenomenon. Considering this complex multiphase flow behavior, an innovative conceptual modeling approach, validated against field data, enables the quantification and prediction of UCG reactor water balances. The findings of this doctoral thesis provide an important basis for integration of thermo-hydro-mechanical simulations in UCG, required for the assessment and mitigation of its potential environmental impacts as well as optimization of its efficiency. KW - underground coal gasification KW - numerical simulation KW - non-isothermal multiphase flow KW - thermo-mechanical modeling KW - Untertage-Kohlevergasung KW - numerische Simulation KW - nichtisothermer Mehrphasenfluss KW - thermo-mechanische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404625 ER - TY - THES A1 - Osei Tutu, Anthony T1 - Linking global mantle dynamics with lithosphere dynamics using the geoid, plate velocities and lithosphere stress state as constraints T1 - Verknüpfung der globalen Manteldynamik mit der Lithosphärendynamik, unter Berücksichtigung des Geoids, der Plattengeschwindigkeiten und des Spannungszustandes der Lithosphäre als Einschränkungen BT - lithosphere and mantle dynamics coupling N2 - Lithospheric plates move over the low viscosity asthenosphere balancing several forces. The driving forces include basal shear stress exerted by mantle convection and plate boundary forces such as slab pull and ridge push, whereas the resisting forces include inter-plate friction, trench resistance, and cratonic root resistance. These generate plate motions, the lithospheric stress field and dynamic topography which are observed with different geophysical methods. The orientation and tectonic regime of the observed crustal/lithospheric stress field further contribute to our knowledge of different deformation processes occurring within the Earth's crust and lithosphere. Using numerical models previous studies were able to identify major forces generating stresses in the crust and lithosphere which also contribute to the formation of topography as well as driving lithospheric plates. They showed that the first-order stress pattern explaining about 80\,\% of the stress field originates from a balance of forces acting at the base of the moving lithospheric plates due to convective flow in the underlying mantle. The remaining second-order stress pattern is due to lateral density variations in the crust and lithosphere in regions of pronounced topography and high gravitational potential, such as the Himalayas and mid-ocean ridges. By linking global lithosphere dynamics to deep mantle flow this study seeks to evaluate the influence of shallow and deep density heterogenities on plate motions, lithospheric stress field and dynamic topography using the geoid as a major constraint for mantle rheology. We use the global 3D lithosphere-asthenosphere model SLIM3D with visco-elasto-plastic rheology coupled at 300 km depth to a spectral model of mantle flow. The complexity of the lithosphere-asthenosphere component allows for the simulation of power-law rheology with creep parameters accounting for both diffusion and dislocation creep within the uppermost 300 km. First we investigate the influence of intra-plate friction and asthenospheric viscosity on present-day plate motions. Previous modelling studies have suggested that small friction coefficients (µ < 0.1, yield stress ~ 100 MPa) can lead to plate tectonics in models of mantle convection. Here we show that, in order to match present-day plate motions and net rotation, the frictional parameter must be less than 0.05. We are able to obtain a good fit with the magnitude and orientation of observed plate velocities (NUVEL-1A) in a no-net-rotation (NNR) reference frame with µ < 0.04 and minimum asthenosphere viscosity ~ 5*10e19 Pas to 10e20 Pas. Our estimates of net rotation (NR) of the lithosphere suggest that amplitudes ~ 0.1-0.2 °/Ma, similar to most observation-based estimates, can be obtained with asthenosphere viscosity cutoff values of ~ 10e19 Pas to 5*10e19 Pas and friction coefficient µ < 0.05. The second part of the study investigates further constraints on shallow and deep mantle heterogeneities causing plate motion by predicting lithosphere stress field and topography and validating with observations. Lithosphere stresses and dynamic topography are computed using the modelling setup and rheological parameters for prescribed plate motions. We validate our results with the World Stress Map 2016 (WSM2016) and the observed residual topography. Here we tested a number of upper mantle thermal-density structures. The one used to calculate plate motions is considered the reference thermal-density structure. This model is derived from a heat flow model combined with a sea floor age model. In addition we used three different thermal-density structures derived from global S-wave velocity models to show the influence of lateral density heterogeneities in the upper 300 km on model predictions. A large portion of the total dynamic force generating stresses in the crust/lithosphere has its origin in the deep mantle, while topography is largely influenced by shallow heterogeneities. For example, there is hardly any difference between the stress orientation patterns predicted with and without consideration of the heterogeneities in the upper mantle density structure across North America, Australia, and North Africa. However, the crust is dominant in areas of high altitude for the stress orientation compared to the all deep mantle contribution. This study explores the sensitivity of all the considered surface observables with regards to model parameters providing insights into the influence of the asthenosphere and plate boundary rheology on plate motion as we test various thermal-density structures to predict stresses and topography. N2 - Lithosphärenplatten bewegen sich über die niederviskose Asthenosphäre, wobei mehrere Kräfte im Gleichgewicht stehen. Die antreibenden Kräfte umfassen eine basale Schubspannung, die durch Mantelkonvektion verursacht wird, und Plattengrenzkräfte, wie z.B. slab pull und ridge push, während die widerstehenden Kräfte die Reibung zwischen Platten, Widerstand an Tiefseegräben sowie an den kratonischen Wurzeln umfassen. Diese Kräfte erzeugen Plattenbewegungen, das lithosphärische Spannungsfeld und die dynamische Topographie, die mit verschiedenen geophysikalischen Methoden beobachtet werden. Die Orientierung und das tektonische Regime des beobachteten Krusten- und lithosphärischen Spannungsfeldes tragen weiter zu unserem Wissen über unterschiedliche Deformationsprozesse in der Erdkruste und Lithosphäre bei. Mit Hilfe von numerischen Modellen konnten frühere Studien die wichtigsten Kräfte identifizieren, die Spannungen in der Kruste und in der Lithosphäre erzeugen, und die auch zur Bildung von Topographie sowie zum Antrieb der lithosphärischen Platten beitragen. Sie zeigten, dass das Spannungsmuster erster Ordnung, das etwa 80% des Spannungsfeldes erklärt, aus einem Gleichgewicht der Kräfte stammt, die an der Basis der sich bewegenden lithosphärischen Platten aufgrund der konvektiven Strömung in dem darunter liegenden Mantel wirken. Das verbleibende Spannungsmuster der zweiten Ordnung ist auf laterale Dichtevariationen in der Kruste und der Lithosphäre in Regionen mit ausgeprägter Topographie und hohem Gravitationspotential zurückzuführen, wie im Himalaya und an den Mittelozeanischen Rücken. Durch die Verknüpfung der globalen Lithosphären-Dynamik mit den tiefen Mantelströmungen versucht diese Studie, den Einfluss von flachen und tiefen Dichte-Heterogenitäten auf die Plattenbewegungen, das lithosphärische Spannungsfeld und die dynamische Topographie mit dem Geoid als einer wesentlichen Randbedingung für die Mantel-Rheologie zu untersuchen. Ich verwende das globale 3D-Lithosphären-Asthenosphären-Modell SLIM3D mit viskoelasto-plastischer Rheologie, gekoppelt in 300 km Tiefe an ein spektrales Modell der Mantelströmung. Die Komplexität der Lithosphären-Asthenosphären- Komponente ermöglicht die Simulation der Power-law-Rheologie mit Kriechparametern, die sowohl Diffusions-als auch Dislokationskriechen in den obersten 300km einschließen. Zuerst untersuche ich den Einfluss der Intra-Platten-Reibung und der asthenosphärischen Viskosität auf heutige Plattenbewegungen. Bisherige Modellierungsstudien haben vorgeschlagen, dass kleine Reibungskoeffizienten ( u < 0,1, FlieSSspannung ~ 100 MPa) zu Plattentektonik in Modellen der Mantelkonvektion führen können. Hier zeigen wir, dass der Reibungsparameter, um den heutigen Plattenbewegungen und der Netto-Rotation zu entsprechen, kleiner als 0,05 sein muss. Wir können eine gute Übereinstimmung mit der Größe und Orientierung der beobachteten Plattengeschwindigkeiten (NUVEL-1A) in einem No-Net- Rotation- (NNR) Bezug system mit < 0,04 und minimaler Asthenosphärenviskosität ~ 510^19 Pas bis 10^20 Pas erreichen. Unsere Schätzungen der Netto-Rotation (NR) der Lithosphäre deuten darauf hin, dass Amplituden ~ 0:1 - 0:2 (◦/Ma), ähnlich den meisten Beobachtungs-basierten Schätzungen, mit Asthenosphären- Viskositäts-Cutoff-Werten von ~ 10^19 Pas bis 5 10^19 Pas und Reibungskoeffizient u < 0,05 erreicht werden können. Der zweite Teil der Studie untersucht weitere Einschränkungen auf flache und tiefe Mantelheterogenitäten, welche Plattenbewegungen verursachen, durch die Vorhersage des Lithosphärenspannungsfeldes und der Topographie und deren Validierung mit Beobachtungen. Lithosphärenspannungen und dynamische Topographie werden mit dem Modellaufbau und den rheologischen Parametern für vorgeschriebene Plattenbewegungen berechnet.Wir validieren unsere Ergebnisse mit der Weltspannungskarte 2016 (WSM2016) und der beobachteten Residualtopographie. Hier haben wir eine Anzahl von thermischen Dichte-Strukturen für den oberen Mantel getestet. Diejenige, die verwendet wurde, um Plattenbewegungen zu berechnen, wird als Referenz- thermische Dichte-Struktur betrachtet. Dieses Modell ist abgeleitet aus einem Wärmestrommodell, kombiniert mit einem Ozeanbodenalter-Modell. Darüber hinaus haben wir drei verschiedene thermische Dichtestrukturen abgeleitet aus globalen S-Wellengeschwindigkeits modellen verwendet, um den Einfluss von Heterogenitäten der lateralen Dichte in den oberen 300 km auf Modellvorhersagen zu zeigen. Ein großer Teil der gesamten dynamischen Kraft, die Spannungen in der Kruste / Lithosphäre erzeugt, hat ihren Ursprung im tiefen Mantel, während die Topographie weitgehend durch flache Heterogenitäten beeinflusst wird. Zum Beispiel gibt es kaum einen Unterschied zwischen den Spannungsorientierungsmustern, die mit und ohne Berücksichtigung der Heterogenitäten in der Dichtestruktur des oberen Mantels in Nordamerika, Australien und Nordafrika vorhergesagt wurden. Allerdings dominiert die Kruste in Gebieten von großer Höhe für die Spannungorientierung im Vergleich zu allen tiefen Mantelbeiträgen. Diese Studieerforschen die Empfindlichkeit aller betrachteten Oberflächen-Observablen in Bezug auf Modellparameter und gibt Einblicke über den Einfluss der Asthenosphäre und Plattengrenzen-Rheologie auf Plattenbewegung, wobei wir verschiedene thermische Dichte Strukturen zur Vorhersage von Spannungen und Topographie testen. KW - plate motions KW - plate boundary friction KW - upper mantle viscosity structure KW - lithosphere stress field KW - dynamic topography KW - lithosphere net rotation KW - upper mantle density heterogeneities KW - Plattenbewegungen KW - Reibung an Plattengrenzen KW - Viskositätsstruktur im oberen Mantel KW - lithosphärisches Spannungsfeld KW - dynamische Topographie KW - Nettorotation der Lithosphäre KW - Dichteheterogenitäten im oberen Mantel Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407057 ER - TY - THES A1 - Olejko, Lydia T1 - Förster resonance energy transfer (FRET)-based nanophotonics using DNA origami structures T1 - Förster-Resonanzenergietransfer (FRET) basierende Nanophotonik auf DNA Origami Strukturen N2 - The field of nanophotonics focuses on the interaction between electromagnetic radiation and matter on the nanometer scale. The elements of nanoscale photonic devices can transfer excitation energy non-radiatively from an excited donor molecule to an acceptor molecule by Förster resonance energy transfer (FRET). The efficiency of this energy transfer is highly dependent on the donor-acceptor distance. Hence, in these nanoscale photonic devices it is of high importance to have a good control over the spatial assembly of used fluorophores. Based on molecular self-assembly processes, various nanostructures can be produced. Here, DNA nanotechnology and especially the DNA origami technique are auspicious self-assembling methods. By using DNA origami nanostructures different fluorophores can be introduced with a high local control to create a variety of nanoscale photonic objects. The applications of such nanostructures range from photonic wires and logic gates for molecular computing to artificial light harvesting systems for artificial photosynthesis. In the present cumulative doctoral thesis, different FRET systems on DNA origami structures have been designed and thoroughly analyzed. Firstly, the formation of guanine (G) quadruplex structures from G rich DNA sequences has been studied based on a two-color FRET system (Fluorescein (FAM)/Cyanine3 (Cy3)). Here, the influences of different cations (Na+ and K+), of the DNA origami structure and of the DNA sequence on the G-quadruplex formation have been analyzed. In this study, an ion-selective K+ sensing scheme based on the G-quadruplex formation on DNA origami structures has been developed. Subsequently, the reversibility of the G-quadruplex formation on DNA origami structures has been evaluated. This has been done for the simple two-color FRET system which has then been advanced to a switchable photonic wire by introducing additional fluorophores (FAM/Cy3/Cyanine5 (Cy5)/IRDye®700). In the last part, the emission intensity of the acceptor molecule (Cy5) in a three-color FRET cascade has been tuned by arranging multiple donor (FAM) and transmitter (Cy3) molecules around the central acceptor molecule. In such artificial light harvesting systems, the excitation energy is absorbed by several donor and transmitter molecules followed by an energy transfer to the acceptor leading to a brighter Cy5 emission. Furthermore, the range of possible excitation wavelengths is extended by using several different fluorophores (FAM/Cy3/Cy5). In this part of the thesis, the light harvesting efficiency (antenna effect) and the FRET efficiency of different donor/transmitter/acceptor assemblies have been analyzed and the artificial light harvesting complex has been optimized in this respect. N2 - Nanotechnologie hat in den letzten Jahrzehnten durch die Herstellung von Materialien mit außergewöhnlichen Eigenschaften für Anwendungen im Bereich der Medizin und Materialwissenschaften immer mehr an Popularität gewonnen. Die Herstellungsmethoden von Nanostrukturen sind weit gefächert. Auch Desoxyribonukleinsäure (DNS bzw. engl. DNA, deoxyribonucleic acid) kann für die Herstellung von Strukturen im Nanometerbereich genutzt werden. Diese sogenannte DNA-Nanotechnologie wurde in den frühen 1980er Jahren von Nadrian C. Seeman begründet. Ungefähr 30 Jahre später wurde eine neue Methodik für die Herstellung von DNA-Nanostrukturen von Paul W. K. Rothemund entwickelt, die er „scaffold DNA origami“ (Gerüst-DNA-Origami) nannte. DNA-Origami-Nanostrukturen können relativ einfach hergestellt werden und eignen sich perfekt für die Anordnung unterschiedlicher Moleküle (zum Beispiel Fluorophore) mit hoher räumlicher Kontrolle und Präzision. Daher können sie als Substrate genutzt werden, um verschiedene Förster-Resonanzenergietransfer (FRET) Systeme zu entwerfen und zu untersuchen. FRET ist ein strahlungsloser Energietransfer, bei dem die Anregungsenergie von einem Donor- auf ein Akzeptor-Molekül übertragen wird. In dieser kumulativen Doktorarbeit wurden verschiedene FRET-Systeme auf DNA-Origami-Nanostrukturen entwickelt und mithilfe der Fluoreszenzspektroskopie untersucht. Hierbei wurde zuerst die durch einwertige Kationen (Kalium oder Natrium) induzierte Guanin-Quadruplex-Faltung von freier Telomer-DNA und Telomer-DNA auf DNA-Origami-Strukturen mittels FRET analysiert. Diese Untersuchungen haben gezeigt, dass die freie umgedrehte menschliche Telomer-Sequenz (RevHumTel, 5'-(GGG ATT)4) generell sensitiver auf K+ als auf Na+ reagiert. Durch die Immobilisierung der Telomer-DNA auf DNA-Origami-Strukturen kann eine vollständige Selektivität für K+ erreicht werden. Interessanterweise wird die Ionenselektivität aufgehoben, wenn die menschliche Telomer-Sequenz (HumTel, 5'-(TTA GGG)4) verwendet wird. Basierend auf der G-Quadruplex-Faltung konnten schaltbare FRET-Systeme entwickelt werden, da sich die G-Quadruplexe wieder entfalten, wenn die Kationen mithilfe von zum Beispiel Kryptanden entfernt werden. In den hier untersuchten FRET-Systemen konnte zwischen hoher FRET-Effizienz (gefalteter G-Quadruplex) und niedriger FRET-Effizienz (entfalteter DNA Einzelstrang) durch Zugabe KCl bzw. cryptand gewechselt werden. Da sich DNA-Origami-Strukturen recht einfach modifizieren lassen, wurde das ursprüngliche zwei-Farben-FRET-System durch Hinzufügen eines weiteren etwas rotverschobenen Farbstoffes erweitert (drei-Farben-FRET-Kaskade). Schließlich konnte ein schaltbarer photonischer Draht durch Einfügen eines vierten Farbstoffes entwickelt werden. Die Emissionsintensität des finalen Akzeptors ist in einer einfachen drei-Farben-FRET-Kaskade (ein Donor, ein Transmitter und ein Akzeptor) verhältnismäßig gering und kann durch das Anordnen von mehreren Donor- und Transmitter-Molekülen um ein zentrales Akzeptor-Molekül herum stark erhöht werden. In diesen sogenannten künstlichen Lichtsammelkomplexen absorbieren die Donor-Moleküle das Anregungslicht und übertragen dieses über mehrere FRET-Stufen zum Akzeptor-Molekül. Dadurch wird der Wellenlängenbereich der elektromagnetischen Strahlung, welcher vom Akzeptor absorbiert werden kann, vergrößert und die Emissionsintensität des Akzeptors verstärkt. In diesem Teil der Arbeit wurde die Anzahl der Farbstoffe und die Anordnung dieser unterschiedlichen Farbstoffe variiert und die Lichtsammeleffizienz und FRET-Effizienz bestimmt. Hierbei wurden diese Parameter optimiert und aufgrund der gefundenen Ergebnisse konnten Design-Regeln für solche künstlichen Lichtsammelkomplexe aufgestellt werden. KW - DNA origami KW - FRET KW - Förster resonance energy transfer KW - DNA Origami KW - FRET KW - Förster-Resonanzenergietransfer Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396747 ER - TY - THES A1 - Nitezki, Tina T1 - Charakterisierung von Stereotypien bei der FVB/NJ-Maus hinsichtlich metabolischer und immunologischer Aspekte auf die Stoffwechselleistung T1 - Characterization of stereotypies in FVB/NJ mice and their impact on metabolism and immune system N2 - Im Sinne des Refinements von Tierversuchen sollen alle Bedingungen während der Zucht, der Haltung und des Transports von zu Versuchszwecken gehaltenen Tieren und alle Methoden während des Versuchs so verbessert werden, dass die verwendeten Tiere ein minimales Maß an potentiellem Distress, Schmerzen oder Leiden erfahren. Zudem soll ihr Wohlbefinden durch die Möglichkeit des Auslebens speziesspezifischer Verhaltensweisen und die Anwendung tierschonender Verfahren maximal gefördert werden. Zur Etablierung von Grundsätzen des Refinements sind grundlegende Kenntnisse über die physiologischen Bedürfnisse und Verhaltensansprüche der jeweiligen Spezies unabdingbar. Die Experimentatoren sollten das Normalverhalten der Tiere kennen, um potentielle Verhaltensabweichungen, wie Stereotypien, zu verstehen und interpretieren zu können. Standardisierte Haltungsbedingungen von zu Versuchszwecken gehaltenen Mäusen weichen in diversen Aspekten von der natürlichen Umgebung ab und erfordern eine gewisse Adaptation. Ist ein Tier über einen längeren Zeitraum unfähig, sich an die gegebenen Umstände anzupassen, können abnormale Verhaltensweisen, wie Stereotypien auftreten. Stereotypien werden definiert als Abweichungen vom Normalverhalten, die repetitiv und ohne Abweichungen im Ablauf ausgeführt werden, scheinbar keiner Funktion dienen und der konkreten Umweltsituation nicht immer entsprechen. Bisher war unklar, in welchem Ausmaß stereotypes Verhalten den metabolischen Phänotyp eines Individuums beeinflusst. Ziel dieser Arbeit war es daher, das stereotype Verhalten der FVB/NJ-Maus erstmals detailliert zu charakterisieren, systematisch zusammenzutragen, welche metabolischen Konsequenzen dieses Verhalten bedingt und wie sich diese auf das Wohlbefinden der Tiere und die Verwendung stereotyper Tiere in Studien mit tierexperimentellem Schwerpunkt auswirken. Der Versuch begann mit der Charakterisierung der mütterlichen Fürsorge in der Parentalgeneration. Insgesamt wurden 35 Jungtiere der F1-Generation vom Absatz an, über einen Zeitraum von 11 Wochen einzeln gehalten, kontinuierlich beobachtet, bis zum Versuchsende wöchentlich Kotproben gesammelt und das Körpergewicht bestimmt. Zusätzlich erfolgten begleitende Untersuchungen wie Verhaltenstests und die Erfassung der physischen Aktivität und metabolischer Parameter. Anschließend wurden u.a. die zerebralen Serotonin- und Dopamingehalte, fäkale Glucocorticoidlevels, hepatisches Glykogen und muskuläre Glykogen- und Triglyceridlevels bestimmt. Nahezu unabhängig von der mütterlichen Herkunft entwickelte sich bei mehr als der Hälfte der 35 Jungtiere in der F1-Generation stereotypes Verhalten. Diese Daten deuten darauf hin, dass es keine Anzeichen für das Erlernen oder eine direkte genetische Transmission stereotypen Verhaltens bei der FVB/NJ-Maus gibt. Über den gesamten Beobachtungszeitraum zeichneten sich die stereotypen FVB/NJ-Mäuse durch ein eingeschränktes Verhaltensrepertoire aus. Zu Gunsten der erhöhten Aktivität und des Ausübens stereotypen Verhaltens lebten sie insgesamt weniger andere Verhaltensweisen (Klettern, Graben, Nagen) aus. Darüber hinaus waren Stereotypien sowohl im 24-Stunden Open Field Test als auch in der Messeinrichtung der indirekten Tierkalorimetrie mit einer erhöhten Aktivität und Motilität assoziiert, während die circadiane Rhythmik nicht divergierte. Diese erhöhte körperliche Betätigung spiegelte sich in den niedrigeren Körpergewichtsentwicklungen der stereotypen Tiere wieder. Außerdem unterschieden sich die Körperfett- und Körpermuskelanteile. Zusammenfassend lässt sich sagen, dass das Ausüben stereotypen Verhaltens zu Differenzen im metabolischen Phänotyp nicht-stereotyper und stereotyper FVB/NJ-Mäuse führt. Im Sinne der „Guten Wissenschaftlichen Praxis“ sollte das zentrale Ziel jedes Wissenschaftlers sein, aussagekräftige und reproduzierbare Daten hervorzubringen. Jedoch können keine validen Resultate von Tieren erzeugt werden, die in Aspekten variieren, die für den vorgesehenen Zweck der Studie nicht berücksichtigt wurden. Deshalb sollten nicht-stereotype und stereotype Individuen nicht innerhalb einer Versuchsgruppe randomisiert werden. Stereotype Tiere demzufolge von geplanten Studien auszuschließen, würde allerdings dem Gebot des zweiten R’s – der Reduction – widersprechen. Um Refinement zu garantieren, sollte der Fokus auf der maximal erreichbaren Prävention stereotypen Verhaltens liegen. Diverse Studien haben bereits gezeigt, dass die Anreicherung der Haltungsumwelt (environmental enrichment) zu einer Senkung der Prävalenz von Stereotypien bei Mäusen führt, dennoch kommen sie weiterhin vor. Daher sollte environmental enrichment zukünftig weniger ein „Kann“, sondern ein „Muss“ sein – oder vielmehr: der Goldstandard. Zudem würde eine profunde phänotypische Charakterisierung dazu beitragen, Mausstämme zu erkennen, die zu Stereotypien neigen und den für den spezifischen Zweck am besten geeigneten Mausstamm zu identifizieren, bevor ein Experiment geplant wird. N2 - In the sense of refinement animal experimentation, all conditions during breeding, husbandry and transport of animals used for experimental purposes and all methods during the experiment should be improved to reduce the degree of potential distress, pain or suffering. In addition, their well-being should be guaranteed by the possibility of expressing natural and species-specific behavioural patterns and by the application of considerate procedures. In order to establish principles for refinement, basic knowledge about the physiological needs and behavioural requirements of the respective species is indispensable. The experimenters should know the normal behaviour of animals in order to understand and interpret potential behavioural deviations, such as stereotypies. Standardized housing conditions of laboratory mice deviate from the natural environment in various aspects and might require a certain adaptation. Behavioural adaptation allows animals to adjust to environmental changes and leads to species’ characteristic behaviour. If an animal is unable to adapt to environmental conditions, abnormal behaviours like stereotypies might occur. Stereotypies are defined as deviations from normal behaviour, which are executed repetitively and without deviations in the performance, seem to serve no function and do not always correspond to the concrete environmental situation. Since it remains unclear to what extend stereotypic behaviour influences the individual’s metabolic phenotype, this study investigated behaviour of FVB/NJ mice in detail, exemplarily for stereotypy-prone mouse strains, and compiled the impact of behavioural deviations on physical activity, animal metabolism, animal welfare and on results obtained from studies with an animal specific focus. To detect early indicators for the later development of stereotypic behaviour in the F1 generation, this study started with investigating maternal care in the parental generation. Overall, 35 animals of the F1 generation were kept individually from weaning age. For 11 weeks they were observed, faecal samples were obtained and body weight was determined. Additionally, behavioural tests, metabolic parameters and physical activity were investigated. Furthermore, among others, cerebral serotonin and dopamine contents, faecal glucocorticoid levels and hepatic glycogen, muscular triglyceride and glycogen levels were assessed. Almost independently of the mother's origin, more than half of the 35 pups developed stereotypic behavior in the F1 generation. Data suggest that there is obviously no evidence of learning or a direct genetic transmission of stereotypic behavior in the FVB/NJ-mouse. The predominant portion of stereotypic animals performed the stereotypy of back-flipping (backwards jumping), some animals demonstrated stereotypic circuit running (running in circles on the cage bottom) and wire gnawing (persistent gnawing on the cage grid while hanging with the forelimbs on it). Because of the increased activity and the performance of stereotypic behaviour, stereotypic mice displayed a restricted behavioural repertoire (reduced climbing, digging, gnawing). Moreover, stereotypies were associated with increased activity and motility, both in the 24-hours open field test and in the ITK system, while the circadian rhythm did not diverge. This elevated physical activity was reflected in the expected gender-dependent lower body weight development of stereotypic animals. In addition, stereotypic FVB/NJ-mice contained more relative muscle mass and less fat mass compared to non-stereotypic FVB/NJ-mice in experimental weeks 7 and 12. Besides, significant differences in relative organ weights were found. In conclusion, the performance of stereotypic behaviour leads to differences in the metabolic phenotype between non-stereotypic and stereotypic FVB/NJ mice. In the sense of "Good Scientific Practice", the central aim of any scientist should be to generate meaningful and reproducible data. However, no valid results can be generated with data derived from animals which differ in aspects that were not considered for the designated purpose of the study. Therefore, stereotypic and non-stereotypic individuals should not be randomized within one trial group. To generally exclude stereotypic animals from further studies, though, would interfere with the commandment of the second "R" - the reduction. To guarantee a maximum refinement, the focus should be the highest achievable prevention of stereotypies. Multiple studies indicate that environmental enrichment decreases the prevalence of stereotypic behaviour in mice, nevertheless they still occur. Thus, environmental enrichment of animal housing should not be a "can" but a "must", or rather the “golden standard”. Moreover, a profound phenotypic characterization would help to identify a stereotypy-prone mouse strain and to determine the mouse strain most suitable for the specific purpose before planning an experiment. KW - Stereotypien KW - Verhalten KW - FVB/NJ Maus KW - Versuchstierkunde KW - stereotypy KW - behaviour KW - FVB/NJ mouse KW - laboratory animal sciences Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-402265 ER - TY - THES A1 - Müller, Juliane T1 - Trunk loading and back pain T1 - Rumpfbelastungen und Rückenschmerzen BT - three-dimensional motion analysis and evaluation of neuromuscular reflex activity in response to sudden and continuous loading BT - dreidimensionale Bewegungsanalyse und Erfassung der neuromuskulären Aktivität des Rumpfes als Antwort auf plötzliche und kontinuierliche Belastungen N2 - An essential function of the trunk is the compensation of external forces and loads in order to guarantee stability. Stabilising the trunk during sudden, repetitive loading in everyday tasks, as well as during performance is important in order to protect against injury. Hence, reduced trunk stability is accepted as a risk factor for the development of back pain (BP). An altered activity pattern including extended response and activation times as well as increased co-contraction of the trunk muscles as well as a reduced range of motion and increased movement variability of the trunk are evident in back pain patients (BPP). These differences to healthy controls (H) have been evaluated primarily in quasi-static test situations involving isolated loading directly to the trunk. Nevertheless, transferability to everyday, dynamic situations is under debate. Therefore, the aim of this project is to analyse 3-dimensional motion and neuromuscular reflex activity of the trunk as response to dynamic trunk loading in healthy (H) and back pain patients (BPP). A measurement tool was developed to assess trunk stability, consisting of dynamic test situations. During these tests, loading of the trunk is generated by the upper and lower limbs with and without additional perturbation. Therefore, lifting of objects and stumbling while walking are adequate represents. With the help of a 12-lead EMG, neuromuscular activity of the muscles encompassing the trunk was assessed. In addition, three-dimensional trunk motion was analysed using a newly developed multi-segmental trunk model. The set-up was checked for reproducibility as well as validity. Afterwards, the defined measurement set-up was applied to assess trunk stability in comparisons of healthy and back pain patients. Clinically acceptable to excellent reliability could be shown for the methods (EMG/kinematics) used in the test situations. No changes in trunk motion pattern could be observed in healthy adults during continuous loading (lifting of objects) of different weights. In contrast, sudden loading of the trunk through perturbations to the lower limbs during walking led to an increased neuromuscular activity and ROM of the trunk. Moreover, BPP showed a delayed muscle response time and extended duration until maximum neuromuscular activity in response to sudden walking perturbations compared to healthy controls. In addition, a reduced lateral flexion of the trunk during perturbation could be shown in BPP. It is concluded that perturbed gait seems suitable to provoke higher demands on trunk stability in adults. The altered neuromuscular and kinematic compensation pattern in back pain patients (BPP) can be interpreted as increased spine loading and reduced trunk stability in patients. Therefore, this novel assessment of trunk stability is suitable to identify deficits in BPP. Assignment of affected BPP to therapy interventions with focus on stabilisation of the trunk aiming to improve neuromuscular control in dynamic situations is implied. Hence, sensorimotor training (SMT) to enhance trunk stability and compensation of unexpected sudden loading should be preferred. N2 - Eine ausgeprägte Rumpfstabilität gilt als vorteilhaft, um den Rumpf bei repetitiven und plötzlich auftretenden hohen Lasten sowohl in Alltagssituationen, am Arbeitsplatz als auch während Training- oder Wettkampfbelastungen im Sport zu stabilisieren und vor Beschwerden bzw. Verletzungen zu schützen. Eine reduzierte Rumpfstabilität wird daher als Risikofaktor für die Entwicklung von Rückenschmerzen angenommen. Eine veränderte Aktivität (verlängerte Reaktionszeit, verlängerte Aktivierungszeiten, erhöhte Ko-Kontraktion) der rumpfumgreifenden Muskulatur sowie ein reduziertes Bewegungsausmaß und eine erhöhte -variabilität des Rumpfes bei Rückenschmerzpatienten sind evident. Diese Unterschiede sind hauptsächlich in quasi-statischen Belastungssituationen mit isolierter Lasteinwirkung direkt am Rumpf nachgewiesen. Eine Übertragbarkeit auf alltagsnahe und dynamische Belastungssituationen ist jedoch kritisch zu hinterfragen. Ziel des Dissertationsprojektes ist die Entwicklung und Validierung eines Diagnostiktools zur Erhebung der Rumpfstabilität in dynamischen Belastungssituationen bei Gesunden und Rückenschmerzpatienten. Für die Erfassung der Rumpfstabilität wurde ein Mess-Verfahren bestehend aus dynamischen Belastungssituationen, in denen die Lasten über die Extremitäten generiert werden (Heben von Lasten, Perturbation im Gang), mit und ohne Perturbation entwickelt. Mit Hilfe eines 12-Kanal-EMGs wurde die neuromuskuläre Aktivität der rumpfumgreifenden Muskulatur erfasst. Zusätzlich wurde die 3-dimensonale Rumpfbewegung über ein neu entwickeltes multi-segmentales Rückenmodell analysiert. Dieses Methodensetup wurde auf Reproduzierbarkeit sowie Validität überprüft. Im Anschluss erfolgte eine Anwendung des definierten Diagnostiktools zur Erfassung der Rumpfstabilität im Vergleich von Probanden mit und ohne Rückenschmerzen. Eine klinisch akzeptable bis hervorragende Reliabilität konnte für die verwendeten Messvariablen (EMG/Kinematik) in den beschriebenen Belastungssituationen (Heben/Gang mit Perturbation) nachgewiesen werden. Gesunde Erwachsene zeigen bei einer kontinuierlichen Belastung des Rumpfes mit unterschiedlichen Gewichten (Heben von Lasten) keine Veränderung der Rumpfbewegung. Die plötzliche Belastung des Rumpfes durch Hinzunahme von Perturbationen der unteren Extremitäten im Gang konnte dagegen bei gesunden Probanden eine messbare Auslenkung des Rumpfes auf kinematischer als auch neuromuskulärer Ebene hervorrufen. Rückenschmerzpatienten zeigten ein verändertes neuromuskuläres und kinematisches Kompensationsmuster bei externen Perturbationen im Gang im Vergleich zu Gesunden. Dies ist charakterisiert durch eine verzögerte Reaktionszeit sowie verlängerte Dauer zum Erreichen der maximalen neuromuskulären Aktivität in Kombination mit einer reduzierten Lateralflexion des Rumpfes während Perturbation. Die gewählte Testsituation - Perturbation im Gang - scheint, trotz Applikation der Perturbation über die Extremitäten und fehlender Fixierung des Beckens, geeignet zur Provokation erhöhter Anforderungen an die Stabilisierung des Rumpfes bei erwachsenen Probanden. Das veränderte neuromuskuläre und kinematische Kompensationsmuster bei Rückenschmerzpatienten kann als Surrogat einer erhöhten Belastung sowie einer reduzierten Rumpfstabilität bei Patienten bewertet werden. Das neu entwickelte Verfahren zur Erfassung der Rumpfstabilität ist geeignet, um Defizite bei Rückenschmerzpatienten zu identifizieren und folglich individuelle Zuordnungen zu Trainingsmaßnahmen vorzunehmen. Der Fokus in der Prävention bzw. Therapie von Rückenschmerzen sollte dem Folgend auf der Stabilisierung des Rumpfes mit dem Ziel der Verbesserung der neuromuskulären Kontrolle des Rumpfes in dynamischen Situationen liegen. Ein sensomotorischer Trainingsansatz (SMT) zur Optimierung der Rumpfstabilität und Kompensationsfähigkeit von unerwarteten externen Lasten ist zu präferieren. KW - electromyography KW - trunk kinematics KW - spine KW - Wirbelsäule KW - Elektromyographie KW - Rumpfkinematik Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102428 ER - TY - THES A1 - Müller, Eduard Rudolf T1 - Architektur und Kunst im lyrischen Werk Johannes Bobrowskis T1 - Architecture and art in the lyric poetry of Johannes Bobrowski N2 - Bobrowski had expressed the intention to study art history after graduation, but war and captivity thwarted his plans: As a member of the German Armed Forces, he was only released from military service for a semester in winter 1941/1942. Bobrowski was particularly impressed by the lectures on German Art in the Age of Goethe by the departmental chair Wilhelm Pinder. However, despite this fundamental influence Pinder’s ideological background never become manifest in Bobrowski’s poems. After returning from Soviet captivity during Christmas 1949, university studies were out of the question for the thirty-two-year-old. However, his lifelong intermedial engagement with fine art in his work can be interpreted as an expression of his diverse cultural and historical interests and inclinations. The poet’s life phases correlate with the thematic development of his poems on visual art: The inviolable aesthetics of significant works of art helped him to overcome the horror of the last years of the war and the privations of Soviet captivity. Didactic moral aims initially shaped the poems Bobrowski created in the years after his return home before he was able to distance himself in terms of content and form from this type of poetry and began to write poems that take up cultural-historical aspects and juxtapose historical, mythological, biblical and religious-philosophical themes spanning epochs. His poems about the artists Jawlensky and Calder also touch simultaneously on aspects of the cultural landscape. In the last decade of his life, Bobrowski became increasingly interested in twentieth-century art, while modern architecture was absent from his work. Bobrowski devoted himself in an entire series of poems to Classicist and Romanticist painting and thus to works that were written during the Age of Goethe and about which Wilhelm Pinder may have given lectures during his “German Art in the Age of Goethe” course attended by Bobrowski. Architecture is a leitmotif in Bobrowski’s lyrical works. The significance conveyed of the particular sacred and profane buildings referred to in the poems as well as the urban and village ensembles and individual parts of buildings changes several times over the years. Starting from traditional, juxtaposed juvenile poems in iambic versification, in which architectural elements form part of an awareness that fades out everything outside of the aesthetic, the significance of the sacred and secular buildings in Bobrowski’s lyrical works changes for the first time during the years he spent in Russia during the war as part of the German military. In the odes Bobrowski wrote at the time, the architectural relics testify to suffering, death and destruction. What is still absent, however, is the central idea of guilt, which later becomes the focus of poems he writes after his return from captivity until his early death. Towards the end of the war and during his years of captivity, Bobrowski reflects on the theme of his homeland again, and the architecture in his poems becomes an aesthetically charged projection for his yearning for East Prussia and the Memel area. The aspect of the sublime first appears in his poems, both in relation to painting and architecture, during his captivity. This idea is developed on the one hand after his return to Berlin in his poems on the architecture of Gothic cathedrals and the architectural heritage of Classicism, but the cultural heritage of Europe also represents historical injustice and a heavy, far-reaching guilt in the poems written during this period. Bobrowski turns away from his criticism of the entire continent of Europe in later years and in his “Sarmatic Divan” concentrates on the guilt Germans have towards the peoples of Eastern Europe. This also lends the architecture in his poems a new meaning. The relics of the castles of the Teutonic Order testify to the rule of medieval conquerors and merge with nature: The symbolism of the architecture becomes part of the landscape. In the last decade of his life, he increasingly writes poems related to parks and urban green spaces. The city, “filled with meaning”, moves to the centre of his poetry. However he does not deal with the technical achievements and social phenomena of urban life in these poems but with urban structures and especially the green and open spaces as symbols of history. The poet relies not only on personal experiences, but sometimes also on image sources without ever having seen the original. The poems about Chagall and Gauguin are hardly accessible without the knowledge that they refer to image reproductions in narrow, popular books that Bobrowski acquired shortly before writing the respective poems. The situation is different with the Russian churches that find their way into his lyrical works. Bobrowski had seen them all during the war, and most of them still appear to exist today and can be identified with some certainty with the help in part of the poet's letters from that period. N2 - Bobrowski hatte nach dem Abitur die Absicht geäußert, Kunstgeschichte zu studieren, doch Krieg und Kriegsgefangenschaft vereitelten seinen Plan: Der Wehrmachtsangehörige wurde einzig im Winter 1941/1942 für ein Studiensemester an der Universität Berlin vom Kriegsdienst freigestellt. Nachhaltig beeindruckt war Bobrowski insbesondere von der Vorlesung „Deutsche Kunst der Goethezeit“ des Lehrstuhlinhabers Wilhelm Pinder. Trotz eines grundlegenden Einflusses ist indessen zu keinem Zeitpunkt Pinders ideologischer Hintergrund in Bobrowskis Gedichten manifest geworden. Nach der Rückkehr aus sowjetischer Gefangenschaft an Weihnachten 1949 war für den mittlerweile Zweiunddreißigjährigen an ein Studium nicht mehr zu denken. Die lebenslange intermediale Auseinandersetzung mit Werken der bildenden Kunst in seinem Œuvre kann indessen als Ausdruck seiner vielfältigen kulturgeschichtlichen Interessen und Neigungen interpretiert werden. Die Lebensphasen des Dichters korrelieren mit einer motivischen Entwicklung seiner Bildgedichte: Insbesondere half ihm die unantastbare Ästhetik bedeutender Kunstwerke, das Grauen der letzten Kriegsjahre und die Entbehrungen in sowjetischer Kriegsgefangenschaft zu überwinden. Didaktisch-moralische Zielsetzungen prägten zunächst die in den Jahren nach seiner Heimkehr entstandenen Gedichte, bevor sich Bobrowski inhaltlich und formal von diesem Gedichttypus zu lösen vermochte und vermehrt Gedichte zu schreiben begann, die kulturgeschichtliche Dimensionen annahmen und historische, mythologische, biblische und religionsphilosophische Themen in epochenübergreifende Zusammenhänge stellten. Die Gedichte über die Künstler Jawlensky und Calder berühren gleichzeitig kulturlandschaftliche Aspekte. Im letzten Lebensjahrzehnt interessierte sich Bobrowski zunehmend für die Kunst des 20. Jahrhunderts, während die moderne Architektur aus seinem Werk ausgeklammert blieb. Architektur bildet eine Leitmotivik in Bobrowskis lyrischem Werk. Die übertragene Bedeutungsebene der in den Gedichten benannten sakralen und profanen Einzelbauten, aber auch der städtischen und dörflichen Ensembles sowie einzelner Gebäudeteile, verändert sich mehrfach im Laufe der Jahre. Ausgehend von traditionellen, paargereimten Jugendgedichten in jambischem Versmaß, in denen architektonische Elemente Teil einer Wahrnehmung bilden, die alles Außerästhetische ausblendet, wandelt sich der Sinngehalt der Sakral- und Profanbauten in Bobrowskis lyrischem Werk ein erstes Mal während den Kriegsjahren in Russland, die der Wehrmachtsangehörige am Ilmensee verbracht hat. In den damals entstandenen Oden zeugen die architektonischen Relikte von Leid, Tod und Zerstörung. Noch fehlt indessen der später so zentrale Gedanke der Schuld, der erst im Rückblick auf jene Zeit in den Gedichten, die nach der Rückkehr aus der Kriegsgefangenschaft bis zu Bobrowskis frühem Tod entstanden sind, thematisiert worden ist. Gegen Ende des Kriegs und in den Jahren der Kriegsgefangenschaft besinnt sich Bobrowski erneut auf Heimatthemen, und die Architektur in seinen Gedichten wird zu einem ästhetisch überhöhten Fluchtpunkt seiner Sehnsucht nach Ostpreußen und dem Memelgebiet. In Kriegsgefangenschaft tritt erstmals der Aspekt des Sublimen in seinen Gedichten auf, und zwar sowohl bezogen auf die Malerei als auch auf die Architektur. Dieser Gedanke wird einerseits nach der Rückkehr nach Berlin in den Gedichten über die Architektur gotischer Kathedralen und das bauliche Erbe des Klassizismus weitergesponnen, doch steht in den damals entstandenen Gedichten das Kulturerbe Europas auch für historisches Unrecht und eine schwere, weit zurückreichende Schuld. Von dieser auf den ganzen Kontinent bezogenen Kritik wendet sich Bobrowski in den nachfolgenden Jahren ab und konzentriert sich auf die Schuld der Deutschen gegenüber den Völkern Osteuropas. Damit erhält auch die Architektur in seinen Gedichten eine neue Bedeutung. Die Relikte der Ritterburgen des deutschen Ordens zeugen von der Herrschaft der mittelalterlichen Eroberer und verschmelzen dabei mit der Natur: Das Zeichenhafte der Architektur wird Teil der Landschaft. Im letzten Lebensjahrzehnt entstehen vermehrt Gedichte, die sich auf Parkanlagen und städtische Grünräume beziehen. Der Dichter hat sich nicht nur auf persönliche Erfahrungen, sondern mitunter auch auf Bildquellen abstützt, ohne dass er das Original je gesehen hätte. Nur schwer zugänglich sind die Gedichte über Chagall und Gauguin ohne die Erkenntnis, dass sie sich auf Bildvorlagen in schmalen, populärwissenschaftlichen Büchern beziehen, die Bobrowski jeweils kurz vor der Niederschrift der entsprechenden Gedichte erworben hat. Anders verhält es sich mit jenen russischen Kirchen, die Eingang in sein lyrisches Werk gefunden haben. Bobrowski hat sie alle selbst im Krieg gesehen, und die meisten scheinen noch heute zu bestehen und können mit einiger Sicherheit identifiziert werden, wozu auch die Briefe des Dichters aus jener Zeit beitragen. KW - Johannes Bobrwoski KW - Lyrik KW - Architektur und Kunst KW - Intermedialität KW - Johannes Bobrowski KW - lyric poetry KW - architecture and art KW - intermediality Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427113 SN - 978-3-86956-461-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Mühlenhoff, Judith T1 - Culture-driven innovation BT - acknowledging culture as a knowledge source for innovation N2 - This cumulative dissertation deals with the potential of underexplored cultural sources for innovation. Nowadays, firms recognize an increasing demand for innovation to keep pace with an ever-growing dynamic worldwide competition. Knowledge is one of the most crucial sources and resource, while until now innovation has been foremost driven by technology. But since the last years, we have been witnessing a change from technology's role as a driver of innovation to an enabler of innovation. Innovative products and services increasingly differentiate through emotional qualities and user experience. These experiences are hard to grasp and require alignment in innovation management theory and practice. This work cares about culture in a broader matter as a source for innovation. It investigates the requirements and fundamentals for "culture-driven innovation" by studying where and how to unlock cultural sources. The research questions are the following: What are cultural sources for knowledge and innovation? Where can one find cultural sources and how to tap into them? The dissertation starts with an overview of its central terms and introduces cultural theories as an overarching frame to study cultural sources for innovation systematically. Here, knowledge is not understood as something an organization owns like a material resource, but it is seen as something created and taking place in practices. Such a practice theoretical lens inheres the rejection of the traditional economic depiction of the rational Homo Oeconomicus. Nevertheless, it also rejects the idea of the Homo Sociologicus about the strong impact of society and its values on individual actions. Practice theory approaches take account of both concepts by underscoring the dualism of individual (agency, micro-level) and structure (society, macro-level). Following this, organizations are no enclosed entities but embedded within their socio-cultural environment, which shapes them and is also shaped by them. Then, the first article of this dissertation acknowledges a methodological stance of this dualism by discussing how mixed methods support an integrated approach to study the micro- and macro-level. The article focuses on networks (thus communities) as a central research unit within studies of entrepreneurship and innovation. The second article contains a network analysis and depicts communities as central loci for cultural sources and knowledge. With data from the platform Meetup.com about events etc., the study explores which overarching communities and themes have been evolved in Berlin's start up and tech scene. While the latter study was about where to find new cultural sources, the last article addresses how to unlock such knowledge sources. It develops the concept of a cultural absorptive capacity, that is the capability of organizations to open up towards cultural sources. Furthermore, the article points to the role of knowledge intermediaries in the early phases of knowledge acquisition. Two case studies on companies working with artists illustrate the roles of such intermediaries and how they support firms to gain knowledge from cultural sources. Overall, this dissertation contributes to a better understanding of culture as a source for innovation from a theoretical, methodological, and practitioners' point of view. It provides basic research to unlock the potential of such new knowledge sources for companies - sources that so far have been neglected in innovation management. N2 - Diese kumulative Dissertation beschäftigt sich mit dem Potenzial von bisher wenig untersuchten kulturellen Quellen für Innovation. Firmen erleben heutzutage einen ansteigenden Bedarf nach Innovationen um in einer immer dynamisch werdenden Welt im Wettbewerb nicht zurückzufallen. Wissen gehört hierbei zu einer der zentralen Quelle und Ressource, wobei das Wissen um Innovationen bisher meistens stark durch den Einfluss von Technik geprägt wurde. Jedoch können wir in den letzten Jahren vermehrt beobachten, wie Technik als Treiber von Innovationen zurückgeht und eher die Rolle eines Gehilfen übernimmt. Innovative Produkte und Services differenzieren sich zunehmend über emotionale und über Erfahrungsqualitäten. Diese Nutzungserfahrungen sind schwer zu fassen und erfordern Anpassungen im bisherigen Management von Innovationen. Die vorliegende Arbeit beschäftigt sich mit Kultur im weitest gehenden Sinne als Quelle für Innovationen. Sie behandelt die Voraussetzungen und Grundlagen für "Culture-Driven Innovation" indem darauf eingegangen wird wo und wie kulturelle Quellen erschlossen werden können. Die Forschungsfragen lauten: Was sind kulturelle Quellen für Wissen und Innovation? Wo kann man diese Quellen finden und wie sie sich erschließen? Dafür beginnt die Arbeit mit einem Überblick zu den wesentlichen Begriffen des Promotionsthemas und führt Kulturtheorien als übergreifende Klammer ein, von denen kulturelle Quellen für Innovationen systematisch betrachtet werden können. Wissen wird hierbei nicht als etwas gesehen, das eine Organisation besitzen kann wie eine materielle Ressource, sondern als etwas, das erst in Praktiken erlebbar und geniert wird. Solch einer praxistheoretischen Sichtweise innewohnend ist die Ablehnung klassischer wirtschaftswissenschaftlicher Vorstellungen eines rational agierenden Homo Oeconomicus. Auf der anderen Seite lehnt sie aber auch die Idee eines Homo Sociologicus ab, in dem das Handeln des Einzelnen hauptsächlich von der Gesellschaft und ihren Werten geprägt wird. Praxistheoretische Ansätze positionieren sich dazwischen indem sie den Dualismus von Individuum (Akteur, Mikro-Ebene) und Struktur (Gesellschaft, Makro-Ebene) betont. Organisationen sind demnach keine in sich geschlossene Einheiten, sondern eingebettet in ihre sozio-kulturelle Umwelt, die sie prägt und die sie gleichzeitig wiederum mitprägen. Im Folgenden widmet sich der erste Artikel einer methodischen Betrachtung dieses Dualismus' indem erörtert wird, wie Mixed Methods helfen Mikro-Ebene und Makro-Ebene integriert erforschen zu können. Dabei konzentriert sich der Artikel auf Netzwerke (und somit auch Communities) als zentrale Untersuchungseinheit von Entrepreneurship- und Innovationsforschung. Der zweite Artikel der Dissertation beinhaltet eine Netzwerkanalyse und widmet sich Communities als zentralen Ort für kulturelle Quellen und Wissen. An Hand der Daten der Plattform Meetup.com zu Veranstaltungen etc., untersucht die Studie welche übergreifenden Communities und welche Themen sich in Berlin's Start Up- und Tech-Szene gebildet haben. Nachdem dieser Beitrag sich der Frage widmet wo neue kulturelle Wissensquellen entdeckt werden können, geht der letzte Beitrag der vorliegenden Doktorarbeit der Frage nach, wie solches Wissen erschlossen werden kann. In dem Artikel wird die Idee einer Cultural Absorptive Capacity entwickelt, also der Fähigkeit von Organisationen sich gegenüber kulturellen Quellen zu öffnen, und die Rolle von Wissensvermittlern in der frühen Phase von Wissenserschließung betont. In zwei Fallstudien über Firmen, die mit Künstlern zusammenarbeiten, wird aufgezeigt, welche Rollen solche Vermittler übernehmen können und wie sie Unternehmen dabei helfen, Wissen aus kulturellen Quellen zu nutzen. Insgesamt trägt diese Dissertation zu einem besseren Verständnis von Kultur als Quelle für Innovationen auf theoretischer, methodischer und praktischer Ebene bei. Sie leistet damit Grundlagenarbeit um das Potenzial solcher neuen Wissensquellen für Unternehmen zu erschließen da diese bisher im Innovationsmanagement vernachlässigt wurden. KW - innovation management KW - Innovationsmanagement KW - culture KW - Kultur KW - intermediaries KW - knowledge KW - Wissen KW - networks KW - Netzwerke KW - mixed methods KW - communities KW - entrepreneurship KW - absorptive capacity Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104626 ER - TY - THES A1 - Mücke, Nicole T1 - Direct and inverse problems in machine learning T1 - Direkte und inverse Probleme im maschinellen Lernen BT - kernel methods and spectral regularization BT - Kern Methoden und spektrale Regularisierung N2 - We analyze an inverse noisy regression model under random design with the aim of estimating the unknown target function based on a given set of data, drawn according to some unknown probability distribution. Our estimators are all constructed by kernel methods, which depend on a Reproducing Kernel Hilbert Space structure using spectral regularization methods. A first main result establishes upper and lower bounds for the rate of convergence under a given source condition assumption, restricting the class of admissible distributions. But since kernel methods scale poorly when massive datasets are involved, we study one example for saving computation time and memory requirements in more detail. We show that Parallelizing spectral algorithms also leads to minimax optimal rates of convergence provided the number of machines is chosen appropriately. We emphasize that so far all estimators depend on the assumed a-priori smoothness of the target function and on the eigenvalue decay of the kernel covariance operator, which are in general unknown. To obtain good purely data driven estimators constitutes the problem of adaptivity which we handle for the single machine problem via a version of the Lepskii principle. N2 - In dieser Arbeit analysieren wir ein zufälliges und verrauschtes inverses Regressionsmodell im random design. Wir konstruiueren aus gegebenen Daten eine Schätzung der unbekannten Funktion, von der wir annehmen, dass sie in einem Hilbertraum mit reproduzierendem Kern liegt. Ein erstes Hauptergebnis dieser Arbeit betrifft obere Schranken an die Konvergenzraten. Wir legen sog. source conditions fest, definiert über geeignete Kugeln im Wertebereich von (reellen) Potenzen des normierten Kern-Kovarianzoperators. Das führt zu einer Einschränkung der Klasse der Verteilungen in einem statistischen Modell, in dem die spektrale Asymptotik des von der Randverteilung abhängigen Kovarianzoperators eingeschränkt wird. In diesem Kontext zeigen wir obere und entsprechende untere Schranken für die Konvergenzraten für eine sehr allgemeine Klasse spektraler Regularisierungsmethoden und etablieren damit die sog. Minimax-Optimalität dieser Raten. Da selbst bei optimalen Konvergenzraten Kernmethoden, angewandt auf große Datenmengen, noch unbefriedigend viel Zeit verschlingen und hohen Speicherbedarf aufweisen, untersuchen wir einen Zugang zur Zeitersparnis und zur Reduktion des Speicherbedarfs detaillierter. Wir studieren das sog. distributed learning und beweisen für unsere Klasse allgemeiner spektraler Regularisierungen ein neues Resultat, allerdings immer noch unter der Annahme einer bekannten a priori Regularität der Zielfunktion, ausgedrückt durch die Fixierung einer source condition. Das große Problem bei der Behandlung realer Daten ist das der Adaptivität, d.h. die Angabe eines Verfahrens, das ohne eine solche a priori Voraussetzung einen in einem gewissen Sinn optimalen Schätzer aus den Daten konstruiert. Das behandeln wir vermöge einer Variante des Balancing principle. KW - inverse problems KW - kernel methods KW - minimax optimality KW - inverse Probleme KW - Kern Methoden KW - Minimax Optimalität Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403479 ER - TY - THES A1 - Muzdalo, Anja T1 - Thermal cis-trans isomerization of azobenzene studied by path sampling and QM/MM stochastic dynamics T1 - Untersuchung der thermisch aktivierten cis-trans Isomerisierung ausgewählter Azobenzole mit Hilfe von Transition Path Sampling und QM/MM-Molekulardynamik N2 - Azobenzene-based molecular photoswitches have extensively been applied to biological systems, involving photo-control of peptides, lipids and nucleic acids. The isomerization between the stable trans and the metastable cis state of the azo moieties leads to pronounced changes in shape and other physico-chemical properties of the molecules into which they are incorporated. Fast switching can be induced via transitions to excited electronic states and fine-tuned by a large number of different substituents at the phenyl rings. But a rational design of tailor-made azo groups also requires control of their stability in the dark, the half-lifetime of the cis isomer. In computational chemistry, thermally activated barrier crossing on the ground state Born-Oppenheimer surface can efficiently be estimated with Eyring’s transition state theory (TST) approach; the growing complexity of the azo moiety and a rather heterogeneous environment, however, may render some of the underlying simplifying assumptions problematic. In this dissertation, a computational approach is established to remove two restrictions at once: the environment is modeled explicitly by employing a quantum mechanical/molecular mechanics (QM/MM) description; and the isomerization process is tracked by analyzing complete dynamical pathways between stable states. The suitability of this description is validated by using two test systems, pure azo benzene and a derivative with electron donating and electron withdrawing substituents (“push-pull” azobenzene). Each system is studied in the gas phase, in toluene and in polar DMSO solvent. The azo molecules are treated at the QM level using a very recent, semi-empirical approximation to density functional theory (density functional tight binding approximation). Reactive pathways are sampled by implementing a version of the so-called transition path sampling method (TPS), without introducing any bias into the system dynamics. By analyzing ensembles of reactive trajectories, the change in isomerization pathway from linear inversion to rotation in going from apolar to polar solvent, predicted by the TST approach, could be verified for the push-pull derivative. At the same time, the mere presence of explicit solvation is seen to broaden the distribution of isomerization pathways, an effect TST cannot account for. Using likelihood maximization based on the TPS shooting history, an improved reaction coordinate was identified as a sine-cosine combination of the central bend angles and the rotation dihedral, r (ω,α,α′). The computational van’t Hoff analysis for the activation entropies was performed to gain further insight into the differential role of solvent for the case of the unsubstituted and the push-pull azobenzene. In agreement with the experiment, it yielded positive activation entropies for azobenzene in the DMSO solvent while negative for the push-pull derivative, reflecting the induced ordering of solvent around the more dipolar transition state associated to the latter compound. Also, the dynamically corrected rate constants were evaluated using the reactive flux approach where an increase comparable to the experimental one was observed for a high polarity medium for both azobenzene derivatives. N2 - Azobenzol-basierte molekulare Photoswitches wurden weitgehend auf biologische Systeme angewendet, die eine Photo-Kontrolle von Peptiden, Lipiden und Nukleinsäuren beinhalten. Die Isomerisierung zwischen dem stabilen trans und dem metastabilen cis-Zustand der Azogruppen führt zu ausgeprägten Form- und anderen physikalisch-chemischen Eigenschaften der Moleküle, in die sie eingebaut sind. Die schnelle Umschaltung kann über Übergänge in angeregte elektronische Zustände induziert und durch eine Vielzahl unterschiedlicher Substituenten an den Phenylringen fein abgestimmt werden. Aber ein rationales Design von maßgeschneiderten Azo-Gruppen erfordert auch die Kontrolle über ihre Stabilität im Dunkeln, die Halbwertszeit des cis-Isomers. In der Rechenchemie kann die thermisch aktivierte Barriereüberquerung auf dem Grundzustand Born-Oppenheimer-Oberfläche mit dem EST-Übergangstheorie-Theorie (TST) effizient geschätzt werden; Die zunehmende Komplexität der Azo-Einheit und eine ziemlich heterogene Umgebung kann jedoch einige der zugrunde liegenden vereinfachenden Annahmen problematisch machen. In dieser Dissertation wird ein rechnerischer Ansatz etabliert, um zwei Einschränkungen gleichzeitig zu beseitigen: Die Umgebung wird explizit modelliert, indem man eine quantenmechanische / molekulare Mechanik (QM / MM) Beschreibung verwendet; Und der Isomerisierungsprozess wird durch die Analyse vollständiger dynamischer Wege zwischen stabilen Zuständen verfolgt. Die Eignung dieser Beschreibung wird durch die Verwendung von zwei Testsystemen, reinem Azolbenzol und einem Derivat mit elektronenabgebenden und elektronenziehenden Substituenten ("Push-Pull" -Azobenzol) validiert. Jedes System wird in der Gasphase, in Toluol und im polaren DMSO-Lösungsmittel untersucht. Die Azomoleküle werden auf QM-Ebene unter Verwendung einer sehr jüngsten, halb-empirischen Approximation zur Dichtefunktionaltheorie (Dichtefunktionelle enge Bindungsnäherung) behandelt. Die reaktiven Wege werden durch die Implementierung einer Version des sogenannten Übergangsweg-Abtastverfahrens (TPS) abgetastet, ohne dass eine Vorspannung in die Systemdynamik eingeführt wird. Durch die Analyse von Ensembles von reaktiven Trajektorien konnte die Änderung des Isomerisierungsweges von der linearen Inversion zur Rotation, die von einem polaren zu einem polaren Lösungsmittel, das durch den TST-Ansatz vorhergesagt wurde, für das Push-Pull-Derivat verifiziert werden. Gleichzeitig wird die bloße Anwesenheit der expliziten Solvatisierung gesehen, um die Verteilung der Isomerisierungswege zu erweitern, ein Effekt, den TST nicht berücksichtigen kann. Unter Verwendung der Wahrscheinlichkeitsmaximierung auf der Grundlage der TPS-Schießhistorie wurde eine verbesserte Reaktionskoordinate als eine Sinus-Kosinus-Kombination der zentralen Biegewinkel und der Rotationsdichte identifiziert. Die rechnerische van't Hoff-Analyse für die Aktivierungsentropien wurde durchgeführt, um einen weiteren Einblick in die differentielle Rolle des Lösungsmittels für den Fall des unsubstituierten und des Push-Pull-Azobenzols zu erhalten. In Übereinstimmung mit dem Experiment lieferte es positive Aktivierungsentropien für Azobenzol in dem DMSO-Lösungsmittel, während es für das Push-Pull-Derivat negativ war, was die induzierte Anordnung des Lösungsmittels um den mehr dipolaren Übergangszustand, der mit der letzteren Verbindung assoziiert ist, widerspiegelt. Außerdem wurden die dynamisch korrigierten Geschwindigkeitskonstanten unter Verwendung des reaktiven Flussansatzes ausgewertet, bei dem ein für das Experimentiermittel vergleichbarer Anstieg für ein hochpolares Medium für beide Azobenzolderivate beobachtet wurde. KW - transition path sampling KW - thermal isomerization of azobenzene KW - QM/MM stochastic dynamics KW - reactive flux rate constants KW - activation entropy KW - solvent effect KW - thermisch angeregte Isomerisierung von Azobenzolen KW - QM/MM Molekulardynamik KW - DFTB3 KW - Aktivierungsentropie KW - "Reactive Flux" Ratenkonstanten KW - Reaktionsmechanismen KW - Lösungsmitteleffekte Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405814 ER - TY - THES A1 - Muriu, Abraham Rugo T1 - Performance management in Kenya's public service T1 - Leistungsmanagement in Kenias öffentlichem Dienst BT - a study on performance information use BT - eine Studie über Leistungsinformationen N2 - This study was inspired by the desire to contribute to literature on performance management from the context of a developing country. The guiding research questions were: How do managers use performance information in decision making? Why do managers use performance information the way they do? The study was based on theoretical strands of neo-patrimonialism and new institutionalism. The nature of the inquiry informed the choice of a qualitative case study research design. Data was assembled through face-to-face interviews, some observations, and collection of documents from managers at the levels of the directorate, division, and section/units. The managers who were the focus of this study are current or former staff members of the state departments in Kenya’s national Ministry of Agriculture, Livestock, and Fisheries as well as from departments responsible for coordination of performance related reforms. The findings of this study show that performance information is regularly produced but its use by managers varies. Examples of use include preparing reports to external bodies, making decisions for resource re-allocation, making recommendations for rewards and sanctions, and policy advisory. On categorizing the forms of use as passive, purposeful, political or perverse, evidence shows that they overlap and that some of the forms are so closely related that it is difficult to separate them empirically. On what can explain the forms of use established, four factors namely; political will and leadership; organizational capacity; administrative culture; and managers’ interests and attitudes, were investigated. While acknowledging the interrelatedness and even overlapping of the factors, the study demonstrates that there is explanatory power to each though with varying depth and scope. The study thus concludes that: Inconsistent political will and leadership for performance management reforms explain forms of use that are passive, political and perverse. Low organizational capacity could best explain passive and some limited aspects of purposeful use. Informal, personal and competitive administrative culture is associated with purposeful use and mostly with political and perverse use. Limited interest and apprehensive attitude are best associated with passive use. The study contributes to the literature particularly in how institutions in a context of neo-patrimonialism shape performance information use. It recommends that further research is necessary to establish how neo-patrimonialism positively affects performance oriented reforms. This is interesting in particular given the emerging thinking on pockets of effectiveness and developmental patrimonialism. This is important since it is expected that performance related reforms will continue to be advocated in developing countries in the foreseeable future. N2 - Diese Studie wurde von dem Wunsch inspiriert einen Beitrag zu der Performance Management Literatur zu leisten und zwar aus dem Kontext eines Entwicklungslandes. Die Fragen, die diese Forschung geleitet haben waren: Wie nutzen Manager Performance Information in der Entscheidungsfindung? Warum nutzen Manager Performance Informationen auf eine bestimmte Weise? Die Studie basiert auf theoretischen Strömungen des Neo-Patrimonialismus und des Neo-Institutionalismus. Die Art der Untersuchung und Fragestellung verlangten nach einem qualitativen Forschungsdesign und einer Fallstudie. Die Datenerhebung stützte sich auf Interviews, Beobachtungen und Dokumente von 50 Managern auf Direktoratsebene, Abteilungsebene und Referatsebene. Die Manager, die im Fokus dieser Untersuchung standen, sind derzeitige und ehemalige Mitarbeiter in Kenias Ministerium für Landwirtschaft, Viehzucht und Fischerei, sowie der Abteilung zuständig für die Koordination von Performancebezogenen Reformen. Die Ergebnisse dieser Studie zeigen, dass Performanceinformationen regelmäßig produziert, jedoch unterschiedlich genutzt werden. Die Erstellung von Berichten für externe Stellen, Entscheidungen zur Ressourcenverteilung, Empfehlungen für Belohnungen und Sanktionen, sowie für Richtlinien sind Beispiele für die Nutzung von Performanceinformationen. Eine Kategorisierung dieser Nutzungsarten in passiv, intendiert, politisch oder pervertiert, zeigt dass diese überlappen und zum Teil so sehr miteinander verbunden sind, dass sie nur sehr schwer empirisch zu trennen sind. Hinsichtlich der Einflussfaktoren auf die Nutzung hat diese Studie vier Faktoren untersucht: Politischer Wille und Führungsverhalten; Kapazität der Organisation; administrative Kultur; Interessen und Einstellungen der Führungskräfte. Obwohl diese Faktoren zusammenhängen und sogar überlappen zeigt diese Studie, dass jeder einzelne Faktor Erklärungskraft besitzt, wenn auch zu unterschiedlichem Grad. Aus dieser Studie lässt sich folgern, dass inkonsistenter politischer Wille und Führungsverhalten in Bezug auf Reformen des Performance Managements passive, politische und pervertierte Formen der Nutzung erklären. Niedrige Kapazität der Organisation erklärt passive Nutzung sowie Teilaspekte von intendierter Nutzung. Eine informale, persönliche und kompetitive Administrationskultur ist verknüpft mit intendierter Nutzung, hauptsächlich aber mit politischer und pervertierter Nutzung. Eingeschränktes Interesse und ablehnende Einstellung wird mit passiver Nutzung in Verbindung gebracht. Diese Studie trägt zu Literatur bei, die sich damit befasst, inwieweit Institutionen in einem von Neo-Patrimonialismus geprägten Kontext die Nutzung von Performanceinformation beeinflusst. Weitere Forschung ist notwendig, um zu untersuchen wie Neo-Patrimonialismus performanceorientierte Reformen positiv beeinflusst. Dies ist besonders in Anbetracht von Nischen der Effektivität und Entwicklungspatrimonialismus bedeutsam. Dies ist besonders relevant, da davon ausgegangen werden kann, dass Performance-bezogene Reformen auch in Zukunft weiter in Entwicklungsländern verbreitet werden. KW - performance management KW - performance information use KW - Kenya public service KW - Leistungsmanagement KW - Leistungsinformationen verwenden KW - Kenias öffentlicher Dienst Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403281 ER - TY - THES A1 - Murawski, Aline T1 - Trends in precipitation over Germany and the Rhine basin related to changes in weather patterns T1 - Zeitliche Veränderungen im Niederschlag über Deutschland und dem Rheineinzugsgebiet in Zusammenhang mit Wetterlagen N2 - Niederschlag als eine der wichtigsten meteorologischen Größen für Landwirtschaft, Wasserversorgung und menschliches Wohlbefinden hat schon immer erhöhte Aufmerksamkeit erfahren. Niederschlagsmangel kann verheerende Auswirkungen haben, wie z.B. Missernten und Wasserknappheit. Übermäßige Niederschläge andererseits bergen jedoch ebenfalls Gefahren in Form von Hochwasser oder Sturzfluten und wiederum Missernten. Daher wurde viel Arbeit in die Detektion von Niederschlagsänderungen und deren zugrundeliegende Prozesse gesteckt. Insbesondere angesichts von Klimawandel und unter Berücksichtigung des Zusammenhangs zwischen Temperatur und atmosphärischer Wasserhaltekapazität, ist großer Bedarf an Forschung zum Verständnis der Auswirkungen von Klimawandel auf Niederschlagsänderungen gegeben. Die vorliegende Arbeit hat das Ziel, vergangene Veränderungen in Niederschlag und anderen meteorologischen Variablen zu verstehen. Für verschiedene Zeiträume wurden Tendenzen gefunden und mit entsprechenden Veränderungen in der großskaligen atmosphärischen Zirkulation in Zusammenhang gebracht. Die Ergebnisse dieser Arbeit können als Grundlage für die Attributierung von Hochwasserveränderungen zu Klimawandel genutzt werden. Die Annahmen für die Maßstabsverkleinerung („Downscaling“) der Daten von großskaligen Zirkulationsmodellen auf die lokale Skala wurden hier getestet und verifziert. In einem ersten Schritt wurden Niederschlagsveränderungen in Deutschland analysiert. Dabei lag der Fokus nicht nur auf Niederschlagssummen, sondern auch auf Eigenschaften der statistischen Verteilung, Übergangswahrscheinlichkeiten als Maß für Trocken- und Niederschlagsperioden und Extremniederschlagsereignissen. Den räumlichen Fokus auf das Rheineinzugsgebiet, das größte Flusseinzugsgebiet Deutschlands und einer der Hauptwasserwege Europas, verlagernd, wurden nachgewiesene Veränderungen in Niederschlag und anderen meteorologischen Größen in Bezug zu einer „optimierten“ Wetterlagenklassifikation analysiert. Die Wetterlagenklassifikation wurde unter der Maßgabe entwickelt, die Varianz des lokalen Klimas bestmöglich zu erklären. Die letzte hier behandelte Frage dreht sich darum, ob die beobachteten Veränderungen im lokalen Klima eher Häufigkeitsänderungen der Wetterlagen zuzuordnen sind oder einer Veränderung der Wetterlagen selbst. Eine gebräuchliche Annahme für einen Downscaling-Ansatz mit Hilfe von Wetterlagen und einem stochastischen Wettergenerator ist, dass Klimawandel sich allein durch eine Veränderung der Häufigkeit von Wetterlagen ausdrückt, die Eigenschaften der Wetterlagen dabei jedoch konstant bleiben. Diese Annahme wurde überprüft und die Fähigkeit der neuesten Generation von Zirkulationsmodellen, diese Wetterlagen zu reproduzieren, getestet. Niederschlagsveränderungen in Deutschland im Zeitraum 1951–2006 lassen sich zusammenfassen als negativ im Sommer und positiv in allen anderen Jahreszeiten. Verschiedene Niederschlagscharakteristika bestätigen die Tendenz in den Niederschlagssummen: während mittlere und extreme Niederschlagstageswerte im Winter zugenommen haben, sind auch zusammenhängende Niederschlagsperioden länger geworden (ausgedrückt als eine gestiegene Wahrscheinlichkeit für einen Tag mit Niederschlag gefolgt von einem weiteren nassen Tag). Im Sommer wurde das Gegenteil beobachtet: gesunkene Niederschlagssummen, untermauert von verringerten Mittel- und Extremwerten und längeren Trockenperioden. Abseits dieser allgemeinen Zusammenfassung für das gesamte Gebiet Deutschlands, ist die räumliche Verteilung von Niederschlagsveränderungen deutlich heterogener. Vermehrter Niederschlag im Winter wurde hauptsächlich im Nordwesten und Südosten Deutschlands beobachtet, während im Frühling die stärksten Veränderungen im Westen und im Herbst im Süden aufgetreten sind. Das saisonale Bild wiederum löst sich für die zugehörigen Monate auf, z.B. setzt sich der Anstieg im Herbstniederschlag aus deutlich vermehrtem Niederschlag im Südwesten im Oktober und im Südosten im November zusammen. Diese Ergebnisse betonen die starken räumlichen Zusammenhänge der Niederschlagsänderungen. Der nächste Schritt hinsichtlich einer Zuordnung von Niederschlagsveränderungen zu Änderungen in großskaligen Zirkulationsmustern, war die Ableitung einer Wetterlagenklassifikation, die die betrachteten lokalen Klimavariablen hinreichend stratifizieren kann. Fokussierend auf Temperatur, Globalstrahlung und Luftfeuchte zusätzlich zu Niederschlag, wurde eine Klassifikation basierend auf Luftdruck, Temperatur und spezifischer Luftfeuchtigkeit als am besten geeignet erachtet, die Varianz der lokalen Variablen zu erklären. Eine vergleichsweise hohe Anzahl von 40 Wetterlagen wurde ausgewählt, die es erlaubt, typische Druckmuster durch die zusätzlich verwendete Temperaturinformation einzelnen Jahreszeiten zuzuordnen. Während die Fähigkeit, Varianz im Niederschlag zu erklären, relativ gering ist, ist diese deutlich besser für Globalstrahlung und natürlich Temperatur. Die meisten der aktuellen Zirkulationsmodelle des CMIP5-Ensembles sind in der Lage, die Wetterlagen hinsichtlich Häufigkeit, Saisonalität und Persistenz hinreichend gut zu reproduzieren. Schließlich wurden dieWetterlagen bezüglich Veränderungen in ihrer Häufigkeit, Saisonalität und Persistenz, sowie der Wetterlagen-spezifischen Niederschläge und Temperatur, untersucht. Um Unsicherheiten durch die Wahl eines bestimmten Analysezeitraums auszuschließen, wurden alle möglichen Zeiträume mit mindestens 31 Jahren im Zeitraum 1901–2010 untersucht. Dadurch konnte die Annahme eines konstanten Zusammenhangs zwischen Wetterlagen und lokalem Wetter gründlich überprüft werden. Es wurde herausgefunden, dass diese Annahme nur zum Teil haltbar ist. Während Veränderungen in der Temperatur hauptsächlich auf Veränderungen in der Wetterlagenhäufigkeit zurückzuführen sind, wurde für Niederschlag ein erheblicher Teil von Veränderungen innerhalb einzelner Wetterlagen gefunden. Das Ausmaß und sogar das Vorzeichen der Veränderungen hängt hochgradig vom untersuchten Zeitraum ab. Die Häufigkeit einiger Wetterlagen steht in direkter Beziehung zur langfristigen Variabilität großskaliger Zirkulationsmuster. Niederschlagsveränderungen variieren nicht nur räumlich, sondern auch zeitlich – Aussagen über Tendenzen sind nur in Bezug zum jeweils untersuchten Zeitraum gültig. Während ein Teil der Veränderungen auf Änderungen der großskaligen Zirkulation zurückzuführen ist, gibt es auch deutliche Veränderungen innerhalb einzelner Wetterlagen. Die Ergebnisse betonen die Notwendigkeit für einen sorgfältigen Nachweis von Veränderungen möglichst verschiedene Zeiträume zu untersuchen und mahnen zur Vorsicht bei der Anwendung von Downscaling-Ansätzen mit Hilfe von Wetterlagen, da diese die Auswirkungen von Klimaveränderungen durch das Vernachlässigen von Wetterlagen-internen Veränderungen falsch einschätzen könnten. N2 - Precipitation as the central meteorological feature for agriculture, water security, and human well-being amongst others, has gained special attention ever since. Lack of precipitation may have devastating effects such as crop failure and water scarcity. Abundance of precipitation, on the other hand, may as well result in hazardous events such as flooding and again crop failure. Thus, great effort has been spent on tracking changes in precipitation and relating them to underlying processes. Particularly in the face of global warming and given the link between temperature and atmospheric water holding capacity, research is needed to understand the effect of climate change on precipitation. The present work aims at understanding past changes in precipitation and other meteorological variables. Trends were detected for various time periods and related to associated changes in large-scale atmospheric circulation. The results derived in this thesis may be used as the foundation for attributing changes in floods to climate change. Assumptions needed for the downscaling of large-scale circulation model output to local climate stations are tested and verified here. In a first step, changes in precipitation over Germany were detected, focussing not only on precipitation totals, but also on properties of the statistical distribution, transition probabilities as a measure for wet/dry spells, and extreme precipitation events. Shifting the spatial focus to the Rhine catchment as one of the major water lifelines of Europe and the largest river basin in Germany, detected trends in precipitation and other meteorological variables were analysed in relation to states of an ``optimal'' weather pattern classification. The weather pattern classification was developed seeking the best skill in explaining the variance of local climate variables. The last question addressed whether observed changes in local climate variables are attributable to changes in the frequency of weather patterns or rather to changes within the patterns itself. A common assumption for a downscaling approach using weather patterns and a stochastic weather generator is that climate change is expressed only as a changed occurrence of patterns with the pattern properties remaining constant. This assumption was validated and the ability of the latest generation of general circulation models to reproduce the weather patterns was evaluated. % Paper 1 Precipitation changes in Germany in the period 1951-2006 can be summarised briefly as negative in summer and positive in all other seasons. Different precipitation characteristics confirm the trends in total precipitation: while winter mean and extreme precipitation have increased, wet spells tend to be longer as well (expressed as increased probability for a wet day followed by another wet day). For summer the opposite was observed: reduced total precipitation, supported by decreasing mean and extreme precipitation and reflected in an increasing length of dry spells. Apart from this general summary for the whole of Germany, the spatial distribution within the country is much more differentiated. Increases in winter precipitation are most pronounced in the north-west and south-east of Germany, while precipitation increases are highest in the west for spring and in the south for autumn. Decreasing summer precipitation was observed in most regions of Germany, with particular focus on the south and west. The seasonal picture, however, was again differently represented in the contributing months, e.g.\ increasing autumn precipitation in the south of Germany is formed by strong trends in the south-west in October and in the south-east in November. These results emphasise the high spatial and temporal organisation of precipitation changes. % Paper 2 The next step towards attributing precipitation trends to changes in large-scale atmospheric patterns was the derivation of a weather pattern classification that sufficiently stratifies the local climate variables under investigation. Focussing on temperature, radiation, and humidity in addition to precipitation, a classification based on mean sea level pressure, near-surface temperature, and specific humidity was found to have the best skill in explaining the variance of the local variables. A rather high number of 40 patterns was selected, allowing typical pressure patterns being assigned to specific seasons by the associated temperature patterns. While the skill in explaining precipitation variance is rather low, better skill was achieved for radiation and, of course, temperature. Most of the recent GCMs from the CMIP5 ensemble were found to reproduce these weather patterns sufficiently well in terms of frequency, seasonality, and persistence. % Paper 3 Finally, the weather patterns were analysed for trends in pattern frequency, seasonality, persistence, and trends in pattern-specific precipitation and temperature. To overcome uncertainties in trend detection resulting from the selected time period, all possible periods in 1901-2010 with a minimum length of 31 years were considered. Thus, the assumption of a constant link between patterns and local weather was tested rigorously. This assumption was found to hold true only partly. While changes in temperature are mainly attributable to changes in pattern frequency, for precipitation a substantial amount of change was detected within individual patterns. Magnitude and even sign of trends depend highly on the selected time period. The frequency of certain patterns is related to the long-term variability of large-scale circulation modes. Changes in precipitation were found to be heterogeneous not only in space, but also in time - statements on trends are only valid for the specific time period under investigation. While some part of the trends can be attributed to changes in the large-scale circulation, distinct changes were found within single weather patterns as well. The results emphasise the need to analyse multiple periods for thorough trend detection wherever possible and add some note of caution to the application of downscaling approaches based on weather patterns, as they might misinterpret the effect of climate change due to neglecting within-type trends. KW - precipitation KW - weather pattern KW - trend analyses KW - Niederschlag KW - Wetterlagen KW - Trendanalysen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412725 ER - TY - THES A1 - Munz, Matthias T1 - Water flow and heat transport modelling at the interface between river and aquifer T1 - Wasserfluss- und Wärmetransportmodellierung an der Schnittstelle zwischen Fluss und Grundwasserleiter N2 - The functioning of the surface water-groundwater interface as buffer, filter and reactive zone is important for water quality, ecological health and resilience of streams and riparian ecosystems. Solute and heat exchange across this interface is driven by the advection of water. Characterizing the flow conditions in the streambed is challenging as flow patterns are often complex and multidimensional, driven by surface hydraulic gradients and groundwater discharge. This thesis presents the results of an integrated approach of studies, ranging from the acquisition of field data, the development of analytical and numerical approaches to analyse vertical temperature profiles to the detailed, fully-integrated 3D numerical modelling of water and heat flux at the reach scale. All techniques were applied in order to characterize exchange flux between stream and groundwater, hyporheic flow paths and temperature patterns. The study was conducted at a reach-scale section of the lowland Selke River, characterized by distinctive pool riffle sequences and fluvial islands and gravel bars. Continuous time series of hydraulic heads and temperatures were measured at different depths in the river bank, the hyporheic zone and within the river. The analyses of the measured diurnal temperature variation in riverbed sediments provided detailed information about the exchange flux between river and groundwater. Beyond the one-dimensional vertical water flow in the riverbed sediment, hyporheic and parafluvial flow patterns were identified. Subsurface flow direction and magnitude around fluvial islands and gravel bars at the study site strongly depended on the position around the geomorphological structures and on the river stage. Horizontal water flux in the streambed substantially impacted temperature patterns in the streambed. At locations with substantial horizontal fluxes the penetration depths of daily temperature fluctuations was reduced in comparison to purely vertical exchange conditions. The calibrated and validated 3D fully-integrated model of reach-scale water and heat fluxes across the river-groundwater interface was able to accurately represent the real system. The magnitude and variations of the simulated temperatures matched the observed ones, with an average mean absolute error of 0.7 °C and an average Nash Sutcliffe Efficiency of 0.87. The simulation results showed that the water and heat exchange at the surface water-groundwater interface is highly variable in space and time with zones of daily temperature oscillations penetrating deep into the sediment and spots of daily constant temperature following the average groundwater temperature. The average hyporheic flow path temperature was found to strongly correlate with the flow path residence time (flow path length) and the temperature gradient between river and groundwater. Despite the complexity of these processes, the simulation results allowed the derivation of a general empirical relationship between the hyporheic residence times and temperature patterns. The presented results improve our understanding of the complex spatial and temporal dynamics of water flux and thermal processes within the shallow streambed. Understanding these links provides a general basis from which to assess hyporheic temperature conditions in river reaches. N2 - Die Interaktion zwischen Oberflächenwasser und Grundwasser hat einen entscheidenden Einfluss auf die Wasserqualität und die ökologische Beschaffenheit von Seen, Flüssen und aquatischen Ökosystemen. Der Austausch von Wärme und gelösten Substanzen zwischen diesen beiden Kompartimenten ist maßgeblich durch die Austauschraten und die Strömungsrichtung des Wassers beeinflusst. Somit ist die Charakterisierung dieser beiden Größen in dem Übergangsbereich zwischen Oberflächenwasser und Grundwasser von besonderer Bedeutung. Diese Arbeit präsentiert die Entwicklung und Anwendung von Methoden zur Untersuchung der zeitlichen und räumlichen Dynamik des Wasser- und Wärmeflusses an der Schnittstelle zwischen Oberflächenwasser und Grundwasser. Die Arbeit besteht im Wesentlichen aus zwei Schwerpunkten. Der erste Schwerpunkt beinhaltet die Entwicklung und Bewertung von analytischen und numerischen Methoden zur Bestimmung der horizontalen Strömungsrichtung und Austauschraten unter Verwendung von kontinuierlich gemessenen Temperaturzeitreihen entlang vertikaler Profile im gesättigten Sediment. Flussbetttemperaturen können relativ einfach und kostengünstig entlang eines Flussabschnittes in verschiedenen Tiefen und unterschiedlichsten Flussbettsedimenten (organisch, sandig bis grob kiesig) gemessen werden. Die Hauptverwendung solcher Temperaturprofile ist bisher auf die analytische Quantifizierung vertikaler Austauschraten limitiert. Im Rahmen dieser Arbeit wurde ein Ansatz entwickelt, der eine punktuelle Ermittlung der horizontalen Strömungs-komponente, basierend auf der Veränderung der täglichen Temperaturamplitude mit zunehmender Tiefe, ermöglicht. Weiterhin wurde ein inverser, numerischer Ansatz entwickelt, der die ein-dimensionale Wärmetransportgleichung numerisch löst und mittels inverser Optimierungsalgorithmen die simulierten Temperaturen bestmöglich an die gemessenen Flussbetttemperaturen anpasst. Diese Methode ermöglicht die automatische, zeitlich variable Quantifizierung vertikaler Austauschraten an der Schnittstelle zwischen Oberflächenwasser und Grundwasser sowie eine einfache Unsicherheitsbetrachtung aufgrund der zugrunde liegenden Parameterunsicherheiten. Der zweite Schwerpunkt der Arbeit liegt auf der Anwendung der entwickelten Methoden und der Erstellung eines dreidimensionalen Simulationsmodelles entlang eines Flussabschnittes der Selke. Numerische Strömungs- und Stofftransportmodelle ermöglichen die gekoppelte Simulation von Fließprozessen im offenen Gerinne und im darunter liegenden porösen Medium. Die Parametrisierung des Modells erfolgte anhand empirischer Daten die im Untersuchungsgebiet detailliert erhoben wurden. Die Simulationsergebnisse zeigten zum einen gebietsspezifische Gegebenheiten auf, ermöglichten darüber hinaus jedoch auch die Beschreibung allgemeiner Muster und Zusammenhänge welche die Wasserfluss- und Wärmetransportprozesse an der Schnittstelle zwischen Oberflächenwasser und Grundwasser beeinflussen. So zeigten die Ergebnisse dieser Arbeit, dass maßgeblich die natürlich vorhandenen Flussbettstrukturen die Austauschraten und die Strömungsrichtung zwischen Oberflächenwasser und Grundwasser beeinflussen und somit den hyporheischen Austausch bestimmen. Wichtige Einflussfaktoren auf die untersuchten Austauschprozesse waren die Lage im Gerinne relativ zur Flussbettstruktur und der vorherrschende Wasserstand (Abfluss). Bedingt durch den Wasser- und Wärmeaustausch prägten sich im Untersuchungsgebiet Bereiche aus in denen die täglichen Temperaturschwingungen tief in das Sediment eindringen (Anstrombereich der Flussbettstrukturen), als auch Bereiche in denen relativ konstante Temperaturen, nahe der Grundwassertemperatur, vorherrschten. Die durchschnittliche Temperatur in der hyporheischen Zone wurde durch die saisonalen Temperaturschwankungen im Oberflächenwasser dominiert, wobei die Temperaturen entlang einzelner Fließpfade stark von der Verweilzeit des Oberflächen- oder Grundwassers im gesättigten Sediment und dem Temperaturgradienten zwischen Fluss und Grundwasser abhängig waren. Trotz der Komplexität dieser Zusammenhänge, ermöglichten die Simulationsergebnisse die Ableitung einer allgemeinen empirischen Beziehung zwischen den hyporheischen Verweilzeiten und Temperaturmustern. Sowohl die Verweilzeiten als auch die Temperatur im gesättigten Sediment haben einen entscheiden Einfluss auf biogeochemische Prozesse in dem Übergangsbereich zwischen Oberflächenwasser und Grundwasser und sind somit von besonderer Bedeutung für die Wasserqualität von Seen, Flüssen und aquatischen Ökosystemen. KW - surface water-groundwater interaction KW - Oberflächenwasser-Grundwasser Interaktion KW - hyporheic zone KW - hyporheische Zone KW - numerical modeling KW - numerische Modellierung KW - heat transport KW - Wärmetransport KW - temperature KW - Temperatur Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404319 ER - TY - THES A1 - Muldashev, Iskander T1 - Modeling of the great earthquake seismic cycles T1 - Modellierung der seismischen Zyklen von Mega-Erdbeben N2 - The timing and location of the two largest earthquakes of the 21st century (Sumatra, 2004 and Tohoku 2011, events) greatly surprised the scientific community, indicating that the deformation processes that precede and follow great megathrust earthquakes remain enigmatic. During these phases before and after the earthquake a combination of multi-scale complex processes are acting simultaneously: Stresses built up by long-term tectonic motions are modified by sudden jerky deformations during earthquakes, before being restored by multiple ensuing relaxation processes. This thesis details a cross-scale thermomechanical model developed with the aim of simulating the entire subduction process from earthquake (1 minute) to million years’ time scale, excluding only rupture propagation. The model employs elasticity, non-linear transient viscous rheology, and rate-and-state friction. It generates spontaneous earthquake sequences, and, by using an adaptive time-step algorithm, recreates the deformation process as observed naturally over single and multiple seismic cycles. The model is thoroughly tested by comparing results to those from known high- resolution solutions of generic modeling setups widely used in modeling of rupture propagation. It is demonstrated, that while not modeling rupture propagation explicitly, the modeling procedure correctly recognizes the appearance of instability (earthquake) and correctly simulates the cumulative slip at a fault during great earthquake by means of a quasi-dynamic approximation. A set of 2D models is used to study the effects of non-linear transient rheology on the postseismic processes following great earthquakes. Our models predict that the viscosity in the mantle wedge drops by 3 to 4 orders of magnitude during a great earthquake with magnitude above 9. This drop in viscosity results in spatial scales and timings of the relaxation processes following the earthquakes that are significantly different to previous estimates. These models replicate centuries long seismic cycles exhibited by the greatest earthquakes (like the Great Chile 1960 Earthquake) and are consistent with the major features of postseismic surface displacements recorded after the Great Tohoku Earthquake. The 2D models are also applied to study key factors controlling maximum magnitudes of earthquakes in subduction zones. Even though methods of instrumentally observing earthquakes at subduction zones have rapidly improved in recent decades, the characteristic recurrence interval of giant earthquakes (Mw>8.5) is much larger than the currently available observational record and therefore the necessary conditions for giant earthquakes are not clear. Statistical studies have recognized the importance of the slab shape and its surface roughness, state of the strain of the upper plate and thickness of sediments filling the trenches. In this thesis we attempt to explain these observations and to identify key controlling parameters. We test a set of 2D models representing great earthquake seismic cycles at known subduction zones with various known geometries, megathrust friction coefficients, and convergence rates implemented. We found that low-angle subduction (large effect) and thick sediments in the subduction channel (smaller effect) are the fundamental necessary conditions for generating giant earthquakes, while the change of subduction velocity from 10 to 3.5 cm/yr has a lower effect. Modeling results also suggest that having thick sediments in the subduction channel causes low static friction, resulting in neutral or slightly compressive deformation in the overriding plate for low-angle subduction zones. These modeling results agree well with observations for the largest earthquakes. The model predicts the largest possible earthquakes for subduction zones of given dipping angles. The predicted maximum magnitudes exactly threshold magnitudes of all known giant earthquakes of 20th and 21st centuries. The clear limitation of most of the models developed in the thesis is their 2D nature. Development of 3D models with comparable resolution and complexity will require significant advances in numerical techniques. Nevertheless, we conducted a series of low-resolution 3D models to study the interaction between two large asperities at a subduction interface separated by an aseismic gap of varying width. The novelty of the model is that it considers behavior of the asperities during multiple seismic cycles. As expected, models show that an aseismic gap with a narrow width could not prevent rupture propagation from one asperity to another, and that rupture always crosses the entire model. When the gap becomes too wide, asperities do not interact anymore and rupture independently. However, an interesting mode of interaction was observed in the model with an intermediate width of the aseismic gap: In this model the asperities began to stably rupture in anti-phase following multiple seismic cycles. These 3D modeling results, while insightful, must be considered preliminary because of the limitations in resolution. The technique developed in this thesis for cross-scale modeling of seismic cycles can be used to study the effects of multiple seismic cycles on the long-term deformation of the upper plate. The technique can be also extended to the case of continental transform faults and for the advanced 3D modeling of specific subduction zones. This will require further development of numerical techniques and adaptation of the existing advanced highly scalable parallel codes like LAMEM and ASPECT. N2 - Zeitpunkt und Ort der zwei größten Erdbeben des 21. Jahrhunderts (Sumatra 2004 und Tohoku 2011) überraschten die wissenschaftliche Gemeinschaft, da sie darauf hindeuten, dass die einem Megathrust-Erdbeben vorangehenden und folgenden Deformationsprozesse weiterhin rästelhaft bleiben. Ein Problem ist die komplexe Art der Subduktionsprozesse auf unterschiedlichen Skalen. Spannungen werden durch langzeitliche, tektonische Bewegungen aufgebaut, von plötzlicher, ruckartiger Deformation während Erdbeben modifiziert und anschließend durch verschiedene Entspannungsprozesse wiederhergestellt. In dieser Arbeit wird ein skalen-übergreifendes thermomechanisches Modell entwickelt mit dem Ziel den vollständigen Subduktionsprozess von kleiner Skala (Minuten, z.B. Erdbeben) bis zu Millionen Jahren zu simulieren. Dabei bleibt nur das dynamische Prozess der unberücksichtigt. Das Modell nutzt Elastizität, nicht-lineare transient viskose Rheologie und „rate-and-state“ Reibungsgesetz. Es erzeugt spontane Erdbeben-Sequenzen und stellt durch das Nutzen eines adaptiven Zeitschritt Algorithmus den Deformationsprozess nach, wie er in der Natur während einzelner und mehrerer seismischer Zyklen beobachtet wird. Anhand der 2D-Modell Reihe werden die Effekte der nicht-linearen transient (viskosen) Rheologie auf postseismische Prozesse nach großen Erdbeben untersucht. Die Modelle sagen eine Verringerung der Mantelkeil-Viskosität um 3 bis 4 Größenordnungen während der großen Erdbeben (Mw > 9) vorher. Im Gegensatz zur momentanen Meinung, ergeben sich andere räumliche und zeitliche Verteilungen des Entspannungsprozesses nach großen Erdbeben. Jahrhunderte lange seismische Zyklen, wie zum Beispiel das große Erdbeben in Chile 1960, werden reproduziert und stimmen mit den Hauptmerkmalen der postseismischen Oberflächenverschiebungen überein, die nach dem großen Tohoku Erdbeben aufgezeichnet wurden. Mithilfe der 2D-Modelle werden außerdem Schlüsselfaktoren untersucht, die die maximale Magnitude von Erdbeben bestimmen. Obwohl die instrumentellen Methoden zur Beobachtung von Erdbeben in Subduktionszonen in den letzten Jahrzehnten stetig verbessert wurden, kann das Auftreten der größten Erdbeben (Mw > 8.5) und die dafür vorrauszusetzenden Bedingungen nicht genau bestimmt werden, da die charackeristische Zeit für ein Wiederauftreten deutlich größer als der Beobachtungszeitraum ist. Wir versuchen in dieser Arbeit diese Beobachtungen zu erklären und die kontrollierenden Schlüsselfaktoren zu bestimmen. Eine 2D-Modell Reihe mit großen, seismischen Erdbebenzyklen untersucht unterschiedliche Geometrien von Subduktionszonen sowie Reibungskoeffizieten an der Subduktions Platten-Grenzoberfläche und Konvergenzraten. Subduktion mit geringem Winkel (großer Effekt) und mächtige Sedimente im Subduktionskanal (kleiner Effekt) sind grundlegend notwendige Bedingungen für riesige Erdbeben, während eine Änderung des Reibungsparameters nur geringe Auswirkungen hat. Die Modellierungsergebnisse sind in viiÜbereinstimmung mit den Beobachtungen von den größten Erdbeben. Die maximale vohergesagte Magnituden liegen an der oberen Grenze alle historische Beben der 20. und 21. Jahrhunderden. Die größte Einschränkung der entwickelten Modelle ist ihre 2-dimensionale Natur. Um die Interaktion zwischen zwei großen Unebenheiten („asperities“) auf der Subduktions Platten-Grenzoberfläche, die von einer aseismischen Lücke („gap“) voneinander getrennt sind, zu untersuchen, wurde eine 3D-Modell Reihe mit geringer Auflösung durchgeführt. Neu an diesem Modell ist, dass das Verhalten der Unebenheiten während mehrerer seismischer Zyklen berücksichtigt wird. Wie erwartet zeigt das Modell, dass eine schmale, aseismische Lücke ein Propagieren von Brüchen von einer Unebenheit zur nächsten nicht verhindern kann und diese Brüche das gesamte Modell durchkreuzen. Wird die Lücke zu groß interagieren die Unebenheiten nicht mehr miteinander und brechen unabhängig voneinander. Allerdings wurde in dem Modell mit mittlerer Breite der aseismischen Lücke eine interessante Art von Interaktion beobachtet: Nach einigen seismischen Zyklen beginnen die Unebenheiten kontinuerlich und zwar in Gegen-Phasen zu brechen. Diese Ergebnisse sind andeutend, aber können aufgrund der geringen Auflösung des Models nur als vorläufig angesehen werden und erfordern weitere Bestätigung mit hoch-auflösenden Modellen. KW - earthquake modeling KW - seismic cycle modeling KW - subduction KW - numerical modeling KW - Erdbeben Modellierung KW - Modellierung des seismischen Zyklus KW - Subduktion KW - numerische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398926 ER - TY - THES A1 - Mosca, Michela T1 - Multilinguals' language control T1 - Sprachkontrolle bei Mehrsprachigen N2 - For several decades, researchers have tried to explain how speakers of more than one language (multilinguals) manage to keep their languages separate and to switch from one language to the other depending on the context. This ability of multilingual speakers to use the intended language, while avoiding interference from the other language(s) has recently been termed “language control”. A multitude of studies showed that when bilinguals process one language, the other language is also activated and might compete for selection. According to the most influential model of language control developed over the last two decades, competition from the non-intended language is solved via inhibition. In particular, the Inhibitory Control (IC) model proposed by Green (1998) puts forward that the amount of inhibition applied to the non-relevant language depends on its dominance, in that the stronger the language the greater the strength of inhibition applied to it. Within this account, the cost required to reactivate a previously inhibited language depends on the amount of inhibition previously exerted on it, that is, reactivation costs are greater for a stronger compared to a weaker language. In a nutshell, according to the IC model, language control is determined by language dominance. The goal of the present dissertation is to investigate the extent to which language control in multilinguals is affected by language dominance and whether and how other factors might influence this process. Three main factors are considered in this work: (i) the time speakers have to prepare for a certain language or PREPARATION TIME, (ii) the type of languages involved in the interactional context or LANGUAGE TYPOLOGY, and (iii) the PROCESSING MODALITY, that is, whether the way languages are controlled differs between reception and production. The results obtained in the four manuscripts, either published or in revision, indicate that language dominance alone does not suffice to explain language switching patterns. In particular, the present thesis shows that language control is profoundly affected by each of the three variables described above. More generally, the findings obtained in the present dissertation indicate that language control in multilingual speakers is a much more dynamic system than previously believed and is not exclusively determined by language dominance, as predicted by the IC model (Green, 1998). N2 - Viele Jahrzehnte lang haben Forscher versucht zu erklären, wie es Menschen, die mehr als eine Sprache sprechen (Mehrsprachige), gelingt, Sprachen zu unterscheiden und je nach Kontext zwischen den Sprachen zu wechseln. Diese Fähigkeit von Mehrsprachigen die geplante Sprache zu benutzen und die Interferenzen mit den anderen Sprachen zu vermeiden wird als „Sprachkontrolle“ bezeichnet. Eine Vielzahl von Studien haben gezeigt, dass wenn ein Zweisprachiger eine Sprache verarbeitet, wird die andere Sprache auch aktiviert, sodass sie Teil der Sprachplanung werden könnte. Nach dem beeinflussendesten Modell über Sprachkontrolle, entwickelt in den letzten zwei Jahrzehnten, ist Konkurrenz von der nicht beteiligten Sprache durch Inhibition dieser Sprache abgeschafft. Insbesondere schlägt das von Green (1998) aufgestellte Inhibitory Control (IC) Modell vor, dass die Inhibitionsmenge, die benötigt wird, um eine nicht beteiligte Sprache zu unterdrücken, von der Sprachdominanz abhängig ist, beziehungsweise je stärker die Sprache desto mehr Inhibition wird benötigt, um diese Sprache zu inhibieren. Innerhalb dieser Darstellung, sind die Reaktivierungskosten einer unterdrückten Sprache von der Inhibitionsmenge in dieser Sprache abhängig, das heißt, die Reaktivierungskosten sind größer für die stärkere als für die schwächere Sprache. Zusammengefasst nach dem IC Modell ist die Sprachkontrolle durch Sprachdominanz geregelt. Das Ziel dieser Dissertation ist zu untersuchen, inwiefern Sprachkontrolle bei Mehrsprachigen durch Sprachdominanz geregelt ist und ob und wie andere Faktoren diesen Prozess beeinflussen. Drei Hauptfaktoren sind in dieser Arbeit untersucht: (i) die Zeit über die Sprecher verfügen, um sich für eine bestimmte Sprache vorzubereiten oder VORBEREITUNGSZEIT, (ii) die Typologie der involvierten Sprachen oder SPRACHTYPOLOGIE und (iii) die VERARBEITUNGSMODALITÄT, das heißt, ob Sprachverarbeitung in Produktion und Erkennung anders oder gleich ist. Die Ergebnisse aus den vier Manuskripten, entweder veröffentlicht oder in Revision, zeigen, dass Sprachdominanz allein nicht die Sprachwechselergebnisse erklären kann. Insbesondere weist diese Doktorarbeit darauf hin, dass Sprachkontrolle stark von den drei obengenannten Faktoren beeinflusst ist. Im Allgemeinen zeigen die Ergebnisse dieser Dissertation, dass Sprachkontrolle bei Mehrsprachigen ein bedeutend dynamischeres System ist als vorher gedacht, und sie ist nicht ausschließlich durch Sprachdominanz geregelt, wie das IC Modell (Green, 1998) vorschlägt. KW - language switching KW - language inhibition KW - bilingualism KW - trilingualism KW - multilingualism KW - IC Model KW - language production KW - language recognition KW - Sprachwechsel KW - Sprachinhibition KW - Zweisprachigkeit KW - Dreisprachigkeit KW - Mehrsprachigkeit KW - IC Modell KW - Sprachproduktion KW - Spracherkennung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398912 ER -