TY - THES A1 - Nikaj, Adriatik T1 - Restful choreographies T1 - REST-Choreografien N2 - Business process management has become a key instrument to organize work as many companies represent their operations in business process models. Recently, business process choreography diagrams have been introduced as part of the Business Process Model and Notation standard to represent interactions between business processes, run by different partners. When it comes to the interactions between services on the Web, Representational State Transfer (REST) is one of the primary architectural styles employed by web services today. Ideally, the RESTful interactions between participants should implement the interactions defined at the business choreography level. The problem, however, is the conceptual gap between the business process choreography diagrams and RESTful interactions. Choreography diagrams, on the one hand, are modeled from business domain experts with the purpose of capturing, communicating and, ideally, driving the business interactions. RESTful interactions, on the other hand, depend on RESTful interfaces that are designed by web engineers with the purpose of facilitating the interaction between participants on the internet. In most cases however, business domain experts are unaware of the technology behind web service interfaces and web engineers tend to overlook the overall business goals of web services. While there is considerable work on using process models during process implementation, there is little work on using choreography models to implement interactions between business processes. This thesis addresses this research gap by raising the following research question: How to close the conceptual gap between business process choreographies and RESTful interactions? This thesis offers several research contributions that jointly answer the research question. The main research contribution is the design of a language that captures RESTful interactions between participants---RESTful choreography modeling language. Formal completeness properties (with respect to REST) are introduced to validate its instances, called RESTful choreographies. A systematic semi-automatic method for deriving RESTful choreographies from business process choreographies is proposed. The method employs natural language processing techniques to translate business interactions into RESTful interactions. The effectiveness of the approach is shown by developing a prototypical tool that evaluates the derivation method over a large number of choreography models. In addition, the thesis proposes solutions towards implementing RESTful choreographies. In particular, two RESTful service specifications are introduced for aiding, respectively, the execution of choreographies' exclusive gateways and the guidance of RESTful interactions. N2 - Das Prozessmanagement hat sich zu einer wichtigen Methode zur Organisation von Arbeitsabläufen entwickelt, sodass viele Unternehmen ihre Tätigkeiten mittlerweile in Prozessmodellen darstellen. Unlängst wurden zudem im Kontext der Business Process Model and Notation Choreographiediagramme eingeführt, um Interaktionen zwischen Prozessen verschiedener Partner zu beschreiben. Im Web nutzen interagierende Dienste heutzutage den Representational State Transfer (REST) als primären Architekturstil. Idealerweise implementieren die REST-Interaktionen der Dienste also die Interaktionen, die im Choreographiediagramm definiert wurden. Allerdings besteht zwischen Choreographiediagrammen und RESTInteraktionen eine konzeptuelle Diskrepanz. Auf der einen Seite werden Choreographiediagramme von Domänenexperten mit dem Ziel modelliert, die Interaktionen zu erfassen, zu kommunizieren und, idealerweise, voranzutreiben. Auf der anderen Seite sind REST-Interaktionen abhängig von REST-Schnittstellen, welche von Web-Entwicklern mit dem Ziel entworfen werden, Interaktionen zwischen Diensten im Internet zu erleichtern. In den meisten Fällen sind sich Domänenexperten jedoch der Technologien, die Web-Schnittstellen zu Grunde liegen, nicht bewusst, wohingegenWeb-Entwickler die Unternehmensziele der Web-Dienste nicht kennen. Während es umfangreiche Arbeiten zur Implementierung von Prozessmodellen gibt, existieren nur wenige Untersuchungen zur Implementierung von interagierenden Prozessen auf Basis von Choreographiemodellen. Die vorliegende Dissertation adressiert diese Forschungslücke, indem sie die folgende Forschungsfrage aufwirft: Wie kann die konzeptuelle Diskrepanz zwischen Choreographiediagrammen und REST-Interaktionen beseitigt werden? Somit enthält diese Arbeit mehrere Forschungsbeiträge, um diese Frage zu adressieren. Der primäre Beitrag besteht in dem Design einer Modellierungssprache, um REST-Interaktionen zwischen Diensten zu erfassen—der RESTful Choreography Modeling Language. Formale Vollständigkeitseigenschaften (in Bezug auf REST) werden eingeführt, um Instanzen dieser Modelle, sogennante REST-Choreographien, zu validieren. Ferner wird eine systematische, halb-automatische Methode vorgestellt, um RESTChoreographien von Choreographiediagrammen abzuleiten. Diese Methode setzt Techniken des Natural Language Processing ein, um Interaktionen in REST-Interaktionen zu übersetzen. Die Wirksamkeit des Ansatzes wird durch die Entwicklung eines prototypischen Werkzeugs demonstriert, welches die Ableitungsmethode anhand einer großen Anzahl von Choreographiediagrammen evaluiert. Darüber hinaus stellt diese Arbeit Lösungen zur Implementierung von REST-Choreographien bereit. Insbesondere werden zwei REST-Dienstspezifikationen vorgestellt, welche die korrekte Ausführung von exklusiven Gateways eines Choreographiediagramms und die Führung der REST-Interaktionen unterstützen. KW - business process choreographies KW - RESTful interactions KW - Geschäftsprozess-Choreografien KW - REST-Interaktionen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-438903 ER - TY - THES A1 - Jakobs, Friedrich T1 - Dubrovin–rings and their connection to Hughes–free skew fields of fractions T1 - Dubrovinringe und ihre Verbindung zu Hughes-freien Quotientenschiefkörpern N2 - One method of embedding groups into skew fields was introduced by A. I. Mal'tsev and B. H. Neumann (cf. [18, 19]). If G is an ordered group and F is a skew field, the set F((G)) of formal power series over F in G with well-ordered support forms a skew field into which the group ring F[G] can be embedded. Unfortunately it is not suficient that G is left-ordered since F((G)) is only an F-vector space in this case as there is no natural way to define a multiplication on F((G)). One way to extend the original idea onto left-ordered groups is to examine the endomorphism ring of F((G)) as explored by N. I. Dubrovin (cf. [5, 6]). It is possible to embed any crossed product ring F[G; η, σ] into the endomorphism ring of F((G)) such that each non-zero element of F[G; η, σ] defines an automorphism of F((G)) (cf. [5, 10]). Thus, the rational closure of F[G; η, σ] in the endomorphism ring of F((G)), which we will call the Dubrovin-ring of F[G; η, σ], is a potential candidate for a skew field of fractions of F[G; η, σ]. The methods of N. I. Dubrovin allowed to show that specific classes of groups can be embedded into a skew field. For example, N. I. Dubrovin contrived some special criteria, which are applicable on the universal covering group of SL(2, R). These methods have also been explored by J. Gräter and R. P. Sperner (cf. [10]) as well as N.H. Halimi and T. Ito (cf. [11]). Furthermore, it is of interest to know if skew fields of fractions are unique. For example, left and right Ore domains have unique skew fields of fractions (cf. [2]). This is not the general case as for example the free group with 2 generators can be embedded into non-isomorphic skew fields of fractions (cf. [12]). It seems likely that Ore domains are the most general case for which unique skew fields of fractions exist. One approach to gain uniqueness is to restrict the search to skew fields of fractions with additional properties. I. Hughes has defined skew fields of fractions of crossed product rings F[G; η, σ] with locally indicable G which fulfill a special condition. These are called Hughes-free skew fields of fractions and I. Hughes has proven that they are unique if they exist [13, 14]. This thesis will connect the ideas of N. I. Dubrovin and I. Hughes. The first chapter contains the basic terminology and concepts used in this thesis. We present methods provided by N. I. Dubrovin such as the complexity of elements in rational closures and special properties of endomorphisms of the vector space of formal power series F((G)). To combine the ideas of N.I. Dubrovin and I. Hughes we introduce Conradian left-ordered groups of maximal rank and examine their connection to locally indicable groups. Furthermore we provide notations for crossed product rings, skew fields of fractions as well as Dubrovin-rings and prove some technical statements which are used in later parts. The second chapter focuses on Hughes-free skew fields of fractions and their connection to Dubrovin-rings. For that purpose we introduce series representations to interpret elements of Hughes-free skew fields of fractions as skew formal Laurent series. This 1 Introduction allows us to prove that for Conradian left-ordered groups G of maximal rank the statement "F[G; η, σ] has a Hughes-free skew field of fractions" implies "The Dubrovin ring of F [G; η, σ] is a skew field". We will also prove the reverse and apply the results to give a new prove of Theorem 1 in [13]. Furthermore we will show how to extend injective ring homomorphisms of some crossed product rings onto their Hughes-free skew fields of fractions. At last we will be able to answer the open question whether Hughes--free skew fields are strongly Hughes-free (cf. [17, page 53]). N2 - In dieser Arbeit beschäftigen wir uns mit Quotientenschiefkörpern von verschränkten Produkten F [G; η, σ], wobei G eine Gruppe und F ein Schiefkörper ist. Eine Methode Gruppen in Schiefkörper einzubetten stammt von A. I. Mal’tsev und B. H. Neumann. Ist G eine beidseitig geordnete Gruppe, so lässt sich die Menge der formalen Potenzreihen F ((G)) über F in G mit wohlgeordnetem Träger als Schiefkörper interpretieren. In diesen lässt sich jedes verschränkte Produkt F [G; η, σ] einbetten. Möchte man die Klasse der einzubettenden Gruppen erweitern, so bieten sich links–geordnete Gruppen an. In diesem Fall hat F ((G)) keine natürliche Ringstruktur, aber man kann nutzen, dass F ((G)) ein rechter F–Vektorraum ist und seinen Endomorphismenring untersuchen. Jedes Verschränkte Produkt F [G; η, σ] lässt sich derart in den Endomorphismenring einbetten, dass die zugehörigen von Null verschiedenen Endomorphismen Automorphismen sind. Der rationale Abschluss von F [G; η, σ] in End(F ((G))), den wir Dubrovinring von F [G; η, σ] nennen, ist somit ein potentieller Quotientenschiefkörper von F [G; η, σ]. Neben der Existenz von Quotientenschiefkörpern ist deren Eindeutigkeit (bis auf Isomorphie) von Interesse. Im Gegensatz zum kommutativen Fall sind Quotientenschiefkörper im Allgemeinen nicht eindeutig. So lässt sich beispielsweise die freie Gruppe mit zwei Erzeugenden in nicht–isomorphe Quotientenschiefkörper einbetten. Eine große Klasse an Ringen, die eindeutige Quotientenschiefkörper besitzen, sind Ore–Bereiche. Vermutlich lässt sich diese Klasse nicht erweitern, ohne zusätzliche Eigenschaften der Quotientenschiefkörper zu verlangen. Eine solche Eigenschaft, im Folgenden Hughes–frei genannt, wurde von I. Hughes vorgeschlagen. Er konnte beweisen, dass Hughes–freie Quotientenschiefkörper eindeutig sind, wenn sie existieren. In dieser Arbeit verbinden wir die Ideen von I. Hughes und N. I. Dubrovin. Wir zeigen, dass die Elemente von Hughes–freien Quotientenschiefkörpern als formale schiefe Laurent–Reihen dargestellt werden können und dass diese Darstellungen in gewisser Weise eindeutig sind. Dieses Ergebnis nutzen wir um zu beweisen, dass die Aussagen “F [G; η, σ] besitzt einen Hughes–freien Quotientenschiefkörper” und “Der Dubrovinring von F [G; η, σ] ist ein Schiefkörper” äquivalent sind, wenn G eine links–geordnete Gruppe von Conrad–Typ mit maximalem Rang ist. Wir stellen den nötigen Begriffsapparat zur Verfügung. Dieser basiert vorwiegend auf den Arbeiten von N. I. Dubrovin und umfasst spezielle Eigenschaften der Endomorphismen von F ((G)) sowie die Komplexität von Elementen in rationalen Abschlüssen. Des Weiteren gehen wir auf links–geordnete Gruppen von Conrad–Typ ein und untersuchen ihren Zusammenhang mit lokal indizierbaren Gruppen, die eine grundlegende Rolle für Hughes–freie Quotientenschiefkörper spielen. Wir werden zeigen können, dass Dubrovinringe, die Schiefkörper sind, stark Hughes–freie Quotientenschiefkörper sind, was die offene Frage beantwortet, ob Hughes–freie Quotientenschiefkörper stark Hughes–frei sind. Außerdem werden wir einen alternativen Beweis der Eindeutigkeit von Hughes–freien Quotientenschiefkörpern präsentieren und die Fortsetzbarkeit von Automorphismen eines verschränkten Produkts auf Hughes–freie Quotientenschiefkörper untersuchen. KW - Hughes-free KW - Dubrovinring KW - left ordered groups KW - Conradian ordered groups KW - skew field of fraction KW - locally indicable KW - series representation KW - strongly Hughes-free KW - Hughes-frei KW - Dubrovinring KW - linksgeordnete Gruppen KW - geordnete Gruppen von Conrad-Typ KW - Quotientenschiefkörper KW - lokal indizierbar KW - Reihendarstellungen KW - stark Hughes-frei Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-435561 ER - TY - THES A1 - Rector, Michael V. T1 - The acute effect of exercise on flow-mediated dilation in young people with cystic fibrosis T1 - Der akute Effekt des Trainings auf den Fluss vermittelte Dilatation bei jungen Menschen mit Mukoviszidose N2 - Introduction: Cystic fibrosis (CF) is a genetic disease which disrupts the function of an epithelial surface anion channel, CFTR (cystic fibrosis transmembrane conductance regulator). Impairment to this channel leads to inflammation and infection in the lung causing the majority of morbidity and mortality. However, CF is a multiorgan disease affecting many tissues, including vascular smooth muscle. Studies have revealed young people with cystic fibrosis lacking inflammation and infection still demonstrate vascular endothelial dysfunction, measured per flow-mediated dilation (FMD). In other disease cohorts, i.e. diabetic and obese, endurance exercise interventions have been shown improve or taper this impairment. However, long-term exercise interventions are risky, as well as costly in terms of time and resources. Nevertheless, emerging research has correlated the acute effects of exercise with its long-term benefits and advocates the study of acute exercise effects on FMD prior to longitudinal studies. The acute effects of exercise on FMD have previously not been examined in young people with CF, but could yield insights on the potential benefits of long-term exercise interventions. The aims of these studies were to 1) develop and test the reliability of the FMD method and its applicability to study acute exercise effects; 2) compare baseline FMD and the acute exercise effect on FMD between young people with and without CF; and 3) explore associations between the acute effects of exercise on FMD and demographic characteristics, physical activity levels, lung function, maximal exercise capacity or inflammatory hsCRP levels. Methods: Thirty young volunteers (10 people with CF, 10 non-CF and 10 non-CF active matched controls) between the ages of 10 and 30 years old completed blood draws, pulmonary function tests, maximal exercise capacity tests and baseline FMD measurements, before returning approximately 1 week later and performing a 30-min constant load training at 75% HRmax. FMD measurements were taken prior, immediately after, 30 minutes after and 1 hour after constant load training. ANOVAs and repeated measures ANOVAs were employed to explore differences between groups and timepoints, respectively. Linear regression was implemented and evaluated to assess correlations between FMD and demographic characteristics, physical activity levels, lung function, maximal exercise capacity or inflammatory hsCRP levels. For all comparisons, statistical significance was set at a p-value of α < 0.05. Results: Young people with CF presented with decreased lung function and maximal exercise capacity compared to matched controls. Baseline FMD was also significantly decreased in the CF group (CF: 5.23% v non-CF: 8.27% v non-CF active: 9.12%). Immediately post-training, FMD was significantly attenuated (approximately 40%) in all groups with CF still demonstrating the most minimal FMD. Follow-up measurements of FMD revealed a slow recovery towards baseline values 30 min post-training and improvements in the CF and non-CF active groups 60 min post-training. Linear regression exposed significant correlations between maximal exercise capacity (VO2 peak), BMI and FMD immediately post-training. Conclusion: These new findings confirm that CF vascular endothelial dysfunction can be acutely modified by exercise and will aid in underlining the importance of exercise in CF populations. The potential benefits of long-term exercise interventions on vascular endothelial dysfunction in young people with CF warrants further investigation. N2 - Einleitung: Mukoviszidose (CF) ist eine genetische Erkrankung, die die Funktion eines Epithelien Oberflächenanionenkanals, CFTR (cystic fibrosis transmembrane conductance regulator), stört. Eine Beeinträchtigung dieses Kanals führt zu Entzündungen und Infektionen in der Lunge, die den Großteil der Morbidität und Mortalität verursachen. CF ist jedoch eine Multiorganerkrankung, die viele Gewebe einschließlich vaskulärer glatter Muskeln betrifft. Studien haben gezeigt, dass junge Menschen mit Mukoviszidose, die keine Entzündung und Infektion aufweisen, immer noch eine vaskuläre Dysfunktion aufweisen, gemessen anhand der durchflussbedingten Dilatation (FMD). In anderen Krankheitskohorten, u.a. Diabetes und Fettleibigkeit, wurde gezeigt, dass Ausdauersporteingriffe diese Beeinträchtigungen verbessern oder reduzieren. Langfristige Bewegungseingriffe sind jedoch riskant und kostenintensiv in Bezug auf Zeit und Ressourcen. Nichtsdestotrotz hat die aufkommende Forschung die akuten Auswirkungen von körperlicher Bewegung mit ihren langfristigen Vorteilen korreliert und befürwortet die Untersuchung akuter Bewegungseffekte auf FMD vor longitudinalen Studien. Die akuten Auswirkungen von körperlicher Bewegung auf FMD wurden bisher bei jungen Menschen mit Mukoviszidose nicht untersucht, konnten jedoch Erkenntnisse über die potenziellen Vorteile langfristiger Bewegungseingriffe liefern. Die Ziele dieser Studien waren, 1) die Zuverlässigkeit der FMD-Methode und ihre Anwendbarkeit zu entwickeln, um akute Übungseffekte zu untersuchen; 2) Vergleich der Grundlinien-FMD und der Akutübungswirkung bei FMD zwischen Jugendlichen mit und ohne CF; und 3) Zusammenhänge zwischen den akuten Auswirkungen von körperlicher Bewegung auf FMD und demographischen Merkmalen, der körperlichen Aktivität, der Lungenfunktion, der maximalen körperlichen Belastbarkeit oder den entzündlichen hsCRP-Spiegeln zu untersuchen. Methoden: Dreißig junge Freiwillige (10 CF-Patienten, 10 gesunde und 10 aktive, gesunde Kontrollpersonen) im Alter von 10 bis 30 Jahren führten zuvor Blutabnahmen, Lungenfunktionstests, maximale Belastungstests und Grundlinien-FMD-Messungen durch Rückkehr etwa 1 Woche später und Durchführung eines 30-minütigen Dauerlasttrainings bei 75% HFmax durch. FMD-Messungen wurden vor, unmittelbar nach, 30 Minuten nach und 1 Stunde nach konstantem Belastungstraining durchgeführt. ANOVAs und ANOVAs mit wiederholten Messungen wurden verwendet, um Unterschiede zwischen Gruppen bzw. Zeitpunkten zu untersuchen. Die lineare Regression wurde implementiert und evaluiert, um Korrelationen zwischen FMD und demographischen Merkmalen, körperlichen Aktivitätsniveaus, Lungenfunktion, maximaler Belastungskapazität oder inflammatorischen hsCRP-Spiegeln zu bestimmen. Für alle Vergleiche wurde die statistische Signifikanz auf einen p-Wert von α < 0,05 eingestellt. Ergebnisse: Jugendliche mit Mukoviszidose zeigten eine verminderte Lungenfunktion und maximale Belastbarkeit im Vergleich zu Kontrollpersonen. Baseline FMD (%) war auch in der CF-Gruppe (CF: 5.23% v nicht-CF: 8.27% v nicht-CF-aktive: 9.12%) signifikant verringert. Unmittelbar nach dem Training war die FMD in allen Gruppen mit CF, die immer noch die minimalste FMD aufwiesen, signifikant abgeschwächt (~40%). Follow-up-Messungen von FMD zeigte eine langsame Erholung in Richtung Baseline-Werte 30 Minuten nach dem Training und Verbesserungen in der CF-und nicht-CF-aktive Gruppen 60 Minuten nach dem Training. Die lineare Regression zeigte signifikante Korrelationen zwischen maximaler Belastungsfähigkeit (VO2-Peak), BMI und FMD unmittelbar nach dem Training. Feststellung: Diese neuen Ergebnisse bestätigen, dass die vaskuläre Dysfunktion der CF durch sportliche Betätigung akut verändert werden kann und dazu beitragen wird, die Bedeutung von Bewegung in CF-Populationen zu unterstreichen. Die potenziellen Vorteile von Langzeitübungsinterventionen bei vaskulärer Dysfunktion bei jungen CF-Patienten rechtfertigen weitere Untersuchungen. KW - cystic fibrosis KW - flow-mediated dilation KW - vascular dysfunction KW - exercise KW - Mukoviszidose KW - Fluss vermittelte Dilatation KW - vaskuläre Dysfunktion KW - Sporttraining Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-438938 ER - TY - THES A1 - Romero Mujalli, Daniel T1 - Ecological modeling of adaptive evolutionary responses to rapid climate change T1 - Ökologische Modellierung anpassungsfähiger evolutionärer Reaktionen auf schnellen Klimawandel N2 - A contemporary challenge in Ecology and Evolutionary Biology is to anticipate the fate of populations of organisms in the context of a changing world. Climate change and landscape changes due to anthropic activities have been of major concern in the contemporary history. Organisms facing these threats are expected to respond by local adaptation (i.e., genetic changes or phenotypic plasticity) or by shifting their distributional range (migration). However, there are limits to their responses. For example, isolated populations will have more difficulties in developing adaptive innovations by means of genetic changes than interconnected metapopulations. Similarly, the topography of the environment can limit dispersal opportunities for crawling organisms as compared to those that rely on wind. Thus, populations of species with different life history strategy may differ in their ability to cope with changing environmental conditions. However, depending on the taxon, empirical studies investigating organisms’ responses to environmental change may become too complex, long and expensive; plus, complications arising from dealing with endangered species. In consequence, eco-evolutionary modeling offers an opportunity to overcome these limitations and complement empirical studies, understand the action and limitations of underlying mechanisms, and project into possible future scenarios. In this work I take a modeling approach and investigate the effect and relative importance of evolutionary mechanisms (including phenotypic plasticity) on the ability for local adaptation of populations with different life strategy experiencing climate change scenarios. For this, I performed a review on the state of the art of eco-evolutionary Individual-Based Models (IBMs) and identify gaps for future research. Then, I used the results from the review to develop an eco-evolutionary individual-based modeling tool to study the role of genetic and plastic mechanisms in promoting local adaption of populations of organisms with different life strategies experiencing scenarios of climate change and environmental stochasticity. The environment was simulated through a climate variable (e.g., temperature) defining a phenotypic optimum moving at a given rate of change. The rate of change was changed to simulate different scenarios of climate change (no change, slow, medium, rapid climate change). Several scenarios of stochastic noise color resembling different climatic conditions were explored. Results show that populations of sexual species will rely mainly on standing genetic variation and phenotypic plasticity for local adaptation. Population of species with relatively slow growth rate (e.g., large mammals) – especially those of small size – are the most vulnerable, particularly if their plasticity is limited (i.e., specialist species). In addition, whenever organisms from these populations are capable of adaptive plasticity, they can buffer fitness losses in reddish climatic conditions. Likewise, whenever they can adjust their plastic response (e.g., bed-hedging strategy) they will cope with bluish environmental conditions as well. In contrast, life strategies of high fecundity can rely on non-adaptive plasticity for their local adaptation to novel environmental conditions, unless the rate of change is too rapid. A recommended management measure is to guarantee interconnection of isolated populations into metapopulations, such that the supply of useful genetic variation can be increased, and, at the same time, provide them with movement opportunities to follow their preferred niche, when local adaptation becomes problematic. This is particularly important for bluish and reddish climatic conditions, when the rate of change is slow, or for any climatic condition when the level of stress (rate of change) is relatively high. N2 - Eine aktuelle Herausforderung in der Ökologie und Evolutionsbiologie besteht darin, das Schicksal von Populationen verschiedener Lebewesen im Kontext einer sich verändernden Welt zu antizipieren. Der Klimawandel und die durch anthropologische Aktivitäten verursachten Landschaftsveränderungen sind im Laufe der Geschichte von großer Bedeutung geworden. Von den Organismen, die sich diesen Veränderungen stellen, wird erwartet, dass sie durch lokale Anpassung (d.h. genetische Veränderungen oder phänotypische Plastizität) oder durch Verschiebung ihres Verbreitungsgebietes (Migration) darauf reagieren. Allerdings sind diese Reaktionen begrenzt. So werden beispielsweise isolierte Populationen mehr Schwierigkeiten bei der Entwicklung adaptiver Neuheiten mittels genetischer Variation haben als vernetzte Metapopulationen. Ebenso kann die Topographie der Umgebung die Ausbreitungsmöglichkeiten für zum Beispiel kriechende Organismen im Vergleich zu denen, die auf Wind angewiesen sind, einschränken. So können Populationen von Arten mit unterschiedlichen Lebensstrategien verschiedene Fähigkeiten haben, mit den sich ändernden Umweltbedingungen umzugehen. Empirische Studien, die die Reaktionen von Organismen auf Umweltveränderungen untersuchen, können jedoch, je nach Taxon, zu komplex, langwierig und teuer werden. Ebenso sollten Komplikationen im Umgang mit gefährdeten Arten nicht außer Acht gelassen werden. Die ökoevolutionäre Modellierung bietet jedoch die Möglichkeit, diese Einschränkungen zu überwinden und empirische Studien zu ergänzen, die Wirkung und Grenzen der zugrunde liegenden Mechanismen zu verstehen und mögliche Zukunftsszenarien zu erstellen. In dieser Arbeit untersuche ich mittels einer Modellierungsmethode die Wirkung und relative Bedeutung evolutionärer Mechanismen (einschließlich phänotypischer Plastizität) auf die Fähigkeit zur lokalen Anpassung von Populationen mit unterschiedlichen Lebensstrategien, die Szenarien des Klimawandels durchleben. Dazu habe ich in einem Review den Stand der Technik ökoevolutionärer individuenbasierender Modelle (Individual-Based Models; IBMs) zusammengefasst und Ansätze für eine zukünftige Forschung identifiziert. Die Erkenntnisse des Reviews nutzte ich, um ein ökoevolutionäres, individuelles Modellierungsprogramm zu entwickeln. Dieses analysiert die Rolle genetischer und plastischer Mechanismen zur Förderung der lokalen Anpassung organismischer Populationen mit unterschiedlichen Lebensstrategien, welche Szenarien des Klimawandels und der ökologischen Stochastik erfahren. Die Umweltbedingungen wurden durch eine klimatische Variable (z.B. Temperatur) simuliert, die ein phänotypisches Optimum definiert, das sich mit einer bestimmten Änderungsrate bewegt. Verschiedene Änderungsraten wurden angewandt, um unterschiedliche Szenarien des Klimawandels darzustellen (keine Veränderung, langsamer, mittlerer, schneller Klimawandel). Es wurden mehrere Szenarien stochastischen Farbrauschens untersucht, die verschiedene klimatische Bedingungen widerspiegeln. Die Ergebnisse zeigen, dass Populationen sexueller Arten hauptsächlich auf genetische Variation und phänotypische Plastizität hinsichtlich lokalen Anpassung angewiesen sind. Populationen von Arten mit relativ langsamer Wachstumsrate (z.B. große Säugetiere), und insbesondere die mit kleiner Populationsgröße, sind am anfälligsten, vor allem wenn ihre Plastizität begrenzt ist (d.h. spezialisierte Arten). Wenn Individuen dieser Populationen zu adaptiver Plastizität fähig sind, können sie Fitnessverluste unter „rötlichen“ Klimabedingungen ausgleichen. Zugleich können diese Populationen durch Anpassung der Plastizität auch unter bläulichen Umweltbedingungen zurecht kommen (z.B. Bed-Hedging-Strategie). Im Gegensatz dazu können sich Lebensstrategen mit hoher Reproduktionszahl auf nicht-adaptive Plastizität zur lokalen Anpassung an neue Umweltbedingungen verlassen, es sei denn, die Änderungsrate ist zu schnell. Eine empfohlene Handlungsmaßnahme ist es, die Eingliederung von isolierten Populationen in Metapopulationen zu gewährleisten, so dass die genetische Variation erhöht werden kann. Wenn eine lokale Anpassung problematisch wird, sollte ihnen gleichzeitig Migrationsfreiraum gegeben werden, um ihrer bevorzugten Nische zu folgen. Dies ist besonders wichtig für „bläuliche“ und „rötliche“ Klimabedingungen, bei denen die Änderungsrate langsam ist, oder für jede klimatische Bedingung, wenn die Belastung (Änderungsrate) relativ hoch ist. KW - climate change KW - local adaptation KW - plasticity KW - evolution KW - individual-based model KW - Klimawandel KW - lokale Anpassung KW - Plastizität KW - Evolution KW - Individuen-basierende Modelle Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430627 ER - TY - THES A1 - Abdelwahab Hussein Abdelwahab Elsayed, Ahmed T1 - Probabilistic, deep, and metric learning for biometric identification from eye movements N2 - A central insight from psychological studies on human eye movements is that eye movement patterns are highly individually characteristic. They can, therefore, be used as a biometric feature, that is, subjects can be identified based on their eye movements. This thesis introduces new machine learning methods to identify subjects based on their eye movements while viewing arbitrary content. The thesis focuses on probabilistic modeling of the problem, which has yielded the best results in the most recent literature. The thesis studies the problem in three phases by proposing a purely probabilistic, probabilistic deep learning, and probabilistic deep metric learning approach. In the first phase, the thesis studies models that rely on psychological concepts about eye movements. Recent literature illustrates that individual-specific distributions of gaze patterns can be used to accurately identify individuals. In these studies, models were based on a simple parametric family of distributions. Such simple parametric models can be robustly estimated from sparse data, but have limited flexibility to capture the differences between individuals. Therefore, this thesis proposes a semiparametric model of gaze patterns that is flexible yet robust for individual identification. These patterns can be understood as domain knowledge derived from psychological literature. Fixations and saccades are examples of simple gaze patterns. The proposed semiparametric densities are drawn under a Gaussian process prior centered at a simple parametric distribution. Thus, the model will stay close to the parametric class of densities if little data is available, but it can also deviate from this class if enough data is available, increasing the flexibility of the model. The proposed method is evaluated on a large-scale dataset, showing significant improvements over the state-of-the-art. Later, the thesis replaces the model based on gaze patterns derived from psychological concepts with a deep neural network that can learn more informative and complex patterns from raw eye movement data. As previous work has shown that the distribution of these patterns across a sequence is informative, a novel statistical aggregation layer called the quantile layer is introduced. It explicitly fits the distribution of deep patterns learned directly from the raw eye movement data. The proposed deep learning approach is end-to-end learnable, such that the deep model learns to extract informative, short local patterns while the quantile layer learns to approximate the distributions of these patterns. Quantile layers are a generic approach that can converge to standard pooling layers or have a more detailed description of the features being pooled, depending on the problem. The proposed model is evaluated in a large-scale study using the eye movements of subjects viewing arbitrary visual input. The model improves upon the standard pooling layers and other statistical aggregation layers proposed in the literature. It also improves upon the state-of-the-art eye movement biometrics by a wide margin. Finally, for the model to identify any subject — not just the set of subjects it is trained on — a metric learning approach is developed. Metric learning learns a distance function over instances. The metric learning model maps the instances into a metric space, where sequences of the same individual are close, and sequences of different individuals are further apart. This thesis introduces a deep metric learning approach with distributional embeddings. The approach represents sequences as a set of continuous distributions in a metric space; to achieve this, a new loss function based on Wasserstein distances is introduced. The proposed method is evaluated on multiple domains besides eye movement biometrics. This approach outperforms the state of the art in deep metric learning in several domains while also outperforming the state of the art in eye movement biometrics. N2 - Die Art und Weise, wie wir unsere Augen bewegen, ist individuell charakteristisch. Augenbewegungen können daher zur biometrischen Identifikation verwendet werden. Die Dissertation stellt neuartige Methoden des maschinellen Lernens zur Identifzierung von Probanden anhand ihrer Blickbewegungen während des Betrachtens beliebiger visueller Inhalte vor. Die Arbeit konzentriert sich auf die probabilistische Modellierung des Problems, da dies die besten Ergebnisse in der aktuellsten Literatur liefert. Die Arbeit untersucht das Problem in drei Phasen. In der ersten Phase stützt sich die Arbeit bei der Entwicklung eines probabilistischen Modells auf Wissen über Blickbewegungen aus der psychologischen Literatur. Existierende Studien haben gezeigt, dass die individuelle Verteilung von Blickbewegungsmustern verwendet werden kann, um Individuen genau zu identifizieren. Existierende probabilistische Modelle verwenden feste Verteilungsfamilien in Form von parametrischen Modellen, um diese Verteilungen zu approximieren. Die Verwendung solcher einfacher Verteilungsfamilien hat den Vorteil, dass sie robuste Verteilungsschätzungen auch auf kleinen Mengen von Beobachtungen ermöglicht. Ihre Flexibilität, Unterschiede zwischen Personen zu erfassen, ist jedoch begrenzt. Die Arbeit schlägt daher eine semiparametrische Modellierung der Blickmuster vor, die flexibel und dennoch robust individuelle Verteilungen von Blickbewegungsmustern schätzen kann. Die modellierten Blickmuster können als Domänenwissen verstanden werden, das aus der psychologischen Literatur abgeleitet ist. Beispielsweise werden Verteilungen über Fixationsdauern und Sprungweiten (Sakkaden) bei bestimmten Vor- und Rücksprüngen innerhalb des Textes modelliert. Das semiparametrische Modell bleibt nahe des parametrischen Modells, wenn nur wenige Daten verfügbar sind, kann jedoch auch vom parametrischen Modell abweichen, wenn genügend Daten verfügbar sind, wodurch die Flexibilität erhöht wird. Die Methode wird auf einem großen Datenbestand evaluiert und zeigt eine signifikante Verbesserung gegenüber dem Stand der Technik der Forschung zur biometrischen Identifikation aus Blickbewegungen. Später ersetzt die Dissertation die zuvor untersuchten aus der psychologischen Literatur abgeleiteten Blickmuster durch ein auf tiefen neuronalen Netzen basierendes Modell, das aus den Rohdaten der Augenbewegungen informativere komplexe Muster lernen kann. Tiefe neuronale Netze sind eine Technik des maschinellen Lernens, bei der in komplexen, mehrschichtigen Modellen schrittweise abstraktere Merkmale aus Rohdaten extrahiert werden. Da frühere Arbeiten gezeigt haben, dass die Verteilung von Blickbewegungsmustern innerhalb einer Blickbewegungssequenz informativ ist, wird eine neue Aggrgationsschicht für tiefe neuronale Netze eingeführt, die explizit die Verteilung der gelernten Muster schätzt. Die vorgeschlagene Aggregationsschicht für tiefe neuronale Netze ist nicht auf die Modellierung von Blickbewegungen beschränkt, sondern kann als Verallgemeinerung von existierenden einfacheren Aggregationsschichten in beliebigen Anwendungen eingesetzt werden. Das vorgeschlagene Modell wird in einer umfangreichen Studie unter Verwendung von Augenbewegungen von Probanden evaluiert, die Videomaterial unterschiedlichen Inhalts und unterschiedlicher Länge betrachten. Das Modell verbessert die Identifikationsgenauigkeit im Vergleich zu tiefen neuronalen Netzen mit Standardaggregationsschichten und existierenden probabilistischen Modellen zur Identifikation aus Blickbewegungen. Damit das Modell zum Anwendungszeitpunkt beliebige Probanden identifizieren kann, und nicht nur diejenigen Probanden, mit deren Daten es trainiert wurde, wird ein metrischer Lernansatz entwickelt. Beim metrischen Lernen lernt das Modell eine Funktion, mit der die Ähnlichkeit zwischen Blickbewegungssequenzen geschätzt werden kann. Das metrische Lernen bildet die Instanzen in einen neuen Raum ab, in dem Sequenzen desselben Individuums nahe beieinander liegen und Sequenzen verschiedener Individuen weiter voneinander entfernt sind. Die Dissertation stellt einen neuen metrischen Lernansatz auf Basis tiefer neuronaler Netze vor. Der Ansatz repäsentiert eine Sequenz in einem metrischen Raum durch eine Menge von Verteilungen. Das vorgeschlagene Verfahren ist nicht spezifisch für die Blickbewegungsmodellierung, und wird in unterschiedlichen Anwendungsproblemen empirisch evaluiert. Das Verfahren führt zu genaueren Modellen im Vergleich zu existierenden metrischen Lernverfahren und existierenden Modellen zur Identifikation aus Blickbewegungen. KW - probabilistic deep metric learning KW - probabilistic deep learning KW - biometrics KW - eye movements KW - biometrische Identifikation KW - Augenbewegungen KW - probabilistische tiefe neuronale Netze KW - probabilistisches tiefes metrisches Lernen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-467980 ER - TY - THES A1 - Guislain, Alexis T1 - Eco-physiological consequences of fluctuating light on phytoplankton T1 - Ökophysiologische Konsequenzen von fluktuierendem Licht auf das Phytoplankton N2 - Phytoplankton growth depends not only on the mean intensity but also on the dynamics of the light supply. The nonlinear light-dependency of growth is characterized by a small number of basic parameters: the compensation light intensity PARcompμ, where production and losses are balanced, the growth efficiency at sub-saturating light αµ, and the maximum growth rate at saturating light µmax. In surface mixed layers, phytoplankton may rapidly move between high light intensities and almost darkness. Because of the different frequency distribution of light and/or acclimation processes, the light-dependency of growth may differ between constant and fluctuating light. Very few studies measured growth under fluctuating light at a sufficient number of mean light intensities to estimate the parameters of the growth-irradiance relationship. Hence, the influence of light dynamics on µmax, αµ and PARcompμ are still largely unknown. By extension, accurate modelling predictions of phytoplankton development under fluctuating light exposure remain difficult to make. This PhD thesis does not intend to directly extrapolate few experimental results to aquatic systems – but rather improving the mechanistic understanding of the variation of the light-dependency of growth under light fluctuations and effects on phytoplankton development. In Lake TaiHu and at the Three Gorges Reservoir (China), we incubated phytoplankton communities in bottles placed either at fixed depths or moved vertically through the water column to mimic vertical mixing. Phytoplankton at fixed depths received only the diurnal changes in light (defined as constant light regime), while phytoplankton received rapidly fluctuating light by superimposing the vertical light gradient on the natural sinusoidal diurnal sunlight. The vertically moved samples followed a circular movement with 20 min per revolution, replicating to some extent the full overturn of typical Langmuir cells. Growth, photosynthesis, oxygen production and respiration of communities (at Lake TaiHu) were measured. To complete these investigations, a physiological experiment was performed in the laboratory on a toxic strain of Microcystis aeruginosa (FACBH 1322) incubated under 20 min period fluctuating light. Here, we measured electron transport rates and net oxygen production at a much higher time resolution (single minute timescale). The present PhD thesis provides evidence for substantial effects of fluctuating light on the eco-physiology of phytoplankton. Both experiments performed under semi-natural conditions in Lake TaiHu and at the Three Gorges Reservoir gave similar results. The significant decline in community growth efficiencies αµ under fluctuating light was caused for a great share by different frequency distribution of light intensities that shortened the effective daylength for production. The remaining gap in community αµ was attributed to species-specific photoacclimation mechanisms and to light-dependent respiratory losses. In contrast, community maximal growth rates µmax were similar between incubations at constant and fluctuating light. At daily growth saturating light supply, differences in losses for biosynthesis between the two light regimes were observed. Phytoplankton experiencing constant light suffered photo-inhibition - leading to photosynthesis foregone and additional respiratory costs for photosystems repair. On the contrary, intermittent exposure to low and high light intensities prevented photo-inhibition of mixed algae but forced them to develop alternative light strategy. They better harvested and exploited surface irradiance by enhancing their photosynthesis. In the laboratory, we showed that Microcystis aeruginosa increased its oxygen consumption by dark respiration in the light few minutes only after exposure to increasing light intensities. More, we proved that within a simulated Langmuir cell, the net production at saturating light and the compensation light intensity for production at limiting light are positively related. These results are best explained by an accumulation of photosynthetic products at increasing irradiance and mobilization of these fresh resources by rapid enhancement of dark respiration for maintenance and biosynthesis at decreasing irradiance. At the daily timescale, we showed that the enhancement of photosynthesis at high irradiance for biosynthesis of species increased their maintenance respiratory costs at limiting light. Species-specific growth at saturating light µmax and compensation light intensity for growth PARcompμ of species incubated in Lake TaiHu were positively related. Because of this species-specific physiological tradeoff, species displayed different light affinities to limiting and saturating light - thereby exhibiting a gleaner-opportunist tradeoff. In Lake TaiHu, we showed that inter-specific differences in light acquisition traits (µmax and PARcompμ) allowed coexis¬tence of species on a gradient of constant light while avoiding competitive exclusion. More interestingly we demonstrated for the first time that vertical mixing (inducing fluctuating light supply for phytoplankton) may alter or even reverse the light utilization strategies of species within couple of days. The intra-specific variation in traits under fluctuating light increased the niche space for acclimated species, precluding competitive exclusion. Overall, this PhD thesis contributes to a better understanding of phytoplankton eco-physiology under fluctuating light supply. This work could enhance the quality of predictions of phytoplankton development under certain weather conditions or climate change scenarios. N2 - Das Wachstum von Phytoplankton hängt ab nicht nur von der mittleren Intensität, sondern auch von der Dynamik des verfügbaren Lichts. Die nicht-lineare Lichtabhängigkeit des Wachstums kann durch drei Parameter beschrieben werden: die Kompensationslichtintensität PARcompµ, bei der Bruttoproduktion und Verluste gleich sind, die Wachstumseffizienz bei Lichtlimitation αµ und die maximale Wachstumsrate bei sättigendem Licht µmax. In durchmischten Schichten nahe der Gewässeroberfläche kann das Phytoplankton innerhalb weniger Minuten zwischen Starklicht und nahezu völliger Dunkelheit bewegt werden. Durch die unterschiedliche Häufigkeitsverteilung der Lichtintensitäten und/oder unterschiedliche Anpassungen kann die Lichtabhängigkeit des Wachstums sich bei fluktuierendem Licht von dem bei konstantem Licht unterscheiden. Bislang wurde die Lichtabhängigkeit des Wachstums bei fluktuierendem Licht nur in sehr wenigen Studien für genügend viele Lichtintensitäten gemessen, um die genannten Parameter bestimmen zu können. Entsprechend ist der Einfluss der Lichtdynamik auf die Parameter der Wachstums-Licht-Beziehung noch weitgehend unbekannt. Dies beeinträchtigt auch die Zuverlässigkeit von Modellaussagen zur Phytoplanktondynamik unter Durchmischungsbedingungen. In dieser Dissertation sollen die experimentell gewonnenen Ergebnisse nicht auf ganze Ökosysteme extrapoliert werden; Ziel ist vielmehr ein verbessertes Verständnis der Prozesse, die die Lichtabhängigkeit des Phytoplanktonwachstums unter dynamischen Lichtbedingungen steuern. Hierzu wurden im Tai-See und im Dreischluchten-Stausee (China) Experimente mit Phytoplanktongemeinschaften durchgeführt. Es wurden Proben entweder in konstanten Tiefen exponiert oder mit Liften vertikal zwischen Wasseroberfläche und verschiedenen Tiefen bewegt. Während das Lichtangebot in konstanten Tiefen nur dem Tagesgang der Globalstrahlung folgte (hier als konstantes Licht bezeichnet), war das Phytoplankton in den bewegten Proben zusätzlich raschen Lichtfluktuationen ausgesetzt. Mit der Liftbewegung wurden mittlere Bedingungen in den Außenbahnen von Langmuir-Zellen simuliert, wobei eine Umlaufzeit von 20 Minuten gewählt wurde. Es wurden Wachstum, Photosynthese und (im Tai-See) Respiration gemessen. Zusätzlich wurde in Laborversuchen mit einem toxischen Stamm des Cyanobakteriums Microcystis aeruginosa (FACBH 1322) unter fluktuierendem und konstantem Licht Elektronentransportraten sowie Produktion und Verbrauch von Sauerstoff mit höherer zeitlicher Auflösung (1 min) gemessen. Die Ergebnisse der vorliegenden Dissertation demonstrieren bedeutsame Effekte von Lichtfluktuationen auf die Ökophysiologie von Phytoplankton. Die Experimente unter halb-natürlichen Bedingungen im Tai-See und im Dreischluchten-Stausee zeigten ähnliche Muster. Die Wachstumseffizienz der Gemeinschaften nahm durch fluktuierendes Licht deutlich ab, überwiegend durch die veränderte Häufigkeitsverteilung der Lichtintensitäten, die zu verkürzten effektiven Taglängen führte. Zudem verringerten artspezifische Anpassungsmechanismen und lichtabhängige Verluste durch Respiration die Wachstumseffizienz bei fluktuierendem Licht. Die maximalen Wachstumsraten der Gemeinschaft unterschieden sich hingegen nicht zwischen den Ansätzen mit konstantem und fluktuierendem Licht. Bei Lichtsättigung des Wachstums unterschieden sich die Aufwendungen für die Biosynthese zwischen den beiden Lichtregimen. Unter konstantem Starklicht wurden die Photosynthese gehemmt und die Respiration zur Reparatur der Photosysteme erhöht. Fluktuierendes Licht hingegen vermied Lichthemmung, zwang die vertikal bewegten Algen aber zu alternativen Strategien der Lichtnutzung. Durch eine erhöhte Photosynthesekapazität konnten sie Starklicht nahe der Wasseroberfläche besser nutzen. Microcystis aeruginosa verbrauchte im Labor mehr Sauerstoff durch Respiration bei abnehmenden Lichtintensitäten kurz nach Starklicht. Innerhalb eines Lichtzyklus von 20 min stieg die Kompensationslichtintensität mit steigender Nettoproduktion bei Lichtsättigung. Diese Beobachtungen sind am besten durch eine Anreicherung von Photosyntheseprodukten bei ansteigender Lichtintensität und deren sofortige verstärkte Respiration für Erhaltungsumsatz und Biosynthese bei abnehmender Lichtintensität erklärbar. Im Tagesmittel führte eine verstärkte Photosynthese bei Lichtsättigung zu erhöhter Respiration bei Schwachlicht. Die Kompensationslichtintensitäten dominanter Arten im Tai-See stiegen mit deren artspezifischen maximalen Wachstumsraten. Durch diesen artspezifischen physiologischen Kompromiss unterschieden sich die dominanten Arten im See bezüglich ihrer Lichtoptima. Unterschiedliche Strategien der Lichtnutzung (höhere maximale Wachstumsraten oder niedrigere Lichtansprüche) ermöglichten die Koexistenz verschiedener Arten entlang eines Gradienten der Intensität konstanten Lichts im Tai-See. Durch vertikale Durchmischung änderten sich die Strategien der Lichtnutzung innerhalb weniger Tage komplett. Die unterschiedlichen Anpassungsstrategien an fluktuierendes Licht vergrößerten die ökologischen Nischen der dominanten Arten und verhinderten ihre gegenseitige Verdrängung. Insgesamt trägt diese Dissertation zum besseren Verständnis der Ökophysiologie von Phytoplankton unter Durchmischungsbedingungen bei. Dadurch werden verlässlichere Prognosen der Phytoplanktonentwicklung möglich, kurzzeitig in Kombination mit Wettervorhersagen und über lange Zeiträume durch Kopplung mit Klimaszenarien. KW - Lake TaiHu KW - Three Gorges reservoir KW - functional traits KW - tradeoff KW - fluctuating light KW - pPhytoplankton photoacclimation KW - effective daylength KW - photosynthesis KW - respiration KW - niche partitioning KW - non-equilibrium coexistence KW - TaiHu KW - Dreischluchten-Stausee KW - funktionelle Eigenschaften KW - Zielkonflikte KW - fluktuierendes Licht KW - Lichtanpassung KW - Photosynthese KW - Respiration KW - Nischen-Aufteilung KW - Koexistenz unter wechselnden Bedingungen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469272 ER - TY - THES A1 - Vranic, Marija T1 - 3D Structure of the biomarker hepcidin-25 in its native state T1 - 3D-Struktur des Biomarkers Hepcidin-25 im eigenen nativen Zustand N2 - Hepcidin-25 (Hep-25) plays a crucial role in the control of iron homeostasis. Since the dysfunction of the hepcidin pathway leads to multiple diseases as a result of iron imbalance, hepcidin represents a potential target for the diagnosis and treatment of disorders of iron metabolism. Despite intense research in the last decade targeted at developing a selective immunoassay for iron disorder diagnosis and treatment and better understanding the ferroportin-hepcidin interaction, questions remain. The key to resolving these underlying questions is acquiring exact knowledge of the 3D structure of native Hep-25. Since it was determined that the N-terminus, which is responsible for the bioactivity of Hep-25, contains a small Cu(II)-binding site known as the ATCUN motif, it was assumed that the Hep-25-Cu(II) complex is the native, bioactive form of the hepcidin. This structure has thus far not been elucidated in detail. Owing to the lack of structural information on metal-bound Hep-25, little is known about its possible biological role in iron metabolism. Therefore, this work is focused on structurally characterizing the metal-bound Hep-25 by NMR spectroscopy and molecular dynamics simulations. For the present work, a protocol was developed to prepare and purify properly folded Hep-25 in high quantities. In order to overcome the low solubility of Hep-25 at neutral pH, we introduced the C-terminal DEDEDE solubility tag. The metal binding was investigated through a series of NMR spectroscopic experiments to identify the most affected amino acids that mediate metal coordination. Based on the obtained NMR data, a structural calculation was performed in order to generate a model structure of the Hep-25-Ni(II) complex. The DEDEDE tag was excluded from the structural calculation due to a lack of NMR restraints. The dynamic nature and fast exchange of some of the amide protons with solvent reduced the overall number of NMR restraints needed for a high-quality structure. The NMR data revealed that the 20 Cterminal Hep-25 amino acids experienced no significant conformational changes, compared to published results, as a result of a pH change from pH 3 to pH 7 and metal binding. A 3D model of the Hep-25-Ni(II) complex was constructed from NMR data recorded for the hexapeptideNi(II) complex and Hep-25-DEDEDE-Ni(II) complex in combination with the fixed conformation of 19 C-terminal amino acids. The NMR data of the Hep-25-DEDEDE-Ni(II) complex indicates that the ATCUN motif moves independently from the rest of the structure. The 3D model structure of the metal-bound Hep-25 allows for future works to elucidate hepcidin’s interaction with its receptor ferroportin and should serve as a starting point for the development of antibodies with improved selectivity. N2 - Hepcidin-25 (Hep-25) spielt eine entscheidende Rolle bei der Kontrolle der Eisenhomöostase. Da die Dysfunktion des Hepcidin-Signalweges aufgrund des Eisenungleichgewichts zu mehreren Krankheiten führt, stellt Hepcidin ein potenzielles Ziel für die Diagnose und Behandlung von Störungen des Eisenstoffwechsels dar. Trotz intensiver Forschung in den letzten zehn Jahren, die darauf abzielte, einen selektiven Immunoassay für die Diagnose und Behandlung von Eisenerkrankungen zu entwickeln und die Ferroportin-Hepcidin-Interaktion besser zu verstehen, bleiben Fragen offen. Der Schlüssel zur Lösung dieser grundlegenden Fragen liegt darin, genaue Kenntnisse über die 3D-Struktur des nativen Hep-25 zu erlangen. Da festgestellt wurde, dass der N-Terminus, der für die Bioaktivität von Hep-25 verantwortlich ist, eine kleine Cu(II)-Bindungsstelle enthält, die als ATCUN-Motiv bekannt ist, wurde angenommen, dass der Hep-25- Cu(II)-Komplex die native, bioaktive Form des Hepcidins ist. Diese Struktur ist bisher noch nicht im Detail untersucht worden. Aufgrund fehlender Strukturinformationen über metallgebundenes Hep-25 ist wenig über seine mögliche biologische Rolle im Eisenstoffwechsel bekannt. Daher konzentriert sich diese Arbeit auf die strukturelle Charakterisierung des metallgebundenen Hep-25 mittels NMR-Spektroskopie und Molekulardynamik Simulationen. In der vorliegenden Arbeit wurde ein Protokoll zur Präparation und Reinigung von korrekt gefaltetem Hep-25 in hohen Mengen entwickelt. Um das Problem der geringen Löslichkeit von Hep-25 bei neutralem pH-Wert zu überwinden, haben wir einen C-terminalen DEDEDEDE Löslichkeits-Tag eingeführt. Die Metallbindung wurde durch eine Reihe von NMRspektroskopischen Experimenten untersucht, um die Aminosäuren zu identifizieren, welche an der Metallkoordination beteiligt sind. Basierend auf den erhaltenen NMR-Daten wurde eine Strukturberechnung durchgeführt, um eine Modellstruktur des Hep-25-Ni(II)-Komplexes zu erzeugen. Der DEDEDE-Tag wurde aufgrund fehlender NMR- restraints von der Strukturberechnung ausgeschlossen. Die dynamische Natur und der schnelle Austausch eines Teils der Amid-Protonen mit dem Lösungsmittel reduzierten die Gesamtzahl der NMR- restraints, die für eine hochwertige Struktur erforderlich waren. Die NMR-Daten zeigten, dass die 20 C-terminalen Hep-25-Aminosäuren keine signifikanten Konformationsänderungen als Folge eines pH-Wechsels von pH 3 auf pH 7 und einer Metallbindung erfuhren. Ein 3D-Modell des Hep-25-Ni(II)-Komplexes wurde aus den NMR-Daten des Hexapeptid-Ni(II)-Komplexes und des Hep-25-DEDEDE-Ni(II)-Komplexes in Kombination mit der bekannten Konformation der 19 C-terminalen Aminosäuren erstellt. Die NMR-Daten des Hep-25-DEDEDE-Ni(II)Komplexes zeigen, dass sich das Ni-ATCUN-Motiv unabhängig vom C-Terminus bewegt. Die 3D-Modellstruktur des metallgebundenen Hep-25 ermöglicht es, in Zukunft die Interaktion von Hepcidin mit seinem Rezeptor Ferroportin zu untersuchen und soll als Ausgangspunkt für die Entwicklung von Antikörpern mit verbesserter Selektivität dienen. KW - iron KW - hepcidin KW - peptide KW - metal KW - binding KW - NMR KW - Eisen KW - Hepcidin KW - Peptid KW - Metall KW - Bindung KW - NMR Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459295 ER - TY - THES A1 - Schmidt, Martin T1 - Fragmentation of landscapes: modelling ecosystem services of transition zones T1 - Fragmentierung von Landschaften: Modellierung von Ökosystemleistungen in Übergangszonen N2 - For millennia, humans have affected landscapes all over the world. Due to horizontal expansion, agriculture plays a major role in the process of fragmentation. This process is caused by a substitution of natural habitats by agricultural land leading to agricultural landscapes. These landscapes are characterized by an alternation of agriculture and other land use like forests. In addition, there are landscape elements of natural origin like small water bodies. Areas of different land use are beside each other like patches, or fragments. They are physically distinguishable which makes them look like a patchwork from an aerial perspective. These fragments are each an own ecosystem with conditions and properties that differ from their adjacent fragments. As open systems, they are in exchange of information, matter and energy across their boundaries. These boundary areas are called transition zones. Here, the habitat properties and environmental conditions are altered compared to the interior of the fragments. This changes the abundance and the composition of species in the transition zones, which in turn has a feedback effect on the environmental conditions. The literature mainly offers information and insights on species abundance and composition in forested transition zones. Abiotic effects, the gradual changes in energy and matter, received less attention. In addition, little is known about non-forested transition zones. For example, the effects on agricultural yield in transition zones of an altered microclimate, matter dynamics or different light regimes are hardly researched or understood. The processes in transition zones are closely connected with altered provisioning and regulating ecosystem services. To disentangle the mechanisms and to upscale the effects, models can be used. My thesis provides insights into these topics: literature was reviewed and a conceptual framework for the quantitative description of gradients of matter and energy in transition zones was introduced. The results of measurements of environmental gradients like microclimate, aboveground biomass and soil carbon and nitrogen content are presented that span from within the forest into arable land. Both the measurements and the literature review could not validate a transition zone of 100 m for abiotic effects. Although this value is often reported and used in the literature, it is likely to be smaller. Further, the measurements suggest that on the one hand trees in transition zones are smaller compared to those in the interior of the fragments, while on the other hand less biomass was measured in the arable lands’ transition zone. These results support the hypothesis that less carbon is stored in the aboveground biomass in transition zones. The soil at the edge (zero line) between adjacent forest and arable land contains more nitrogen and carbon content compared to the interior of the fragments. One-year measurements in the transition zone also provided evidence that microclimate is different compared to the fragments’ interior. To predict the possible yield decreases that transition zones might cause, a modelling approach was developed. Using a small virtual landscape, I modelled the effect of a forest fragment shading the adjacent arable land and the effects of this on yield using the MONICA crop growth model. In the transition zone yield was less compared to the interior due to shading. The results of the simulations were upscaled to the landscape level and exemplarily calculated for the arable land of a whole region in Brandenburg, Germany. The major findings of my thesis are: (1) Transition zones are likely to be much smaller than assumed in the scientific literature; (2) transition zones aren’t solely a phenomenon of forested ecosystems, but significantly extend into arable land as well; (3) empirical and modelling results show that transition zones encompass biotic and abiotic changes that are likely to be important to a variety of agricultural landscape ecosystem services. N2 - Seit Jahrtausenden werden Landschaften weltweit maßgeblich durch den Menschen gestaltet. Insbesondere die Landwirtschaft hat durch Fragmentierung, der teilweisen Umwandlung natürlicher Lebensräume in landwirtschaftlich genutzte Flächen, großen Einfluss, so dass Agrarlandschaften entstanden. Diese zeichnen sich durch einen Wechsel von agrarischer und anderer Nutzung, wie beispielsweise Forst, aus. Hinzu kommen Flächen, die auf eine natürliche Entstehung zurückzuführen sind, wie etwa Kleingewässer. Kleinere und größere Flächen der unterschiedlichen Nutzung liegen als Flicken bzw. Fragmente nebeneinander. Durch die physische Differenzierbarkeit der Flächennutzung aus der Vogelperspektive werden Agrarlandschaften oft auch als Flickwerk (“Patchwork”) bezeichnet. Diese Fragmente sind Ökosysteme, die sich in ihren Eigenschaften voneinander unterscheiden. Die Fragmente als Ökosysteme sind offene und komplexe Systeme und stehen im Austausch mit angrenzenden Fragmenten. Die Bereiche, in denen der Austausch von Stoffen, Energie und Informationen stattfindet, sind deren Übergangszonen. Durch den Austausch verändern sich die vorherrschenden Eigenschaften der jeweils angrenzenden Fragmente in den Übergangszonen. Stoffflüsse beeinflussen dabei die in den Übergangszonen lebenden Organismen und können die Artenzusammensetzung und Population verändern. Gleichwohl hat dies Rückkopplungseffekte auf die Flüsse von Stoffen, Informationen und Energie selbst. In der Forschung ist bereits viel über die Auswirkungen auf Organismen in den Übergangszonen bekannt, insbesondere für bewaldete Gebiete. Weniger beforscht sind abiotische Effekte, insbesondere die graduellen Veränderungen von Stoffen und Energie in der Übergangszone. Diese sind jedoch eng verwoben in die Prozesse, die zu regulierenden und bereitstellenden Ökosystemleistungen wie beispielsweise landwirtschaftlichen Erträgen oder Kohlenstoffspeicherung beitragen. Darüber hinaus gibt es wenig Forschung zu den Übergangszonen von nicht-bewaldeten Übergangszonen, wie etwa Äckern. In der vorliegenden Arbeit präsentiere ich die Ergebnisse einer Literaturrecherche und einen Ansatz zur quantitativen Beschreibung von Stoff- und Energieflüssen in Übergangszonen. Darüber hinaus analysiere ich Messungen eben jener abiotischen Effekte in Übergangszonen. Sowohl die Messungen als auch die Auswertung der Literatur ergab, dass viele Autoren die Übergangszone in Bezug auf Umweltgradienten und deren Einfluss auf Ökosystemleistungen mit 100 m überschätzen. Sie ist oft kleiner. Die Messungen ergaben außerdem, dass Bäume in der Übergangszone kleiner sind und dadurch vermutlich weniger Kohlenstoff speichern als vergleichbare Bäume im Inneren dieser Fragmente. An Wald angrenzende Ackerkulturen zeigen ebenfalls einen geringeren Aufwuchs an Biomasse. Im Boden genau an der Grenze zwischen Wald- und Ackerfragmenten waren sowohl Stickstoff als auch Kohlenstoff erhöht. Einjährige Messungen in Brandenburg ergaben, dass das Mikroklima in der Übergangszone im Vergleich zum Inneren der Fragmente ebenfalls verändert war. Um genauer zu verstehen, was die Ertragsminderung in der ackerbaulichen Übergangszone induziert, wurde ein Modellierungsansatz entwickelt. Die Beschattung durch einen virtuellen Wald wurde im agrarischen Simulationsmodell MONICA als Variable benutzt, um eine potentielle Ertragsminderung zu simulieren. Ein Minderertrag in der Übergangszone konnte auf diese Weise nachgewiesen und mit einer verminderten Solarstrahlung in Verbindung gebracht werden. Die simulierten Ergebnisse wurden anschließend für die Beispielregion Brandenburg für die gesamte landwirtschaftlich genutzte Fläche skaliert. Insbesondere in drei Punkten trägt diese Arbeit zum wissenschaftlichen Fortschritt bei: 1) Übergangszonen sind sehr wahrscheinlich kleiner als bislang in der wissenschaftlichen Literatur angenommen; 2) Übergangszonen sollten ganzheitlich, über die Grenze zwischen Wald und Feld hinweg betrachtet werden; 3) Messungen und Modellierung zeigen einen Zusammenhang zwischen Mikroklima, Stoffdynamik und Ökosystemleistungen in Übergangszonen von Agrarlandschaften. KW - edge effects KW - agricultural modelling KW - ecosystem services KW - transition zone KW - fragmentation KW - Randeffekte KW - Pflanzenwachstumsmodellierung KW - Ökosystemleistungen KW - Übergangszone KW - Fragmentierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442942 ER - TY - THES A1 - He, Hai T1 - Exploring and engineering formaldehyde assimilation N2 - Increasing concerns regarding the environmental impact of our chemical production have shifted attention towards possibilities for sustainable biotechnology. One-carbon (C1) compounds, including methane, methanol, formate and CO, are promising feedstocks for future bioindustry. CO2 is another interesting feedstock, as it can also be transformed using renewable energy to other C1 feedstocks for use. While formaldehyde is not suitable as a feedstock due to its high toxicity, it is a central intermediate in the process of C1 assimilation. This thesis explores formaldehyde metabolism and aims to engineer formaldehyde assimilation in the model organism Escherichia coli for the future C1-based bioindustry. The first chapter of the thesis aims to establish growth of E. coli on formaldehyde via the most efficient naturally occurring route, the ribulose monophosphate pathway. Linear variants of the pathway were constructed in multiple-gene knockouts strains, coupling E. coli growth to the activities of the key enzymes of the pathway. Formaldehyde-dependent growth was achieved in rationally designed strains. In the final strain, the synthetic pathway provides the cell with almost all biomass and energy requirements. In the second chapter, taking advantage of the unique feature of its reactivity, formaldehyde assimilation via condensation with glycine and pyruvate by two promiscuous aldolases was explored. Facilitated by these two reactions, the newly designed homoserine cycle is expected to support higher yields of a wide array of products than its counterparts. By dividing the pathway into segments and coupling them to the growth of dedicated strains, all pathway reactions were demonstrated to be sufficiently active. The work paves a way for future implementation of a highly efficient route for C1 feedstocks into commodity chemicals. In the third chapter, the in vivo rate of the spontaneous formaldehyde tetrahydrofolate condensation to methylene-tetrahydrofolate was assessed in order to evaluate its applicability as a biotechnological process. Tested within an E. coli strain deleted in essential genes for native methylene-tetrahydrofolate biosynthesis, the reaction was shown to support the production of this essential intermediate. However, only low growth rates were observed and only at high formaldehyde concentrations. Computational analysis dependent on in vivo evidence from this strain deduced the slow rate of this spontaneous reaction, thus ruling out its substantial contribution to growth on C1 feedstocks. The reactivity of formaldehyde makes it highly toxic. In the last chapter, the formation of thioproline, the condensation product of cysteine and formaldehyde, was confirmed to contribute this toxicity effect. Xaa-Pro aminopeptidase (PepP), which genetically links with folate metabolism, was shown to hydrolyze thioproline-containing peptides. Deleting pepP increased strain sensitivity to formaldehyde, pointing towards the toxicity of thioproline-containing peptides and the importance of their removal. The characterization in this study could be useful in handling this toxic intermediate. Overall, this thesis identified challenges related to formaldehyde metabolism and provided novel solutions towards a future bioindustry based on sustainable C1 feedstocks in which formaldehyde serves as a key intermediate. N2 - Die zunehmende Besorgnis über die Auswirkungen der chemischen Produktion auf die Umwelt hat den Fokus auf die Vorzüge der nachhaltigen Biotechnologie gelenkt. Ein-Kohlenstoff-Verbindungen (C1), wie Methan, Methanol, Formiat und CO, sind vielversprechende Ausgangsstoffe für eine künftige biobasierte Industrie. Darüber hinaus ist CO2 ein weiterer interessanter Rohstoff, da es ebenfalls mit erneuerbarer Energie in andere C1-Verbindungen umgewandelt werden kann. Formaldehyd ist zwar aufgrund seiner Toxizität und Reaktivität nicht als Kohlestoffquelle geeignet, stellt aber ein zentrales Intermediat der C1-Assimilation dar. In dieser Arbeit wurde der Formaldehyd-Stoffwechsel untersucht, um Formaldehyd-Assimilations-Wege im Modellorganismus Escherichia coli für die zukünftige C1-basierte Bioindustrie zu entwickeln. Das erste Kapitel dieser Arbeit zielt darauf ab, das Wachstum von E. coli auf Formaldehyd über den energetisch effizientesten natürlich vorkommenden Weg, den Ribulose-Monophosphat-Weg (RuMP-Weg), zu etablieren. Durch Gendeletionen wurden lineare Varianten des RuMPWeges in E. coli Stämmen konstruiert, um das Wachstum mit der Aktivität der Schlüsselenzyme der Formaldehyd-Assimiliation zu verbinden. So konnte auf Formaldehydabhängiges Wachstum in diesen Stämmen getestet werden. Im finalen Stamm wurde nahezu die gesamte Biomasse und der Energiebedarf der E. coli Zellen über den RuMP-Weg bereitgestellt. Im zweiten Kapitel wurde unter Ausnutzung der einzigartigen Reaktivität des Formaldehyds die Aktivitäten zweier promiskuitiver Aldolasen für die Kondensation von Formaldehyd mit Glycin oder Pyruvat in vivo untersucht. Diese beiden Reaktionen dienen als Schlüsselreaktionen des neu gestalteten Homoserin-Zyklus, der verglichen mit anderen bekannten Assimilierungswegen höhere Ausbeuten einer breiten Palette von Produkten ermöglichen kann. Durch die Unterteilung des Stoffwechselweges in Segmente und deren Selektion in auxotrophen E. coli Stämmen wurde gezeigt, dass alle Reaktionen des Pfades ausreichend aktiv sind. Diese Arbeit ebnet den Weg für die zukünftige Nutzung des Homoserin-Zyklus als hocheffiziente Route für die Umwandlung von C1-Rohstoffen in grundlegende Chemikalien. Im dritten Kapitel wurde die in vivo-Rate der spontanen Kondensation von Formaldehyd mit Tetrahydrofolat zu Methylen-Tetrahydrofolat untersucht, um ihr Potential als Formaldehyd Assimilierungs-Reaktion in einem biotechnologischen Prozess zu bewerten. Die Reaktion wurde in einem E. coli-Stamm getestet, in welchem essentielle Gene für die native Methylen-Tetrahydrofolat-Biosynthese entfernt wurden. Es konnte gezeigt werden, dass die spontane Reaktion die Produktion dieses wesentlichen Zwischenprodukts ermöglicht. Die erreichten Wachstumsraten waren jedoch gering und nur bei hohen Formaldehydkonzentrationen zu beobachten. Eine Computer-gestützte Analyse basierend auf in vivo-Erkenntnissen über diesen Stamm ergab eine langsame Reaktionsgeschwindigkeit dieser spontanen Reaktion und schloss somit ihren wesentlichen Beitrag zum Wachstum auf C1-Einsatzmaterial aus. Seine Reaktivität macht Formaldehyd hochtoxisch. Im letzten Kapitel wurde bestätigt, dass die Bildung von Thioprolin, dem Kondensationsprodukt von Cystein und Formaldehyd, zu dieser Toxizitätswirkung beiträgt. Es wurde gezeigt, dass die Xaa-Pro-Aminopeptidase (PepP), die genetisch mit dem Folat-Stoffwechsel verbunden ist, thioprolinhaltige Peptide hydrolysiert. Die Deletion von PepP erhöhte die Empfindlichkeit des Stammes gegenüber Formaldehyd, was auf die Toxizität der Thioprolin-haltigen Peptide und die Bedeutung ihrer Entfernung hinweist. Diese Studie kann für den Umgang mit der Toxizität von Formaldehyd nützlich sein. Insgesamt identifizierte diese Arbeit Herausforderungen im Zusammenhang mit dem Formaldehyd-Stoffwechsel und lieferte neue Lösungen für eine C1-basierte Bioindustrie, in der Formaldehyd als wichtiges Zwischenprodukt dient. T2 - Erforschung und Entwicklung der Formaldehyd-Assimilierung KW - formaldehyde assimilation KW - ribulose monophosphate pathway KW - metabolic engineering KW - serine cycle KW - auxotrophy KW - methylotrophy KW - Auxotrophie KW - Serin-Zyklus KW - Ribulose-Monophosphat-Weg KW - Methylotrophie KW - metabolisches Engineering KW - Formaldehyd-Assimilierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-473867 ER - TY - THES A1 - Crisologo, Irene T1 - Using spaceborne radar platforms to enhance the homogeneity of weather radar calibration T1 - Homogenisierung der Kalibrierung von Niederschlagsradaren mit Hilfe satellitengestützter Radarplattformen N2 - Accurate weather observations are the keystone to many quantitative applications, such as precipitation monitoring and nowcasting, hydrological modelling and forecasting, climate studies, as well as understanding precipitation-driven natural hazards (i.e. floods, landslides, debris flow). Weather radars have been an increasingly popular tool since the 1940s to provide high spatial and temporal resolution precipitation data at the mesoscale, bridging the gap between synoptic and point scale observations. Yet, many institutions still struggle to tap the potential of the large archives of reflectivity, as there is still much to understand about factors that contribute to measurement errors, one of which is calibration. Calibration represents a substantial source of uncertainty in quantitative precipitation estimation (QPE). A miscalibration of a few dBZ can easily deteriorate the accuracy of precipitation estimates by an order of magnitude. Instances where rain cells carrying torrential rains are misidentified by the radar as moderate rain could mean the difference between a timely warning and a devastating flood. Since 2012, the Philippine Atmospheric, Geophysical, and Astronomical Services Administration (PAGASA) has been expanding the country’s ground radar network. We had a first look into the dataset from one of the longest running radars (the Subic radar) after devastating week-long torrential rains and thunderstorms in August 2012 caused by the annual southwestmonsoon and enhanced by the north-passing Typhoon Haikui. The analysis of the rainfall spatial distribution revealed the added value of radar-based QPE in comparison to interpolated rain gauge observations. However, when compared with local gauge measurements, severe miscalibration of the Subic radar was found. As a consequence, the radar-based QPE would have underestimated the rainfall amount by up to 60% if they had not been adjusted by rain gauge observations—a technique that is not only affected by other uncertainties, but which is also not feasible in other regions of the country with very sparse rain gauge coverage. Relative calibration techniques, or the assessment of bias from the reflectivity of two radars, has been steadily gaining popularity. Previous studies have demonstrated that reflectivity observations from the Tropical Rainfall Measuring Mission (TRMM) and its successor, the Global Precipitation Measurement (GPM), are accurate enough to serve as a calibration reference for ground radars over low-to-mid-latitudes (± 35 deg for TRMM; ± 65 deg for GPM). Comparing spaceborne radars (SR) and ground radars (GR) requires cautious consideration of differences in measurement geometry and instrument specifications, as well as temporal coincidence. For this purpose, we implement a 3-D volume matching method developed by Schwaller and Morris (2011) and extended by Warren et al. (2018) to 5 years worth of observations from the Subic radar. In this method, only the volumetric intersections of the SR and GR beams are considered. Calibration bias affects reflectivity observations homogeneously across the entire radar domain. Yet, other sources of systematic measurement errors are highly heterogeneous in space, and can either enhance or balance the bias introduced by miscalibration. In order to account for such heterogeneous errors, and thus isolate the calibration bias, we assign a quality index to each matching SR–GR volume, and thus compute the GR calibration bias as a qualityweighted average of reflectivity differences in any sample of matching SR–GR volumes. We exemplify the idea of quality-weighted averaging by using beam blockage fraction (BBF) as a quality variable. Quality-weighted averaging is able to increase the consistency of SR and GR observations by decreasing the standard deviation of the SR–GR differences, and thus increasing the precision of the bias estimates. To extend this framework further, the SR–GR quality-weighted bias estimation is applied to the neighboring Tagaytay radar, but this time focusing on path-integrated attenuation (PIA) as the source of uncertainty. Tagaytay is a C-band radar operating at a lower wavelength and is therefore more affected by attenuation. Applying the same method used for the Subic radar, a time series of calibration bias is also established for the Tagaytay radar. Tagaytay radar sits at a higher altitude than the Subic radar and is surrounded by a gentler terrain, so beam blockage is negligible, especially in the overlapping region. Conversely, Subic radar is largely affected by beam blockage in the overlapping region, but being an SBand radar, attenuation is considered negligible. This coincidentally independent uncertainty contributions of each radar in the region of overlap provides an ideal environment to experiment with the different scenarios of quality filtering when comparing reflectivities from the two ground radars. The standard deviation of the GR–GR differences already decreases if we consider either BBF or PIA to compute the quality index and thus the weights. However, combining them multiplicatively resulted in the largest decrease in standard deviation, suggesting that taking both factors into account increases the consistency between the matched samples. The overlap between the two radars and the instances of the SR passing over the two radars at the same time allows for verification of the SR–GR quality-weighted bias estimation method. In this regard, the consistency between the two ground radars is analyzed before and after bias correction is applied. For cases when all three radars are coincident during a significant rainfall event, the correction of GR reflectivities with calibration bias estimates from SR overpasses dramatically improves the consistency between the two ground radars which have shown incoherent observations before correction. We also show that for cases where adequate SR coverage is unavailable, interpolating the calibration biases using a moving average can be used to correct the GR observations for any point in time to some extent. By using the interpolated biases to correct GR observations, we demonstrate that bias correction reduces the absolute value of the mean difference in most cases, and therefore improves the consistency between the two ground radars. This thesis demonstrates that in general, taking into account systematic sources of uncertainty that are heterogeneous in space (e.g. BBF) and time (e.g. PIA) allows for a more consistent estimation of calibration bias, a homogeneous quantity. The bias still exhibits an unexpected variability in time, which hints that there are still other sources of errors that remain unexplored. Nevertheless, the increase in consistency between SR and GR as well as between the two ground radars, suggests that considering BBF and PIA in a weighted-averaging approach is a step in the right direction. Despite the ample room for improvement, the approach that combines volume matching between radars (either SR–GR or GR–GR) and quality-weighted comparison is readily available for application or further scrutiny. As a step towards reproducibility and transparency in atmospheric science, the 3D matching procedure and the analysis workflows as well as sample data are made available in public repositories. Open-source software such as Python and wradlib are used for all radar data processing in this thesis. This approach towards open science provides both research institutions and weather services with a valuable tool that can be applied to radar calibration, from monitoring to a posteriori correction of archived data. N2 - Die zuverlässige Messung des Niederschlags ist Grundlage für eine Vielzahl quantitativer Anwendungen. Bei der Analyse und Vorhersage von Naturgefahren wie Sturzfluten oder Hangrutschungen ist dabei die räumliche Trennschärfe der Niederschlagsmessung besonders wichtig, da hier oft kleinräumige Starkniederschläge auslösend sind. Seit dem 2.Weltkrieg gewinnen Niederschlagsradare an Bedeutung für die flächenhafte Erfassung des Niederschlags in hoher raum-zeitlicher Aulösung. Und seit Ende des 20. Jahrhunderts investieren Wetterdienste zunehmend in die Archivierung dieser Beobachtungen. Die quantitative Auswertung solcher Archive gestaltet sich jedoch aufgrund unterschiedlicher Fehlerquellen als schwierig. Eine Fehlerquelle ist die Kalibrierung der Radarsysteme, die entlang der sog. "receiver chain" eine Beziehung zwischen der primären Beobachtungsvariable (der zurückgestreuten Strahlungsleistung) und der Zielvariable (des Radarreflektivitätsfaktors, kurz Reflektivität) herstellt. Die Reflektivität wiederum steht über mehrere Größenordnungen hinweg in Beziehung zur Niederschlagsintensität, so dass bereits kleine relative Fehler in der Kalibrierung große Fehler in der quantitativen Niederschlagsschätzung zur Folge haben können. Doch wie kann eine mangelhafte Kalibrierung nachträglich korrigiert werden? Diese Arbeit beantwortet diese Frage am Beispiel des kürzlich installierten Radarnetzwerks der Philippinen. In einer initialen Fallstudie nutzen wir das S-Band-Radar nahe Subic, welches die Metropolregion Manila abdeckt, zur Analyse eines außergewöhnlich ergiebigen Niederschlagsereignisses im Jahr 2012: Es zeigt sich, dass die radargestützte Niederschlagsschätzung um rund 60% unter den Messungen von Niederschlagsschreibern liegt. Kann die Hypothese einer mangelhaften Kalibrierung bestätigt werden, indem die Beobachtungen des Subic-Radars mit den Messungen exzellent kalibrierter, satellitengestützter Radarsysteme verglichen werden? Kann die satellitengestützte Referenz ggf. sogar für eine nachträgliche Kalibrierung genutzt werden? Funktioniert eine solche Methode auch für das benachbarte C-Band-Radar nahe Tagaytay? Können wir die Zuverlässigkeit einer nachträglichen Kalibrierung erhöhen, indem wir andere systematische Fehlerquellen in den Radarmessungen identifizieren? Zur Beantwortung dieser Fragen vergleicht diese Arbeit die Beobachtungen bodengestützter Niederschlagsradare (GR) mit satellitengestützten Niederschlagsradaren (SR) der Tropical Rainfall Measuring Mission (TRMM) und ihrem Nachfolger, der Global Precipitation Measurement (GPM) Mission. Dazu wird eine Methode weiterentwickelt, welche den dreidimensionalen Überlappungsbereich der Samplingvolumina des jeweiligen Instruments|GR und SR|berücksichtigt. Desweiteren wird jedem dieser Überlappungsbereiche ein Wert für die Datenqualität zugewiesen, basierend auf zwei Unsicherheitsquellen: dem Anteil der Abschattung (engl. beam blockage fraction, BBF) und der pfadintegrierten Dämpfung (engl. path-integrated attenuation, PIA). Die BBF zeigt, welcher Anteil des Radarstrahls von der Geländeoberfläche blockiert wird (je höher, desto niedriger die Qualität). PIA quantifiziert den Energieverlust des Signals, wenn es intensiven Niederschlag passiert (je höher, desto niedriger die Qualität). Entsprechend wird der Bias (also der Kalibrierungsfaktor) als das qualitätsgewichtete Mittel der Differenzen zwischen den GR- und SR-Reflektivitäten (ausgedrückt auf der logarithmischen Dezibelskala) berechnet. Diese Arbeit zeigt, dass beide Radare, Subic und Tagaytay, gerade in den frühen Jahren stark von mangelhafter Kalibrierung betroffen waren. Der Vergleich mit satellitengestützten Messungen erlaubt es uns, diesen Fehler nachträglich zu schätzen und zu korrigieren. Die Zuverlässigkeit dieser Schätzung wird durch die Berücksichtigung anderer systematischer Fehler im Rahmen der Qualitätsgewichtung deutlich erhöht. Dies konnte auch dadurch bestätigt werden, dass nach Korrektur der Kalibierung die Signale im Überlappungsbereich der beiden bodengestützten Radare deutlich konsistenter wurden. Eine Interpolation des Fehlers in der Zeit war erfolgreich, so dass die Radarbeobachtungen auch für solche Tage korrigiert werden können, an denen keine satellitengestützten Beobachtungen verfügbar sind. KW - Niederschlagsradar KW - Kalibrierung KW - Fernerkundung KW - TRMM KW - GPM KW - Philippinen KW - weather radar KW - calibration KW - remote sensing KW - TRMM KW - GPM KW - The Philippines Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-445704 ER - TY - THES A1 - Mandal, Sankalita T1 - Event handling in business processes T1 - Ereignisbehandlung in Geschäftsprozessen BT - flexible event subscription for business process enactment BT - flexibles Ereignisabonnement für die Durchführung von Geschäftsprozessen N2 - Business process management (BPM) deals with modeling, executing, monitoring, analyzing, and improving business processes. During execution, the process communicates with its environment to get relevant contextual information represented as events. Recent development of big data and the Internet of Things (IoT) enables sources like smart devices and sensors to generate tons of events which can be filtered, grouped, and composed to trigger and drive business processes. The industry standard Business Process Model and Notation (BPMN) provides several event constructs to capture the interaction possibilities between a process and its environment, e.g., to instantiate a process, to abort an ongoing activity in an exceptional situation, to take decisions based on the information carried by the events, as well as to choose among the alternative paths for further process execution. The specifications of such interactions are termed as event handling. However, in a distributed setup, the event sources are most often unaware of the status of process execution and therefore, an event is produced irrespective of the process being ready to consume it. BPMN semantics does not support such scenarios and thus increases the chance of processes getting delayed or getting in a deadlock by missing out on event occurrences which might still be relevant. The work in this thesis reviews the challenges and shortcomings of integrating real-world events into business processes, especially the subscription management. The basic integration is achieved with an architecture consisting of a process modeler, a process engine, and an event processing platform. Further, points of subscription and unsubscription along the process execution timeline are defined for different BPMN event constructs. Semantic and temporal dependencies among event subscription, event occurrence, event consumption and event unsubscription are considered. To this end, an event buffer with policies for updating the buffer, retrieving the most suitable event for the current process instance, and reusing the event has been discussed that supports issuing of early subscription. The Petri net mapping of the event handling model provides our approach with a translation of semantics from a business process perspective. Two applications based on this formal foundation are presented to support the significance of different event handling configurations on correct process execution and reachability of a process path. Prototype implementations of the approaches show that realizing flexible event handling is feasible with minor extensions of off-the-shelf process engines and event platforms. N2 - Das Prozessmanagement befasst sich mit der Modellierung, Ausführung, Überwachung, Analyse und Verbesserung von Geschäftsprozessen. Während seiner Ausführung kommuniziert der Prozess mit seiner Umgebung, um relevante Kontextinformationen in Form von Ereignissen zu erhalten. Der jüngste Fortschritt im Bereich Big Data und dem Internet der Dinge ermöglicht Smart Devices und Sensoren eine Vielzahl von Ereignissen zu generieren, welche gefiltert, gruppiert und kombiniert werden können, um Geschäftsprozesse zu triggern und vor anzutreiben. Der Industriestandard Business Process Model and Notation (BPMN) stellt mehrere Ereigniskonstrukte bereit, um die Interaktionsmöglichkeiten eines Prozesses mit seiner Umgebung zu erfassen. Beispielsweise können Prozesse durch Ereignisse gestartet, laufende Aktivitäten in Ausnahmefällen abgebrochen, Entscheidungen auf Basis der Ereignisinformationen getroffen, und alternative Ausführungspfade gewählt werden. Die Spezifikation solcher Interaktionen wird als Event Handling bezeichnet. Allerdings sind sich insbesondere in verteilten Systemen die Ereignisquellen des Zustands des Prozesses unbewusst. Daher werden Ereignisse unabhängig davon produziert, ob der Prozess bereit ist sie zu konsumieren. Die BPMN-Semantik sieht solche Situationen jedoch nicht vor, sodass die Möglichkeit besteht, dass das Auftreten von relevanten Ereignissen versäumt wird. Dies kann zu Verzögerungen oder gar Deadlocks in der Prozessauführung führen. Die vorliegende Dissertation untersucht die Mängel und Herausforderungen der Integration von Ereignissen und Geschäftsprozessen, insbesondere in Bezug auf das Subscription Management. Die grundlegende Integration wird durch eine Architektur erreicht, die aus einer Prozessmodellierungskomponente, einer Ausführungskomponente und einer Ereignisverarbeitungskomponente besteht. Ferner werden Points of Subscription and Unsubscription für verschiedene BPMN-Ereigniskonstrukte entlang der Zeitachse der Prozessausführung definiert. Semantische und temporale Abhängigkeiten zwischen der Subscription, dem Auftreten, dem Konsumieren und der Unsubscription eines Ereignisses werden betrachtet. In dieser Hinsicht wird ein Event Bufferdiskutiert, welcher mit Strategien zum Update des Puffers, zum Abruf der geeigneten Ereignisse für den laufenden Prozess, sowie zur Wiederverwendung von Ereignissen ausgestattet ist. Die Abbildung des Event Handling Modells in ein Petri-Netz versieht den beschriebenen Ansatz mit einer eindeutigen Semantik. Basierend auf diesem Formalismus werden zwei Anwendungen demonstriert, die die Relevanz verschiedener Konfigurationen des Event Handlings für eine korrekte Prozessausführung aufzeigen. Eine prototypische Implementierung des Ansatzes beweist dessen Umsetzbarkeit durch geringe Erweiterungen bestehender Software zur Prozessausführung und Ereignisverarbeitung. KW - business process managament KW - complex event processing KW - BPMN KW - event subscription KW - Geschäftsprozessmanagement KW - komplexe Ereignisverarbeitung KW - BPMN KW - Ereignisabonnement Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441700 ER - TY - THES A1 - Hoang, Yen T1 - De novo binning strategy to analyze and visualize multi-dimensional cytometric data T1 - De novo Binning-Ansatz zur Untersuchung und Visualisierung von multidimensionalen Zytrometriedaten BT - engineering of combinatorial variables for supervised learning approaches N2 - Since half a century, cytometry has been a major scientific discipline in the field of cytomics - the study of system’s biology at single cell level. It enables the investigation of physiological processes, functional characteristics and rare events with proteins by analysing multiple parameters on an individual cell basis. In the last decade, mass cytometry has been established which increased the parallel measurement to up to 50 proteins. This has shifted the analysis strategy from conventional consecutive manual gates towards multi-dimensional data processing. Novel algorithms have been developed to tackle these high-dimensional protein combinations in the data. They are mainly based on clustering or non-linear dimension reduction techniques, or both, often combined with an upstream downsampling procedure. However, these tools have obstacles either in comprehensible interpretability, reproducibility, computational complexity or in comparability between samples and groups. To address this bottleneck, a reproducible, semi-automated cytometric data mining workflow PRI (pattern recognition of immune cells) is proposed which combines three main steps: i) data preparation and storage; ii) bin-based combinatorial variable engineering of three protein markers, the so called triploTs, and subsequent sectioning of these triploTs in four parts; and iii) deployment of a data-driven supervised learning algorithm, the cross-validated elastic-net regularized logistic regression, with these triploT sections as input variables. As a result, the selected variables from the models are ranked by their prevalence, which potentially have discriminative value. The purpose is to significantly facilitate the identification of meaningful subpopulations, which are most distinguish between two groups. The proposed workflow PRI is exemplified by a recently published public mass cytometry data set. The authors found a T cell subpopulation which is discriminative between effective and ineffective treatment of breast carcinomas in mice. With PRI, that subpopulation was not only validated, but was further narrowed down as a particular Th1 cell population. Moreover, additional insights of combinatorial protein expressions are revealed in a traceable manner. An essential element in the workflow is the reproducible variable engineering. These variables serve as basis for a clearly interpretable visualization, for a structured variable exploration and as input layers in neural network constructs. PRI facilitates the determination of marker levels in a semi-continuous manner. Jointly with the combinatorial display, it allows a straightforward observation of correlating patterns, and thus, the dominant expressed markers and cell hierarchies. Furthermore, it enables the identification and complex characterization of discriminating subpopulations due to its reproducible and pseudo-multi-parametric pattern presentation. This endorses its applicability as a tool for unbiased investigations on cell subsets within multi-dimensional cytometric data sets. N2 - Massen- und Durchflusszytometrie-Messungen ermöglichen die detaillierte Einteilung von Zellgruppen nach Eigenschaften vor allem in der Diagnostik und in der Grundlagenforschung anhand der Erfassung von biologischen Informationen auf Einzelzellebene. Sie unterstützen die detaillierte Analyse von komplexen, zellulären Zusammenhängen, um physiologische und pathophysiologische Prozesse zu erkennen, und funktionelle oder krankheitsspezifische Characteristika und rare Zellgruppen genauer zu spezifizieren und zu extrahieren. In den letzten Jahren haben zytometrische Technologien einen enormen Innovationssprung erfahren, sodass heutzutage bis zu 50 Proteine pro Zelle parallel gemessen werden können. Und das mit einem Durchsatz von Hunderttausenden bis mehreren Millionen von Zellen aus einer Probe. Bei der Zunahme der Messparameter steigen jedoch die Dimensionen der kombinierten Parameter exponentiell, sodass eine komplexe Kombinatorik entsteht, die mit konventionellen, manuellen Untersuchungen von bi-axialen Diagrammen nicht mehr durchführbar sind. Derzeit gibt es schon viele neue Datenanalyse-Ansätze, die vorranging auf Cluster- bzw. Dimensionsreduktionstechniken basieren und meist mit einem vorgeschalteten Downsampling in Kombination eingesetzt werden. Diese Tools produzieren aber komplexe Ergebnisse, die größtenteils nicht reproduzierbar sind oder Proben- und Gruppenvergleiche erschweren. Um dieses Problem anzugehen wurde in dieser Dissertation ein reproduzierbarer, halbautomatisierter Datenanalyse-Workflow namens PRI entwickelt, was für pattern recognition of immune cells (Mustererkennung von Immunzellen) steht. Dieser Workflow ist in drei Hauptteile untergliedert: die Datenvorbereitung und -Ablage; die Entwicklung innovativer, bin-basierter Merkmale von drei kombinierten Parametern namens TriploTs und dessen weiterführende Einteilung in vier gleich große TriploT-Areale; und die Anwendung von einem maschinellen Lernansatz basierend auf der Information von diesen Arealen. Als Ergebnis bekommt man eine Selektion der Areale, die am häufigsten von den überwachten Modellen ausgewählt wurden. Dies soll dem Wissenschaftler entscheidend dabei helfen, Zellpopulationen zu identifizieren, die am besten zwischen zwei Gruppen unterscheiden. Der vorgestellte Workflow PRI ist exemplarisch an einem kürzlich veröffentlichten Massenzytometrie-Datensatz validiert worden. Die von den Originalautoren hervorgehobene Zellpopulation konnte nicht nur identifiziert werden, sondern sogar wesentlich weiter spezifiziert werden. Außerdem wurden weitere Erkenntnisse von relevanten, kombinatorischen Proteinexpressionen festgestellt. Die Entwicklung der reproduzierbaren TriploTs führt dazu, dass sie als Basis für verständliche und leicht interpretierbare Visualisierungen, für eine strukturierte Erforschung der Daten mithilfe der Selektion der Areale, und für neuronale Netzwerkkonstrukte genutzt werden können. PRI ermöglicht eine optimierte, semi-kontinuierliche Bestimmung der Expressionsstufen, die die Identifizierung von dominant vorherrschenden und diskriminierenden Proteinen in Zellsubpopulationen wesentlich erleichtert. Darüberhinaus erlaubt es die intuitive Erfassung von korrelierenden Mustern durch die innovative, reproduzierbare Darstellung der Proteinkombinationen und hilft bei der Erforschung von Zellsubpopulationen. KW - machine learning KW - feature engineering KW - machinelles Lernen KW - Feature Engineering Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443078 ER - TY - THES A1 - Arf, Shelan Ali T1 - Women’s everyday reality of social insecurity T1 - Soziale Unsicherheit als alltägliche Realität für geschiedene Frauen in Irakisch-Kurdistan BT - the case of divorced women in Iraqi Kurdistan N2 - Since 1980 Iraq passed through various wars and conflicts including Iraq-Iran war, Saddam Hussein’s the Anfals and Halabja campaigns against the Kurds and the killing campaigns against Shiite in 1986, Saddam Hussein’s invasion of Kuwait in August 1990, the Gulf war in 1990, Iraq war in 2003 and the fall of Saddam, the conflicts and chaos in the transmission of power after the death of Saddam, and the war against ISIS . All these wars left severe impacts in most households in Iraq; on women and children in particular. The consequences of such long wars could be observed in all sectors including economic, social, cultural and religious sectors. The social structure, norms and attitudes are intensely affected. Many women specifically divorced women found them-selves in challenging different difficulties such as social as well as economic situations. Thus the divorced women in Iraqi Kurdistan are the focus of this research. Considering the fact that there is very few empirical researches on this topic, a constructivist grounded theory methodology (CGT) is viewed as reliable in order to come up with a comprehensive picture about the everyday life of divorced women in Iraqi Kurdistan. Data collected in Sulaimani city in Iraqi Kurdistan. The work of Kathy Charmaz was chosen to be the main methodological context of the research and the main data collection method was individual intensive narrative interviews with divorced women. Women generally and divorced women specifically in Iraqi Kurdistan are living in a patriarchal society that passing through many changes due to the above mentioned wars among many other factors. This research is trying to study the everyday life of divorced women in such situations and the forms of social insecurity they are experiencing. The social institutions starting from the family as a very significant institution for women to the governmental and non-governmental institutions that are working to support women, and the copying strategies, are in focus in this research. The main research argument is that the family is playing ambivalent roles in divorced women’s life. For instance, on one side families are revealed to be an essential source of security to most respondents, on the other side families posed also many threats and restrictions on those women. This argument supported by what called by Suad joseph "the paradox of support and suppression" . Another important finding is that the stat institution(laws , constitutions ,Offices of combating violence against woman and family) are supporting women somehow and offering them protection from the insecurities but it is clear that the existence of the laws does not stop the violence against women in Iraqi Kurdistan, As explained by Pateman because the laws /the contract is a sexual-social contract that upholds the sex rights of males and grants them more privileges than females. The political instability, Tribal social norms also play a major role in influencing the rule of law. It is noteworthy to refer that analyzing the interviews in this research showed that in spite that divorced women living in insecurities and facing difficulties but most of the respondents try to find a coping strategies to tackle difficult situations and to deal with the violence they face; these strategies are bargaining, sometimes compromising or resisting …etc. Different theories used to explain these coping strategies such as bargaining with patriarchy. Kandiyoti who stated that women living under certain restraints struggle to find way and strategies to enhance their situations. The research finding also revealed that the western liberal feminist view of agency is limited this is agree with Saba Mahmood and what she explained about Muslim women agency. For my respondents, who are divorced women, their agency reveals itself in different ways, in resisting or compromising with or even obeying the power of male relatives, and the normative system in the society. Agency is also explained the behavior of women contacting formal state institutions in cases of violence like the police or Offices of combating violence against woman and family. N2 - Irakisch-Kurdistan ist ein von Konflikten geprägtes Land. Diese haben tiefgreifende soziale, kulturelle, ökonomische und religiöse Folgen. Insbesondere geschiedene Frauen finden sich oft in herausfordernden Situationen. Aufgrund des Mangels an empirischen Analysen wendet diese Studie Grounded Theory an, um sich mit dem Alltag von geschiedenen Frauen in Iraqi Kurdistan zu beschäftigen. Hierbei wird besonders auf Themen sie soziale Sicherheit, agency, Verhandlungs- und Widerstandsstrategien eingegangen. KW - divorced women KW - Iraqi Kurdistan KW - geschiedene Frauen KW - Irakisch-Kurdistan Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434333 ER - TY - THES A1 - Sidarenka, Uladzimir T1 - Sentiment analysis of German Twitter T1 - Sentimentanalyse des deutschen Twitters N2 - The immense popularity of online communication services in the last decade has not only upended our lives (with news spreading like wildfire on the Web, presidents announcing their decisions on Twitter, and the outcome of political elections being determined on Facebook) but also dramatically increased the amount of data exchanged on these platforms. Therefore, if we wish to understand the needs of modern society better and want to protect it from new threats, we urgently need more robust, higher-quality natural language processing (NLP) applications that can recognize such necessities and menaces automatically, by analyzing uncensored texts. Unfortunately, most NLP programs today have been created for standard language, as we know it from newspapers, or, in the best case, adapted to the specifics of English social media. This thesis reduces the existing deficit by entering the new frontier of German online communication and addressing one of its most prolific forms—users’ conversations on Twitter. In particular, it explores the ways and means by how people express their opinions on this service, examines current approaches to automatic mining of these feelings, and proposes novel methods, which outperform state-of-the-art techniques. For this purpose, I introduce a new corpus of German tweets that have been manually annotated with sentiments, their targets and holders, as well as lexical polarity items and their contextual modifiers. Using these data, I explore four major areas of sentiment research: (i) generation of sentiment lexicons, (ii) fine-grained opinion mining, (iii) message-level polarity classification, and (iv) discourse-aware sentiment analysis. In the first task, I compare three popular groups of lexicon generation methods: dictionary-, corpus-, and word-embedding–based ones, finding that dictionary-based systems generally yield better polarity lists than the last two groups. Apart from this, I propose a linear projection algorithm, whose results surpass many existing automatically-generated lexicons. Afterwords, in the second task, I examine two common approaches to automatic prediction of sentiment spans, their sources, and targets: conditional random fields (CRFs) and recurrent neural networks, obtaining higher scores with the former model and improving these results even further by redefining the structure of CRF graphs. When dealing with message-level polarity classification, I juxtapose three major sentiment paradigms: lexicon-, machine-learning–, and deep-learning–based systems, and try to unite the first and last of these method groups by introducing a bidirectional neural network with lexicon-based attention. Finally, in order to make the new classifier aware of microblogs' discourse structure, I let it separately analyze the elementary discourse units of each tweet and infer the overall polarity of a message from the scores of its EDUs with the help of two new approaches: latent-marginalized CRFs and Recursive Dirichlet Process. N2 - Die enorme Popularität von Online-Kommunikationsdiensten in den letzten Jahrzehnten hat nicht unser Leben massiv geändert (sodass Nachrichten sich wie Fegefeuer übers Internet ausbreiten, Präsidenten ihre Entscheidungen auf Twitter ankündigen, und Ergebnisse politischer Wahlen auf Facebook entschieden werden) sondern auch zu einem dramatischen Anstieg der Datenmenge geführt, die über solche Plattformen ausgetauscht werden. Deswegen braucht man heutzutage dringend zuverlässige, qualitätvolle NLP-Programme, um neue gesellschaftliche Bedürfnisse und Risiken in unzensierten Nutzernachrichten automatisch erkennen und abschätzen zu können. Leider sind die meisten modernen NLP-Anwendungen entweder auf die Analyse der Standardsprache (wie wir sie aus Zeitungstexten kennen) ausgerichtet oder im besten Fall an die Spezifika englischer Social Media angepasst. Diese Dissertation reduziert den bestehenden Rückstand, indem sie das "Neuland" der deutschen Online-Kommunikation betritt und sich einer seiner produktivsten Formen zuwendet—den User-Diskussionen auf Twitter. Diese Arbeit erforscht insbesondere die Art und Weise, wie Leute ihre Meinungen auf diesem Online-Service äußern, analysiert existierende Verfahren zur automatischen Erkennung ihrer Gefühle und schlägt neue Verfahren vor, die viele heutige State-of-the-Art-Systeme übertreffen. Zu diesem Zweck stelle ich ein neues Korpus deutscher Tweets vor, die manuell von zwei menschlichen Experten mit Sentimenten (polaren Meinungen), ihren Quellen (sources) und Zielen (targets) sowie lexikalischen polaren Termen und deren kontextuellen Modifizierern annotiert wurden. Mithilfe dieser Daten untersuche ich vier große Teilgebiete der Sentimentanalyse: (i) automatische Generierung von Sentiment-Lexika, (ii) aspekt-basiertes Opinion-Mining, (iii) Klassifizierung der Polarität von ganzen Nachrichten und (iv) diskurs-bewusste Sentimentanalyse. In der ersten Aufgabe vergleiche ich drei populäre Gruppen von Lexikongenerierungsmethoden: wörterbuch-, corpus- und word-embedding-basierte Verfahren, und komme zu dem Schluss, dass wörterbuch-basierte Ansätze generell bessere Polaritätslexika liefern als die letzten zwei Gruppen. Abgesehen davon, schlage ich einen neuen Linearprojektionsalgorithmus vor, dessen Resultate deutlich besser als viele automatisch generierte Polaritätslisten sind. Weiterhin, in der zweiten Aufgabe, untersuche ich zwei gängige Herangehensweisen an die automatische Erkennung der Textspannen von Sentimenten, Sources und Targets: Conditional Random Fields (CRFs) und rekurrente neuronale Netzwerke. Ich erziele bessere Ergebnisse mit der ersten Methode und verbessere diese Werte noch weiter durch alternative Topologien der CRF-Graphen. Bei der Analyse der Nachrichtenpolarität stelle ich drei große Sentiment-Paradigmen gegenüber: lexikon-, Machine-Learning–, und Deep-Learning–basierte Systeme, und versuche die erste und die letzte dieser Gruppen in einem Verfahren zu vereinigen, indem ich eine neue neuronale Netzwerkarchitektur vorschlage: bidirektionales rekurrentes Netzwerk mit lexikon-basierter Attention (LBA). Im letzten Kapitel unternehme ich einen Versuch, die Prädiktion der Gesamtpolarität von Tweets über die Diskursstruktur der Nachrichten zu informieren. Zu diesem Zweck wende ich den vorgeschlagenen LBA-Klassifikator separat auf jede einzelne elementare Diskurs-Einheit (EDU) eines Microblogs an und induziere die allgemeine semantische Ausrichtung dieser Nachricht mithilfe von zwei neuen Methoden: latenten marginalisierten CRFs und rekursivem Dirichlet-Prozess. KW - sentiment analysis KW - opinion mining KW - social media KW - Twitter KW - natural language processing KW - discourse analysis KW - NLP KW - computational linguistics KW - machine learning KW - Sentimentanalyse KW - Computerlinguistik KW - Meinungsforschung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437422 ER - TY - THES A1 - Batoulis, Kimon T1 - Sound integration of process and decision models T1 - Korrekte Integration von Prozess- und Entscheidungsmodellen N2 - Business process management is an established technique for business organizations to manage and support their processes. Those processes are typically represented by graphical models designed with modeling languages, such as the Business Process Model and Notation (BPMN). Since process models do not only serve the purpose of documentation but are also a basis for implementation and automation of the processes, they have to satisfy certain correctness requirements. In this regard, the notion of soundness of workflow nets was developed, that can be applied to BPMN process models in order to verify their correctness. Because the original soundness criteria are very restrictive regarding the behavior of the model, different variants of the soundness notion have been developed for situations in which certain violations are not even harmful. All of those notions do only consider the control-flow structure of a process model, however. This poses a problem, taking into account the fact that with the recent release and the ongoing development of the Decision Model and Notation (DMN) standard, an increasing number of process models are complemented by respective decision models. DMN is a dedicated modeling language for decision logic and separates the concerns of process and decision logic into two different models, process and decision models respectively. Hence, this thesis is concerned with the development of decisionaware soundness notions, i.e., notions of soundness that build upon the original soundness ideas for process models, but additionally take into account complementary decision models. Similar to the various notions of workflow net soundness, this thesis investigates different notions of decision soundness that can be applied depending on the desired degree of restrictiveness. Since decision tables are a standardized means of DMN to represent decision logic, this thesis also puts special focus on decision tables, discussing how they can be translated into an unambiguous format and how their possible output values can be efficiently determined. Moreover, a prototypical implementation is described that supports checking a basic version of decision soundness. The decision soundness notions were also empirically evaluated on models from participants of an online course on process and decision modeling as well as from a process management project of a large insurance company. The evaluation demonstrates that violations of decision soundness indeed occur and can be detected with our approach. N2 - Das Prozessmanagement ist eine etablierte Methode für Unternehmen zur Verwaltung und Unterstützung ihrer Geschäftsprozesse. Solche Prozesse werden typischerweise durch graphische Modelle dargestellt, welche mit Modellierungssprachen wie etwa der Business Process Model and Notation (BPMN) erstellt werden. Da Prozessmodelle nicht nur der Dokumentation der Prozesse dienen, sondern auch die Grundlage für deren Implementierung und Automatisierung sind, müssen sie bestimmte Korrektheitsanforderungen erfüllen. In dieser Hinsicht wurde der Begriff der Soundness einesWorkflow-Netzes entwickelt, welcher auch auf BPMN-Prozessmodelle angewendet werden kann, um deren Korrektheit zu prüfen. Da die ursprünglichen Soundness-Kriterien sehr restriktiv bezüglich des Verhaltens des Modells sind, wurden zudem Varianten des Soundness-Begriffs entwickelt. Diese können in Situationen verwendet werden, in denen bestimmte Verletzungen der Kriterien tolerabel sind. Diese Soundness-Begriffe berücksichtigen allerdings ausschließlich den Kontrollfluss der Prozessmodelle. Dies stellt ein Problem dar, weil viele Prozessmodelle heutzutage durch Entscheidungsmodelle ergänzt werden. In diesem Kontext ist die Decision Model and Notation (DMN) eine dedizierte Sprache zur Modellierung von Entscheidungen und unterstüzt die Trennung von Kontrollfluss- und Entscheidungslogik. Die vorliegende Dissertation befasst sich daher mit der Entwicklung von erweiterten Soundness-Begriffen, die sowohl Prozess- als auch Entscheidungsmodelle berücksichtigen. Ähnlich zu den bestehenden Soundness-Varianten, werden in dieser Arbeit Varianten des erweiterten Soundness-Begriffs untersucht, die je nach gewünschtem Restriktionsgrad angewendet werden können. Da Entscheidungstabellen eine in der DMN standadisierte Form sind, um Entscheidungslogik auszudrücken, fokussiert sich diese Arbeit inbesondere auf Entscheidungstabellen. So wird diskutiert wie DMN-Tabellen in ein eindeutiges Format übersetzt werden können und wie sich deren möglichen Rückgabewerte effizient bestimmen lassen. Ferner beschreibt die Arbeit eine prototypische Implementierung, die das Prüfen einer elementaren Variante des erweiterten Soundness-Begriffs erlaubt. Die Begriffe wurden außerdem empirisch evaluiert. Dazu dienten zum einen Modelle von Teilnehmern eines Online-Kurses zur Prozess- und Entscheidungsmodellierung. Zum anderen wurden Modelle eines Versicherungsunternehmens analysiert. Die Evaluierung zeigt, das Verstöße gegen den erweiterten Soundness-Begriff in der Tat auftreten und durch den hier beschriebenen Ansatz erkannt werden können. KW - decision-aware process models KW - soundness KW - decision soundness KW - formal verification KW - entscheidungsbewusste Prozessmodelle KW - Korrektheit KW - Entscheidungskorrektheit KW - formale Verifikation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437386 ER - TY - THES A1 - Marimon Tarter, Mireia T1 - Word segmentation in German-learning infants and German-speaking adults T1 - Wortsegmentierung bei deutschsprachigen Kindern und Erwachsenen BT - prosodic and statistical cues BT - prosodische und statitistische Hinweisreize N2 - There is evidence that infants start extracting words from fluent speech around 7.5 months of age (e.g., Jusczyk & Aslin, 1995) and that they use at least two mechanisms to segment words forms from fluent speech: prosodic information (e.g., Jusczyk, Cutler & Redanz, 1993) and statistical information (e.g., Saffran, Aslin & Newport, 1996). However, how these two mechanisms interact and whether they change during development is still not fully understood. The main aim of the present work is to understand in what way different cues to word segmentation are exploited by infants when learning the language in their environment, as well as to explore whether this ability is related to later language skills. In Chapter 3 we pursued to determine the reliability of the method used in most of the experiments in the present thesis (the Headturn Preference Procedure), as well as to examine correlations and individual differences between infants’ performance and later language outcomes. In Chapter 4 we investigated how German-speaking adults weigh statistical and prosodic information for word segmentation. We familiarized adults with an auditory string in which statistical and prosodic information indicated different word boundaries and obtained both behavioral and pupillometry responses. Then, we conducted further experiments to understand in what way different cues to word segmentation are exploited by 9-month-old German-learning infants (Chapter 5) and by 6-month-old German-learning infants (Chapter 6). In addition, we conducted follow-up questionnaires with the infants and obtained language outcomes at later stages of development. Our findings from this thesis revealed that (1) German-speaking adults show a strong weight of prosodic cues, at least for the materials used in this study and that (2) German-learning infants weight these two kind of cues differently depending on age and/or language experience. We observed that, unlike English-learning infants, 6-month-old infants relied more strongly on prosodic cues. Nine-month-olds do not show any preference for either of the cues in the word segmentation task. From the present results it remains unclear whether the ability to use prosodic cues to word segmentation relates to later language vocabulary. We speculate that prosody provides infants with their first window into the specific acoustic regularities in the signal, which enables them to master the specific stress pattern of German rapidly. Our findings are a step forwards in the understanding of an early impact of the native prosody compared to statistical learning in early word segmentation. N2 - Es gibt Beweise, dass Babys im Alter um 7.5 Monate anfangen, Wörter aus flüssiger Sprache zu extrahieren (z.B., Jusczyk & Aslin, 1995), dabei werden mindestens zwei Mechanismen angewandt, um Wörter aus dem Sprachfluss zu segmentieren: prosodische Information (z.B. Jusczyk, Cutler & Redanz, 1993) und statistische Information (z.B., Saffran, Aslin & Newport, 1996). Aber wie diese zwei Mechanismen zusammenwirken und ob sie sich während der Entwicklung verändern, wurde noch nicht vollständig geklärt. Das Hauptziel dieser Dissertation ist es zu verstehen, inwiefern sich Kleinkinder die verschiedenen Hinweisreize für die Segmentierung von Wörtern erschließen, wenn sie die Sprache ihres Umfelds lernen, sowie ob diese Fähigkeit in Verbindung mit späteren Sprachfähigkeiten steht. In Kapitel 3 wurde die Zuverlässigkeit der in dieser Dissertation benutzten Methode (the Headturn Preference Procedure) eruiert, sowie die Korrelationen und individuellen Differenzen zwischen den Ergebnissen einzelner Babys und späteren Sprachfähigkeiten untersucht. Im Kapitel 4 wurde untersucht, wie deutschsprachige Erwachsene auf statistische und prosodische Informationen für Wortsegmentierung reagieren. Wir haben Erwachsene mit einer akustischen Sequenz familiarisiert, bei der die statistischen und prosodischen Informationen verschiedene Wortgrenzen anzeigen, und Verhaltens- und Pupillometriedaten erhoben. Anschließend haben wir weitere Experimente durchgeführt, um zu verstehen, wie verschiedene Hinweisreize von 9-Monate (Kapitel 5) und 6-Monate alten deutschsprachigen Säuglingen (Kapitel 6) aufgenommen werden. Außerdem haben wir nach den Versuchen mit Fragebögen Daten über die Sprachfähigkeiten in späteren Entwicklungsstadien gesammelt. Unsere Ergebnisse lassen darauf schließen, dass (1) deutschsprachige Erwachsene eine hohe Gewichtung der prosodischen Hinweisreize zeigen, zumindest bei dem für die Studie genutzten akustischen Material, und dass (2) bei deutschsprachigen Babys in Abhängigkeit von Alter und/oder Spracherfahrung diese zwei Hinweisreize unterschiedlich gewichtet werden. Wir stellen fest, dass sich 6-Monate alte deutschsprachige Babys stärker auf die prosodichen Hinweisreize verlassen haben als die englischsprachigen Babys. Neun Monate alte Babys haben bei der Wortsegmentierung der Audiosequenz gescheitert und haben keine Vorliebe für einen der beiden Hinweisreize gezeigt. Mit den momentanen Ergebnissen bleibt weiterhin unklar, ob die Fähigkeit, prosodische Hinweisreize für die Wortsegmentierung zu nutzen, in Verbindung mit der späteren Weiterentwicklung des Wortschatzes steht. Wir vermuten, dass Prosodie den Babys einen ersten Einblick in die spezifischen akustischen Regelmäßigkeiten des Signals verschafft, was ihnen dabei hilft, das Betonungsmuster der deutsche Sprache schnell zu erlernen. Unsere Ergebnisse sind ein weiterer Schritt vorwärts was das Verständnis eines frühen Einflusses von muttersprachlicher Prosodie im Vergleich zu statistischem Erlernen in der frühen Wortsegmentierung betrifft. KW - word segmentation KW - prosody KW - statistical learning KW - Wortsegmentierung KW - Prosodie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437400 ER - TY - THES A1 - Angwenyi, David T1 - Time-continuous state and parameter estimation with application to hyperbolic SPDEs T1 - Zeitkontinuierliche Zustands- und Parameterschätzung bei Anwendung auf hyperbolische SPDEs N2 - Data assimilation has been an active area of research in recent years, owing to its wide utility. At the core of data assimilation are filtering, prediction, and smoothing procedures. Filtering entails incorporation of measurements' information into the model to gain more insight into a given state governed by a noisy state space model. Most natural laws are governed by time-continuous nonlinear models. For the most part, the knowledge available about a model is incomplete; and hence uncertainties are approximated by means of probabilities. Time-continuous filtering, therefore, holds promise for wider usefulness, for it offers a means of combining noisy measurements with imperfect model to provide more insight on a given state. The solution to time-continuous nonlinear Gaussian filtering problem is provided for by the Kushner-Stratonovich equation. Unfortunately, the Kushner-Stratonovich equation lacks a closed-form solution. Moreover, the numerical approximations based on Taylor expansion above third order are fraught with computational complications. For this reason, numerical methods based on Monte Carlo methods have been resorted to. Chief among these methods are sequential Monte-Carlo methods (or particle filters), for they allow for online assimilation of data. Particle filters are not without challenges: they suffer from particle degeneracy, sample impoverishment, and computational costs arising from resampling. The goal of this thesis is to:— i) Review the derivation of Kushner-Stratonovich equation from first principles and its extant numerical approximation methods, ii) Study the feedback particle filters as a way of avoiding resampling in particle filters, iii) Study joint state and parameter estimation in time-continuous settings, iv) Apply the notions studied to linear hyperbolic stochastic differential equations. The interconnection between Itô integrals and stochastic partial differential equations and those of Stratonovich is introduced in anticipation of feedback particle filters. With these ideas and motivated by the variants of ensemble Kalman-Bucy filters founded on the structure of the innovation process, a feedback particle filter with randomly perturbed innovation is proposed. Moreover, feedback particle filters based on coupling of prediction and analysis measures are proposed. They register a better performance than the bootstrap particle filter at lower ensemble sizes. We study joint state and parameter estimation, both by means of extended state spaces and by use of dual filters. Feedback particle filters seem to perform well in both cases. Finally, we apply joint state and parameter estimation in the advection and wave equation, whose velocity is spatially varying. Two methods are employed: Metropolis Hastings with filter likelihood and a dual filter comprising of Kalman-Bucy filter and ensemble Kalman-Bucy filter. The former performs better than the latter. N2 - Die Datenassimilation war in den letzten Jahren aufgrund ihres breiten Nutzens ein aktives Forschungsgebiet. Im Zentrum der Datenassimilation stehen Filter-, Vorhersage- und Glättungsverfahren. Die Filterung beinhaltet die Einbeziehung von Messinformationen in das Modell, um einen besseren Einblick in einen gegebenen Zustand zu erhalten, der durch ein verrauschtes Zustandsraummodell gesteuert wird. Die meisten Naturgesetze werden von zeitkontinuierlichen nichtlinearen Modellen bestimmt. Das verfügbare Wissen über ein Modell ist größtenteils unvollständig; und daher werden Unsicherheiten mittels Wahrscheinlichkeiten angenähert. Die zeitkontinuierliche Filterung verspricht daher eine größere Nützlichkeit, denn sie bietet die Möglichkeit, verrauschte Messungen mit einem unvollkommenen Modell zu kombinieren, um mehr Einblick in einen bestimmten Zustand zu erhalten. Das Problem der zeitkontinuierlichen nichtlinearen Gaußschen Filterung wird durch die Kushner-Stratonovich-Gleichung gelöst. Leider fehlt der Kushner-Stratonovich-Gleichung eine geschlossene Lösung. Darüber hinaus sind die numerischen Näherungen, die auf der Taylor-Erweiterung über der dritten Ordnung basieren, mit rechnerischen Komplikationen behaftet. Aus diesem Grund wurde auf numerische Methoden zurückgegriffen, die auf Monte-Carlo-Methoden basieren. Die wichtigsten dieser Methoden sind sequentielle Monte-Carlo-Methoden (oder Partikelfilter), da sie die Online-Assimilation von Daten ermöglichen. Partikelfilter sind nicht unproblematisch: Sie leiden unter Partikelentartung, Probenverarmung und Rechenkosten, die sich aus der Neuabtastung ergeben. Das Ziel dieser Arbeit ist es, i) die Ableitung der Kushner-Stratonovich-Gleichung aus den ersten Prinzipien und ihre vorhandenen numerischen Approximationsmethoden zu überprüfen, ii) die Rückkopplungs-Partikelfilter zu untersuchen, um eine Neuabtastung in Partikelfiltern zu vermeiden, iii) Studieren Sie die Zustands- und Parameterschätzung in zeitkontinuierlichen Einstellungen, iv) Wenden Sie die untersuchten Begriffe auf lineare hyperbolische stochastische Differentialgleichungen an. Die Verbindung zwischen Itô Integralen und stochastischen partiellen Differentialgleichungen und denen von Stratonovich wird in Erwartung von Rückkopplungs-Partikelfiltern eingeführt. Mit diesen Ideen und motiviert durch die Varianten von Kalman-Bucy-Filtern, die auf der Struktur des Innovationsprozesses gegründet, wird ein Feedback-Partikelfilter mit zufällig gestörter Innovation vorgeschlagen. Darüber hinaus werden Rückkopplungspartikelfilter basierend auf der Kopplung von Vorhersage- und Analysemaßnahmen vorgeschlagen. Diese Feedback-Partikelfiltern haben eine bessere Leistung als der Bootstrap-Partikelfilter bei niedrigeren Ensemble-Größen. Wir untersuchen gemeinsame Zustands- und Parameterschätzungen, sowohl durch erweiterte Zustandsräume als auch durch Verwendung von Doppelfiltern. Rückkopplungs-Partikelfilter scheinen in beiden Fällen gut zu funktionieren. Schließlich wenden wir eine gemeinsame Zustands- und Parameterschätzung in der Advektions-und Wellengleichung an, deren Geschwindigkeit räumlich variiert. Es werden zwei Verfahren verwendet: Metropolis-Hastings mit Filterwahrscheinlichkeit und ein Doppelfilter bestehend aus Kalman-Bucy-Filter und Ensemble-Kalman-Bucy-Filter. Ersteres schneidet besser ab als letzteres. KW - state estimation KW - filtering KW - parameter estimation KW - Zustandsschätzung KW - Filterung KW - Parameter Schätzung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436542 ER - TY - THES A1 - Schürings, Marco Philipp Hermann T1 - Synthesis of 1D microgel strands and their motion analysis in solution T1 - Synthese von 1D-Mikrogelsträngen und ihre Bewegungsanalyse in der Lösung N2 - The fabrication of 1D nanostrands composed of stimuli responsive microgels has been shown in this work. Microgels are well known materials able to respond to various stimuli from outer environment. Since these microgels respond via a volume change to an external stimulus, a targeted mechanical response can be achieved. Through carefully choosing the right composition of the polymer matrix, microgels can be designed to react precisely to the targeted stimuli (e.g. drug delivery via pH and temperature changes, or selective contractions through changes in electrical current125). In this work, it was aimed to create flexible nano-filaments which are capable of fast anisotropic contractions similar to muscle filaments. For the fabrication of such filaments or strands, nanostructured templates (PDMS wrinkles) were chosen due to a facile and low-cost fabrication and versatile tunability of their dimensions. Additionally, wrinkling is a well-known lithography-free method which enables the fabrication of nanostructures in a reproducible manner and with a high long-range periodicity. In Chapter 2.1, it was shown for the first time that microgels as soft matter particles can be aligned to densely packed microgel arrays of various lateral dimensions. The alignment of microgels with different compositions (e.g. VCL/AAEM, NIPAAm, NIPAAm/VCL and charged microgels) was shown by using different assembly techniques (e.g. spin-coating, template confined molding). It was chosen to set one experimental parameter constant which was the SiOx surface composition of the templates and substrates (e.g. oxidized PDMS wrinkles, Si-wafers and glass slides). It was shown that the fabrication of nanoarrays was feasible with all tested microgel types. Although the microgels exhibited different deformability when aligned on a flat surface, they retained their thermo-responsivity and swelling behavior. Towards the fabrication of 1D microgel strands interparticle connectivity was aspired. This was achieved via different cross-linking methods (i.e. cross-linking via UV-irradiation and host-guest complexation) discussed in Chapter 2.2. The microgel arrays created by different assembly methods and microgel types were tested for their cross-linking suitability. It was observed that NIPAAm based microgels cannot be cross-linked with UV light. Furthermore, it was found that these microgels exhibit a strong surface-particle-interaction and therefore could not be detached from the given substrates. In contrast to the latter, with VCL/AAEM based microgels it was possible to both UV cross-link them based on the keto-enol tautomerism of the AAEM copolymer, and to detach them from the substrate due to the lower adhesion energy towards SiOx surfaces. With VCL/AAEM microgels long, one-dimensional microgel strands could be re-dispersed in water for further analysis. It has also been shown that at least one lateral dimension of the free dispersed 1D microgel strands is easily controllable by adjusting the wavelength of the wrinkled template. For further work, only VCL/AAEM based microgels were used to focus on the main aim of this work, i.e. the fabrication of 1D microgel nanostrands. As an alternative to the unspecific and harsh UV cross-linking, the host-guest complexation via diazobenzene cross-linkers and cyclodextrin hosts was explored. The idea behind this approach was to give means to a future construction kit-like approach by incorporation of cyclodextrin comonomers in a broad variety of particle systems (e.g. microgels, nanoparticles). For this purpose, VCL/AAEM microgels were copolymerized with different amounts of mono-acrylate functionalized β-cyclodextrin (CD). After successfully testing the cross-linking capability in solution, the cross-linking of aligned VCL/AAEM/CD microgels was tried. Although the cross-linking worked well, once the single arrays came into contact to each other, they agglomerated. As a reason for this behavior residual amounts of mono-complexed diazobenzene linkers were suspected. Thus, end-capping strategies were tried out (e.g. excess amounts of β-cyclodextrin and coverage with azobenzene functionalized AuNPs) but were unsuccessful. With deeper thought, entropy effects were taken into consideration which favor the release of complexed diazobenzene linker leading to agglomerations. To circumvent this entropy driven effect, a multifunctional polymer with 50% azobenzene groups (Harada polymer) was used. First experiments with this polymer showed promising results regarding a less pronounced agglomeration (Figure 77). Thus, this approach could be pursued in the future. In this chapter it was found out that in contrast to pearl necklace and ribbon like formations, particle alignment in zigzag formation provided the best compromise in terms of stability in dispersion (see Figure 44a and Figure 51) while maintaining sufficient flexibility. For this reason, microgel strands in zigzag formation were used for the motion analysis described in Chapter 2.3. The aim was to observe the properties of unrestrained microgel strands in solution (e.g. diffusion behavior, rotational properties and ideally, anisotropic contraction after temperature increase). Initially, 1D microgel strands were manipulated via AFM in a liquid cell setup. It could be observed that the strands required a higher load force compared to single microgels to be detached from the surface. However, with the AFM it was not possible to detach the strands in a controllable manner but resulted in a complete removal of single microgel particles and a tearing off the strands from the surface, respectively. For this reason, to observe the motion behavior of unrestrained microgel strands in solution, confocal microscopy was used. Furthermore, to hinder an adsorption of the strands, it was found out that coating the surface of the substrates with a repulsive polymer film was beneficial. Confocal and wide-field microscopy videos showed that the microgel strands exhibit translational and rotational diffusive motion in solution without perceptible bending. Unfortunately, with these methods the detection of the anisotropic stimuli responsive contraction of the free moving microgel strands was not possible. To summarize, the flexibility of microgel strands is more comparable to the mechanical behavior of a semi flexible cable than to a yarn. The strands studied here consist of dozens or even hundreds of discrete submicron units strung together by cross-linking, having few parallels in nanotechnology. With the insights gained in this work on microgel-surface interactions, in the future, a targeted functionalization of the template and substrate surfaces can be conducted to actively prevent unwanted microgel adsorption for a given microgel system (e.g. PVCL and polystyrene coating235). This measure would make the discussed alignment methods more diverse. As shown herein, the assembly methods enable a versatile microgel alignment (e.g. microgel meshes, double and triple strands). To go further, one could use more complex templates (e.g. ceramic rhombs and star shaped wrinkles (Figure 14) to expand the possibilities of microgel alignment and to precisely control their aspect ratios (e.g. microgel rods with homogeneous size distributions). N2 - In dieser Arbeit wurde die Herstellung von Nanostrukturen aus stimuli-responsiven Mikrogelen gezeigt. Mikrogele sind bekannt dafür auf verschiedene Reize aus der Umgebung reagieren zu können, so werden sie z.B. in der Industrie seit langem als Superabsorber eingesetzt. Da diese Mikrogele über eine Volumenäderung auf den externen Reiz reagieren, kann so eine gezielte mechanische Antwort erreicht werden. Durch eine sorgfältige Auswahl der Polymermatrix ist es möglich die Mikrogele so zu gestalten, dass sie präzise auf die gesetzten Stimuli reagieren (z.B. Wirkstoffabgabe über pH- und Temperaturänderungen oder selektive Kontraktionen durch Zufuhr von elektrischem Strom). In dieser Arbeit wurde das Ziel verfolgt, flexible Nanofilamente zu schaffen, die ähnlich wie Muskelfilamente zu schnellen anisotropen Kontraktionen fähig sind. Für die Herstellung solcher Stränge wurden nanostrukturierte Template (PDMS-Wrinkles) verwendet, da diese einfach und kostengünstig herzustellen und in ihren Abmessungen vielseitig skalierbar sind. Darüber hinaus ist die Strukturbildung via Wrinkles ein bekanntes lithographiefreies Verfahren, das die Herstellung von Nanostrukturen in reproduzierbarer Weise und mit hoher Fernordnung auf Nanoskala ermöglicht. In Kapitel 2.1 wurde erstmals gezeigt, dass Mikrogele als weiche bzw. schwammartige Materialien zu dicht gepackten Mikrogelarrays mit einstellbaren lateralen Dimensionen ausgerichtet werden können. Obwohl die Mikrogele bei der Anordnung auf ebene Oberflächen unterschiedliche Verformbarkeiten zeigten, behielten sie ihre Thermoresponsivität und ihr Quellverhalten bei. Zur Herstellung von Mikrogelsträngen wurde eine interpartikuläre Konnektivität angestrebt. In Kapitel 2.2 wurde dies durch verschiedene Vernetzungsmethoden (d.h. Vernetzung durch UV-Bestrahlung und Wirt-Gast-Komplexierung) erreicht. Mit VCL/AAEM-Mikrogelen ist es möglich stabile, eindimensionale Mikrogelstränge herzustellen und zur weiteren Analyse in Wasser zu redispergieren. In diesem Kapitel wurde gezeigt, dass eindimensionale Partikelanordnungen in der Zickzackformation im Gegensatz zu Anordnungen in einer Perlenkettenstruktur oder zweidimensionaler Bandstruktur den besten Kompromiss in Bezug auf die Stabilität der Mikrogelstränge in Lösung bei gleichzeitigem Erhalt einer ausreichenden Flexibilität darstellt. In Kapitel 2.3 wurden für die Bewegungsanalysen Mikrogelstränge in Zickzackformation verwendet. Zusammenfassend lässt sich sagen, dass die Flexibilität der Mikrogelstränge eher mit der mechanischen Biegefähigkeit eines halbflexiblen Kabels als mit dem eines Fadens vergleichbar ist. Die hier untersuchten Stränge bestehen aus Dutzenden oder sogar Hunderten von diskreten Einzelpartikeln, die durch Vernetzung miteinander verbunden sind und für die es in der Nanotechnologie nur wenige Parallelen gibt. Wie hier dargestellt, ermöglichen die diversen Anordnungsmethoden eine vielseitige Mikrogelarchitektur (z.B. Mikrogelnetze, Doppel- und Dreifachstränge). In Zukunft könnte man komplexere Template (z.B. keramische Rhomben und sternförmige Wrinkles) verwenden, um die Möglichkeiten der nanoskaligen Mikrogelanordnungen zu erweitern und deren Seitenverhältnisse präzise zu steuern (z.B. zur Herstellung von homogenen Mikrogelstäbchen). KW - anisotropic microgels KW - microgel strands KW - microgel chains KW - template assisted alignment of soft particles KW - microgel array KW - Mikrogele KW - Mikrogelstränge KW - Mikrogelketten KW - tamplat unterstütze Anordnung von weichen Partikeln KW - Mikrogel-Array Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439532 ER - TY - THES A1 - Thater, Sabine T1 - The interplay between supermassive black holes and their host galaxies T1 - Das Zusammenspiel zwischen supermassereichen Schwarzen Löchern und ihren Muttergalaxien N2 - Supermassive black holes reside in the hearts of almost all massive galaxies. Their evolutionary path seems to be strongly linked to the evolution of their host galaxies, as implied by several empirical relations between the black hole mass (M BH ) and different host galaxy properties. The physical driver of this co-evolution is, however, still not understood. More mass measurements over homogeneous samples and a detailed understanding of systematic uncertainties are required to fathom the origin of the scaling relations. In this thesis, I present the mass estimations of supermassive black holes in the nuclei of one late-type and thirteen early-type galaxies. Our SMASHING sample extends from the intermediate to the massive galaxy mass regime and was selected to fill in gaps in number of galaxies along the scaling relations. All galaxies were observed at high spatial resolution, making use of the adaptive-optics mode of integral field unit (IFU) instruments on state-of-the-art telescopes (SINFONI, NIFS, MUSE). I extracted the stellar kinematics from these observations and constructed dynamical Jeans and Schwarzschild models to estimate the mass of the central black holes robustly. My new mass estimates increase the number of early-type galaxies with measured black hole masses by 15%. The seven measured galaxies with nuclear light deficits (’cores’) augment the sample of cored galaxies with measured black holes by 40%. Next to determining massive black hole masses, evaluating the accuracy of black hole masses is crucial for understanding the intrinsic scatter of the black hole- host galaxy scaling relations. I tested various sources of systematic uncertainty on my derived mass estimates. The M BH estimate of the single late-type galaxy of the sample yielded an upper limit, which I could constrain very robustly. I tested the effects of dust, mass-to-light ratio (M/L) variation, and dark matter on my measured M BH . Based on these tests, the typically assumed constant M/L ratio can be an adequate assumption to account for the small amounts of dark matter in the center of that galaxy. I also tested the effect of a variable M/L variation on the M BH measurement on a second galaxy. By considering stellar M/L variations in the dynamical modeling, the measured M BH decreased by 30%. In the future, this test should be performed on additional galaxies to learn how an as constant assumed M/L flaws the estimated black hole masses. Based on our upper limit mass measurement, I confirm previous suggestions that resolving the predicted BH sphere-of-influence is not a strict condition to measure black hole masses. Instead, it is only a rough guide for the detection of the black hole if high-quality, and high signal-to-noise IFU data are used for the measurement. About half of our sample consists of massive early-type galaxies which show nuclear surface brightness cores and signs of triaxiality. While these types of galaxies are typically modeled with axisymmetric modeling methods, the effects on M BH are not well studied yet. The massive galaxies of our presented galaxy sample are well suited to test the effect of different stellar dynamical models on the measured black hole mass in evidently triaxial galaxies. I have compared spherical Jeans and axisymmetric Schwarzschild models and will add triaxial Schwarzschild models to this comparison in the future. The constructed Jeans and Schwarzschild models mostly disagree with each other and cannot reproduce many of the triaxial features of the galaxies (e.g., nuclear sub-components, prolate rotation). The consequence of the axisymmetric-triaxial assumption on the accuracy of M BH and its impact on the black hole - host galaxy relation needs to be carefully examined in the future. In the sample of galaxies with published M BH , we find measurements based on different dynamical tracers, requiring different observations, assumptions, and methods. Crucially, different tracers do not always give consistent results. I have used two independent tracers (cold molecular gas and stars) to estimate M BH in a regular galaxy of our sample. While the two estimates are consistent within their errors, the stellar-based measurement is twice as high as the gas-based. Similar trends have also been found in the literature. Therefore, a rigorous test of the systematics associated with the different modeling methods is required in the future. I caution to take the effects of different tracers (and methods) into account when discussing the scaling relations. I conclude this thesis by comparing my galaxy sample with the compilation of galaxies with measured black holes from the literature, also adding six SMASHING galaxies, which were published outside of this thesis. None of the SMASHING galaxies deviates significantly from the literature measurements. Their inclusion to the published early-type galaxies causes a change towards a shallower slope for the M BH - effective velocity dispersion relation, which is mainly driven by the massive galaxies of our sample. More unbiased and homogenous measurements are needed in the future to determine the shape of the relation and understand its physical origin. N2 - Supermassereiche schwarze Löcher befinden sich in den Herzen von fast allen massiven Galaxien. Ihr evolutionärer Werdegang scheint stark mit dem Wachstum ihrer Muttergalaxien in Verbindung zu stehen, wie mehrere empirische Beziehungen zwischen der Masse der schwarzen Löcher (M BH ) und verschiedenen Eigenschaften der Muttergalaxien andeuten. Der physikalische Ursprung dieser Koevolution ist jedoch immer noch nicht verstanden. Weitere Massenmessungen über homogene Galaxienproben und ein detailliertes Verständnis der systematischen Unsicherheiten sind erforderlich, um den Ursprung dieser Skalierungsbeziehungen zu ergründen. In dieser Arbeit präsentiere ich die Massenabschätzungen von Supermassereichen Schwarzen Löchern der Zentren einer Spiral- und dreizehn elliptischer und linsenförmiger Galaxien. Meine SMASHING-Probe erstreckt sich vom mittleren bis zum hohen Galaxienmassenbereich und wurde ausgewählt, um Lücken entlang der Skalierungsbeziehungen zu schließen. Alle Galaxien wurden mit hoher räumlicher Auflösung beobachtet, wobei der adaptivoptische Modus von Integralfeldspektrographen (IFU) modernster Teleskope (SINFONI, NIFS, MUSE) verwendet wurde. Aus diesen Beobachtungen habe ich die Sternenkinematik extrahiert und dynamische Jeans- und Schwarzschildmodelle konstruiert, um die Masse der zentralen Schwarzen Löcher robust zu bestimmen. Meine neuen Massenschätzungen erhöhen die Anzahl elliptischer Galaxien mit vermessenen Schwarzen Löchern um 15%. Die sieben vermessenen Galaxien mit inneren Lichtdefiziten ("Cores") ergänzen die Probe der Core-Galaxien mit gemessenen schwarzen Löchern um 40%. Neben der Bestimmung ist die Beurteilung der Genauigkeit von Schwarzlochmassen entscheidend für das Verständnis der intrinsischen Streuung der Beziehungen zwischen schwarzem Loch und Muttergalaxie. Ich habe meine abgeleiteten Massenabschätzungen auf verschiedene systematische Fehlerquellen getestet. Dabei habe ich Bezug genommen auf die Auswirkungen von Staub, Variation des Masse-Licht-Verhältnisses (M/L), Dunkler Materie, verschiedener dynamischer Modelle und verschiedener dynamischer Tracer. Die Ergebnisse präsentiere ich in dieser Arbeit. Ich schließe diese Arbeit, indem ich meine Galaxienprobe mit der den in der Forschungsliteratur zusammengestellten Galaxien mit bereits vermessenen Schwarzen Löchern vergleiche und auch sechs SMASHING-Galaxien hinzufüge, die außerhalb dieser Arbeit veröffentlicht wurden. Keine der SMASHING-Galaxien weicht signifikant von den veröffentlichten Messungen ab. Eine gemeinsame Analyse meiner Messungen und der veröffentlichten elliptischen Galaxien ergibt eine Abflachung der Steigung für die M BH - effektive Geschwindigkeitsdispersionsbeziehung, die hauptsächlich von den massiven Galaxien meiner Probe bewirkt wird. In Zukunft sind unvoreingenommene und homogenere Messungen erforderlich, um die Form der Skalierungsbeziehung zu bestimmen und ihren physikalischen Ursprung zu verstehen. KW - supermassive black holes KW - galaxy evolution KW - stellar kinematics KW - galaxy dynamics KW - integral field spectroscopy KW - supermassereiche Schwarze Löcher KW - Galaxienentwicklung KW - stellare Kinematik KW - Galaxiendynamik KW - Integralfieldspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437570 ER - TY - THES A1 - Farhy, Yael T1 - Universals and particulars in morphology T1 - Universalien und Einzelheiten in der Morphologie BT - processing and generalization in native and non-native speakers of Hebrew BT - Verarbeitung und Generalisierung bei hebräischen Muttersprachlern und Nicht-Muttersprachlern N2 - For many years, psycholinguistic evidence has been predominantly based on findings from native speakers of Indo-European languages, primarily English, thus providing a rather limited perspective into the human language system. In recent years a growing body of experimental research has been devoted to broadening this picture, testing a wide range of speakers and languages, aiming to understanding the factors that lead to variability in linguistic performance. The present dissertation investigates sources of variability within the morphological domain, examining how and to what extent morphological processes and representations are shaped by specific properties of languages and speakers. Firstly, the present work focuses on a less explored language, Hebrew, to investigate how the unique non-concatenative morphological structure of Hebrew, namely a non-linear combination of consonantal roots and vowel patterns to form lexical entries (L-M-D + CiCeC = limed ‘teach’), affects morphological processes and representations in the Hebrew lexicon. Secondly, a less investigated population was tested: late learners of a second language. We directly compare native (L1) and non-native (L2) speakers, specifically highly proficient and immersed late learners of Hebrew. Throughout all publications, we have focused on a morphological phenomenon of inflectional classes (called binyanim; singular: binyan), comparing productive (class Piel, e.g., limed ‘teach’) and unproductive (class Paal, e.g., lamad ‘learn’) verbal inflectional classes. By using this test case, two psycholinguistic aspects of morphology were examined: (i) how morphological structure affects online recognition of complex words, using masked priming (Publications I and II) and cross-modal priming (Publication III) techniques, and (ii) what type of cues are used when extending morpho-phonological patterns to novel complex forms, a process referred to as morphological generalization, using an elicited production task (Publication IV). The findings obtained in the four manuscripts, either published or under review, provide significant insights into the role of productivity in Hebrew morphological processing and generalization in L1 and L2 speakers. Firstly, the present L1 data revealed a close relationship between productivity of Hebrew verbal classes and recognition process, as revealed in both priming techniques. The consonantal root was accessed only in the productive class (Piel) but not the unproductive class (Paal). Another dissociation between the two classes was revealed in the cross-modal priming, yielding a semantic relatedness effect only for Paal but not Piel primes. These findings are taken to reflect that the Hebrew mental representations display a balance between stored undecomposable unstructured stems (Paal) and decomposed structured stems (Piel), in a similar manner to a typical dual-route architecture, showing that the Hebrew mental lexicon is less unique than previously claimed in psycholinguistic research. The results of the generalization study, however, indicate that there are still substantial differences between inflectional classes of Hebrew and other Indo-European classes, particularly in the type of information they rely on in generalization to novel forms. Hebrew binyan generalization relies more on cues of argument structure and less on phonological cues. Secondly, clear L1/L2 differences were observed in the sensitivity to abstract morphological and morpho-syntactic information during complex word recognition and generalization. While L1 Hebrew speakers were sensitive to the binyan information during recognition, expressed by the contrast in root priming, L2 speakers showed similar root priming effects for both classes, but only when the primes were presented in an infinitive form. A root priming effect was not obtained for primes in a finite form. These patterns are interpreted as evidence for a reduced sensitivity of L2 speakers to morphological information, such as information about inflectional classes, and evidence for processing costs in recognition of forms carrying complex morpho-syntactic information. Reduced reliance on structural information cues was found in production of novel verbal forms, when the L2 group displayed a weaker effect of argument structure for Piel responses, in comparison to the L1 group. Given the L2 results, we suggest that morphological and morphosyntactic information remains challenging for late bilinguals, even at high proficiency levels. N2 - Diese Dissertation untersucht, wie die morphologische Verarbeitung und Generalisierung von der Sprache und den Sprechern beeinflusst werden. Die Arbeit fokussiert sich auf die hebräische Sprache und analysiert, wie ihre ungewöhnliche, nicht-verkettende morphologische Struktur, die die Kombination von Wurzelkonsonanten und Vokalmustern umfasst (z. B. L-M-D + CiCeC = limed ‚beibringen‘), die Organisation von komplexen Repräsentationen im mentalen Lexikon beeinflusst. Dieser Aspekt wird im Hinblick auf zwei Sprechergruppen betrachtet: hebräische Muttersprachler und Nicht-Muttersprachler, die aber ein hohes Sprachniveau erworben haben. Alle vier Publikationen der Dissertation behandeln das morphologische Phänomen von Flexionsklassen in Verben (auf Hebräisch: binyanim) und vergleichen eine produktive Klasse und eine unproduktive Klasse mithilfe von empirischen Methoden wie Worterkennung mit Priming und Produktion von neuartigen Wörtern. Die Ergebnisse zeigten erstens eine enge Verbindung zwischen der Produktivität einer Klasse und Worterkennungsprozessen, wie dies auch in anderen indoeuropäischen Sprachen der Fall ist, in denen die Erkennung von produktiven morphologischen Schemata (z. B. gefragt) durch eine Dekomposition von Wortbestandteilen ausgeführt wird. Die Erkennung von unproduktiven morphologischen Schemata (z. B., geschlafen) wird jedoch nicht durch eine Dekomposition ausgeführt. In Bezug darauf ergaben die Ergebnisse der Produktionsstudie jedoch, dass es einen Unterschied zwischen dem hebräischen und indoeuropäischen Sprachen gibt, besonders in der Art der Information, auf die die Sprecher sich verlassen, wenn sie neue Wörter formulieren. In einem zweiten Ergebnis wurden bedeutende Unterschiede zwischen Muttersprachlern und Nicht-Muttersprachlern hinsichtlich Worterkennung und Produktion beobachtet. Beide Experimente wiesen eine eingeschränkte Sensitivität der Nicht-Muttersprachler für abstrakte morphologische und morpho-syntaktische Informationen nach. KW - psycholinguistics KW - morphology KW - Hebrew KW - second language KW - Psycholinguistik KW - Morphologie KW - Hebräisch KW - Nicht-Muttersprachler Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470033 ER - TY - THES A1 - Desanois, Louis T1 - On the origin of epithermal Sn-Ag-Zn mineralization at the Pirquitas mine, NW Argentina T1 - Zur Entstehung der epithermalen Sn-Ag-Zn-Mineralisierung in der Pirquitas Mine, NW Argentinien BT - fluid inclusion and isotopic constraints BT - Flüssigkeitseinschlüsse und isotopische Zusammensetzung/ Fingerabdruck N2 - The Central Andes host large reserves of base and precious metals. The region represented, in 2017, an important part of the worldwide mining activity. Three principal types of deposits have been identified and studied: 1) porphyry type deposits extending from central Chile and Argentina to Bolivia, and Northern Peru, 2) iron oxide-copper-gold (IOCG) deposits, extending from central Peru to central Chile, and 3) epithermal tin polymetallic deposits extending from Southern Peru to Northern Argentina, which compose a large part of the deposits of the Bolivian Tin Belt (BTB). Deposits in the BTB can be divided into two major types: (1) tin-tungsten-zinc pluton-related polymetallic deposits, and (2) tin-silver-lead-zinc epithermal polymetallic vein deposits. Mina Pirquitas is a tin-silver-lead-zinc epithermal polymetallic vein deposit, located in north-west Argentina, that used to be one of the most important tin-silver producing mine of the country. It was interpreted to be part of the BTB and it shares similar mineral associations with southern pluton related BTB epithermal deposits. Two major mineralization events related to three pulses of magmatic fluids mixed with meteoric water have been identified. The first event can be divided in two stages: 1) stage I-1 with quartz, pyrite, and cassiterite precipitating from fluids between 233 and 370 °C and salinity between 0 and 7.5 wt%, corresponding to a first pulse of fluids, and 2) stage I-2 with sphalerite and tin-silver-lead-antimony sulfosalts precipitating from fluids between 213 and 274 °C with salinity up to 10.6 wt%, corresponding to a new pulse of magmatic fluids in the hydrothermal system. The mineralization event II deposited the richest silver ores at Pirquitas. Event II fluids temperatures and salinities range between 190 and 252 °C and between 0.9 and 4.3 wt% respectively. This corresponds to the waning supply of magmatic fluids. Noble gas isotopic compositions and concentrations in ore-hosted fluid inclusions demonstrate a significant contribution of magmatic fluids to the Pirquitas mineralization although no intrusive rocks are exposed in the mine area. Lead and sulfur isotopic measurements on ore minerals show that Pirquitas shares a similar signature with southern pluton related polymetallic deposits in the BTB. Furthermore, the major part of the sulfur isotopic values of sulfide and sulfosalt minerals from Pirquitas ranges in the field for sulfur derived from igneous rocks. This suggests that the main contribution of sulfur to the hydrothermal system at Pirquitas is likely to be magma-derived. The precise age of the deposit is still unknown but the results of wolframite dating of 2.9 ± 9.1 Ma and local structural observations suggest that the late mineralization event is younger than 12 Ma. N2 - Die zentralen Anden beherbergen große Reserven von unedlen und Edelmetallen. Die Region war 2017 ein wichtiger Teil der weltweiten Bergbautätigkeit. Bisher wurden drei Hauptlagerstätten identifiziert und untersucht: 1) Porphyr-Lagerstätten, die sich von Zentralchile und Argentinien bis Bolivien und Nord-Peru erstrecken; 2) Eisenoxid-Kupfer-Gold-Lagerstätten (IOCG), die sich von Zentralperu bis Zentralchile ausdehnen, sowie 3) polymetallische epithermale Zinnlagerstätten, die sich von Südperu bis nach Nordargentinien erstrecken und einen Großteil der Lagerstätten des bolivianischen Zinngürtels (Bolivian Tin Belt - BTB) bilden. Lagerstätten im BTB können in zwei Haupttypen unterteilt werden: (1) polymetallische Lagerstätten aus Zinn-Wolfram-Zink im Zusammenhang mit Plutonen und (2) polymetallische Zinn-Silber-Blei-zink Anlagerungen in epithermalen gangförmigen Lagerstätten. Mina Pirquitas ist eine epithermale Zinn-Silber-Blei-Zink-Polymetallvenenlagerstätte im Nordwesten Argentiniens, die früher eine der wichtigsten Zinnsilber-Mine meines Landes war. Es wurde als Teil der BTB interpretiert und hat ähnliche Mineralstoffverbände mit südlichen Pluton-bezogenen BTB-Epithermalvorkommen. Es wurden zwei bedeutende Mineralisierungsereignisse identifiziert, die sich auf drei mit meteorischem Wasser gemischte magmatische Fluide beziehen. Das erste Ereignis kann in zwei Stufen unterteilt werden: 1) Stufe I-1, wobei Quarz, Pyrit und Cassiterit aus Fluiden zwischen 233 und 370 ° C und einem Salzgehalt zwischen 0 und 7,5 Gew .-% ausfallen, entsprechend einem ersten Flüssigkeitsimpuls, und 2) Stufe I-2 mit Sphalerit und Zinn-Silber-Blei-Antimonsulfosalzen, die aus Fluiden zwischen 213 und 274 ° C mit einem Salzgehalt von bis zu 10,6 Gew .-% ausfallen, was einem neuen Impuls magmatischer Fluiden im hydrothermalen System entspricht. Durch die Mineralisierung II wurden die reichsten Silbererze bei Pirquitas abgelagert. Die Temperaturen und Salzgehalte von Event II liegen zwischen 190 und 252 ° C bzw. zwischen 0,9 und 4,3 Gew .-%. Dies entspricht der abnehmenden Versorgung mit magmatischen Fluiden. Edelgasisotopenzusammensetzungen und -konzentrationen in mit Erz beherbergten Flüssigkeitseinschlüssen zeigen einen signifikanten Beitrag magmatischer Fluiden zur Pirquitas-Mineralisierung, obwohl keine intrusiven Gesteine im Minengebiet exponiert sind. Messungen von Blei- und Schwefelisotopen an Erzmineralien zeigen, dass Pirquitas eine ähnliche Signatur mit südlichen Pluton-verwandten polymetallischen Lagerstätten in der BTB teilt. Darüber hinaus liegt der größte Teil der Schwefelisotopenwerte von Sulfid- und Sulfosaltmineralien aus Pirquitas im Bereich von Schwefel aus magmatischem Gestein. Dies deutet darauf hin, dass der Hauptbeitrag von Schwefel zum hydrothermalen System bei Pirquitas wahrscheinlich aus Magma stammt. Das genaue Alter der Lagerstätte ist noch nicht bekannt, aber die Ergebnisse der Wolframit-Datierung von 2,9 ± 9,1 Ma und lokalen Strukturbeobachtungen legen nahe, dass die späten Mineralisierungsereignisse jünger als 12 Ma sind. KW - Bolivian tin belt KW - Pirquitas KW - Epithermal Ag-Sn deposits KW - Fluid inclusions KW - Isotopes KW - bolivianischen Zinngürtels KW - Pirquitas KW - epithermale Zinn-Silber-lagerstätte KW - Flüssigkeitsinklusionen KW - Isotopen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430822 ER - TY - THES A1 - Kolk, Jens T1 - The long-term legacy of historical land cover changes T1 - Die Langzeitfolgen historischer Landbedeckungsveränderungen BT - patterns and dynamics in herb-layer species richness in deciduous forests of the Prignitz region (NE Germany) BT - Muster und Dynamik der Artenvielfalt von Waldpflanzengemeinschaften in Laubwäldern der Prignitz (Nordostdeutschland) N2 - Over the last years there is an increasing awareness that historical land cover changes and associated land use legacies may be important drivers for present-day species richness and biodiversity due to time-delayed extinctions or colonizations in response to historical environmental changes. Historically altered habitat patches may therefore exhibit an extinction debt or colonization credit and can be expected to lose or gain species in the future. However, extinction debts and colonization credits are difficult to detect and their actual magnitudes or payments have rarely been quantified because species richness patterns and dynamics are also shaped by recent environmental conditions and recent environmental changes. In this thesis we aimed to determine patterns of herb-layer species richness and recent species richness dynamics of forest herb layer plants and link those patterns and dynamics to historical land cover changes and associated land use legacies. The study was conducted in the Prignitz, NE-Germany, where the forest distribution remained stable for the last ca. 100 years but where a) the deciduous forest area had declined by more than 90 per cent (leaving only remnants of "ancient forests"), b) small new forests had been established on former agricultural land ("post-agricultural forests"). Here, we analyzed the relative importance of land use history and associated historical land cover changes for herb layer species richness compared to recent environmental factors and determined magnitudes of extinction debt and colonization credit and their payment in ancient and post-agricultural forests, respectively. We showed that present-day species richness patterns were still shaped by historical land cover changes that ranged back to more than a century. Although recent environmental conditions were largely comparable we found significantly more forest specialists, species with short-distance dispersal capabilities and clonals in ancient forests than in post-agricultural forests. Those species richness differences were largely contingent to a colonization credit in post-agricultural forests that ranged up to 9 species (average 4.7), while the extinction debt in ancient forests had almost completely been paid. Environmental legacies from historical agricultural land use played a minor role for species richness differences. Instead, patch connectivity was most important. Species richness in ancient forests was still dependent on historical connectivity, indicating a last glimpse of an extinction debt, and the colonization credit was highest in isolated post-agricultural forests. In post-agricultural forests that were better connected or directly adjacent to ancient forest patches the colonization credit was way smaller and we were able to verify a gradual payment of the colonization credit from 2.7 species to 1.5 species over the last six decades. N2 - In den vergangenen Jahren reift immer mehr die Erkenntnis, dass historische Landnutzungsveränderungen und deren Folgewirkungen einen wichtigen Einfluss auf die heutige Artenvielfalt und Biodiversität haben können. In Habitaten, deren Landnutzung und Fläche sich in historischer Zeit verändert hat kann aufgrund von verzögerten Aussterbe- und Einwanderungsprozessen eine erhöhte oder verringerte Artenvielfalt vorliegen, die nicht den heutigen Umweltbedingungen entspricht. Es liegen Aussterbeschulden oder Einwanderungs- bzw. Kolonisierungskredite vor, welcher über die Zeit mit Artverlusten oder Zugewinnen von Arten bezahlt werden. Aussterbeschulden oder Einwanderungskredite und deren Bezahlung sind schwierig zu ermitteln, da einerseits Informationen zu historischen Landnutzungsveränderungen oft fehlen und andererseits auch heutige Umweltfaktoren einen wichtigen Einfluss auf die Artenvielfalt haben. Das Ziel dieser Arbeit war es die heutigen Muster der Artenvielfalt von Waldbodenpflanzen in Laub- und Mischwäldern und deren Veränderungen über die letzten 60 Jahre zu ermitteln und diese Muster im Hinblick auf historische Landnutzungsveränderungen zu untersuchen. Das Studiengebiet umfasst große Teile der Prignitz (Brandenburg und angrenzende Teile von Sachsen-Anhalt), ein Gebiet, dessen Waldanteil sich in den letzten 100 Jahren kaum verändert hat, in dem sich jedoch seit dem Ende des 19ten Jahrhunderts der Anteil historisch alter Wälder (ohne historische nachgewiesene agrarliche Nutzung) um mehr als 90% reduziert hat, während an anderer Stelle wenige neue Wälder auf vorigen Agrarflächen etabliert wurden. Im Rahmen dieser Studie wurde zunächst die Artenvielfalt und deren aktuelle Veränderung in historisch-alten Wäldern und neu etablierten Wäldern untersucht und verglichen. Um den Einfluss von historischen Landnutzungsveränderungen auf die Artenvielfalt zu ermittlen, wurde die historische und heutige Vernetzung der Waldflächen analysiert, die Umweltbedingungen in historisch-alten Wäldern und neu etablierten Wäldern verglichen und der Umfang und die Bezahlung der Aussterbeschulden und der Kolonisierungskredite ermittelt. Die Arbeit zeigt, dass historische Landnutzungsveränderungen die heutige Artenvielfalt noch immer beeinflussen. Obwohl die heutigen Umweltbedingungen in historisch-alten und neu etablierten Wäldern vergleichbar waren, war die Gesamtartenzahl in historisch-alten Wäldern signifikant höher und in diesen Wäldern wurden insbesondere mehr Waldspezialisten und sich nur über kurze Enfernung ausbreitende Pflanzenarten gefunden. Die Unterschiede in den Artenzahlen sind vor allem auf einen Kolonisierungskredit in neu etablierten Wäldern zurückzuführen, während die Aussterbeschulden in historisch-alten Wäldern weitgehend bezahlt wurden. Der Kolonisierungskredits war am höchsten in isoliert gelegenen Waldflächen und belief sich auf bis zu 9 Arten (im Mittel 4,7). Der Kolonisierungskredit in besser vernetzten und in direkt an historisch-alten Wäldern angrenzenden Flächen war deutlich geringer. In diesen Wäldern konnte eine Verringerung des Kolonisierungskredites von im Mittel 2,7 zu 1,5 Arten über die letzten sechs Jahrzehnte nachgewiesen werden. KW - ecology KW - plant science KW - extinction debt KW - colonization credit KW - species richness KW - land use history KW - Ökologie KW - Pflanzenwissenschaften KW - Botanik KW - Aussterbeschuld KW - Einwanderungskredit KW - Biodiversität KW - Landnutzungshistorie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439398 ER - TY - THES A1 - Schäfer, Merlin T1 - Understanding and predicting global change impacts on migratory birds T1 - Verständnis und Vorhersage von Auswirkungen des globalen Wandels auf Zugvögel N2 - This is a publication-based dissertation comprising three original research stud-ies (one published, one submitted and one ready for submission; status March 2019). The dissertation introduces a generic computer model as a tool to investigate the behaviour and population dynamics of animals in cyclic environments. The model is further employed for analysing how migratory birds respond to various scenarios of altered food supply under global change. Here, ecological and evolutionary time-scales are considered, as well as the biological constraints and trade-offs the individual faces, which ultimately shape response dynamics at the population level. Further, the effect of fine-scale temporal patterns in re-source supply are studied, which is challenging to achieve experimentally. My findings predict population declines, altered behavioural timing and negative carry-over effects arising in migratory birds under global change. They thus stress the need for intensified research on how ecological mechanisms are affected by global change and for effective conservation measures for migratory birds. The open-source modelling software created for this dissertation can now be used for other taxa and related research questions. Overall, this thesis improves our mechanistic understanding of the impacts of global change on migratory birds as one prerequisite to comprehend ongoing global biodiversity loss. The research results are discussed in a broader ecological and scientific context in a concluding synthesis chapter. N2 - Dies ist eine publikationsbasierte Dissertation, welche aus drei wissenschaftlichen Originalstudien (eine publiziert, eine eingereicht und eine einreichbar; Stand März 2019) besteht. Die Dissertation stellt ein generisches Computermodell bereit, um das Verhalten und die Populationsdynamik von Tieren zu untersuchen, welche saisonale Umweltbedingungen erfahren. Mit diesem Computermodell untersuche ich in der vorliegenden Thesis, wie Zugvögel auf verschiedene Szenarien veränderter Nahrungsverfügbarkeit reagieren, welche im Rahmen des globalen Wandels wahrscheinlich sind. Dabei werden ökologische und evolutionäre Zeitskalen berücksichtigt. Außerdem werden biologisch bedingte Einschränkungen und Zielkonflikte einbezogen, welche das einzelne Individuum erfährt, die aber letztendlich auch das Geschehen auf Populationsebene bestimmen. Weiterhin studiere ich mit dem erstellten Computermodell am Beispiel des Weißstorchs, wie sich feinskalige Zeitmuster in der Nahrungsverfügbarkeit auf Zugvögel auswirken. Solche Studien würden eine enorme experimentelle Herausforderung darstellen. Die im Rahmen dieser Dissertation entstandene frei verfügbare Modellierungs-Software kann nun für andere Taxa und verwandte Forschungsfragen eingesetzt werden. Nach meinen Ergebnissen ist im Zuge des globalen Wandels mit verstärkten Populationsabnahmen bei Zugvögeln zu rechnen, sowie mit Änderungen im zeitlichen Verhaltensablauf und nichtlinearen negativen Carry-over-Effekten. Dies verdeutlicht, wie wichtig es ist, die vom globalen Wandel betroffenen ökologischen Mechanismen näher zu erforschen sowie effektive Schutzmaßnahmen für Zugvögel zu entwickeln. Allgemein erhöht die Dissertation unser mechanistisches Verständnis davon, wie sich der globale Wandel auf bedrohte Zugvogelarten auswirkt und damit die globale Biodiversität beeinflusst. Die Forschungsergebnisse werden in einem abschließenden Synthese-Kapitel zusammenführend diskutiert. KW - global change KW - migratory birds KW - life-history theory KW - movement ecology KW - bird migration KW - optimal annual routine model KW - stochastic dynamic programming KW - full annual cycle KW - population dynamics KW - carry-over effects KW - white stork KW - behavioural ecology KW - adaptation KW - mechanistic model KW - energetics KW - behavioural timing KW - reproduction KW - globaler Wandel KW - Zugvögel KW - Lebenszyklustheorie KW - Bewegungsökologie KW - Vogelzug KW - "Optimal annual routine"-Modell KW - stochastisch-dynamische Optimierung KW - vollständiger Jahreszyklus KW - Populationsdynamik KW - Carry-over-Effekte KW - Weißstorch KW - Verhaltensökologie KW - Anpassung KW - mechanistisches Modell KW - Energetik KW - Verhaltens-Timing KW - Reproduktion Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439256 ER - TY - THES A1 - Lewandowski, Max T1 - Hadamard states for bosonic quantum field theory on globally hyperbolic spacetimes T1 - Hadamard-Zustände für bosonische Quantenfeldtheorie auf global hyperbolischen Raumzeiten N2 - Quantenfeldtheorie auf gekrümmten Raumzeiten ist eine semiklassische Näherung einer Quantentheorie der Gravitation, im Rahmen derer ein Quantenfeld unter dem Einfluss eines klassisch modellierten Gravitationsfeldes, also einer gekrümmten Raumzeit, beschrieben wird. Eine der bemerkenswertesten Vorhersagen dieses Ansatzes ist die Erzeugung von Teilchen durch die gekrümmte Raumzeit selbst, wie zum Beispiel durch Hawkings Verdampfen schwarzer Löcher und den Unruh Effekt. Andererseits deuten diese Aspekte bereits an, dass fundamentale Grundpfeiler der Theorie auf dem Minkowskiraum, insbesondere ein ausgezeichneter Vakuumzustand und damit verbunden der Teilchenbegriff, für allgemeine gekrümmte Raumzeiten keine sinnvolle Entsprechung besitzen. Gleichermaßen benötigen wir eine alternative Implementierung von Kovarianz in die Theorie, da gekrümmte Raumzeiten im Allgemeinen keine nicht-triviale globale Symmetrie aufweisen. Letztere Problematik konnte im Rahmen lokal-kovarianter Quantenfeldtheorie gelöst werden, wohingegen die Abwesenheit entsprechender Konzepte für Vakuum und Teilchen in diesem allgemeinen Fall inzwischen sogar in Form von no-go-Aussagen manifestiert wurde. Beim algebraischen Ansatz für eine Quantenfeldtheorie werden zunächst Observablen eingeführt und erst anschließend Zustände via Zuordnung von Erwartungswerten. Obwohl die Observablen unter physikalischen Gesichtspunkten konstruiert werden, existiert dennoch eine große Anzahl von möglichen Zuständen, von denen viele, aus physikalischen Blickwinkeln betrachtet, nicht sinnvoll sind. Dieses Konzept von Zuständen ist daher noch zu allgemein und bedarf weiterer physikalisch motivierter Einschränkungen. Beispielsweise ist es natürlich, sich im Falle freier Quantenfeldtheorien mit linearen Feldgleichungen auf quasifreie Zustände zu konzentrieren. Darüber hinaus ist die Renormierung von Erwartungswerten für Produkte von Feldern von zentraler Bedeutung. Dies betrifft insbesondere den Energie-Impuls-Tensor, dessen Erwartungswert durch distributionelle Bilösungen der Feldgleichungen gegeben ist. Tatsächlich liefert J. Hadamard Theorie hyperbolischer Differentialgleichungen Bilösungen mit festem singulären Anteil, so dass ein geeignetes Renormierungsverfahren definiert werden kann. Die sogenannte Hadamard-Bedingung an Bidistributionen steht für die Forderung einer solchen Singularitätenstruktur und sie hat sich etabliert als natürliche Verallgemeinerung der für flache Raumzeiten formulierten Spektralbedingung. Seit Radzikowskis wegweisenden Resultaten lässt sie sich außerdem lokal ausdrücken, nämlich als eine Bedingung an die Wellenfrontenmenge der Bilösung. Diese Formulierung schlägt eine Brücke zu der von Duistermaat und Hörmander entwickelten mikrolokalen Analysis, die seitdem bei der Überprüfung der Hadamard-Bedingung sowie der Konstruktion von Hadamard Zuständen vielfach Verwendung findet und rasante Fortschritte auf diesem Gebiet ausgelöst hat. Obwohl unverzichtbar für die Analyse der Charakteristiken von Operatoren und ihrer Parametrizen sind die Methoden und Aussagen der mikrolokalen Analysis ungeeignet für die Analyse von nicht-singulären Strukturen und zentrale Aussagen sind typischerweise bis auf glatte Anteile formuliert. Beispielsweise lassen sich aus Radzikowskis Resultaten nahezu direkt Existenzaussagen und sogar ein konkretes Konstruktionsschema für Hadamard Zustände ableiten, die übrigen Eigenschaften (Bilösung, Kausalität, Positivität) können jedoch auf diesem Wege nur modulo glatte Funktionen gezeigt werden. Es ist das Ziel dieser Dissertation, diesen Ansatz für lineare Wellenoperatoren auf Schnitten in Vektorbündeln über global-hyperbolischen Lorentz-Mannigfaltigkeiten zu vollenden und, ausgehend von einer lokalen Hadamard Reihe, Hadamard Zustände zu konstruieren. Beruhend auf Wightmans Lösung für die d'Alembert-Gleichung auf dem Minkowski-Raum und der Herleitung der avancierten und retardierten Fundamentallösung konstruieren wir lokal Parametrizen in Form von Hadamard-Reihen und fügen sie zu globalen Bilösungen zusammen. Diese besitzen dann die Hadamard-Eigenschaft und wir zeigen anschließend, dass glatte Bischnitte existieren, die addiert werden können, so dass die verbleibenden Bedingungen erfüllt sind. N2 - Quantum field theory on curved spacetimes is understood as a semiclassical approximation of some quantum theory of gravitation, which models a quantum field under the influence of a classical gravitational field, that is, a curved spacetime. The most remarkable effect predicted by this approach is the creation of particles by the spacetime itself, represented, for instance, by Hawking's evaporation of black holes or the Unruh effect. On the other hand, these aspects already suggest that certain cornerstones of Minkowski quantum field theory, more precisely a preferred vacuum state and, consequently, the concept of particles, do not have sensible counterparts within a theory on general curved spacetimes. Likewise, the implementation of covariance in the model has to be reconsidered, as curved spacetimes usually lack any non-trivial global symmetry. Whereas this latter issue has been resolved by introducing the paradigm of locally covariant quantum field theory (LCQFT), the absence of a reasonable concept for distinct vacuum and particle states on general curved spacetimes has become manifest even in the form of no-go-theorems. Within the framework of algebraic quantum field theory, one first introduces observables, while states enter the game only afterwards by assigning expectation values to them. Even though the construction of observables is based on physically motivated concepts, there is still a vast number of possible states, and many of them are not reasonable from a physical point of view. We infer that this notion is still too general, that is, further physical constraints are required. For instance, when dealing with a free quantum field theory driven by a linear field equation, it is natural to focus on so-called quasifree states. Furthermore, a suitable renormalization procedure for products of field operators is vitally important. This particularly concerns the expectation values of the energy momentum tensor, which correspond to distributional bisolutions of the field equation on the curved spacetime. J. Hadamard's theory of hyperbolic equations provides a certain class of bisolutions with fixed singular part, which therefore allow for an appropriate renormalization scheme. By now, this specification of the singularity structure is known as the Hadamard condition and widely accepted as the natural generalization of the spectral condition of flat quantum field theory. Moreover, due to Radzikowski's celebrated results, it is equivalent to a local condition, namely on the wave front set of the bisolution. This formulation made the powerful tools of microlocal analysis, developed by Duistermaat and Hörmander, available for the verification of the Hadamard property as well as the construction of corresponding Hadamard states, which initiated much progress in this field. However, although indispensable for the investigation in the characteristics of operators and their parametrices, microlocal analyis is not practicable for the study of their non-singular features and central results are typically stated only up to smooth objects. Consequently, Radzikowski's work almost directly led to existence results and, moreover, a concrete pattern for the construction of Hadamard bidistributions via a Hadamard series. Nevertheless, the remaining properties (bisolution, causality, positivity) are ensured only modulo smooth functions. It is the subject of this thesis to complete this construction for linear and formally self-adjoint wave operators acting on sections in a vector bundle over a globally hyperbolic Lorentzian manifold. Based on Wightman's solution of d'Alembert's equation on Minkowski space and the construction for the advanced and retarded fundamental solution, we set up a Hadamard series for local parametrices and derive global bisolutions from them. These are of Hadamard form and we show existence of smooth bisections such that the sum also satisfies the remaining properties exactly. KW - mathematische Physik KW - Quantenfeldtheorie KW - Differentialgeometrie KW - mathematical physics KW - quantum field theory KW - differential geometry Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439381 ER - TY - THES A1 - Nasery, Mustafa T1 - The success and failure of civil service reforms in Afghanistan T1 - Erfolg und Misserfolg der Reformen im öffentlichen Dienst Afghanistans BT - a critical study of reforms in a fragile and conflict-affected state BT - eine kritische Studie der Reformen in einem fragilen und konfliktbeladenen Staat N2 - The Government will create a motivated, merit-based, performance-driven, and professional civil service that is resistant to temptations of corruption and which provides efficient, effective and transparent public services that do not force customers to pay bribes. — (GoIRA, 2006, p. 106) We were in a black hole! We had an empty glass and had nothing from our side to fill it with! Thus, we accepted anything anybody offered; that is how our glass was filled; that is how we reformed our civil service. — (Former Advisor to IARCSC, personal communication, August 2015) How and under what conditions were the post-Taleban Civil Service Reforms of Afghanistan initiated? What were the main components of the reforms? What were their objectives and to which extent were they achieved? Who were the leading domestic and foreign actors involved in the process? Finally, what specific factors influenced the success and failure Afghanistan’s Civil Service Reforms since 2002? Guided by such fundamental questions, this research studies the wicked process of reforming the Afghan civil service in an environment where a variety of contextual, programmatic, and external factors affected the design and implementation of reforms that were entirely funded and technically assisted by the international community. Focusing on the core components of reforms—recruitment, remuneration, and appraisal of civil servants—the qualitative study provides a detailed picture of the pre-reform civil service and its major human resources developments in the past. Following discussions on the content and purposes of the main reform programs, it will then analyze the extent of changes in policies and practices by examining the outputs and effects of these reforms. Moreover, the study defines the specific factors that led the reforms toward a situation where most of the intended objectives remain unachieved. Doing so, it explores and explains how an overwhelming influence of international actors with conflicting interests, large-scale corruption, political interference, networks of patronage, institutionalized nepotism, culturally accepted cronyism and widespread ethnic favoritism created a very complex environment and prevented the reforms from transforming Afghanistan’s patrimonial civil service into a professional civil service, which is driven by performance and merit. N2 - Die Regierung wird einen motivierten, leistungsbasierten, leistungsorientierten und professionellen öffentlichen Dienst schaffen, der den Versuchungen der Korruption widersteht und effiziente, effektive und transparente öffentliche Dienstlesitungen anbietet, die Kundinnen und Kunden nicht dazu zwingt, Bestechungsgelder zu zahlen. — (GoIRA, 2006, p. 106) Wir waren in einem schwarzen Loch! Wir hatten ein leeres Glas und unsererseits nichts, um es zu füllen! Deshalb haben wir alles angenommen, was uns jemand anbot; so wurde unser Glas gefüllt; so haben wir unseren öffentlichen Dienst reformiert. — (Früherer Berater der IARCSC, persönliches Interview, August 2015) Wie und unter welchen Umständen wurden die Reformen des öffentlichen Dienstes in Afghanistan nach Ende der Taliban Zeit initiiert? Was waren die Ziele der Reformen und in welchem Maß wurden sie erreicht? Wer waren die führenden in- und ausländischen Akteure, die am Prozess beteiligt waren? Welche spezifischen Faktoren haben den Erfolg und Misserfolg der Reform des öffentlichen Dienstes Afghanistans seit 2002 beeinflusst? Diesen grundlegenden Fragen folgend, zeichnet diese Forschungsarbeit den verhängnisvollen Prozess der Reform des afghanischen öffentlichen Dienstes in einem Umfeld nach, in dem eine Vielzahl kontextueller, programmatischer und externer Faktoren die Ausgestaltung und Umsetzung der Reformen beeinflussten, die ausschließlich von internationalen Gemeinschaft finanziert und technisch unterstützt wurden. Die qualitative Untersuchung konzentriert sich auf drei Komponenten der Reform – Einstellung, Vergütung und Bewertung der Beamtinnen und Beamten – und liefert ein detailliertes Bild über den öffentlichen Dienst vor der Reform und der Hauptentwicklungen im Personalwesen in der Vergangenheit. Nach einer Diskussion über Inhalt und Zweck der wichtigsten Reformprogramme, zeigt die Studie das Ausmaß der Veränderungen in Politik und Praxis auf, indem sie die Ergebnisse und Auswirkungen der Reformen untersucht. Darüber hinaus definiert die Studie spezifische Faktoren, die dazu geführt haben, dass die meisten der angestrebten Reformziele nicht erreicht wurden. Dabei untersucht und erklärt sie, wie ein überwältigender Einfluss der internationalen Akteure mit widersprüchlichen Interessen zusammenwirkte mit großangelegter Korruption, politischer Einflussnahme, Netzwerken von Klientelismus, institutionalisiertem Nepotismus, kulturell akzeptierter Vetternwirtschaft und weit verbreiteter ethnischer Patronage. Dieses sehr komplexe Umfeld verhinderte grundlegende Reformen und die Transformation eines patrimonialen öffentlichen Dienstes in einen professionellen, leistungsorientierten öffentlichen Dienst in Afghanistan. KW - public administration KW - civil service reform KW - public administration reform KW - fragile and conflict-affected states KW - governance KW - international cooperation KW - Verwaltung KW - Reform des Öffentlichen Dienstes KW - Verwaltungsreform KW - fragile und konfliktbeladene Staaten KW - Governance KW - internationale Zusammenarbeit Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-444738 ER - TY - THES A1 - Michalczyk, Anna T1 - Modelling of nitrogen cycles in intensive winter wheat–summer maize double cropping systems in the North China Plain T1 - Modellierung von Stickstoffkreisläufen in intensiven Winterweizen–Sommermais-Doppelfruchtfolgen in der Nordchinesischen Tiefebene BT - site specific optimisation of nitrogen fertilisation with regard to nitrogen losses, water protection, productivity and regionalisation N2 - The North China Plain (NCP) is one of the most productive and intensive agricultural regions in China. High doses of mineral nitrogen (N) fertiliser, often combined with flood irrigation, are applied, resulting in N surplus, groundwater depletion and environmental pollution. The objectives of this thesis were to use the HERMES model to simulate the N cycle in winter wheat (Triticum aestivum L.)–summer maize (Zea mays L.) double crop rotations and show the performance of the HERMES model, of the new ammonia volatilisation sub-module and of the new nitrification inhibition tool in the NCP. Further objectives were to assess the models potential to save N and water on plot and county scale, as well as on short and long-term. Additionally, improved management strategies with the help of a model-based nitrogen fertiliser recommendation (NFR) and adapted irrigation, should be found. Results showed that the HERMES model performed well under growing conditions of the NCP and was able to describe the relevant processes related to soil–plant interactions concerning N and water during a 2.5 year field experiment. No differences in grain yield between the real-time model-based NFR and the other treatments of the experiments on plot scale in Quzhou County could be found. Simulations with increasing amounts of irrigation resulted in significantly higher N leaching, higher N requirements of the NFR and reduced yields. Thus, conventional flood irrigation as currently practised by the farmers bears great uncertainties and exact irrigation amounts should be known for future simulation studies. In the best-practice scenario simulation on plot-scale, N input and N leaching, but also irrigation water could be reduced strongly within 2 years. Thus, the model-based NFR in combination with adapted irrigation had the highest potential to reduce nitrate leaching, compared to farmers practice and mineral N (Nmin)-reduced treatments. Also the calibrated and validated ammonia volatilisation sub-module of the HERMES model worked well under the climatic and soil conditions of northern China. Simple ammonia volatilisation approaches gave also satisfying results compared to process-oriented approaches. During the simulation with Ammonium sulphate Nitrate with nitrification inhibitor (ASNDMPP) ammonia volatilisation was higher than in the simulation without nitrification inhibitor, while the result for nitrate leaching was the opposite. Although nitrification worked well in the model, nitrification-born nitrous oxide emissions should be considered in future. Results of the simulated annual long-term (31 years) N losses in whole Quzhou County in Hebei Province were 296.8 kg N ha−1 under common farmers practice treatment and 101.7 kg N ha−1 under optimised treatment including NFR and automated irrigation (OPTai). Spatial differences in simulated N losses throughout Quzhou County, could only be found due to different N inputs. Simulations of an optimised treatment, could save on average more than 260 kg N ha−1a−1 from fertiliser input and 190 kg N ha−1a−1 from N losses and around 115.7 mm a−1 of water, compared to farmers practice. These long-term simulation results showed lower N and water saving potential, compared to short-term simulations and underline the necessity of long-term simulations to overcome the effect of high initial N stocks in soil. Additionally, the OPTai worked best on clay loam soil except for a high simulated denitrification loss, while the simulations using farmers practice irrigation could not match the actual water needs resulting in yield decline, especially for winter wheat. Thus, a precise adaption of management to actual weather conditions and plant growth needs is necessary for future simulations. However, the optimised treatments did not seem to be able to maintain the soil organic matter pools, even with full crop residue input. Extra organic inputs seem to be required to maintain soil quality in the optimised treatments. HERMES is a relatively simple model, with regard to data input requirements, to simulate the N cycle. It can offer interpretation of management options on plot, on county and regional scale for extension and research staff. Also in combination with other N and water saving methods the model promises to be a useful tool. N2 - Die Nordchinesische Tiefebene (NCP) ist eine der produktivsten und intensivsten Agrarregionen Chinas. Große Düngermengen an mineralischem Stickstoff (N) und der oft in Kombination genutzten Überflutungsbewässerung führen zu Stickstoffüberflüssen, Grundwasserabsenkung und Umweltverschmutzung. Ziel dieser Arbeit war die Simulation des N-Kreislaufes in Winterweizen (Triticum aestivum L.)–Sommermais (Zea mays L.) -Doppelfruchtfolgen mit dem HERMES Modell. Weitere Ziele waren ein Test der Modellgüte, sowie das Potential des Modells aufzuzeigen, N und Wasser mit Hilfe einer modellbasierten N-Düngeempfehlung (NFR) und angepassten Bewässerungsstrategien einzusparen. Dies erfolgte auf Schlag- und Countyebene wie auch in Kurzzeit- und in Langzeitsimulationen, um verbesserte Managementstrategien für Quzhou-County in der Hebei-Provinz zu finden. Die Ergebnisse zeigten, dass das HERMES Modell gut unter den Wachstumsbedingungen der NCP funktioniert und alle relevanten Boden-Pflanze-Interaktionen während der Versuchszeit von 2,5 Jahren in Bezug auf N und Wasser beschreiben konnte. Es konnten keine Ertragsunterschiede zwischen Echtzeit modellbasierter NFR und anderen Behandlungen auf Schlagebene in Quzhou-County festgestellt werden. Simulationen mit steigenden Bewässerungsgaben ergaben signifikant höheren N-Austrag, höheren N-Bedarf der NFR und reduzierte Erträge. Daher birgt die konventionelle Überflutungsbewässerung, wie sie derzeit von den Landwirten praktiziert wird, große Unsicherheiten und genaue Bewässerungsmengen sollten für zukünftige Simulationsstudien bekannt sein. In der optimierten („best-practice“) Szenariosimulation auf Schlagebene konnte insbesondere die N-Düngung und der N-Austrag, aber auch die Bewässerung innerhalb 2 Jahre stark gesenkt werden. Daher hat die modellbasierte NFR in Kombination mit angepasster Bewässerung, im Gegensatz zu konventioneller und mineralischen N (Nmin)-reduzierter Behandlung, das höchste Potential Nitratauswaschung zu reduzieren. Auch das kalibrierte und validierte Ammoniak-Verflüchtigungs-modul des HERMES Modells funktionierte gut unter den Klima- und Bodenverhältnissen in Nordchina. Die zwei einfacheren Ammoniak-Verflüchtigungsansätze erreichten auch gute Ergebnisse, während die zwei prozessorientierten Ansätze Umwelteinflüsse besser darstellen konnten. In der Simulation mit der Ammonsulfatsalpeter-Düngung mit Nitrifikationsinhibitor (ASNDMPP) war die Ammoniakverflüchtigung höher als in der Simulation ohne Nitrifikationshemmer, während das Ergebnis für Nitratauswaschung umgekehrt war. Obwohl der Nitrifikationsansatz gut funktionierte, sollten von der Nitrifikation stammende Lachgasemissionen in Zukunft im Modell berücksichtigt werden. Im Jahresdurchschnitt lagen die simulierten Langzeit (31 Jahre) N-Verluste für eine Weizen-Mais-Doppelfruchtfolge im ganzen Quzhou-County bei 296,8 kg N ha−1 unter konventioneller Düngung und bei 101,7 kg N ha−1 unter optimierter Düngung inklusive NFR and automatischer Bewässerung (OPTai). Räumliche Unterschiede von simulierten N-Verlusten in Quzhou-County konnten nur aufgrund von unterschiedlichen N-Düngemengen gefunden werden. Simulationen einer optimierten Behandlung konnten im Durchschnitt mehr als 260 kg N ha−1a−1 an N-Düngung und 190 kg N ha−1a−1 an N-Verlusten und 115,7 mm a−1 an Wasser, im Vergleich zur konventionellen Behandlung, einsparen. Im Vergleich zu den Kurzzeitsimulationen ist es ein niedrigeres N- und Wasserreduktionspotential und unterstreicht die Notwendigkeit von Langzeitsimulationen um den Effekt von hohen Anfangs Nmin-Gehalten im Boden zu berücksichtigen. Zudem kommt, dass auf tonigem Lehm Simulationen mit konventioneller Bewässerung nicht den aktuellen Wasserbedarf decken konnten, welches zu Ertragseinbußen insbesondere für Winterweizen führte. Die OPTai Behandlung funktionierte bis auf hohe simulierte Denitrifikationsverluste auf diesem Standort am besten. Daher ist dort für zukünftige Simulationen ein an aktuelle Wetterverhältnisse und Pflanzenwachstumsbedürfnisse angepasstes Management von N und Wasser nötig. Trotzdem schienen die optimierten Behandlungen, trotz voller Strohrückgabe, die organische Bodensubstanz nicht zu erhalten. Zur Sicherung der Bodenfruchtbarkeit in den optimierten Behandlungen scheinen zusätzliche organische Düngergaben wahrscheinlich notwendig zu sein. HERMES ist ein relativ einfaches Modell, im Hinblick auf die Anforderungen an die Eingangsdaten, um den Stickstoffkreislauf zu simulieren. Es ermöglicht, Managementoptionen für Berater und Wissenschaftler auf Schlag-, County- und Regionalebene anzuwenden. Auch in Kombination mit anderen N- und Wasser-Einsparmethoden verspricht das Modell ein nützliches Instrument zu sein. KW - nitrogen KW - Stickstoff KW - simulation KW - Simulation KW - China KW - China Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-444213 ER - TY - THES A1 - Grafe, Marianne Erika T1 - Analysis of supramolecular assemblies of NE81, the first lamin protein in a non-metazoan organism T1 - Analyse von supramolekularen Komplexen von NE81, dem ersten Lamin in einem nicht-metazoischen Organismus N2 - Lamine sind Proteine an der inneren Kernhülle und bilden zusammen mit verbundenen Proteinen die nukleäre Lamina. Dieses Netzwerk sorgt für die Stabilität des Zellkerns und unterstützt die Organisation des Zell-Zytoskeletts. Zusätzlich sind Lamine und ihre verbundenen Proteine in viele Prozesse wie Genregulation und Zelldifferenzierung involviert. Bis 2012 war der Stand der Forschung, dass nur bei mehrzelligen Organismen eine nukleäre Lamina zu finden ist. NE81 ist das erste lamin-ähnliche Protein, das in einem nicht-mehrzelligen Organismus (Dictyostelium discoideum) entdeckt wurde. Es hat viele Eigenschaften und Strukturmerkmale mit Laminen gemeinsam. Dazu zählt der dreiteilige Aufbau des Proteins, eine Phosphorylierungsstelle für ein Zellzyklus-abhängiges Enzym, ein Kernlokalisationssignal, wodurch das Protein in den Kern transportiert wird, sowie eine C-terminale Sequenz zur Verankerung des Proteins in der Kernhülle. In dieser Arbeit wurden verschiedene Methoden zur vereinfachten Untersuchung von Laminstrukturen getestet, um zu zeigen, dass sich NE81 wie bereits bekannte Lamin-Proteine verhält und supramolekulare Netzwerke aus Laminfilamenten bildet. Zur Analyse der Struktur supramolekularer Anordnungen wurde das Protein durch Entfernen des Kernlokalisationssignals auf der äußeren Kernhülle von Dictyostelium gebildet. Die anschließende Untersuchung der Oberfläche der Kerne mit einem Rasterelektronenmikroskop zeigte, dass NE81 Strukturen in der Größe von Laminen bildet, allerdings nicht in regelmäßigen filamentösen Anordnungen. Um die Entstehung der Laminfilamente zu untersuchen, wurde lösliches NE81 aus Dictyostelium aufgereinigt und mit verschiedenen mikroskopischen Methoden untersucht. Dabei wurde festgestellt, dass NE81 unter Niedrigsalz-Bedingungen dünne, fadenförmige Strukturen und Netzwerke ausbildet, die denen von Säugetier-Laminen sehr ähnlich sind. Die Mutation der Phosphorylierungsstelle von NE81 zu einer imitierenden dauerhaften Phosphorylierung von NE81 in der Zelle, zeigte zunächst ein gelöstes Protein, das überraschenderweise unter Blaulichtbestrahlung der Zelle wieder lamin-ähnliche Anordnungen formte. Die Ergebnisse dieser Arbeit zeigen, dass NE81 echte Laminstrukturen ausbilden kann und hebt Dictyostelium als Nicht-Säugetier-Modellorganismus mit einer gut charakterisierten Kernhülle, mit allen relevanten, aus tierischen Zellen bekannten Proteinen, hervor. N2 - Nuclear lamins are nucleus-specific intermediate filaments forming a network located at the inner nuclear membrane of the nuclear envelope. They form the nuclear lamina together with proteins of the inner nuclear membrane regulating nuclear shape and gene expression, among others. The amoebozoan Dictyostelium NE81 protein is a suitable candidate for an evolutionary conserved lamin protein in this non-metazoan organism. It shares the domain organization of metazoan lamins and is fulfilling major lamin functions in Dictyostelium. Moreover, field-emission scanning electron microscopy (feSEM) images of NE81 expressed on Xenopus oocytes nuclei revealed filamentous structures with an overall appearance highly reminiscent to that of metazoan Xenopus lamin B2. For the classification as a lamin-like or a bona fide lamin protein, a better understanding of the supramolecular NE81 structure was necessary. Yet, NE81 carrying a large N-terminal GFP-tag turned out as unsuitable source for protein isolation and characterization; GFP-NE81 expressed in Dictyostelium NE81 knock-out cells exhibited an abnormal distribution, which is an indicator for an inaccurate assembly of GFP-tagged NE81. Hence, a shorter 8×HisMyc construct was the tag of choice to investi-gate formation and structure of NE81 assemblies. One strategy was the structural analysis of NE81 in situ at the outer nuclear membrane in Dictyostelium cells; NE81 without a func-tional nuclear localization signal (NLS) forms assemblies at the outer face of the nucleus. Ultrastructural feSEM pictures of NE81ΔNLS nuclei showed a few filaments of the expected size but no repetitive filamentous structures. The former strategy should also be established for metazoan lamins in order to facilitate their structural analysis. However, heterologously expressed Xenopus and C. elegans lamins showed no uniform localization at the outer nucle-ar envelope of Dictyostelium and hence, no further ultrastructural analysis was undertaken. For in vitro assembly experiments a Dictyostelium mutant was generated, expressing NE81 without the NLS and the membrane-anchoring isoprenylation site (HisMyc-NE81ΔNLSΔCLIM). The cytosolic NE81 clusters were soluble at high ionic strength and were purified from Dictyostelium extracts using Ni-NTA Agarose. Widefield immunofluorescence microscopy, super-resolution light microscopy and electron microscopy images of purified NE81 showed its capability to form filamentous structures at low ionic strength, as described previously for metazoan lamins. Introduction of a phosphomimetic point mutation (S122E) into the CDK1-consensus sequence of NE81 led to disassembled NE81 protein in vivo, which could be reversibly stimulated to form supramolecular assemblies by blue light exposure. The results of this work reveal that NE81 has to be considered a bona fide lamin, since it is able to form filamentous assemblies. Furthermore, they highlight Dictyostelium as a non-mammalian model organism with a well-characterized nuclear envelope containing all rele-vant protein components known in animal cells. KW - lamin KW - NE81 KW - Dictyostelium KW - nuclear envelope KW - nuclear lamina KW - expansion microscopy KW - Lamin KW - NE81 KW - Dictyostelium KW - Kernhülle KW - nukleäre Lamina KW - Expansions-Mikroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441802 ER - TY - THES A1 - Ehrlich, Elias T1 - On the role of trade-offs in predator-prey interactions T1 - Trade-offs und ihre Bedeutung in Räuber-Beute Interaktionen N2 - Predation drives coexistence, evolution and population dynamics of species in food webs, and has strong impacts on related ecosystem functions (e.g. primary production). The effect of predation on these processes largely depends on the trade-offs between functional traits in the predator and prey community. Trade-offs between defence against predation and competitive ability, for example, allow for prey speciation and predator-mediated coexistence of prey species with different strategies (defended or competitive), which may stabilize the overall food web dynamics. While the importance of such trade-offs for coexistence is widely known, we lack an understanding and the empirical evidence of how the variety of differently shaped trade-offs at multiple trophic levels affect biodiversity, trait adaptation and biomass dynamics in food webs. Such mechanistic understanding is crucial for predictions and management decisions that aim to maintain biodiversity and the capability of communities to adapt to environmental change ensuring their persistence. In this dissertation, after a general introduction to predator-prey interactions and tradeoffs, I first focus on trade-offs in the prey between qualitatively different types of defence (e.g. camouflage or escape behaviour) and their costs. I show that these different types lead to different patterns of predator-mediated coexistence and population dynamics, by using a simple predator-prey model. In a second step, I elaborate quantitative aspects of trade-offs and demonstrates that the shape of the trade-off curve in combination with trait-fitness relationships strongly affects competition among different prey types: Either specialized species with extreme trait combinations (undefended or completely defended) coexist, or a species with an intermediate defence level dominates. The developed theory on trade-off shapes and coexistence is kept general, allowing for applications apart from defence-competitiveness trade-offs. Thirdly, I tested the theory on trade-off shapes on a long-term field data set of phytoplankton from Lake Constance. The measured concave trade-off between defence and growth governs seasonal trait changes of phytoplankton in response to an altering grazing pressure by zooplankton, and affects the maintenance of trait variation in the community. In a fourth step, I analyse the interplay of different tradeoffs at multiple trophic levels with plankton data of Lake Constance and a corresponding tritrophic food web model. The results show that the trait and biomass dynamics of the different three trophic levels are interrelated in a trophic biomass-trait cascade, leading to unintuitive patterns of trait changes that are reversed in comparison to predictions from bitrophic systems. Finally, in the general discussion, I extract main ideas on trade-offs in multitrophic systems, develop a graphical theory on trade-off-based coexistence, discuss the interplay of intra- and interspecific trade-offs, and end with a management-oriented view on the results of the dissertation, describing how food webs may respond to future global changes, given their trade-offs. N2 - Trophische Interaktionen sind von entscheidender Bedeutung für die Biodiversität in Ökosystemen und die daran gekoppelten Ökosystemfunktionen (z.B. Primärproduktion, Nährstoffkreislauf). Außerdem beeinflussen sie die Evolution und Populationsdynamiken von Arten. Die Wirkungsweise von trophischen Interaktionen auf diese Prozesse hängt dabei von den Trade-offs ab, denen Räuber und Beute z.B. auf Grund physiologischer Beschränkungen unterliegen. Als Trade-off wird die Kosten-Nutzen-Beziehung zwischen zwei oder mehr funktionellen Eigenschaften eines Organismus bezeichnet, so zum Beispiel das Einhergehen einer höheren Verteidigung gegen Fraß mit einer geringeren Konkurrenzfähigkeit um Ressourcen. Solche Trade-offs zwischen Verteidigung und Konkurrenzfähigkeit ermöglichen die Koexistenz von Beutearten mit verschiedenen Strategien (verteidigt oder konkurrenzfähig), was sich stabilisierend auf die gesamten Dynamiken im Nahrungsnetz auswirken kann. Obwohl die Annahme weit verbreitet ist, dass Trade-offs die Koexistenz von Arten fördern, mangelt es am Verständnis und an empirischen Nachweisen, wie sich die Vielzahl unterschiedlich geformter Trade-offs von Arten verschiedener trophischer Ebenen auf die Biodiversität, die Anpassung von funktionellen Eigenschaften und die Biomassedynamik in Nahrungsnetzen auswirkt. Solch ein Verständnis ist jedoch entscheidend für die Vorhersagen und Managemententscheidungen bezüglich des Erhalts von Biodiversität, die das Anpassungspotential von Artengemeinschaften an zukünftige Veränderung in der Umwelt und damit das Überdauern von Artengemeinschaften langfristig sicherstellt. Die hier vorliegende Dissertation startet mit einer kurzen Einführung in die Rolle von Räuber-Beute-Beziehungen und Trade-offs in Ökosystemen. In einem ersten Schritt, lege ich den Fokus zunächst auf Trade-offs in Beutegemeinschaften zwischen qualitativ verschiedenen Verteidigungsmechanismen (z.B. Tarnung oder Fluchtverhalten) und -kosten, und zeige anhand von einfachen Räuber-Beute Modellen, wie sich diese Mechanismen hinsichtlich ihrer Wirkungsweise auf die Koexistenz und die Populationsdynamiken von Beutearten unterscheiden. Als Zweites konzentriert sich die Dissertation dann auf quantitative Aspekte der Trade-offs. So wird aufgezeigt, wie die Form der Trade-off-Kurve bei verschiedenen Beziehungen zwischen funktionellen Eigenschaften und der Fitness den Ausgang von Konkurrenzprozessen innerhalb von Beutegemeinschaften beeinflusst. Dabei kann es in Abhängigkeit von der Form der Trade-off-Kurve entweder zu Koexistenz von spezialisierten Arten kommen (unverteidigt oder komplett verteidigt) oder aber zur Dominanz einer Art mit mittlerer Verteidigung. Der dritte Schwerpunkt dieser Arbeit liegt dann auf dem Test der Theorie zur Trade-off-Kurve und Koexistenz anhand von Langzeitfelddaten des Phytoplanktons im Bodensee. Es zeigt sich hierbei, dass der gefundene konkave Trade-off zwischen Verteidung und Wachstumsrate in Kombination mit einem sich verändernden Fraßdruck durch das Zooplankton die Anpassung von funktionellen Eigenschaften und den Erhalt von Variation dieser Eigenschaften innerhalb der Phytoplanktongemeinschaft steuert. In einem vierten Schritt, analysiere ich das Zusammenspiel von Trade-offs auf mehreren trophischen Ebenen, basierend auf Phyto- und Zooplanktondaten aus dem Bodensee und einem dafür entwickelten tritrophischen Nahrungsnetzmodell. Die Ergebnisse zeigen, dass die Dynamiken der funktionellen Eigenschaften und Biomassen durch eine Kaskade über die drei trophischen Ebenen hinweg gekoppelt sind, die zu unintuitiven Mustern in den Anpassungen der funktionellen Eigenschaften zwischen den Ebenen führt. In der generellen Diskussion bringe ich \textit{abschließend} die Ideen zur Wirkung von Trade-offs in multitrophischen System in einen breiteren Kontext. Zudem entwickle ich eine generelle graphische Theorie zur Trade-off basierten Koexistenz in Abhängigkeit von der Fitnesslandschaft, diskutiere das mögliche Zusammenspiel von intra- und interspezifischen Trade-offs, und gebe schlussendlich einen Management-orientierten Einblick in die Relevanz der Ergebnisse dieser Dissertation für das Verhalten von Nahrungsnetzen im Zuge des Globalen Wandels unter der Wirkung von Trade-offs. KW - trade-offs between functional traits KW - predator-prey dynamics KW - food web KW - coexistence KW - trait variation KW - theoretical ecology KW - phytoplankton and zooplankton KW - Trade-offs zwischen funktionellen Eigenschaften KW - Räuber-Beute Dynamiken KW - Nahrungsnetz KW - Koexistenz KW - Variation in funktionellen Eigenschaften KW - theoretische Ökologie KW - Phytoplankton und Zooplankton Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430631 ER - TY - THES A1 - Raatz, Michael T1 - Strategies within predator-prey interactions – from individuals to ecosystems T1 - Strategien in Räuber-Beute Interaktionen – vom Individuum bis zum Ökosystem N2 - Predator-prey interactions provide central links in food webs. These interaction are directly or indirectly impacted by a number of factors. These factors range from physiological characteristics of individual organisms, over specifics of their interaction to impacts of the environment. They may generate the potential for the application of different strategies by predators and prey. Within this thesis, I modelled predator-prey interactions and investigated a broad range of different factors driving the application of certain strategies, that affect the individuals or their populations. In doing so, I focused on phytoplankton-zooplankton systems as established model systems of predator-prey interactions. At the level of predator physiology I proposed, and partly confirmed, adaptations to fluctuating availability of co-limiting nutrients as beneficial strategies. These may allow to store ingested nutrients or to regulate the effort put into nutrient assimilation. We found that these two strategies are beneficial at different fluctuation frequencies of the nutrients, but may positively interact at intermediate frequencies. The corresponding experiments supported our model results. We found that the temporal structure of nutrient fluctuations indeed has strong effects on the juvenile somatic growth rate of {\itshape Daphnia}. Predator colimitation by energy and essential biochemical nutrients gave rise to another physiological strategy. High-quality prey species may render themselves indispensable in a scenario of predator-mediated coexistence by being the only source of essential biochemical nutrients, such as cholesterol. Thereby, the high-quality prey may even compensate for a lacking defense and ensure its persistence in competition with other more defended prey species. We found a similar effect in a model where algae and bacteria compete for nutrients. Now, being the only source of a compound that is required by the competitor (bacteria) prevented the competitive exclusion of the algae. In this case, the essential compounds were the organic carbon provided by the algae. Here again, being indispensable served as a prey strategy that ensured its coexistence. The latter scenario also gave rise to the application of the two metabolic strategies of autotrophy and heterotrophy by algae and bacteria, respectively. We found that their coexistence allowed the recycling of resources in a microbial loop that would otherwise be lost. Instead, these resources were made available to higher trophic levels, increasing the trophic transfer efficiency in food webs. The predation process comprises the next higher level of factors shaping the predator-prey interaction, besides these factors that originated from the functioning or composition of individuals. Here, I focused on defensive mechanisms and investigated multiple scenarios of static or adaptive combinations of prey defense and predator offense. I confirmed and extended earlier reports on the coexistence-promoting effects of partially lower palatability of the prey community. When bacteria and algae are coexisting, a higher palatability of bacteria may increase the average predator biomass, with the side effect of making the population dynamics more regular. This may facilitate experimental investigations and interpretations. If defense and offense are adaptive, this allows organisms to maximize their growth rate. Besides this fitness-enhancing effect, I found that co-adaptation may provide the predator-prey system with the flexibility to buffer external perturbations. On top of these rather internal factors, environmental drivers also affect predator-prey interactions. I showed that environmental nutrient fluctuations may create a spatio-temporal resource heterogeneity that selects for different predator strategies. I hypothesized that this might favour either storage or acclimation specialists, depending on the frequency of the environmental fluctuations. We found that many of these factors promote the coexistence of different strategies and may therefore support and sustain biodiversity. Thus, they might be relevant for the maintenance of crucial ecosystem functions that also affect us humans. Besides this, the richness of factors that impact predator-prey interactions might explain why so many species, especially in the planktonic regime, are able to coexist. N2 - Organismen interagieren miteinander und mit ihrer Umwelt. Innerhalb dieses Netzwerks von Interaktionen sind Fraßbeziehungen zwischen Räubern und ihrer Beute von zentraler Bedeutung. Sie werden auf verschiedenen Ebenen von unterschiedlichen Faktoren beeinflusst, was zur Ausprägung von diversen Strategien von Räuber oder Beute führen kann. Diese Faktoren und die Strategien die sie hervor bringen sind Gegenstand dieser Doktorarbeit. In mehreren Modellierungsstudien habe ich vielseitige Faktoren untersucht, die sich dem Aufbau einzelner Organismen, Verteidigungs- und Angriffsmechanismen sowie Umwelteinflüssen zuordnen lassen. Dabei konzentrierte ich mich auf ein etabliertes Modellsystem zur Erforschung von Räuber-Beute-Dynamiken und untersuchte die Fraßbeziehung zwischen Phytoplankton als Beute und Zooplankton als Räuber. Ich fand heraus, dass die Bereitstellung von essentiellen Ressourcen für Konkurrenten oder Räuber eine Strategie sein kann, mit der Beutearten sich vor dem Aussterben schützen können. Auch die direkte Verteidigung gegen den Räuber ist eine häufige Strategie zur Verringerung des Fraßdrucks und kann ebenfalls Koexistenz fördern. Für anpassungsfähige Verteidigung der Beute und Angriffsstärke des Räubers konnte ich zeigen, dass dies sowohl die Fitness erhöhen, als auch die Robustheit der Räuber-Beute-Dynamiken gegen äußere Störungen erhöhen kann. Weiterhin fand ich heraus, dass physiologische Anpassungsmechanismen wie Speicherung oder anpassungsfähige Aufnahme von Nährstoffen die Wachstumsrate des Räubers verbessern können, wenn die Qualität der verfügbaren Beute in der Umwelt des Räubers fluktuiert. Viele der Strategien, die ich in dieser Arbeit herausgestellt habe, können die Koexistenz von verschiedenen Arten fördern und damit zu erhöhter Biodiversität beitragen, welche wiederum entscheidend ist für die Stabilität von Ökosystemen und deren Nutzbarkeit. KW - predator-prey KW - biodiversity KW - modelling KW - Räuber-Beute KW - Biodiversität KW - Modellierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426587 ER - TY - THES A1 - Kerutt, Josephine Victoria T1 - The high-redshift voyage of Lyman alpha and Lyman continuum emission as told by MUSE T1 - Die Reise der Lyman alpha- und Lyman Kontinuumsemission bei hoher Rotverschiebung erzählt von MUSE N2 - Most of the matter in the universe consists of hydrogen. The hydrogen in the intergalactic medium (IGM), the matter between the galaxies, underwent a change of its ionisation state at the epoch of reionisation, at a redshift roughly between 6>z>10, or ~10^8 years after the Big Bang. At this time, the mostly neutral hydrogen in the IGM was ionised but the source of the responsible hydrogen ionising emission remains unclear. In this thesis I discuss the most likely candidates for the emission of this ionising radiation, which are a type of galaxy called Lyman alpha emitters (LAEs). As implied by their name, they emit Lyman alpha radiation, produced after a hydrogen atom has been ionised and recombines with a free electron. The ionising radiation itself (also called Lyman continuum emission) which is needed for this process inside the LAEs could also be responsible for ionising the IGM around those galaxies at the epoch of reionisation, given that enough Lyman continuum escapes. Through this mechanism, Lyman alpha and Lyman continuum radiation are closely linked and are both studied to better understand the properties of high redshift galaxies and the reionisation state of the universe. Before I can analyse their Lyman alpha emission lines and the escape of Lyman continuum emission from them, the first step is the detection and correct classification of LAEs in integral field spectroscopic data, specifically taken with the Multi-Unit Spectroscopic Explorer (MUSE). After detecting emission line objects in the MUSE data, the task of classifying them and determining their redshift is performed with the graphical user interface QtClassify, which I developed during the work on this thesis. It uses the strength of the combination of spectroscopic and photometric information that integral field spectroscopy offers to enable the user to quickly identify the nature of the detected emission lines. The reliable classification of LAEs and determination of their redshifts is a crucial first step towards an analysis of their properties. Through radiative transfer processes, the properties of the neutral hydrogen clouds in and around LAEs are imprinted on the shape of the Lyman alpha line. Thus after identifying the LAEs in the MUSE data, I analyse the properties of the Lyman alpha emission line, such as the equivalent width (EW) distribution, the asymmetry and width of the line as well as the double peak fraction. I challenge the common method of displaying EW distributions as histograms without taking the limits of the survey into account and construct a more independent EW distribution function that better reflects the properties of the underlying population of galaxies. I illustrate this by comparing the fraction of high EW objects between the two surveys MUSE-Wide and MUSE-Deep, both consisting of MUSE pointings (each with the size of one square arcminute) of different depths. In the 60 MUSE-Wide fields of one hour exposure time I find a fraction of objects with extreme EWs above EW_0>240A of ~20%, while in the MUSE-Deep fields (9 fields with an exposure time of 10 hours and one with an exposure time of 31 hours) I find a fraction of only ~1%, which is due to the differences in the limiting line flux of the surveys. The highest EW I measure is EW_0 = 600.63 +- 110A, which hints at an unusual underlying stellar population, possibly with a very low metallicity. With the knowledge of the redshifts and positions of the LAEs detected in the MUSE-Wide survey, I also look for Lyman continuum emission coming from these galaxies and analyse the connection between Lyman continuum emission and Lyman alpha emission. I use ancillary Hubble Space Telescope (HST) broadband photometry in the bands that contain the Lyman continuum and find six Lyman continuum leaker candidates. To test whether the Lyman continuum emission of LAEs is coming only from those individual objects or the whole population, I select LAEs that are most promising for the detection of Lyman continuum emission, based on their rest-frame UV continuum and Lyman alpha line shape properties. After this selection, I stack the broadband data of the resulting sample and detect a signal in Lyman continuum with a significance of S/N = 5.5, pointing towards a Lyman continuum escape fraction of ~80%. If the signal is reliable, it strongly favours LAEs as the providers of the hydrogen ionising emission at the epoch of reionisation and beyond. N2 - Die Materie zwischen den Galaxien im Universum, das sogenannte intergalaktische Medium, besteht zum größten Teil aus Wasserstoff, welcher sich zusammensetzt aus einem Proton und einem Elektron. Etwa ~10^8 Jahre nach dem Urknall änderte sich der Ionisationszustand des Wasserstoffs im intergalaktischen Medium. Durch Strahlung wurden Proton und Elektronen getrennt, der Wasserstoff wurde ionisiert. Die Strahlung mit der nötigen Energie um Wasserstoff zu ionisieren nennt man Lyman Kontinuum Strahlung. Woher diese stammt ist bis heute eine offene Frage. In der vorliegenden Arbeit diskutiere ich die wahrscheinlichsten Kandidaten für die Emission dieser ionisierenden Strahlung: die Lyman alpha Emitter (LAE), eine Gruppe von Galaxien die man im frühen Universum antrifft. Hat nämlich ein Lyman Kontinuum Photon ein Wasserstoffatom ionisiert, kommt es häufig vor, dass sich Proton und Elektron wieder zu einem neutralen Wasserstoffatom verbinden. Bei diesem Prozess wird dann ein Lyman alpha Photon freigesetzt, was den LAE ihren Namen gibt. Da wir in den Spektren dieser Galaxien die Lyman alpha Photonen beobachten können, deren Voraussetzung die Existenz von Lyman Kontinuum Emission in der Galaxie ist, liegt es nahe anzunehmen, dass die Lyman Kontinuum Emission auch in das intergalaktische Medium vordringen kann um den Wasserstoff dort ebenfalls zu ionisieren. Durch diesen Mechanismus sind Lyman alpha und Lyman-Kontinuumsstrahlung eng miteinander verbunden und werden in dieser Arbeit beide untersucht, um die Eigenschaften von Galaxien im frühen Universum und den Zustand des Wasserstoffs im intergalaktischen Medium besser zu verstehen. Der erste Schritt ist jedoch die Detektion und korrekte Klassifizierung von LAE. Dafür benutze ich Daten des Multi-Unit Spectroscopic Explorer (MUSE), ein Instrument mit dem Beobachtungen möglich sind, die zwei räumliche Dimensionen mit einer spektralen Dimension verbinden. Somit ist in jedem Pixel der Daten ein Spektrum zur Verfügung, in dem nach Emissionslinien gesucht werden kann. Nach der Detektion von Emissionslinien in den MUSE-Daten wird die Aufgabe der Klassifizierung von der grafischen Benutzeroberfläche QtClassify unterstützt, die ich in dieser Arbeit entwickelt habe. Sie bietet dem Benutzer eine schnelle und übersichtliche Identifizierung der gefundenen Emissionslinien, was einen entscheidenden ersten Schritt zur Analyse der Eigenschaften der LAE darstellt. Da Lyman alpha Photonen in neutralem Wasserstoff, der im Inneren von Galaxien in Gaswolken vorkommt, gestreut wird, verändert sich die Form der Lyman alpha Emissionslinie im Spektrum. Nachdem also die LAE mit Hilfe von QtClassify identifiziert werden konnten, analysiere ich die Lyman alpha Linie hinsichtlich ihrer Breite, ihrer Symmetrie und ihrer Stärke und suche nach Doppellinien, die Hinweise auf die Kinematik der Wasserstoff Gaswolken geben. Besonders wichtig dabei ist die Stärke der Linie im Vergleich zum restlichen Spektrum, die sogenannte Äquivalentbreite. Dabei zeige ich, dass die übliche Methode die Verteilung der Äquivalentbreiten als Histogramme darzustellen ohne die Detektionsgrenzen der Beobachtungen miteinzubeziehen keine Aussage über die Eigenschaften der LAE, sondern lediglich über die Grenzen der Beobachtungen treffen. Daher konstruiere ich eine unabhängigere Verteilungsfunktion, die diese Grenzen mit einbezieht. Ich verdeutliche dies durch einen Vergleich des Anteils von Objekten mit hoher Äquivalentbreite in zwei verschiedenen Datensätzen, die auf Beobachtungen mit unterschiedlicher Belichtungszeit beruhen. Dabei finde ich in dem Datensatz mit der kürzeren Belichtungszeit einen Anteil von ~20% an Objekten mit hohen Äquivalentbreiten (über >240A) und nur ~1% im Datensatz mit der zehnfach längeren Belichtungszeit obwohl die Eigenschaften der LAE gleich sind. Zudem finde ich eine Galaxie mit einer Äquivalentbreite der Lyman alpha Linie von 600 +- 110A, was auf eine ungewöhnliche Sternpopulation hindeutet. Als letzten Schritt suche ich in den klassifizierten LAE nach Lyman Kontinuum, was für die Ionisierung des Wasserstoffs im intergalaktischen Medium verantwortlich ist, und untersuche den Zusammenhang zwischen der Lyman alpha und der Lyman Kontinuumsstrahlung. Um das Lyman Kontinuum detektieren zu können benutze ich Daten des Hubble-Weltraumteleskops (HST) und finde sechs Lyman Kontinuum Kandidaten unter den LAE. Um zu testen ob die Lyman Kontinuumsstrahlung lediglich von diesen Objekten ausgeht oder auch im der Gesamtheit der LAE zu finden ist, addiere ich die Daten des HST und finde ein Signal, was darauf hindeutet, dass ~80% der Lyman Kontinuumsstrahlung aus den Galaxien entkommen und in das intergalaktische Medium vordringen kann. Wenn das gefundene Signal zuverlässig ist deutet es darauf hin, dass in der Tat LAE für die Ionisierung des Wasserstoffs im Universum verantwortlich sein könnten. KW - astronomy KW - LAEs KW - reionization KW - Lyman alpha KW - Lyman continuum KW - VLT/MUSE KW - emission line classification KW - QtClassify KW - LAEs KW - Lyman alpha KW - Lyman Kontinuum KW - QtClassify KW - VLT/MUSE KW - Astronomie KW - Emissionslinienklassifikation KW - Reionisierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-478816 ER - TY - THES A1 - Kagel, Heike T1 - Light-induced pH cycle T1 - Licht-induzierte pH- Steuerung BT - a non-invasive method to control biochemical reactions BT - eine nicht-invasive Methode zur Kontrolle biochemischer Reaktionen N2 - Background Many biochemical reactions depend on the pH of their environment and some are strongly accelerated in an acidic surrounding. A classical approach to control biochemical reactions non-invasivly is by changing the temperature. However, if the pH could be controlled by optical means using photo-active chemicals, this would mean to be able to accelerate suitable biochemical reactions. Optically switching the pH can be achieved by using photoacids. A photoacid is a molecule with a functional group that releases a proton upon irradiation with the suitable wavelength, acidifying the environmental aqueous surrounding. A major goal of this work was to establish a non-invasive method of optically controlling the pH in aqueous solutions, offering the opportunity to enhance the known chemical reactions portfolio. To demonstrate the photo-switchable pH cycling we chose an enzymatic assay using acid phosphatase, which is an enzyme with a strong pH dependent activity. Results In this work we could demonstrate a light-induced, reversible control of the enzymatic activity of acid phosphatase non-invasivly. To successfully conduct those experiments a high power LED array was designed and built, suitable for a 96 well standard microtiter plate, not being commercially available. Heat management and a lateral ventilation system to avoid heat accumulation were established and a stable light intensity achieved. Different photoacids were characterised and their pH dependent absorption spectra recorded. By using the reversible photoacid G-acid as a proton donor, the pH can be changed reversibly using high power UV 365 nm LEDs. To demonstrate the pH cycling, acid phosphatase with hydrolytic activity under acidic conditions was chosen. An assay using the photoacid together with the enzyme was established, also providing that G-acid does not inhibit acid phosphatase. The feasibility of reversibly regulating the enzyme’s pH dependent activity by optical means was demonstrated, by controlling the enzymatic activity with light. It was demonstrated that the enzyme activity depends on the light exposure time only. When samples are not illuminated and left in the dark, no enzymatic activity was recorded. The process can be rapidly controlled by simply switching the light on and off and should be applicable to a wide range of enzymes and biochemical reactions. Conclusions Reversible photoacids offer a light-dependent regulation of pH, making them extremely attractive for miniaturizable, non-invasive and time-resolved control of biochemical reactions. Many enzymes have a sharp pH dependent activity, thus the established setup in this thesis could be used for a versatile enzyme portfolio. Even though the demonstrated photo-switchable strategy could also be used for non-enzymatic assays, greatly facilitating the assay establishment. Photoacids have the potential for high throughput methods and automation. We demonstrated that it is possible to control photoacids using commonly available LEDs, making their use in highly integrated devices and instruments more attractive. The successfully designed 96 well high power UV LED array presents an opportunity for general combinatorial analysis in e.g. photochemistry, where a high light intensity is needed for the investigation of various reactions. N2 - Hintergrund Viele biochemische Reaktionen hängen vom pH-Wert ihrer Umgebung ab. Einige werden in einer sauren Umgebung stark beschleunigt. Ein klassischer Kontrollansatz nicht-invasiver biochemischer Reaktionen stellt die Änderung der Temperatur dar. Wenn jedoch der pH-Wert durch photoaktiven Chemikalien optisch gesteuert werden könnte, wäre es möglich geeignete biochemische Reaktionen zu beschleunigen. Die optische Steuerung des pH-Wertes kann durch die Verwendung von Photosäuren erfolgen. Eine Photosäure ist ein Molekül mit einer funktionellen Gruppe, welche bei Bestrahlung mit der geeigneten Wellenlänge ein Proton freisetzt und somit wässrige Umgebung ansäuert. Ein Hauptziel dieser Arbeit war es, eine nicht-invasive Methode zu etablieren und ein Verfahren zur optischen Kontrolle des pH-Wertes in wässrigen Lösungen zu entwickeln und somit das Portfolio biochemischer Reaktionen zu erweitern. Zur Demonstration der optischen Kontrolle des pH-Wertes wurde ein enzymatisches Assay mit der Verwendung von saurer Phosphatase gewählt. Dieses Enzym hat eine pH-abhängige Aktivität. Ergebnisse In dieser Arbeit konnte eine lichtinduzierte, nicht-invasive, reversible Kontrolle der enzymatischen Aktivität der sauren Phosphatase demonstriert werden. Um diese erfolgreich durchzuführen wurde ein Hochleistungs-LED-Array entworfen und gebaut, welches für standard 96er Mikrotiterplatten geeignet ist. So ein LED-Array ist nicht im Handel erhältlich. Zum Wärmemanagement wurde unter anderem ein seitliches Belüftungssystem zur Vermeidung von Wärmestau eingerichtet und somit eine stabile Licht Intensität erreicht. Verschiedene Photosäuren wurden charakterisiert und deren pH-abhängiges Absorptionsspektren aufgezeichnet. Unter Verwendung der reversiblen Photosäure G-Säure als Protonendonor kann der pH Wert mit Hilfe des Hochleistungs-LED-Arrays reversibel geändert werden. Um den schaltbaren pH- Wechsel zu demonstrieren wurde die saure Phosphatase, welche unter sauren pH Wert hydrolytische Aktivität zeigt, gewählt. Ein Assay, bei dem die Photosäure zusammen mit dem Enzym verwendet wurde zeigt, dass G-Säure die saure Phosphatase nicht hemmt. Die reversible Regelung der pH-abhängigen Aktivität des Enzyms durch optische Kontrolle wurde nachgewiesen. Es wurde gezeigt, dass die Enzymaktivität allein von der Belichtungszeit abhängig ist. Wenn die Proben nicht beleuchtet wurden und im Dunkeln blieben, wurde keine enzymatische Aktivität aufgezeichnet. Der Prozess kann einfach und schnell gesteuert durch Ein- und Ausschalten des Lichts gesteuert werden und sollte auf eine Vielzahl von Enzymen und biochemischen Reaktionen anwendbar sein. Schlussfolgerungen Reversible Photosäuren ermöglichen eine lichtabhängige Regulierung des pH-Wertes. Sie sind äußerst attraktiv für miniaturisierbare, nicht invasive und zeitaufgelöste Steuerung von biochemischen Reaktionen. Viele Enzyme haben eine starke pH-abhängige Aktivität, daher könnte der in dieser Arbeit etablierte für ein vielseitiges Enzymportfolio verwendet werden. Die vorgestellte photo-schaltbare-Strategie könnte jedoch auch für nicht-enzymatische verwendet werden. Photosäuren haben das Potenzial für Hochdurchsatzverfahren und Automatisierung. Wir haben gezeigt, dass es möglich ist Photosäuren mit handelsüblichen LEDs, zu kontrollieren. Damit ist eine integration in Handelsübliche Geräte möglich. Das erfolgreich designte 96 Well Hochleisuntg- LED-Array bietet eine Möglichkeit zur allgemeinen kombinatorischen Analyse in z.B. Photochemie, wo eine hohe Lichtintensität für die Untersuchung verschiedener Reaktionen benötigt wird. KW - photoacid KW - photo-induced KW - acid phosphatase KW - High Power LED Array KW - Photosäure KW - photoinduziert KW - saure Phosphatase KW - Hochleistungs-LED-Array Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434353 ER - TY - THES A1 - Schneider, Jan Niklas T1 - Computational approaches for emotion research T1 - Computergestützte Methoden für die Emotionsforschung N2 - Emotionen sind ein zentrales Element menschlichen Erlebens und spielen eine wichtige Rolle bei der Entscheidungsfindung. Diese Dissertation identifiziert drei methodische Probleme der aktuellen Emotionsforschung und zeigt auf, wie diese mittels computergestützter Methoden gelöst werden können. Dieser Ansatz wird in drei Forschungsprojekten demonstriert, die die Entwicklung solcher Methoden sowie deren Anwendung auf konkrete Forschungsfragen beschreiben. Das erste Projekt beschreibt ein Paradigma welches es ermöglicht, die subjektive und objektive Schwierigkeit der Emotionswahrnehmung zu messen. Darüber hinaus ermöglicht es die Verwendung einer beliebigen Anzahl von Emotionskategorien im Vergleich zu den üblichen sechs Kategorien der Basisemotionen. Die Ergebnisse deuten auf eine Zunahme der Schwierigkeiten bei der Wahrnehmung von Emotionen mit zunehmendem Alter der Darsteller hin und liefern Hinweise darauf, dass junge Erwachsene, ältere Menschen und Männer ihre Schwierigkeit bei der Wahrnehmung von Emotionen unterschätzen. Weitere Analysen zeigten eine geringe Relevanz personenbezogener Variablen und deuteten darauf hin, dass die Schwierigkeit der Emotionswahrnehmung vornehmlich durch die Ausprägung der Wertigkeit des Ausdrucks bestimmt wird. Das zweite Projekt zeigt am Beispiel von Arousal, einem etablierten, aber vagen Konstrukt der Emotionsforschung, wie Face-Tracking-Daten dazu genutzt werden können solche Konstrukte zu schärfen. Es beschreibt, wie aus Face-Tracking-Daten Maße für die Entfernung, Geschwindigkeit und Beschleunigung von Gesichtsausdrücken berechnet werden können. Das Projekt untersuchte wie diesen Maße mit der Arousal-Wahrnehmung in Menschen mit und ohne Autismus zusammenhängen. Der Abstand zum Neutralgesicht war prädiktiv für die Arousal-Bewertungen in beiden Gruppen. Die Ergebnisse deuten auf eine qualitativ ähnliche Wahrnehmung von Arousal für Menschen mit und ohne Autismus hin. Im dritten Projekt stellen wir die Partial-Least-Squares-Analyse als allgemeine Methode vor, um eine optimale Repräsentation zur Verknüpfung zweier hochdimensionale Datensätze zu finden. Das Projekt demonstriert die Anwendbarkeit dieser Methode in der Emotionsforschung anhand der Frage nach Unterschieden in der Emotionswahrnehmung zwischen Männern und Frauen. Wir konnten zeigen, dass die emotionale Wahrnehmung von Frauen systematisch mehr Varianz der Gesichtsausdrücke erfasst und dass signifikante Unterschiede in der Art und Weise bestehen, wie Frauen und Männer einige Gesichtsausdrücke wahrnehmen. Diese konnten wir als dynamische Gesichtsausdrücke visualisieren. Um die Anwendung der entwickelten Methode für die Forschungsgemeinschaft zu erleichtern, wurde ein Software-Paket für die Statistikumgebung R geschrieben. Zudem wurde eine Website entwickelt (thisemotiondoesnotexist.com), die es Besuchern erlaubt, ein Partial-Least-Squares-Modell von Emotionsbewertungen und Face-Tracking-Daten interaktiv zu erkunden, um die entwickelte Methode zu verbreiten und ihren Nutzen für die Emotionsforschung zu illustrieren. N2 - Emotions are a central element of human experience. They occur with high frequency in everyday life and play an important role in decision making. However, currently there is no consensus among researchers on what constitutes an emotion and on how emotions should be investigated. This dissertation identifies three problems of current emotion research: the problem of ground truth, the problem of incomplete constructs and the problem of optimal representation. I argue for a focus on the detailed measurement of emotion manifestations with computer-aided methods to solve these problems. This approach is demonstrated in three research projects, which describe the development of methods specific to these problems as well as their application to concrete research questions. The problem of ground truth describes the practice to presuppose a certain structure of emotions as the a priori ground truth. This determines the range of emotion descriptions and sets a standard for the correct assignment of these descriptions. The first project illustrates how this problem can be circumvented with a multidimensional emotion perception paradigm which stands in contrast to the emotion recognition paradigm typically employed in emotion research. This paradigm allows to calculate an objective difficulty measure and to collect subjective difficulty ratings for the perception of emotional stimuli. Moreover, it enables the use of an arbitrary number of emotion stimuli categories as compared to the commonly used six basic emotion categories. Accordingly, we collected data from 441 participants using dynamic facial expression stimuli from 40 emotion categories. Our findings suggest an increase in emotion perception difficulty with increasing actor age and provide evidence to suggest that young adults, the elderly and men underestimate their emotion perception difficulty. While these effects were predicted from the literature, we also found unexpected and novel results. In particular, the increased difficulty on the objective difficulty measure for female actors and observers stood in contrast to reported findings. Exploratory analyses revealed low relevance of person-specific variables for the prediction of emotion perception difficulty, but highlighted the importance of a general pleasure dimension for the ease of emotion perception. The second project targets the problem of incomplete constructs which relates to vaguely defined psychological constructs on emotion with insufficient ties to tangible manifestations. The project exemplifies how a modern data collection method such as face tracking data can be used to sharpen these constructs on the example of arousal, a long-standing but fuzzy construct in emotion research. It describes how measures of distance, speed and magnitude of acceleration can be computed from face tracking data and investigates their intercorrelations. We find moderate to strong correlations among all measures of static information on one hand and all measures of dynamic information on the other. The project then investigates how self-rated arousal is tied to these measures in 401 neurotypical individuals and 19 individuals with autism. Distance to the neutral face was predictive of arousal ratings in both groups. Lower mean arousal ratings were found for the autistic group, but no difference in correlation of the measures and arousal ratings could be found between groups. Results were replicated in a high autistic traits group consisting of 41 participants. The findings suggest a qualitatively similar perception of arousal for individuals with and without autism. No correlations between valence ratings and any of the measures could be found which emphasizes the specificity of our tested measures for the construct of arousal. The problem of optimal representation refers to the search for the best representation of emotions and the assumption that there is a one-fits-all solution. In the third project we introduce partial least squares analysis as a general method to find an optimal representation to relate two high-dimensional data sets to each other. The project demonstrates its applicability to emotion research on the question of emotion perception differences between men and women. The method was used with emotion rating data from 441 participants and face tracking data computed on 306 videos. We found quantitative as well as qualitative differences in the perception of emotional facial expressions between these groups. We showed that women’s emotional perception systematically captured more of the variance in facial expressions. Additionally, we could show that significant differences exist in the way that women and men perceive some facial expressions which could be visualized as concrete facial expression sequences. These expressions suggest differing perceptions of masked and ambiguous facial expressions between the sexes. In order to facilitate use of the developed method by the research community, a package for the statistical environment R was written. Furthermore, to call attention to the method and its usefulness for emotion research, a website was designed that allows users to explore a model of emotion ratings and facial expression data in an interactive fashion. KW - facial expression KW - emotion KW - perception KW - face tracking KW - perception differences KW - emotion representation KW - Gesichtsausdruck KW - Emotionen KW - Wahrnehmung KW - Wahrnehmungsunterschiede KW - computational methods KW - emotion research KW - computergestützte Methoden KW - Emotionsforschung KW - arousal perception KW - objective difficulty KW - Wahrnehmung von Arousal KW - Objektive Schwierigkeit Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459275 ER - TY - THES A1 - Veh, Georg T1 - Outburst floods from moraine-dammed lakes in the Himalayas T1 - Ausbruchsfluten von moränen-gestauten Seen im Himalaya BT - detection, frequency, and hazard BT - Erkennung, Häufigkeit, und Gefährdung N2 - The Himalayas are a region that is most dependent, but also frequently prone to hazards from changing meltwater resources. This mountain belt hosts the highest mountain peaks on earth, has the largest reserve of ice outside the polar regions, and is home to a rapidly growing population in recent decades. One source of hazard has attracted scientific research in particular in the past two decades: glacial lake outburst floods (GLOFs) occurred rarely, but mostly with fatal and catastrophic consequences for downstream communities and infrastructure. Such GLOFs can suddenly release several million cubic meters of water from naturally impounded meltwater lakes. Glacial lakes have grown in number and size by ongoing glacial mass losses in the Himalayas. Theory holds that enhanced meltwater production may increase GLOF frequency, but has never been tested so far. The key challenge to test this notion are the high altitudes of >4000 m, at which lakes occur, making field work impractical. Moreover, flood waves can attenuate rapidly in mountain channels downstream, so that many GLOFs have likely gone unnoticed in past decades. Our knowledge on GLOFs is hence likely biased towards larger, destructive cases, which challenges a detailed quantification of their frequency and their response to atmospheric warming. Robustly quantifying the magnitude and frequency of GLOFs is essential for risk assessment and management along mountain rivers, not least to implement their return periods in building design codes. Motivated by this limited knowledge of GLOF frequency and hazard, I developed an algorithm that efficiently detects GLOFs from satellite images. In essence, this algorithm classifies land cover in 30 years (~1988–2017) of continuously recorded Landsat images over the Himalayas, and calculates likelihoods for rapidly shrinking water bodies in the stack of land cover images. I visually assessed such detected tell-tale sites for sediment fans in the river channel downstream, a second key diagnostic of GLOFs. Rigorous tests and validation with known cases from roughly 10% of the Himalayas suggested that this algorithm is robust against frequent image noise, and hence capable to identify previously unknown GLOFs. Extending the search radius to the entire Himalayan mountain range revealed some 22 newly detected GLOFs. I thus more than doubled the existing GLOF count from 16 previously known cases since 1988, and found a dominant cluster of GLOFs in the Central and Eastern Himalayas (Bhutan and Eastern Nepal), compared to the rarer affected ranges in the North. Yet, the total of 38 GLOFs showed no change in the annual frequency, so that the activity of GLOFs per unit glacial lake area has decreased in the past 30 years. I discussed possible drivers for this finding, but left a further attribution to distinct GLOF-triggering mechanisms open to future research. This updated GLOF frequency was the key input for assessing GLOF hazard for the entire Himalayan mountain belt and several subregions. I used standard definitions in flood hydrology, describing hazard as the annual exceedance probability of a given flood peak discharge [m3 s-1] or larger at the breach location. I coupled the empirical frequency of GLOFs per region to simulations of physically plausible peak discharges from all existing ~5,000 lakes in the Himalayas. Using an extreme-value model, I could hence calculate flood return periods. I found that the contemporary 100-year GLOF discharge (the flood level that is reached or exceeded on average once in 100 years) is 20,600+2,200/–2,300 m3 s-1 for the entire Himalayas. Given the spatial and temporal distribution of historic GLOFs, contemporary GLOF hazard is highest in the Eastern Himalayas, and lower for regions with rarer GLOF abundance. I also calculated GLOF hazard for some 9,500 overdeepenings, which could expose and fill with water, if all Himalayan glaciers have melted eventually. Assuming that the current GLOF rate remains unchanged, the 100-year GLOF discharge could double (41,700+5,500/–4,700 m3 s-1), while the regional GLOF hazard may increase largest in the Karakoram. To conclude, these three stages–from GLOF detection, to analysing their frequency and estimating regional GLOF hazard–provide a framework for modern GLOF hazard assessment. Given the rapidly growing population, infrastructure, and hydropower projects in the Himalayas, this thesis assists in quantifying the purely climate-driven contribution to hazard and risk from GLOFs. N2 - In kaum einer anderen Region treten Abhängigkeit, Nutzen und Gefährdung von Gletscher- und Schneeschmelze so deutlich zu Tage wie im Himalaya. Naturgefahren sind hier allgegenwärtig, wobei eine die Wissenschaftler in den vergangen zwei Jahrzehnten besonders beschäftigte: Ausbrüche von Gletscherseen traten in der Vergangenheit zwar selten, aber meist mit katastrophalen Konsequenzen für die darunterliegenden Berggemeinden auf. Gletscherseeausbrüche (englisches Akronym GLOFs – glacial lake outburst floods) beschreiben den plötzlichen Ausfluss von teils mehreren Millionen Kubikmetern Wasser aus natürlich gedämmten Schmelzwasserseen. Anhaltender Gletscherrückgang in vergangenen Jahrzehnten schuf mehrere tausend Hochgebirgsseen, mit ununterbrochenem Wachstum in Anzahl und Fläche, was den Schluss auf ein möglicherweise vermehrtes Auftreten von GLOFs nahelegte. Diese suggerierte Zunahme von GLOFs konnte jedoch bisher weder getestet noch bestätigt werden, vor allem weil Seen überwiegend jenseits von 4,000 m üNN entstehen, was Feldstudien dort erschwert. Unser Wissen über GLOFs ist daher möglicherweise zu größeren, schadensreichen Ereignissen verschoben, wodurch ihre aktuelle Frequenz, und letztlich auch ihr Zusammenhang mit dem Klimawandel, nur schwer quantifizierbar sind. Mit welcher Wiederkehrrate GLOFs auftreten ist nicht zuletzt entscheidend für Risikoanalyse und -management entlang von Flüssen. Um einer Unterschätzung der tatsächlichen GLOF-Aktivität entgegenzuwirken, entwickelte ich einen Algorithmus, der GLOFs automatisch aus Satellitenbildern detektiert. Der Algorithmus greift auf etwa 30 Jahre kontinuierlich aufgenommene Landsat-Bilder (~1988-2017) zu, und berechnet letztlich die Wahrscheinlichkeit, ob Wasserkörper rasch innerhalb dieser Bildzeitreihe geschrumpft sind. An solchen Stellen suchte ich nach Sedimentverlagerungen im Gerinne flussabwärts, was ein zweites Hauptkriterium für GLOFs ist. Tests und Validierung in etwa 10% des Himalayas bestätigten, dass die Methode robust gegenüber atmosphärischen Störeffekten ist. Mit dem Ziel bisher unbekannte GLOFs zu entdecken, wendete ich daher diesen Algorithmus auf den gesamten Himalaya an. Die Suche ergab 22 neu entdeckte GLOFs, was das bestehende Inventar von 16 bekannten GLOFs seit 1988 mehr als verdoppelte. Das aktualisierte räumliche Verbreitungsmuster bestätigte einmal mehr, dass GLOFs vermehrt im Zentral- und Osthimalaya (Bhutan und Ost-Nepal) auftraten, wohingegen im Norden deutlich weniger GLOFs stattfanden. Entgegen der häufigen Annahme stellte ich jedoch fest, dass die jährliche Häufigkeit von GLOFs in den letzten drei Jahrzehnten konstant blieb. Dadurch hat das Verhältnis von GLOFs pro Einheit See(-fläche) in diesem Zeitraum sogar abgenommen. Dieses räumlich aufgelöste GLOF-Inventar bot nun die Möglichkeit, das Gefährdungspotential durch GLOFs für den gesamten Himalaya und einzelne Regionen zu berechnen. Dafür verwendete ich die in der Hochwasseranalyse gebräuchliche Definition von Gefährdung, welche die jährliche Überschreitungswahrscheinlichkeit einer gewissen Abflussmenge, in diesem Fall des Spitzenabflusses [m3 s-1] am Dammbruch, beschreibt. Das GLOF-Inventar liefert demnach die zeitliche Wahrscheinlichkeit für das Auftreten von GLOFs, während Simulationen von möglichen Spitzenabflüssen für alle heute existierenden ~5,000 Seen im Himalaya die zu erwarteten Magnituden beisteuerten. Mit Extremwertstatistik lässt sich so die mittlere Wiederkehrzeit dieser Spitzenabflüsse errechnen. Ich fand heraus, dass der 100-jährliche Abfluss (die Flutmagnitude, die im Durchschnitt einmal in 100 Jahren erreicht oder überschritten wird) derzeit bei rund 20,600+2,200/–2,300 m³ s-1 für den gesamten Himalaya liegt. Entsprechend der heutigen räumlichen und zeitlichen Verteilung von GLOFs ist die Gefährdung im Osthimalaya am höchsten und in Regionen mit wenig dokumentierten GLOFs vergleichsweise niedrig. Für ein Szenario, in dem der gesamte Himalaya in Zukunft eisfrei sein könnte, errechnete ich zudem das Gefährdungspotential von ~9,500 Übertiefungen unterhalb der heutigen Gletschern, die sich nach deren Abschmelzen mit Wasser füllen könnten. Angenommen, dass die zukünftige GLOF-Rate der heutigen entspricht, könnte der 100-jährliche Abfluss sich mehr als verdoppeln (41,700+5,500/–4,700 m3 s-1), wobei der stärkste regionale Anstieg für den Karakorum zu erwarten wäre. Zusammenfassend formen diese drei Schritte–von der Detektion von GLOFs, über die Bestimmung derer Frequenz, bis zur regionalen Abschätzung von Spitzenabflüssen–das Grundgerüst, das ein moderner Ansatz zur Gefahrenabschätzung von GLOFs benötigt. Angesichts einer wachsenden Exposition von Bevölkerung, Infrastruktur und Wasserkraftanlagen liefert diese Arbeit einen entscheidenden Beitrag, den Anteil des Klimawandels in der Gefährdung und Risiko durch GLOFs zu quantifizieren. KW - GLOF KW - frequency KW - Landsat KW - satellite images KW - classification KW - magnitude KW - Himalaya KW - Karakoram KW - climate change KW - atmospheric warming KW - glacial lakes KW - glaciers KW - meltwater KW - natural hazard KW - GLOF KW - Gletscherseeasubruch KW - Häufigkeit KW - Landsat KW - Satellitenbilder KW - Klassifikation KW - Magnitude KW - Himalaya KW - Karakorum KW - Klimawandel KW - atmosphärische Erwärmung KW - Gletscherseen KW - Gletscher KW - Schmelzwasser KW - Naturgefahr Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436071 ER - TY - THES A1 - Grishina, Yulia T1 - Assessing the applicability of annotation projection methods for coreference relations T1 - Analyse der Qualität von Annotationsprojektionsmethoden für Koreferenzrelationen N2 - The main goal of this thesis is to explore the feasibility of using cross-lingual annotation projection as a method of alleviating the task of manual coreference annotation. To reach our goal, we build a first trilingual parallel coreference corpus that encompasses multiple genres. For the annotation of the corpus, we develop common coreference annotation guidelines that are applicable to three languages (English, German, Russian) and include a novel domain-independent typology of bridging relations as well as state-of-the-art near-identity categories. Thereafter, we design and perform several annotation projection experiments. In the first experiment, we implement a direct projection method with only one source language. Our results indicate that, already in a knowledge-lean scenario, our projection approach is superior to the most closely related work of Postolache et al. (2006). Since the quality of the resulting annotations is to a high degree dependent on the word alignment, we demonstrate how using limited syntactic information helps to further improve mention extraction on the target side. As a next step, in our second experiment, we show how exploiting two source languages helps to improve the quality of target annotations for both language pairs by concatenating annotations projected from two source languages. Finally, we assess the projection quality in a fully automatic scenario (using automatically produced source annotations), and propose a pilot experiment on manual projection of bridging pairs. For each of the experiments, we carry out an in-depth error analysis, and we conclude that noisy word alignments, translation divergences and morphological and syntactic differences between languages are responsible for projection errors. We systematically compare and evaluate our projection methods, and we investigate the errors both qualitatively and quantitatively in order to identify problematic cases. Finally, we discuss the applicability of our method to coreference annotations and propose several avenues of future research. N2 - Ziel dieser Dissertation ist, die Durchführbarkeit von crosslingualer Annotationsprojektion als Methode zur Erleichterung der manuellen Koreferenzannotation zu erproben. Um dieses Ziel zu erreichen, wird das erste dreisprachige parallele Koreferenzkorpus gebaut, das mehrere Textsorten umfasst. Für die Korpusannotation werden gemeinsame Annotationsrichtlinien entwickelt, die auf drei Sprachen anwendbar sind (Englisch, Deutsch, Russisch) und eine neue domänenunabhängige Typologie von indirekten Wiederaufnahmen und sogenannten Near-Identity-Kategorien enthalten. Danach werden mehrere Projektionsexperimente entworfen und durchgeführt. Im ersten Experiment wird eine direkte Projektionsmethode mit nur einer Ausgangs\-sprache implementiert. Die Ergebnisse zeigen, dass bereits in einem wissensarmen Szenario der vorgeschlagene Projektionsansatz die Resultate der verwandten Arbeit von Postolache et al. (2006) übertrifft. Da die Qualität der resultierenden Annotationen in hohem Maße von der Wortalignierung abhängig ist, zeigen wir, wie die Verwendung begrenzter syntaktischer Informationen weiterhilft, die Extraktion von referierenden Ausdrücken auf der Zielseite zu verbessern. Im nächsten Schritt, dem zweiten Experiment, demonstrieren wir, wie die Nutzung von zwei Ausgangssprachen zur weiteren Verbesserung der Qualität der Zielannotationen für beide Sprachpaare beiträgt, indem die Annotationen aus zwei Quellsprachen kombiniert werden. Schließlich wird die Projektionsqualität noch in einem vollautomatischen Szenario ausgewertet (mit automatisch erstellten Quellannotationen), und ein Pilotversuch zur manuellen Projektion von Paaren indirekter Wiederaufnahmen vorgestellt. Für jedes Experiment wird eine detaillierte Fehleranalyse durchgeführt. Daraus schließen wir, dass fehlerhafte Wortalignierungen, Übersetzungsdivergenzen und morphologische sowie syntaktische Unterschiede zwischen den Sprachen für die Projektionsfehler verantwortlich sind. Hierzu werden die Projektionsmethoden systematisch verglichen und ausgewertet, und die Fehler sowohl qualitativ als auch quantitativ untersucht, um problematische Fälle zu identifizieren. Zum Schluss wird die Anwendbarkeit unserer Methode für Koreferenzannotationen diskutiert, und es werden Ansatzpunkte für weitere Forschung vorgeschlagen. KW - annotation KW - annotation projection KW - bridging KW - near-identity KW - coreference resolution KW - multilingual coreference KW - coreference corpus KW - Annotation KW - Annotationsprojektion KW - Koreferenz KW - indirekte Wiederaufnahmen KW - Near-identity KW - Koreferenzauflösung KW - multilinguale Koreferenz KW - Koreferenzkorpus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-425378 ER - TY - THES A1 - Hanschmann, Raffael Tino T1 - Stalling the engine? EU climate politics after the ‘Great Recession’ T1 - Den Motor abgewürgt? EU-Klimapolitik nach der Großen Rezession BT - investigating the impact of economic shocks on EU climate policy-making in three case studies BT - eine Untersuchung des Einflusses von Wirtschaftskrisen auf Prozesse in der EU-Klimapolitik in drei Fallstudien N2 - This dissertation investigates the impact of the economic and fiscal crisis starting in 2008 on EU climate policy-making. While the overall number of adopted greenhouse gas emission reduction policies declined in the crisis aftermath, EU lawmakers decided to introduce new or tighten existing regulations in some important policy domains. Existing knowledge about the crisis impact on EU legislative decision-making cannot explain these inconsistencies. In response, this study develops an actor-centred conceptual framework based on rational choice institutionalism that provides a micro-level link to explain how economic crises translate into altered policy-making patterns. The core theoretical argument draws on redistributive conflicts, arguing that tensions between ‘beneficiaries’ and ‘losers’ of a regulatory initiative intensify during economic crises and spill over to the policy domain. To test this hypothesis and using social network analysis, this study analyses policy processes in three case studies: The introduction of carbon dioxide emission limits for passenger cars, the expansion of the EU Emissions Trading System to aviation, and the introduction of a regulatory framework for biofuels. The key finding is that an economic shock causes EU policy domains to polarise politically, resulting in intensified conflict and more difficult decision-making. The results also show that this process of political polarisation roots in the industry that is the subject of the regulation, and that intergovernmental bargaining among member states becomes more important, but also more difficult in times of crisis. N2 - Diese Dissertation untersucht den Einfluss der in 2008 beginnenden globalen Wirtschaftskrise auf die Prozesse der EU-Klimapolitik. Während die Zahl der verabschiedeten Gesetze zur Treibhausgasreduktion nach Krisenausbruch insgesamt sank, entschieden die EU-Gesetzgeber, in mehreren wichtigen Politikfeldern neue Regulierungen einzuführen oder existierende zu verschärfen. Bestehendes Wissen zum Einfluss der Krise auf EU-Gesetzgebungsprozesse kann diese Inkonsistenzen nicht erklären. Daher entwickelt diese Arbeit ein auf Rational-Choice-Institutionalismus basierendes konzeptionelles Gerüst, das auf der Mikro-Ebene eine kausale Verbindung zwischen Wirtschaftskrise und veränderten Politikprozessen herstellt. Das zentrale theoretische Argument beruht auf Verteilungskonflikten innerhalb der regulierten Wirtschaftsbranchen: Die Spannung zwischen „Nutznießern“ und „Verlierern“ einer geplanten Regulierung intensiviert sich in Krisenzeiten und setzt sich im politischen Raum fort. Diese Hypothese wird an drei Fallstudien mittels sozialer Netzwerkanalyse getestet. Die drei Fallstudien untersuchen politische Entscheidungsprozesse in den folgenden EU-Politikfeldern: Kohlenstoffdioxid-Emissionsgrenzen für PKW, die Ausweitung des Emissionshandels auf Flugverkehr und die Einführung eines Regulierungsrahmens für Biokraftstoffe. Die wichtigste Erkenntnis der Untersuchung ist, dass makroökonomische Schocks eine Polarisierung der politischen Interessen innerhalb eines Politikfeldes auslösen, dadurch Konflikte intensivieren und letztlich Entscheidungsfindungen erschweren. Die Ergebnisse zeigen zudem, dass dieser Polarisierungsprozess in der regulierten Wirtschaftsbranche wurzelt. Außerdem werden Verhandlungen zwischen den Regierungen der Mitgliedsstaaten in Krisenzeiten wichtiger, aber auch schwieriger.  KW - EU KW - European Union KW - policy-making KW - network analysis KW - policy preferences KW - economic crisis KW - crisis KW - climate KW - climate change KW - climate policy KW - climate politics KW - environmental policy KW - EU KW - Europäische Union KW - Politikgestaltung KW - Netzwerkanalyse KW - Politikpräferenzen KW - Wirtschaftskrise KW - Krise KW - Klima KW - Klimawandel KW - Klimapolitik KW - Umweltpolitik Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440441 ER - TY - THES A1 - Beamish, Alison Leslie T1 - Hyperspectral remote sensing of the spatial and temporal heterogeneity of low Arctic vegetation T1 - Hyperspektrale Fernerkundung der räumlichen und zeitlichen Heterogenität niedriger arktischer Vegetation BT - the role of phenology, vegetation colour, and intrinsic ecosystem components BT - die Rolle von Phänologie, Vegetationsfarbe und intrinsischer Ökosystemkomponenten N2 - Arctic tundra ecosystems are experiencing warming twice the global average and Arctic vegetation is responding in complex and heterogeneous ways. Shifting productivity, growth, species composition, and phenology at local and regional scales have implications for ecosystem functioning as well as the global carbon and energy balance. Optical remote sensing is an effective tool for monitoring ecosystem functioning in this remote biome. However, limited field-based spectral characterization of the spatial and temporal heterogeneity limits the accuracy of quantitative optical remote sensing at landscape scales. To address this research gap and support current and future satellite missions, three central research questions were posed: • Does canopy-level spectral variability differ between dominant low Arctic vegetation communities and does this variability change between major phenological phases? • How does canopy-level vegetation colour images recorded with high and low spectral resolution devices relate to phenological changes in leaf-level photosynthetic pigment concentrations? • How does spatial aggregation of high spectral resolution data from the ground to satellite scale influence low Arctic tundra vegetation signatures and thereby what is the potential of upcoming hyperspectral spaceborne systems for low Arctic vegetation characterization? To answer these questions a unique and detailed database was assembled. Field-based canopy-level spectral reflectance measurements, nadir digital photographs, and photosynthetic pigment concentrations of dominant low Arctic vegetation communities were acquired at three major phenological phases representing early, peak and late season. Data were collected in 2015 and 2016 in the Toolik Lake Research Natural Area located in north central Alaska on the North Slope of the Brooks Range. In addition to field data an aerial AISA hyperspectral image was acquired in the late season of 2016. Simulations of broadband Sentinel-2 and hyperspectral Environmental and Mapping Analysis Program (EnMAP) satellite reflectance spectra from ground-based reflectance spectra as well as simulations of EnMAP imagery from aerial hyperspectral imagery were also obtained. Results showed that canopy-level spectral variability within and between vegetation communities differed by phenological phase. The late season was identified as the most discriminative for identifying many dominant vegetation communities using both ground-based and simulated hyperspectral reflectance spectra. This was due to an overall reduction in spectral variability and comparable or greater differences in spectral reflectance between vegetation communities in the visible near infrared spectrum. Red, green, and blue (RGB) indices extracted from nadir digital photographs and pigment-driven vegetation indices extracted from ground-based spectral measurements showed strong significant relationships. RGB indices also showed moderate relationships with chlorophyll and carotenoid pigment concentrations. The observed relationships with the broadband RGB channels of the digital camera indicate that vegetation colour strongly influences the response of pigment-driven spectral indices and digital cameras can track the seasonal development and degradation of photosynthetic pigments. Spatial aggregation of hyperspectral data from the ground to airborne, to simulated satel-lite scale was influenced by non-photosynthetic components as demonstrated by the distinct shift of the red edge to shorter wavelengths. Correspondence between spectral reflectance at the three scales was highest in the red spectrum and lowest in the near infra-red. By artificially mixing litter spectra at different proportions to ground-based spectra, correspondence with aerial and satellite spectra increased. Greater proportions of litter were required to achieve correspondence at the satellite scale. Overall this thesis found that integrating multiple temporal, spectral, and spatial data is necessary to monitor the complexity and heterogeneity of Arctic tundra ecosystems. The identification of spectrally similar vegetation communities can be optimized using non-peak season hyperspectral data leading to more detailed identification of vegetation communities. The results also highlight the power of vegetation colour to link ground-based and satellite data. Finally, a detailed characterization non-photosynthetic ecosystem components is crucial for accurate interpretation of vegetation signals at landscape scales. N2 - Die arktische Erwärmung beeinflusst Produktivität, Wachstums, Artenzusammensetzung, Phänologie und den Reproduktionserfolg arktischer Vegetation, mit Auswirkungen auf die Ökosystemfunktionen sowie auf den globalen Kohlenstoff- und Energiehaushalt. Feldbasierte Messungen und spektrale Charakterisierungen der räumlichen und zeitlichen Heterogenität arktischer Vegetationsgemeinschaften sind limitiert und die Genauigkeit fernerkundlicher Methoden im Landschaftsmaßstab eingeschränkt. Um diese Forschungslücke zu schließen und aktuelle und zukünftige Satellitenmissionen zu unterstützen, wurden drei zentrale Forschungsfragen entwickelt: 1) Wie unterscheidet sich die spektrale Variabilität des Kronendaches zwischen dominanten Vegetationsgemeinschaften der niederen Arktis und wie verändert sich diese Variabilität zwischen den wichtigsten phänologischen Phasen? 2) Wie hängen Aufnahmen der Vegetationsfarbe des Kronendaches von hoch und niedrig auflösenden Geräten mit phänologischen Veränderungen des photosynthetischen Pigmentgehalts auf Blattebene zusammen? 3) Wie beeinflusst die räumliche Aggregation von Daten mit hoher spektraler Auflösung von der Boden- bis zur Satelliten-Skala die arktischen Vegetationssignale der Tundra und welches Potenzial haben zukünftige hyperspektraler Satellitensysteme für die arktische Vegetationscharakterisierung? Zur Beantwortung dieser Fragen wurde eine detaillierte Datenbank aus feldbasierten Daten erstellt und mit hyperspektralen Luftbildern sowie multispektralen Sentinel-2 und simulierten hyperspektralen EnMAP Satellitendaten verglichen. Die Ergebnisse zeigten, dass die Spätsai-son am besten geeignet ist um dominante Vegetationsgemeinschaften mit Hilfe von hyper-spektralen Daten zu identifizieren. Ebenfalls konnte gezeigt werden, dass die mit handelsüb-lichen Digitalkameras aufgenommene Vegetationsfarbe pigmentgesteuerte Spektralindizes stark beeinflusst und den Verlauf von photosynthetischen Pigmenten nachverfolgen kann. Die räumliche Aggregation hyperspektraler Daten von der Boden- über die Luft- zur Satelli-tenskala wurde durch nicht-photosynthetische Komponenten beeinflusst und die spektralen Reflexionsvermögen der drei Skalen stimmten im roten Spektrum am höchsten und im nahen Infrarotbereich am niedrigsten überein. Die vorliegende Arbeit zeigt, dass die Integration zeitlicher, spektraler und räumlicher Daten notwendig ist, um Komplexität und Heterogenität arktischer Vegetationsreaktionen in Reaktion auf klimatische Veränderungen zu überwachen. KW - hyperspectral remote sensing KW - Arctic tundra KW - vegetation KW - imaging spectroscopy KW - hyperspektral Fernerkundung KW - arktische Tundra KW - Vegetation KW - Spektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-425922 ER - TY - THES A1 - Thiede, Tobias T1 - A multiscale analysis of additively manufactured lattice structures T1 - Multiskalige Analyse von Additiv Gefertigten Gitterstrukturen N2 - Additive Manufacturing (AM) in terms of laser powder-bed fusion (L-PBF) offers new prospects regarding the design of parts and enables therefore the production of lattice structures. These lattice structures shall be implemented in various industrial applications (e.g. gas turbines) for reasons of material savings or cooling channels. However, internal defects, residual stress, and structural deviations from the nominal geometry are unavoidable. In this work, the structural integrity of lattice structures manufactured by means of L-PBF was non-destructively investigated on a multiscale approach. A workflow for quantitative 3D powder analysis in terms of particle size, particle shape, particle porosity, inter-particle distance and packing density was established. Synchrotron computed tomography (CT) was used to correlate the packing density with the particle size and particle shape. It was also observed that at least about 50% of the powder porosity was released during production of the struts. Struts are the component of lattice structures and were investigated by means of laboratory CT. The focus was on the influence of the build angle on part porosity and surface quality. The surface topography analysis was advanced by the quantitative characterisation of re-entrant surface features. This characterisation was compared with conventional surface parameters showing their complementary information, but also the need for AM specific surface parameters. The mechanical behaviour of the lattice structure was investigated with in-situ CT under compression and successive digital volume correlation (DVC). The deformation was found to be knot-dominated, and therefore the lattice folds unit cell layer wise. The residual stress was determined experimentally for the first time in such lattice structures. Neutron diffraction was used for the non-destructive 3D stress investigation. The principal stress directions and values were determined in dependence of the number of measured directions. While a significant uni-axial stress state was found in the strut, a more hydrostatic stress state was found in the knot. In both cases, strut and knot, seven directions were at least needed to find reliable principal stress directions. N2 - Das Laserstrahlschmelzen (L-PBF) als Prozess im Bereich der Additiven Fertigung (AM) ermöglicht ein neuartiges Bauteildesign und somit auch die Produktion von komplexen Gitterstrukturen, welche Materialeinsparungen und effizientere Kühlsysteme erlauben und daher für verschiedene industrielle Anwendungen (z.B. Gasturbinen) geeignet sind. Interne Defekte, Eigenspannungen und geometrische Abweichungen von der Soll-Geometrie sind jedoch unvermeidbar. Im Rahmen dieser Arbeit wird die strukturelle Integrität von L-PBF gefertigten Gitterstrukturen zerstörungsfrei auf verschiedenen Größenskalen untersucht. Eine Auswerteroutine für dreidimensionale quantitative Pulvercharakterisierung hinsichtlich der Partikelgröße, der -form, der -porosität, des Interpartikelabstands und der Packungsdichte wurde entwickelt. Synchrotron Computertomographie (CT) wurde für die Korrelation der Packungsdichte mit der Partikelgröße und -form genutzt. Darüber hinaus konnte festgestellt werden, dass mindestens 50% der Porosität aus den Pulverpartikel während der Herstellung der Streben mittels L-PBF gelöst wurde. Streben sind die Grundbausteine der Gitterstrukturen und wurden mit industrieller CT untersucht. Dabei lag der Fokus auf dem Einfluss des Bauwinkels auf die Strebenporosität und -oberflächenqualität. Die Analyse der Oberflächentopographie wurde hinsichtlich einer quantitativen Analyse von sogenannten re-entrant features erweitert. Der Vergleich dieser Auswertung mit konventionellen Oberflächenparametern offenbarte sowohl deren Komplementarität also auch den Bedarf an neuen AM-spezifischen Oberflächenparametern. In-situ CT Versuche mit anschließender digitaler Volumenkorrelation (DVC) erlaubte die Gitterstruktur bezüglich des mechanischen Verhaltens unter Druckspannung zu bewerten. Aufgrund einer schichtweisen Faltung der Einheitszellen konnte dabei das Versagensverhalten als knoten-dominiert identifiziert werden. Mittels Neutronenbeugung konnten Eigenspannungen in solchen Gitterstrukturen erstmalig experimentell bestimmt werden. Dabei wurden sowohl die Hauptspannungsrichtungen als auch die -beträge in Abhängigkeit von der Anzahl der gemessenen Spannungsrichtungen bestimmt. Während in der Strebe ein signifikanter uni-axialer Spannungszustand nachgewiesen wurde, zeigte der Knotenpunkt einen hydrostatischeren Spannungszustand. Sowohl im Falle der Strebe als auch des Knotenpunkts waren mindestens sieben gemessene Spannungsrichtungen nötig, um die Hauptspannungsrichtungen verlässlich zu ermitteln. KW - additive manufacturing KW - laser powder bed fusion KW - computed tomography KW - neutron diffraction KW - in-situ testing KW - residual stress KW - roughness KW - powder particle analysis KW - additive Fertigung KW - Laserstrahlschmelzen KW - Computertomographie KW - Neutronendiffraktion KW - In-situ Experimente KW - Eigenspannung KW - Rauheit KW - Pulverpartikelanalyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470418 ER - TY - THES A1 - Yan, Runyu T1 - Nitrogen-doped and porous carbons towards new energy storage mechanisms for supercapacitors with high energy density T1 - Neuartige Energiespeichermechanismen in porösen und stickstoffdotierten Kohlenstoffen für die Anwendung in Superkondensatoren mit hoher Energiedichte N2 - Supercapacitors are electrochemical energy storage devices with rapid charge/discharge rate and long cycle life. Their biggest challenge is the inferior energy density compared to other electrochemical energy storage devices such as batteries. Being the most widely spread type of supercapacitors, electrochemical double-layer capacitors (EDLCs) store energy by electrosorption of electrolyte ions on the surface of charged electrodes. As a more recent development, Na-ion capacitors (NICs) are expected to be a more promising tactic to tackle the inferior energy density due to their higher-capacity electrodes and larger operating voltage. The charges are simultaneously stored by ion adsorption on the capacitive-type cathode surface and via faradic process in the battery-type anode, respectively. Porous carbon electrodes are of great importance in these devices, but the paramount problems are the facile synthetic routes for high-performance carbons and the lack of fundamental understanding of the energy storage mechanisms. Therefore, the aim of the present dissertation is to develop novel synthetic methods for (nitrogen-doped) porous carbon materials with superior performance, and to reveal a deeper understanding energy storage mechanisms of EDLCs and NICs. The first part introduces a novel synthetic method towards hierarchical ordered meso-microporous carbon electrode materials for EDLCs. The large amount of micropores and highly ordered mesopores endow abundant sites for charge storage and efficient electrolyte transport, respectively, giving rise to superior EDLC performance in different electrolytes. More importantly, the controversial energy storage mechanism of EDLCs employing ionic liquid (IL) electrolytes is investigated by employing a series of porous model carbons as electrodes. The results not only allow to conclude on the relations between the porosity and ion transport dynamics, but also deliver deeper insights into the energy storage mechanism of IL-based EDLCs which is different from the one usually dominating in solvent-based electrolytes leading to compression double-layers. The other part focuses on anodes of NICs, where novel synthesis of nitrogen-rich porous carbon electrodes and their sodium storage mechanism are investigated. Free-standing fibrous nitrogen-doped carbon materials are synthesized by electrospinning using the nitrogen-rich monomer (hexaazatriphenylene-hexacarbonitrile, C18N12) as the precursor followed by condensation at high temperature. These fibers provide superior capacity and desirable charge/discharge rate for sodium storage. This work also allows insights into the sodium storage mechanism in nitrogen-doped carbons. Based on this mechanism, further optimization is done by designing a composite material composed of nitrogen-rich carbon nanoparticles embedded in conductive carbon matrix for a better charge/discharge rate. The energy density of the assembled NICs significantly prevails that of common EDLCs while maintaining the high power density and long cycle life. N2 - Superkondensatoren sind elektrochemische Energiespeicher, die eine hohe Lade-/Entladerate und Zyklensta-bilität aufweisen, deren größte Einschränkung derzeit jedoch bei ihrer im Vergleich zu anderen Speicherlösungen, wie etwa Batterien, geringen Energiedichte liegt. Im am weitesten verbreiteten Superkondensatortyp, dem elektrochemischen Doppelschichtkondensator (engl. electrochemical double-layer capacitor, EDLC), wird die Energie durch Elektrosorption der Elektrolytionen an die geladene Elektrodenoberfläche gespeichert. Der Natrium-Ionen-Kondensator (engl. Na-ion capacitor, NIC) ist eine neuere Entwicklung und löst das Problem der geringen Energiedichte durch Verwendung von Elektroden mit einer höheren Kapazität und Betriebsspannung. Dies wird dadurch erreicht, dass simultan anodenseitig ein faradayscher Prozess und kathodenseitig der Aufbau einer elektrochemischen Doppelschicht genutzt werden. Somit kommen die Vorteile beider Phänomene zum Tragen. Poröse Kohlenstoffelektroden sind wichtig für beide Speichersysteme, wobei die Entwicklung einfacher Syn-theserouten für die Herstellung von Hochleistungskohlenstoffen und der Aufbau eines grundlegenden Ver-ständnisses der dem Energiespeicher zugrunde liegenden Mechanismen die vordergründigen Herausforde-rungen sind. Daher ist es das Ziel der vorliegenden Dissertation, neue Methoden zur Synthese (stickstoffdo-tierter) Kohlenstoffmaterialien mit überlegener Leistung zu erschließen und eine tiefere Einsicht in die me-chanistischen Aspekte der Funktionsweise der eingangs vorgestellten Superkondensatorsysteme zu erhalten. Im ersten Teil der Arbeit wird eine neuartige Synthese von Kohlenstoff-Elektrodenmaterialien für EDLCs vor-gestellt, welche ein hohes Volumen an Mikroporen und hochgeordneten Mesoporen aufweisen. Durch deren Einsatz kann in verschiedenen Elektrolytsystemen eine herausragende Energiedichte erzielt werden. Umso bedeutender sind die Ergebnisse der Untersuchung des kontrovers diskutierten Energiespeichermechanismus in EDLCs mit Elektrolyten auf Basis ionischer Flüssigkeiten (engl. ionic liquids, ILs) und Elektroden aus porösen Modellkohlenstoffen. Aus diesen können nicht nur Rückschlüsse auf den Zusammenhang zwischen Porosität und Ionentransportdynamik gezogen werden, sondern sie lassen auch wichtige Erkenntnisse auf die Mechanismen des Ladungsspeichers in IL-basierten EDLCs zu, welche sich grundlegend von dem in lösungsmittelbasierten Elektrolyten vorherrschenden Mechanismus, der Bildung einer Kompressionsdoppelschicht, unterscheiden. Im zweiten Teil des Werks liegt der Fokus auf der Synthese stickstoffreicher poröser Kohlenstoffelektroden als Anoden für NICs und der Untersuchung der Vorgänge während der Natriumeinlagerung in solchen Syste-men. Freistehende, faserartige und stickstoffdotierte Kohlenstoffmaterialien wurden durch Elektrospinnen des stickstoffreichen Monomers Hexaazatriphenylen-hexacarbonitril (C18N12) gefolgt von dessen Kondensati-on bei hoher Temperatur erhalten. Diese Fasern überzeugen durch überragende Kapazität und eine hohe Lade-/Entladerate beim Natriumspei-chervorgang. In diesem Rahmen wurde auch der Mechanismus der Natriumeinlagerung in stickstoffdotierten Kohlenstoffen beleuchtet und auf Basis dieser Erkenntnisse wurde eine weitere Optimierung vorgenommen. Indem ein Kompositmaterial aus stickstoffreichen Kohlenstoffnanopartikeln in einer leitfähigen Kohlenstoffmatrix erzeugt wurde, konnte die Lade-/Entladerate abermals verbessert werden. Somit übertrifft die Energiedichte der so konstruierten NICs die gewöhnlicher EDLCs, während deren hohe Leistungsdichte und Lebensdauer erhalten bleibt. KW - porous carbons KW - supercapacitors KW - high energy density KW - energy storage mechanism KW - poröse Kohlenstoffe KW - Superkondensatoren KW - hohe Energiedichte KW - Energiespeichermechanismus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431413 ER - TY - THES A1 - Noack, Sebastian T1 - Poly(lactide)-based amphiphilic block copolymers T1 - Polylactid-basierte amphiphile Blockcopolymere BT - self-assembly and stereocomplexation in aqueous media BT - Selbstorganisation und Stereokomplexierung in wässrigem Medium N2 - Due to its bioavailability and (bio)degradability, poly(lactide) (PLA) is an interesting polymer that is already being used as packaging material, surgical seam, and drug delivery system. Dependent on various parameters such as polymer composition, amphiphilicity, sample preparation, and the enantiomeric purity of lactide, PLA in an amphiphilic block copolymer can affect the self-assembly behavior dramatically. However, sizes and shapes of aggregates have a critical effect on the interactions between biological and drug delivery systems, where the general understanding of these polymers and their ability to influence self-assembly is of significant interest in science. The first part of this thesis describes the synthesis and study of a series of linear poly(L-lactide) (PLLA) and poly(D-lactide) (PDLA)-based amphiphilic block copolymers with varying PLA (hydrophobic), and poly(ethylene glycol) (PEG) (hydrophilic) chain lengths and different block copolymer sequences (PEG-PLA and PLA-PEG). The PEG-PLA block copolymers were synthesized by ring-opening polymerization of lactide initiated by a PEG-OH macroinitiator. In contrast, the PLA-PEG block copolymers were produced by a Steglich-esterification of modified PLA with PEG-OH. The aqueous self-assembly at room temperature of the enantiomerically pure PLLA-based block copolymers and their stereocomplexed mixtures was investigated by dynamic light scattering (DLS), transmission electron microscopy (TEM), wide-angle X-ray diffraction (WAXD), and differential scanning calorimetry (DSC). Spherical micelles and worm-like structures were produced, whereby the obtained self-assembled morphologies were affected by the lactide weight fraction in the block copolymer and self-assembly time. The formation of worm-like structures increases with decreasing PLA-chain length and arises from spherical micelles, which become colloidally unstable and undergo an epitaxial fusion with other micelles. As shown by DSC experiments, the crystallinity of the corresponding PLA blocks increases within the self-assembly time. However, the stereocomplexed self-assembled structures behave differently from the parent polymers and result in irregular-shaped clusters of spherical micelles. Additionally, time-dependent self-assembly experiments showed a transformation, from already self-assembled morphologies of different shapes to more compact micelles upon stereocomplexation. In the second part of this thesis, with the objective to influence the self-assembly of PLA-based block copolymers and its stereocomplexes, poly(methyl phosphonate) (PMeP) and poly(isopropyl phosphonate) (PiPrP) were produced by ring-opening polymerization to implement an alternative to the hydrophilic block PEG. Although, the 1,8 diazabicyclo[5.4.0]unde 7 ene (DBU) or 1,5,7 triazabicyclo[4.4.0]dec-5-ene (TBD) mediated synthesis of the corresponding poly(alkyl phosphonate)s was successful, however, not so the polymerization of copolymers with PLA-based precursors (PLA-homo polymers, and PEG-PLA block copolymers). Transesterification, obtained by 1H-NMR spectroscopy, between the poly(phosphonate)- and PLA block caused a high-field shifted peak split of the methine proton in the PLA polymer chain, with split intensities depending on the used catalyst (DBU for PMeP, and TBD for PiPrP polymerization). An additional prepared block copolymer PiPrP-PLLA that wasn’t affected in its polymer sequence was finally used for self-assembly experiments with PLA-PEG and PEG-PLA mixing. This work provides a comprehensive study of the self-assembly behavior of PLA-based block copolymers influenced by various parameters such as polymer block lengths, self-assembly time, and stereocomplexation of block copolymer mixtures. N2 - Aufgrund seiner Bioverfügbarkeit und (biologischen) Abbaubarkeit stellt Polylactid (PLA) ein interessantes Polymer dar, welches bereits in Verpackungsmaterialien, chirurgische Fäden und in selbst organisierten Wirkstofftransportsystemen eingesetzt wird. Als ein Teil von amphiphilen Blockcopolymeren kann PLA die molekulare Selbstorganisation in wässrigen Lösungen wesentlich beeinflussen. Die gebildeten Strukturen sind dabei essenziell von Faktoren wie der Blockcopolymer Zusammensetzung, Amphiphilie, Proben Vorbereitung und der Enantiomerenreinheit des Monomers abhängig. Die Kenntnis über die beschriebenen Faktoren und das allgemeine Verständnis für die dazugehörigen Polymere sowie die Möglichkeit ihre Selbstorganisation zu beeinflussen, ist von entscheidender Bedeutung in biomedizinischen Anwendungen. Unterschiedliche Größen oder Formen der selbst organisierten Wirkstoffträgern haben einen erheblichen Effekt auf die Wechselwirkung mit dem entsprechenden biologischen System und somit einen essenziellen Einfluss auf den Ausgang der medikamentösen Therapie. Der erste Teil dieser Doktorarbeit beschreibt die Synthese und Untersuchung einer Serie von Poly(L-Lactid) (PLLA) und Poly(D-Lactid) (PDLA)-basierten amphiphilen Blockcopolymeren mit variierenden PLA (hydrophob) und Polyethylenglycol (PEG) (hydrophil) Kettenlägen, sowie unterschiedlichen Polymersequenzen (PEG-PLA und PLA-PEG). Die genannten PEG-PLA Blockcopolymere wurden mittels organokatalysierter ringöffnender Polymerisation (ROP) hergestellt, wobei das entsprechende PEG-OH als Makroinitiator diente. Im Gegensatz dazu mussten die entsprechenden PLA-PEG Blockcopolymere mittels Steglich Veresterung von modifizierten PLA mit PEG-OH hergestellt werden. Die Selbstorganisation der PLLA-basierten Blockcopolymeren und deren stereokomplexierten Mischungen in wässriger Lösung erfolgte unter Raumtemperatur und wurde mittels Dynamischer Lichtstreuung (DLS), Transmissionselektronenmikroskopie (TEM), Röntgenstrukturanalyse und Dynamische Differenzkalorimetrie (DSC) untersucht. Dabei wurden kugel- und wurmförmige Strukturen beobachtet, wobei die gebildeten Strukturen vom Lactid Gewichtsanteil im Polymer, sowie der Selbstorganisationszeit abhängig waren. Mit andauernder Selbstorganisation und zunehmender Kristallinität wurden die zuerst gebildeten kugelförmigen Strukturen kolloidal unstabil und es erfolgte ein epitaktisches Wachstum zu wurmförmigen Strukturen in Abhängigkeit der Lactid Kettenlänge. Die stereokomplexierten Blockcopolymer Mischungen hingegen bildeten, unabhängig von der Copolymersequenz der entsprechenden Polymer Partner, hauptsächlich unregelmäßige Ansammlungen kugelförmiger Strukturen welche den Eindruck einer Perlenkette erweckten. Mit dem Einsetzen der Stereokomplexierung zeigten zeitlich aufgelöste Selbstorganisationsexperimente eine Transformation von bereits gebildeten Strukturen verschiedenster Formen und Größen (Polymer abhängig) zu kompakten Mizellen. Im zweiten Teil dieser Doktorarbeit wurden, mit dem Ziel die Selbstorganisation von PLA-basierten Blockcopolymeren und deren Stereokomplexmischung vermehrt zu beeinflussen, zwei alternative Polymere zu PEG untersucht. Ähnlich wie PLA, konnten mittels organokatalysierter ROP Polymethylphosphonat (PMeP) und Polyisopropylphosphonat (PiPrP) erfolgreich hergestellt werden. Die Blockcopolymer Synthese mit PLA-basierten Polymervorgängern erwies sich jedoch als schwierig. Aufgrund einer Protonenpeakspaltung der Methingruppe in der PLA-Wiederholeinheit konnten mittels 1H-NMR Spektroskopie Umersterungsprozesse zwischen dem Polyalkylphosphonat- und PLA block nachgewiesen werden, welche in Abhängigkeit des verwendeten Katalysators (DBU oder TBD) unterschiedlich stark ausfielen. Das ebenfalls hergestellte PiPrP-PLLA Blockcopolymer wies keine Unregelmäßigkeiten in der Polymersequenz auf und wurde anschließend für Selbstorganisationsexperimente mit PLA-PEG und PEG-PLA genutzt. Diese Arbeit liefert eine umfangreiche Studie zur Selbstorganisation PLA-basierter Blockcopolymere und untersucht verschiedenste Einflussparameter wie Blocklängen, Selbstorganisationszeit und Stereokomplexierung in Polymermischungen. KW - polylactide KW - polymer KW - self-assembly KW - stereocomplexation KW - block copolymer KW - Polylactid KW - Polymer KW - Selbstorganisation KW - Stereokomplexierung KW - Block Copolymer Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436168 ER - TY - THES A1 - Qin, Qing T1 - Chemical functionalization of porous carbon-based materials to enable novel modes for efficient electrochemical N2 fixation T1 - Chemische Funktionalisierung von porösen Materialien auf Kohlenstoffbasis zur Ermöglichung neuartiger Verfahren für eine effiziente elektrochemische N2-Fixierung N2 - The central motivation of the thesis was to provide possible solutions and concepts to improve the performance (e.g. activity and selectivity) of electrochemical N2 reduction reaction (NRR). Given that porous carbon-based materials usually exhibit a broad range of structural properties, they could be promising NRR catalysts. Therefore, the advanced design of novel porous carbon-based materials and the investigation of their application in electrocatalytic NRR including the particular reaction mechanisms are the most crucial points to be addressed. In this regard, three main topics were investigated. All of them are related to the functionalization of porous carbon for electrochemical NRR or other electrocatalytic reactions. In chapter 3, a novel C-TixOy/C nanocomposite has been described that has been obtained via simple pyrolysis of MIL-125(Ti). A novel mode for N2 activation is achieved by doping carbon atoms from nearby porous carbon into the anion lattice of TixOy. By comparing the NRR performance of M-Ts and by carrying out DFT calculations, it is found that the existence of (O-)Ti-C bonds in C-doped TixOy can largely improve the ability to activate and reduce N2 as compared to unoccupied OVs in TiO2. The strategy of rationally doping heteroatoms into the anion lattice of transition metal oxides to create active centers may open many new opportunities beyond the use of noble metal-based catalysts also for other reactions that require the activation of small molecules as well. In chapter 4, a novel catalyst construction composed of Au single atoms decorated on the surface of NDPCs was reported. The introduction of Au single atoms leads to active reaction sites, which are stabilized by the N species present in NDPCs. Thus, the interaction within as-prepared AuSAs-NDPCs catalysts enabled promising performance for electrochemical NRR. For the reaction mechanism, Au single sites and N or C species can act as Frustrated Lewis pairs (FLPs) to enhance the electron donation and back-donation process to activate N2 molecules. This work provides new opportunities for catalyst design in order to achieve efficient N2 fixation at ambient conditions by utilizing recycled electric energy. The last topic described in chapter 5 mainly focused on the synthesis of dual heteroatom-doped porous carbon from simple precursors. The introduction of N and B heteroatoms leads to the construction of N-B motives and Frustrated Lewis pairs in a microporous architecture which is also rich in point defects. This can improve the strength of adsorption of different reactants (N2 and HMF) and thus their activation. As a result, BNC-2 exhibits a desirable electrochemical NRR and HMF oxidation performance. Gas adsorption experiments have been used as a simple tool to elucidate the relationship between the structure and catalytic activity. This work provides novel and deep insights into the rational design and the origin of activity in metal-free electrocatalysts and enables a physically viable discussion of the active motives, as well as the search for their further applications. Throughout this thesis, the ubiquitous problems of low selectivity and activity of electrochemical NRR are tackled by designing porous carbon-based catalysts with high efficiency and exploring their catalytic mechanisms. The structure-performance relationships and mechanisms of activation of the relatively inert N2 molecules are revealed by either experimental results or DFT calculations. These fundamental understandings pave way for a future optimal design and targeted promotion of NRR catalysts with porous carbon-based structure, as well as study of new N2 activation modes. N2 - Die zentrale Motivation der Arbeit war es, mögliche Lösungen und Konzepte zur Verbesserung der Leistung (z.B. Aktivität und Selektivität) der elektrochemischen N2-Reduktionsreaktion (NRR) anzubieten. Da poröse Materialien auf Kohlenstoffbasis in der Regel ein breites Spektrum an strukturellen Eigenschaften aufweisen, könnten sie vielversprechende NRR-Katalysatoren sein. Daher sind das fortgeschrittene Design neuartiger poröser Materialien auf Kohlenstoffbasis und die Untersuchung ihrer Anwendung in der elektrokatalytischen NRR einschließlich der besonderen Reaktionsmechanismen die wichtigsten Punkte, die angegangen werden müssen. In diesem Zusammenhang wurden drei Hauptthemen untersucht. Alle von ihnen stehen im Zusammenhang mit der Funktionalisierung von porösem Kohlenstoff für elektrochemische NRR oder andere elektrokatalytische Reaktionen. In Kapitel 3 wurde ein neuartiger C-TixOy/C-Nanokomposit beschrieben, der durch einfache Pyrolyse von MIL-125(Ti) gewonnen wurde. Ein neuartiger Modus für die N2-Aktivierung wird durch Dotierung von Kohlenstoffatomen aus nahegelegenem porösem Kohlenstoff in das Aniongitter von TixOy erreicht. Durch den Vergleich der NRR-Leistung von M-Ts und die Durchführung von DFT-Berechnungen wird festgestellt, dass die Existenz von (O-)Ti-C-Bindungen in C-dotiertem TixOy die Fähigkeit zur Aktivierung und Reduktion von N2 im Vergleich zu unbesetzten OVs in TiO2 erheblich verbessern kann. Die Strategie, Heteroatome rational in das Aniongitter von Übergangsmetalloxiden zu dotieren, um aktive Zentren zu schaffen, kann viele neue Möglichkeiten eröffnen, die über den Einsatz von edelmetallbasierten Katalysatoren hinausgehen, auch für andere Reaktionen, die ebenfalls die Aktivierung von kleinen Molekülen erfordern. In Kapitel 4 wurde über eine neuartige Katalysatorkonstruktion aus Au-Einzelatomen berichtet, die auf der Oberfläche von NDPCs dekoriert sind. Die Einführung von Au-Einzelatomen führt zu aktiven Reaktionsstellen, die durch die in NDPCs vorhandenen N-Spezies stabilisiert werden. So ermöglichte die Interaktion innerhalb von hergestellten AuSAs-NDPCs-Katalysatoren eine vielversprechende Leistung für die elektrochemische NRR. Für den Reaktionsmechanismus können Au-Einzelstandorte und N- oder C-Spezies als frustrierte Lewis-Paare (FLPs) fungieren, um den Elektronenabgabe- und Rückgabeprozess zur Aktivierung von N2-Molekülen zu verbessern. Diese Arbeit bietet neue Möglichkeiten für das Design von Katalysatoren, um eine effiziente N2-Fixierung unter Umgebungsbedingungen durch die Nutzung recycelter elektrischer Energie zu erreichen. Das letzte in Kapitel 5 beschriebene Thema konzentrierte sich hauptsächlich auf die Synthese von dualem heteroatomdotiertem porösem Kohlenstoff aus einfachen Vorläufern. Die Einführung von N- und B-Heteroatomen führt zur Konstruktion von N-B-Motiven und frustrierten Lewis-Paaren in einer mikroporösen Architektur, die ebenfalls reich an Punktdefekten ist. Dies kann die Adsorptionskraft verschiedener Reaktanden (N2 und HMF) und damit deren Aktivierung verbessern. Infolgedessen weist BNC-2 eine wünschenswerte elektrochemische NRR- und HMF-Oxidationsleistung auf. Gasadsorptionsexperimente wurden als einfaches Werkzeug zur Aufklärung des Zusammenhangs zwischen Struktur und katalytischer Aktivität eingesetzt. Diese Arbeit liefert neue und tiefe Einblicke in das rationale Design und den Ursprung der Aktivität bei metallfreien Elektrokatalysatoren und ermöglicht eine physikalisch tragfähige Diskussion der aktiven Motive, sowie die Suche nach deren weiteren Anwendungen. Während dieser Arbeit, die allgegenwärtigen Probleme der niedrigen Selektivität und Aktivität der elektrochemischen NRR werden durch die Gestaltung poröser Katalysatoren auf Kohlenstoffbasis mit hoher Effizienz und die Erforschung ihrer katalytischen Mechanismen. Die Struktur-Leistungsbeziehungen und Aktivierungsmechanismen der relativ inerten N2-Moleküle werden entweder durch experimentelle Ergebnisse oder DFT-Berechnungen aufgezeigt. Diese grundlegenden Erkenntnisse ebnen den Weg für ein zukünftiges optimales Design und eine gezielte Förderung von NRR-Katalysatoren mit poröser Kohlenstoffstruktur, sowie für die Untersuchung neuer N2-Aktivierungsmodi. KW - N2 fixation KW - porous carbon-based materials KW - ammonia KW - selectivity KW - N2-Fixierung KW - porösen Materialien auf Kohlenstoffbasis KW - Ammoniak KW - Selektivität Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443397 ER - TY - THES A1 - Wozny, Florian T1 - Three empirical essays in health economics T1 - Drei empirische Essays in Gesundheitsökonomik N2 - Modern health care systems are characterized by pronounced prevention and cost-optimized treatments. This dissertation offers novel empirical evidence on how useful such measures can be. The first chapter analyzes how radiation, a main pollutant in health care, can negatively affect cognitive health. The second chapter focuses on the effect of Low Emission Zones on public heath, as air quality is the major external source of health problems. Both chapters point out potentials for preventive measures. Finally, chapter three studies how changes in treatment prices affect the reallocation of hospital resources. In the following, I briefly summarize each chapter and discuss implications for health care systems as well as other policy areas. Based on the National Educational Panel Study that is linked to data on radiation, chapter one shows that radiation can have negative long-term effects on cognitive skills, even at subclinical doses. Exploiting arguably exogenous variation in soil contamination in Germany due to the Chernobyl disaster in 1986, the findings show that people exposed to higher radiation perform significantly worse in cognitive tests 25 years later. Identification is ensured by abnormal rainfall within a critical period of ten days. The results show that the effect is stronger among older cohorts than younger cohorts, which is consistent with radiation accelerating cognitive decline as people get older. On average, a one-standarddeviation increase in the initial level of CS137 (around 30 chest x-rays) is associated with a decrease in the cognitive skills by 4.1 percent of a standard deviation (around 0.05 school years). Chapter one shows that sub-clinical levels of radiation can have negative consequences even after early childhood. This is of particular importance because most of the literature focuses on exposure very early in life, often during pregnancy. However, population exposed after birth is over 100 times larger. These results point to substantial external human capital costs of radiation which can be reduced by choices of medical procedures. There is a large potential for reductions because about one-third of all CT scans are assumed to be not medically justified (Brenner and Hall, 2007). If people receive unnecessary CT scans because of economic incentives, this chapter points to additional external costs of health care policies. Furthermore, the results can inform the cost-benefit trade-off for medically indicated procedures. Chapter two provides evidence about the effectiveness of Low Emission Zones. Low Emission Zones are typically justified by improvements in population health. However, there is little evidence about the potential health benefits from policy interventions aiming at improving air quality in inner-cities. The chapter ask how the coverage of Low Emission Zones air pollution and hospitalization, by exploiting variation in the roll out of Low Emission Zones in Germany. It combines information on the geographic coverage of Low Emission Zones with rich panel data on the universe of German hospitals over the period from 2006 to 2016 with precise information on hospital locations and the annual frequency of detailed diagnoses. In order to establish that our estimates of Low Emission Zones’ health impacts can indeed be attributed to improvements in local air quality, we use data from Germany’s official air pollution monitoring system and assign monitor locations to Low Emission Zones and test whether measures of air pollution are affected by the coverage of a Low Emission Zone. Results in chapter two confirm former results showing that the introduction of Low Emission Zones improved air quality significantly by reducing NO2 and PM10 concentrations. Furthermore, the chapter shows that hospitals which catchment areas are covered by a Low Emission Zone, diagnose significantly less air pollution related diseases, in particular by reducing the incidents of chronic diseases of the circulatory and the respiratory system. The effect is stronger before 2012, which is consistent with a general improvement in the vehicle fleet’s emission standards. Depending on the disease, a one-standard-deviation increase in the coverage of a hospitals catchment area covered by a Low Emission Zone reduces the yearly number of diagnoses up to 5 percent. These findings have strong implications for policy makers. In 2015, overall costs for health care in Germany were around 340 billion euros, of which 46 billion euros for diseases of the circulatory system, making it the most expensive type of disease caused by 2.9 million cases (Statistisches Bundesamt, 2017b). Hence, reductions in the incidence of diseases of the circulatory system may directly reduce society’s health care costs. Whereas chapter one and two study the demand-side in health care markets and thus preventive potential, chapter three analyzes the supply-side. By exploiting the same hospital panel data set as in chapter two, chapter three studies the effect of treatment price shocks on the reallocation of hospital resources in Germany. Starting in 2005, the implementation of the German-DRG-System led to general idiosyncratic treatment price shocks for individual hospitals. Thus far there is little evidence of the impact of general price shocks on the reallocation of hospital resources. Additionally, I add to the exiting literature by showing that price shocks can have persistent effects on hospital resources even when these shocks vanish. However, simple OLS regressions would underestimate the true effect, due to endogenous treatment price shocks. I implement a novel instrument variable strategy that exploits the exogenous variation in the number of days of snow in hospital catchment areas. A peculiarity of the reform allowed variation in days of snow to have a persistent impact on treatment prices. I find that treatment price increases lead to increases in input factors such as nursing staff, physicians and the range of treatments offered but to decreases in the treatment volume. This indicates supplier-induced demand. Furthermore, the probability of hospital mergers and privatization decreases. Structural differences in pre-treatment characteristics between hospitals enhance these effects. For instance, private and larger hospitals are more affected. IV estimates reveal that OLS results are biased towards zero in almost all dimensions because structural hospital differences are correlated with the reallocation of hospital resources. These results are important for several reasons. The G-DRG-Reform led to a persistent polarization of hospital resources, as some hospitals were exposed to treatment price increases, while others experienced reductions. If hospitals increase the treatment volume as a response to price reductions by offering unnecessary therapies, it has a negative impact on population wellbeing and public spending. However, results show a decrease in the range of treatments if prices decrease. Hospitals might specialize more, thus attracting more patients. From a policy perspective it is important to evaluate if such changes in the range of treatments jeopardize an adequate nationwide provision of treatments. Furthermore, the results show a decrease in the number of nurses and physicians if prices decrease. This could partly explain the nursing crisis in German hospitals. However, since hospitals specialize more they might be able to realize efficiency gains which justify reductions in input factors without loses in quality. Further research is necessary to provide evidence for the impact of the G-DRG-Reform on health care quality. Another important aspect are changes in the organizational structure. Many public hospitals have been privatized or merged. The findings show that this is at least partly driven by the G-DRG-Reform. This can again lead to a lack in services offered in some regions if merged hospitals specialize more or if hospitals are taken over by ecclesiastical organizations which do not provide all treatments due to moral conviction. Overall, this dissertation reveals large potential for preventive health care measures and helps to explain reallocation processes in the hospital sector if treatment prices change. Furthermore, its findings have potentially relevant implications for other areas of public policy. Chapter one identifies an effect of low dose radiation on cognitive health. As mankind is searching for new energy sources, nuclear power is becoming popular again. However, results of chapter one point to substantial costs of nuclear energy which have not been accounted yet. Chapter two finds strong evidence that air quality improvements by Low Emission Zones translate into health improvements, even at relatively low levels of air pollution. These findings may, for instance, be of relevance to design further policies targeted at air pollution such as diesel bans. As pointed out in chapter three, the implementation of DRG-Systems may have unintended side-effects on the reallocation of hospital resources. This may also apply to other providers in the health care sector such as resident doctors. N2 - Moderne Gesundheitssysteme zeichnen sich sowohl durch eine ausgeprägte Prävention als auch durch kostenoptimierte Behandlungen aus. Diese Dissertation bietet neue empirische Erkenntnisse darüber, wie nützlich solche Maßnahmen sein können. Das erste Kapitel analysiert, wie Strahlung, ein Hauptschadstoff im Gesundheitswesen, die kognitive Gesundheit negativ beeinflussen kann. Das zweite Kapitel konzentriert sich auf die Auswirkungen von Umweltzonen auf die öffentliche Gesundheit, da die Luftqualität die wichtigste externe Quelle für Gesundheitsprobleme ist. Beide Kapitel zeigen Potenziale für präventive Maßnahmen auf. Schließlich wird in Kapitel drei untersucht, wie sich Änderungen von Behandlungspreisen auf die Reallokation von Krankenhausressourcen auswirken. Im Folgenden fasse ich jedes Kapitel kurz zusammen und diskutiere die Relevanz für Gesundheitssysteme und andere Politikbereiche. Basierend auf dem Nationalen Bildungspanel, welches wir mit Strahlungsdaten verknüpfen, zeigt Kapitel eins, dass Strahlung, auch in geringen Dosen, negative Langzeitwirkungen auf die kognitiven Fähigkeiten haben kann. Dazu nutzen wir die exogene Variation der Bodenkontamination in Deutschland nach der Tschernobyl-Katastrophe von 1986. Die Ergebnisse zeigen, dass Menschen, die einer höheren Strahlung ausgesetzt waren, 25 Jahre später in kognitiven Tests deutlich schlechter abschneiden. Die Identifizierung wird durch anormale Niederschläge innerhalb eines kritischen Zeitraums von zehn Tagen nach dem Reaktorunfall gewährleistet. Die Ergebnisse zeigen, dass der Effekt bei älteren Kohorten stärker ist als bei jüngeren Kohorten, was mit der Theorie übereinstimmt, dass Strahlung den altersbedingten Rückgang der kognitiven Leistungsfähigkeit beschleunigt. Im Durchschnitt ist eine Erhöhung des Anfangsniveaus von CS137 um eine Standardabweichung (ca. 30 Thoraxröntgenaufnahmen) mit einer Abnahme der kognitiven Fähigkeiten um 4,1 Prozent einer Standardabweichung verbunden (ca. 0.05 Schuljahre). Die Ergebnisse in Kapitel eins zeigen, dass geringe Strahlungswerte auch nach der frühen Kindheit negative Folgen haben können. Dies ist von besonderer Bedeutung, da sich der Großteil der Literatur auf die Exposition in sehr frühen Lebensphasen konzentriert, oft während der Schwangerschaft. Die nach der Geburt exponierte Bevölkerung ist jedoch über 100-mal größer. Diese Ergebnisse deuten auf erhebliche externe Humankapitalkosten der Strahlung hin, die zum Beispiel durch die Wahl medizinischer Verfahren reduziert werden können. Es bestehen große Reduktionspotenziale, da beispielsweise etwa ein Drittel aller CT-Scans als medizinisch nicht gerechtfertigt angesehen werden (Brenner and Hall, 2007). Unter der Annahme, dass Menschen aufgrund wirtschaftlicher Anreize unnötige CT-Scans erhalten, weist dieses Kapitel auf zusätzliche externe Kosten von Gesundheitsmaßnahmen für die Gesundheit der Patienten hin. Außerdem erweitern die Ergebnisse die Informationsgrundlage für Risiko-Nutzen-Abwägungen medizinischer Behandlungen. Kapitel zwei liefert Belege für die Wirksamkeit von Umweltzonen. Umweltzonen sind in der Regel durch eine Verbesserung der Gesundheit der Bevölkerung gerechtfertigt. Es gibt jedoch wenig Belege für den gesundheitlichen Nutzen solcher politischen Maßnahmen zur Verbesserung der Luftqualität in Innenstädten. In dem Kapitel analysieren wir, wie sich die Ausdehnung der Umweltzonen auf die Luftverschmutzung und die Krankenhausaufenthalte auswirkt. Dazu nutzen wir zeitliche Unterschiede bei der Einführung der Umweltzonen in Deutschland. Hierfür kombinieren wir Informationen über die geografische Abdeckung der Umweltzonen mit umfangreichen Paneldaten von allen deutschen Krankenhäusern im Zeitraum von 2006 bis 2016. Die Krankenhausdaten enthalten präzise Informationen über Krankenhausstandorte und die jährliche Häufigkeit detaillierter Diagnosen. Um sicherzustellen, dass unsere Schätzungen der gesundheitlichen Auswirkungen der Umweltzonen auf eine Verbesserung der lokalen Luftqualität zurückzuführen sind, verwenden wir Daten aus dem offiziellen deutschen Luftmessnetz und ordnen den Umweltzonen Monitorstandorte zu. Hierdurch prüfen wir, ob Messungen der Luftverschmutzung durch die Abdeckung einer Umweltzone beeinflusst werden. Die Ergebnisse in Kapitel zwei bestätigen frühere Ergebnisse, die zeigen, dass die Einführung von Umweltzonen die Luftqualität durch die Reduzierung der NO2- und PM10-Konzentrationen deutlich verbessert. Darüber hinaus zeigt das Kapitel, dass Krankenhäuser, deren Einzugsgebiete in eine Umweltzone fallen, deutlich weniger durch Luftverschmutzung bedingte Krankheiten diagnostizieren, insbesondere durch die Verringerung von chronischen Krankheiten des Kreislaufs und der Atemwege. Der Effekt ist vor 2012 stärker, was sich durch eine allgemeine Verbesserung der Abgasnormen für Fahrzeuge erklären lässt. Wird der Anteil eines Krankenhauseinzugsgebiets mit Umweltzone um eine Standardabweichung erhöht, reduziert sich die jährliche Anzahl der entsprechenden Diagnosen um bis zu 5 Prozent. Diese Ergebnisse sind für politische Entscheidungsträger von Bedeutung. Im Jahr 2015 gab Deutschland 46 Milliarden Euro für Herz-Kreislauf-Erkrankungen aus, die teuerste Krankheitsform mit 2,9 Millionen Fällen. Die Reduktion von Herz-Kreislauf-Erkrankungen würde die Gesundheitskosten der Gesellschaft unmittelbar senken. Während Kapitel eins und zwei die Nachfrageseite in Gesundheitsmärkten und damit das Präventionspotenzial untersuchen, analysiert Kapitel drei die Angebotsseite. Unter Verwendung desselben Krankenhauspaneldatensatzes wie in Kapitel zwei untersuche ich die Auswirkungen von veränderten Behandlungspreisen auf Krankenhausressourcen in Deutschland. Ab 2005 wurden die Behandlungspreise für Patienten durch das G-DRG- System umgewandelt, was bis 2010 zu allgemeinen idiosynkratischen Preisschocks für einzelne Krankenhäuser führte. Die vorhandene Literatur bildet den Effekt von allgemeinen Preisschocks auf Krankenhausressourcen jedoch nur unzureichend ab. Außerdem erweitere ich die vorhandene Literatur indem ich zeige, dass Preisänderungen auch dann langfristige Auswirkungen auf Krankenhausressourcen haben können, wenn die Preisschocks verschwinden. Einfache OLS-Regressionen würden den wahren Effekt aufgrund von endogenen Preisschocks unterschätzen. Unter Zuhilfenahme von hochauflösenden Satellitendaten nutze ich eine Instrumentenvariablenstrategie, welche exogene Schwankungen der Wetterbedingungen im Einzugsbereich von Krankenhäusern nutzt. Eine Besonderheit der Reform führt dazu, dass Abweichungen der Wetterbedingungen zum Zeitpunkt der Reformeinführung einen nachhaltigen Einfluss auf die Behandlungspreise hatten. Die Ergebnisse zeigen, dass Preiserhöhungen im Laufe der Zeit zu einem Anstieg des Pflegepersonals, von Ärzten und der Vielfalt der angebotenen Behandlungen führen, aber zu einem Rückgang des Behandlungsvolumens. Bei privaten und größeren Krankenhäusern sind die Auswirkungen stärker. Darüber hinaus sinkt die Wahrscheinlichkeit von Krankenhausfusionen und Privatisierungen. IV-Ergebnisse zeigen gegen Null verzerrte OLS-Schätzungen in fast allen Dimensionen, da strukturelle Krankenhausunterschiede mit der Reallokation von Ressourcen korreliert sind. Diese Ergebnisse sind aus mehreren Gründen wichtig. Die G-DRG-Reform führte zu einer anhaltenden Polarisation von Krankenhausressourcen, da Krankenhäuser sowohl Preisanstiege als auch Preissenkungen erfuhren. Wenn Krankenhäuser das Behandlungsvolumen durch unnötige Therapien erhöhen, hat das negative Auswirkungen auf die öffentliche Gesundheit der Bevölkerung und die öffentlichen Ausgaben. Andererseits zeigen die Ergebnisse einen Rückgang der Bandbreite der angebotenen Behandlungen bei sinkenden Preisen. Krankenhäuser könnten sich stärker spezialisieren und so mehr Patienten anziehen. Aus politischer Sicht ist es wichtig zu beurteilen, ob solche Veränderungen in der Vielfalt der angebotenen Behandlungen eine angemessene flächendeckende Versorgung gefährden. Des Weiteren zeigen die Ergebnisse einen Rückgang der Zahl der Krankenschwestern und Ärzte, wenn die Preise sinken. Dies könnte die Pflegekrise, welche die Bundesregierung in Deutschland beschreibt, teilweise erklären. Da sich die Krankenhäuser jedoch stärker spezialisieren, können sie möglicherweise Effizienzsteigerungen erzielen, die eine Verringerung der Inputfaktoren rechtfertigen, ohne an Qualität zu verlieren. Weitere Untersuchungen sind notwendig, um die Auswirkungen auf die Qualität der Gesundheitsversorgung nachzuweisen. Ein weiterer wichtiger Aspekt sind Veränderungen in der Organisationsstruktur. Viele öffentliche Krankenhäuser werden privatisiert oder mit anderen Krankenhäusern fusioniert. Meine Ergebnisse zeigen, dass dies zumindest teilweise auf die G-DRG-Reform zurückzuführen ist. Dies kann zu einem Mangel an angebotenen Behandlungen in einigen Regionen führen, wenn sich fusionierte Krankenhäuser spezialisieren oder wenn Krankenhäuser von kirchlichen Organisationen übernommen werden, die aus moralischen Gründen nicht alle Behandlungen anbieten. Insgesamt unterstreicht diese Dissertation das große Potenzial von Gesundheitsvorsorgemaßnahmen und hilft, Reallokationsprozesse im Krankenhaussektor zu erklären. Darüber hinaus haben die Ergebnisse potenziell relevante Auswirkungen auf andere Bereiche der Politik. Kapitel Eins identifiziert einen Einfluss von geringer Radioaktivität auf die kognitive Gesundheit. Auf der Suche nach neuen Energiequellen wird die Kernenergie wieder populär. Die Ergebnisse von Kapitel Eins deuten jedoch auf erhebliche Kosten von Kernenergie hin, die in der aktuellen Debatte noch nicht berücksichtigt wurden. Kapitel Zwei findet starke Hinweise darauf, dass die Verbesserung der Luftqualität durch Umweltzonen, selbst bei relativ geringer Luftverschmutzung, zu einer Verbesserung der Gesundheit führt. Diese Ergebnisse können für die Einführung weiterer Maßnahmen zur Bekämpfung der Luftverschmutzung von Bedeutung sein, wie beispielsweise Fahrverbote für Dieselfahrzeuge. Wie in Kapitel Drei dargelegt, kann die Einführung von DRG-Systemen unbeabsichtigte Effekte bei der Reallokation von Krankenhausressourcen haben. Dies kann auch für andere Anbieter im Gesundheitswesen wie niedergelassene Ärzte gelten. KW - health economics KW - managment KW - hospital KW - Gesundheitsökonomik KW - Management KW - Krankenhaus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469910 ER - TY - THES A1 - Goktas, Melis T1 - Coiled coils as molecular force sensors for the extracellular matrix T1 - Coiled coils als molekulare Kraftsensoren für die extrazelluläre Matrix N2 - Kraft spielt eine fundamentale Rolle bei der Regulation von biologischen Prozessen. Zellen messen mechanische Eigenschaften der extrazellulären Matrix und benutzen diese Information zur Regulierung ihrer Funktion. Dazu werden im Zytoskelett Kräfte generiert und auf extrazelluläre Rezeptor-Ligand Wechselwirkungen übertragen. Obwohl der grundlegende Einfluss von mechanischen Signalen für das Zellschicksal eindeutig belegt ist, sind die auf molekularer Ebene wirkenden Kräfte kaum bekannt. Zur Messung dieser Kräfte wurden verschiedene molekulare Kraftsensoren entwickelt, die ein mechanisches Inputsignal aufnehmen und in einen optischen Output (Fluoreszenz) umwandeln. Diese Arbeit etabliert einen neuen Kraftsensor-Baustein, der die mechanischen Eigenschaften der extrazellulären Matrix nachbildet. Dieser Baustein basiert auf natürlichen Matrixproteinen, sogenannten coiled coils (CCs), die α-helikale Strukturen im Zytoskelett und der Matrix formen. Eine Serie an CC-Heterodimeren wurde konzipiert und mittels Einzelmolekül-Kraftspektroskopie und Molekulardynamik-Simulationen charakterisiert. Es wurde gezeigt, dass eine anliegende Scherkraft die Entfaltung der helikalen Struktur induziert. Die mechanische Stabilität (Separation der CC Helices) wird von der CC Länge und der Zuggeschwindigkeit bestimmt. Im Folgenden wurden 2 CCs unterschiedlicher Länge als Kraftsensoren verwendet, um die Adhäsionskräfte von Fibroblasten und Endothelzellen zu untersuchen. Diese Kraftsensoren deuten an, dass diese Zelltypen unterschiedlich starke Kräften generieren und mittels Integrin-Rezeptoren auf einen extrazellulären Liganden (RGD-Peptid) übertragen. Dieses neue CC-basierte Sensordesign ist ein leistungsstarkes Werkzeug zur Betrachtung zellulärer Kraftwahrnehmungsprozesse auf molekularer Ebene, das neue Erkenntnisse über die involvierten Mechanismen und Kräfte an der Zell-Matrix-Schnittstelle ermöglicht. Darüber hinaus wird dieses Sensordesign auch Anwendung bei der Entwicklung mechanisch kontrollierter Biomaterialien finden. Dazu können mechanisch charakterisierte, und mit einem Fluoreszenzreporter versehene, CCs in Hydrogele eingefügt werden. Dies erlaubt die Untersuchung der Zusammenhänge zwischen molekularer und makroskopischer Mechanik und eröffnet neue Möglichkeiten zur Diskriminierung von lokalen und globalen Faktoren, die die zelluläre Antwort auf mechanische Signale bestimmen. N2 - Force plays a fundamental role in the regulation of biological processes. Cells can sense the mechanical properties of the extracellular matrix (ECM) by applying forces and transmitting mechanical signals. They further use mechanical information for regulating a wide range of cellular functions, including adhesion, migration, proliferation, as well as differentiation and apoptosis. Even though it is well understood that mechanical signals play a crucial role in directing cell fate, surprisingly little is known about the range of forces that define cell-ECM interactions at the molecular level. Recently, synthetic molecular force sensor (MFS) designs have been established for measuring the molecular forces acting at the cell-ECM interface. MFSs detect the traction forces generated by cells and convert this mechanical input into an optical readout. They are composed of calibrated mechanoresponsive building blocks and are usually equipped with a fluorescence reporter system. Up to date, many different MFS designs have been introduced and successfully used for measuring forces involved in the adhesion of mammalian cells. These MFSs utilize different molecular building blocks, such as double-stranded deoxyribonucleic acid (dsDNA) molecules, DNA hairpins and synthetic polymers like polyethylene glycol (PEG). These currently available MFS designs lack ECM mimicking properties. In this work, I introduce a new MFS building block for cell biology applications, derived from the natural ECM. It combines mechanical tunability with the ability to mimic the native cellular microenvironment. Inspired by structural ECM proteins with load bearing function, this new MFS design utilizes coiled coil (CC)-forming peptides. CCs are involved in structural and mechanical tasks in the cellular microenvironment and many of the key protein components of the cytoskeleton and the ECM contain CC structures. The well-known folding motif of CC structures, an easy synthesis via solid phase methods and the many roles CCs play in biological processes have inspired studies to use CCs as tunable model systems for protein design and assembly. All these properties make CCs ideal candidates as building blocks for MFSs. In this work, a series of heterodimeric CCs were designed, characterized and further used as molecular building blocks for establishing a novel, next-generation MFS prototype. A mechanistic molecular understanding of their structural response to mechanical load is essential for revealing the sequence-structure-mechanics relationships of CCs. Here, synthetic heterodimeric CCs of different length were loaded in shear geometry and their mechanical response was investigated using a combination of atomic force microscope (AFM)-based single-molecule force spectroscopy (SMFS) and steered molecular dynamics (SMD) simulations. SMFS showed that the rupture forces of short heterodimeric CCs (3-5 heptads) lie in the range of 20-50 pN, depending on CC length, pulling geometry and the applied loading rate (dF/dt). Upon shearing, an initial rise in the force, followed by a force plateau and ultimately strand separation was observed in SMD simulations. A detailed structural analysis revealed that CC response to shear load depends on the loading rate and involves helix uncoiling, uncoiling-assisted sliding in the direction of the applied force and uncoiling-assisted dissociation perpendicular to the force axis. The application potential of these mechanically characterized CCs as building blocks for MFSs has been tested in 2D cell culture applications with the goal of determining the threshold force for cell adhesion. Fully calibrated, 4- to 5-heptad long, CC motifs (CC-A4B4 and CC-A5B5) were used for functionalizing glass surfaces with MFSs. 3T3 fibroblasts and endothelial cells carrying mutations in a signaling pathway linked to cell adhesion and mechanotransduction processes were used as model systems for time-dependent adhesion experiments. A5B5-MFS efficiently supported cell attachment to the functionalized surfaces for both cell types, while A4B4-MFS failed to maintain attachment of 3T3 fibroblasts after the first 2 hours of initial cell adhesion. This difference in cell adhesion behavior demonstrates that the magnitude of cell-ECM forces varies depending on the cell type and further supports the application potential of CCs as mechanoresponsive and tunable molecular building blocks for the development of next-generation protein-based MFSs.This novel CC-based MFS design is expected to provide a powerful new tool for observing cellular mechanosensing processes at the molecular level and to deliver new insights into the mechanisms and forces involved. This MFS design, utilizing mechanically tunable CC building blocks, will not only allow for measuring the molecular forces acting at the cell-ECM interface, but also yield a new platform for the development of mechanically controlled materials for a large number of biological and medical applications. KW - molecular force sensors KW - cell-ECM interactions KW - extracellular matrix (ECM) KW - cellular forces KW - coiled coil KW - single molecule force spectroscopy KW - molekulare Kraftsensoren KW - Zell-Matrix-Wechselwirkung KW - extrazelluläre Matrix KW - zelluläre Kräfte KW - coiled coil KW - Einzelmolekül-Kraftspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427493 ER - TY - THES A1 - Solopow, Sergej T1 - Wavelength dependent demagnetization dynamics in Co2MnGa Heusler-alloy T1 - Wellenlängeabhängige Entmagnetisierungsdynamik in Co2MnGa Heusler-Legierung N2 - In dieser Arbeit haben wir ultraschnelle Entmagnetisierung an einer Heusler-Legierung untersucht. Es handelt sich um ein Halbmetall, das sich in einer ferromagnetischen Phase befindet. Die Besonderheit dieses Materials besteht im Aufbau einer Bandstruktur. Diese bildet Zustandsdichten, in der die Majoritätselektronen eine metallische Bänderbildung aufweisen und die Minoritätselektronen eine Bandlücke in der Nähe des Fermi-Niveaus aufweisen, das dem Aufbau eines Halbleiters entspricht. Mit Hilfe der Pump-Probe-Experimente haben wir zeitaufgelöste Messungen durchgeführt. Für das Pumpen wurden ultrakurze Laserpulse mit einer Pulsdauer von 100 fs benutzt. Wir haben dabei zwei verschiedene Wellenlängen mit 400 nm und 1240 nm benutzt, um den Effekt der Primäranregung und der Bandlücke in den Minoritätszuständen zu untersuchen. Dabei wurde zum ersten Mal OPA (Optical Parametrical Amplifier) für die Erzeugung der langwelligen Pulse an der FEMTOSPEX-Beamline getestet und erfolgreich bei den Experimenten verwendet. Wir haben Wellenlängen bedingte Unterschiede in der Entmagnetisierungszeit gemessen. Mit der Erhöhung der Photonenenergie ist der Prozess der Entmagnetisierung deutlich schneller als bei einer niedrigeren Photonenenergie. Wir verknüpften diese Ergebnisse mit der Existenz der Energielücke für Minoritätselektronen. Mit Hilfe lokaler Elliot-Yafet-Streuprozesse können die beobachteten Zeiten gut erklärt werden. Wir haben in dieser Arbeit auch eine neue Probe-Methode für die Magnetisierung angewandt und somit experimentell deren Effektivität, nämlich XMCD in Refletiongeometry, bestätigen können. Statische Experimente liefern somit deutliche Indizien dafür, dass eine magnetische von einer rein elektronischen Antwort des Systems getrennt werden kann. Unter der Voraussetzung, dass die Photonenenergie der Röntgenstrahlung auf die L3 Kante des entsprechenden Elements eingestellt, ein geeigneter Einfallswinkel gewählt und die zirkulare Polarisation fixiert wird, ist es möglich, diese Methode zur Analyse magnetischer und elektronischer Respons anzuwenden. N2 - In this work we investigated ultrafast demagnetization in a Heusler-alloy. This material belongs to the halfmetal and exists in a ferromagnetic phase. A special feature of investigated alloy is a structure of electronic bands. The last leads to the specific density of the states. Majority electrons form a metallic like structure while minority electrons form a gap near the Fermi-level, like in semiconductor. This particularity offers a good possibility to use this material as model-like structure and to make some proof of principles concerning demagnetization. Using pump-probe experiments we carried out time-resolved measurements to figure out the times of demagnetization. For the pumping we used ultrashort laser pulses with duration around 100 fs. Simultaneously we used two excitation regimes with two different wavelengths namely 400 nm and 1240 nm. Decreasing the energy of photons to the gap size of the minority electrons we explored the effect of the gap on the demagnetization dynamics. During this work we used for the first time OPA (Optical Parametrical Amplifier) for the generation of the laser irradiation in a long-wave regime. We tested it on the FETOSPEX-beamline in BASSYII electron storage ring. With this new technique we measured wavelength dependent demagnetization dynamics. We estimated that the demagnetization time is in a correlation with photon energy of the excitation pulse. Higher photon energy leads to the faster demagnetization in our material. We associate this result with the existence of the energy-gap for minority electrons and explained it with Elliot-Yaffet-scattering events. Additionally we applied new probe-method for magnetization state in this work and verified their effectivity. It is about the well-known XMCD (X-ray magnetic circular dichroism) which we adopted for the measurements in reflection geometry. Static experiments confirmed that the pure electronic dynamics can be separated from the magnetic one. We used photon energy fixed on the L3 of the corresponding elements with circular polarization. Appropriate incidence angel was estimated from static measurements. Using this probe method in dynamic measurements we explored electronic and magnetic dynamics in this alloy. KW - magnetizationdynamic KW - XMCD KW - Heusler-alloy KW - Magnetisierungsdynamik KW - XMCD KW - Heusler-Legierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427860 ER - TY - THES A1 - Kav, Batuhan T1 - Membrane adhesion mediated via lipid-anchored saccharides T1 - Membranadhäsion durch Lipid-verankerte Saccharide N2 - Membrane adhesion is a fundamental biological process in which membranes are attached to neighboring membranes or surfaces. Membrane adhesion emerges from a complex interplay between the binding of membrane-anchored receptors/ligands and the membrane properties. In this work, we study membrane adhesion mediated by lipid-anchored saccharides using microsecond-long full-atomistic molecular dynamics simulations. Motivated by neutron scattering experiments on membrane adhesion via lipid-anchored saccharides, we investigate the role of LeX, Lac1, and Lac2 saccharides and membrane fluctuations in membrane adhesion. We study the binding of saccharides in three different systems: for saccharides in water, for saccharides anchored to essentially planar membranes at fixed separations, and for saccharides anchored to apposing fluctuating membranes. Our simulations of two saccharides in water indicate that the saccharides engage in weak interactions to form dimers. We find that the binding occurs in a continuum of bound states instead of a certain number of well-defined bound structures, which we term as "diffuse binding". The binding of saccharides anchored to essentially planar membranes strongly depends on separation of the membranes, which is fixed in our simulation system. We show that the binding constants for trans-interactions of two lipid-anchored saccharides monotonically decrease with increasing separation. Saccharides anchored to the same membrane leaflet engage in cis-interactions with binding constants comparable to the trans-binding constants at the smallest membrane separations. The interplay of cis- and trans-binding can be investigated in simulation systems with many lipid-anchored saccharides. For Lac2, our simulation results indicate a positive cooperativity of trans- and cis-binding. In this cooperative binding the trans-binding constant is enhanced by the cis-interactions. For LeX, in contrast, we observe no cooperativity between trans- and cis-binding. In addition, we determine the forces generated by trans-binding of lipid-anchored saccharides in planar membranes from the binding-induced deviations of the lipid-anchors. We find that the forces acting on trans-bound saccharides increase with increasing membrane separation to values of the order of 10 pN. The binding of saccharides anchored to the fluctuating membranes results from an interplay between the binding properties of the lipid-anchored saccharides and membrane fluctuations. Our simulations, which have the same average separation of the membranes as obtained from the neutron scattering experiments, yield a binding constant larger than in planar membranes with the same separation. This result demonstrates that membrane fluctuations play an important role at average membrane separations which are seemingly too large for effective binding. We further show that the probability distribution of the local separation can be well approximated by a Gaussian distribution. We calculate the relative membrane roughness and show that our results are in good agreement with the roughness values reported from the neutron scattering experiments. N2 - Membranadhäsion ist ein fundamentaler biologischer Prozess, bei dem Membranen sich an benachbarte Membranen oder Oberfläche anheften. Membranadhäsion entstammt einem komplexen Zusammenspiel aus Bindungen zwischen Membranverankerten Rezeptor/Ligand-Bindungen und den Membraneigenschaften selbst. In dieser Arbeit untersuchen wir Membranadhäsion vermittelt durch Lipid-verankerte Saccharide mittels Mikrosekunden-langer voll-atomistischer molekular-dynamischer Simulationen. Motiviert durch Neutronen Scattering Experimente von Lipid-verankerten Sacchariden und deren Einfluss auf Membranadhäsion, untersuchen wir die Rolle der Saccharide LeX, Lac1 und Lac2 sowie der Membranfluktuationen in Membranadhäsion. Wir untersuchen die Bindungen der Saccharide in drei verschiedenen Systemen: In Wasser, verankert in quasi-ebenflächigen Membranen bei fixierten Abständen, und verankert in aneinanderliegenden, fluktuierenden Membranen. Unsere Simulationen von zwei Sacchariden in Wasser deuten darauf hin, dass diese Saccharide durch schwache Interaktionen Dimere formen. Anstelle einiger klar definierter Bindungsstrukturen, finden wir ein Kontinuum von gebundenen Zuständen vor, das wir als "diffuse Bindung" bezeichnen. Die Bindungen von Sacchariden in quasi-ebenflächigen Membranen hängt stark vom Abstand zwischen diesen Membranen ab, der in unserem System fest gewählt ist. Wir zeigen, dass die Bundungskonstanten für trans-Interaktionen zweier Lipid-verankerter Saccharide monoton abnimmt mit zunehmendem Abstand. Saccharide verankert auf der selben Membran wechselwirken in cis-Interaktionen, deren Bindungskonstanten denen der trans-Interaktionen bei dem kleinsten gewählten Membranabstand ähneln. Das Zusammenspiel der cis- und trans-Interaktionen kann in Simulationssystemen mit vielen Lipid-verankerten Sacchariden untersucht werden. Für Lac2 deuten unsere Simulationen auf eine Kooperativität zwischen cis- und trans-Interaktionen hin: In diesem kooperativen Bindungsprozess verstärkt die cis-Interkation die trans-Bindunskonstante. Für LeX hingegen stellen wir keine Kooperativität zwischen trans- und cis-Bindung fest. Zusätzlich bestimmen wir die generierten Kräfte, die durch trans-gebundene Lipid-verankerte Saccharide in ebenflächigen Membranen und die resultierende Ablenkung der Lipid-Anker hervorgerufen werden. Wir stellen fest, dass mit gesteigertem Abstand zwischen den Membranen, die auf trans-gebundene Saccharide wirkenden Kräfte auf bis zu 10 pN ansteigen. Die Bindungen von Sacchariden, die in fluktuierenden Membranen verankert sind, resultieren aus einem Zusammenspiel zwischen den Eigenschaften dieser Lipid-verankerten Saccharide und den Membranfluktuationen. Unsere Simulationen, die den Membranabstand aufweisen, der auch in den Neutron Scattering Experimenten ermittelt wurde, resultieren in einer Bindungskonstante, die größer ist als jene in quasi-ebenflächigen Membranen bei dem gleichen Abstand. Dieses Ergebnis demonstriert, dass Membranfluktuationen eine wichtige Rolle spielen bei mittleren Membranabstünden, die sonst scheinbar zu groß sind für effektive Bindungsprozesse. Weiterhin zeigen wir, dass die Wahrscheinlichkeitsverteilung der lokalen Abstünde gut durch eine Gauss-Verteilung approximiert werden kann. Wir berechnen die relative Membranrauigkeit und zeigen, dass unsere Ergebnisse gut mit denen der Neutron Scattering Experimente vereinbar sind. KW - molecular dynamics KW - membrane adhesion KW - lipid-anchored saccharide KW - lipid membranes KW - membrane adhesion forces KW - Molekulardynamik KW - Membranadhäsion KW - lipid-verankerte Saccharide KW - Lipidmembran KW - Membran-Adhäsionskräfte Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-428790 ER - TY - THES A1 - Brechun, Katherine E. T1 - Development and application of genetic networks for engineering photo-controlled proteins T1 - Die Entwicklung und Anwendung von genetischen Netzwerken zur Konstruktion von licht-schaltbaren Proteinen N2 - Light-switchable proteins are being used increasingly to understand and manipulate complex molecular systems. The success of this approach has fueled the development of tailored photo-switchable proteins, to enable targeted molecular events to be studied using light. The development of novel photo-switchable tools has to date largely relied on rational design. Complementing this approach with directed evolution would be expected to facilitate these efforts. Directed evolution, however, has been relatively infrequently used to develop photo-switchable proteins due to the challenge presented by high-throughput evaluation of switchable protein activity. This thesis describes the development of two genetic circuits that can be used to evaluate libraries of switchable proteins, enabling optimization of both the on- and off-states. A screening system is described, which permits detection of DNA-binding activity based on conditional expression of a fluorescent protein. In addition, a tunable selection system is presented, which allows for the targeted selection of protein-protein interactions of a desired affinity range. This thesis additionally describes the development and characterization of a synthetic protein that was designed to investigate chromophore reconstitution in photoactive yellow protein (PYP), a promising scaffold for engineering photo-controlled protein tools. N2 - Licht ist eins der wichtigsten Impulse für Lebewesen, denn es dient Energie- und Informationsquelle. Folglich haben Organismen verschiedene Mechanismen entwickelt, um Licht wahrzunehmen und darauf zu reagieren. Pflanzen zum Beispiel haben Proteine, die auf Licht reagieren und dabei einen Prozess auslösen, der dazu führt, dass die Pflanze in Richtung der Sonne wächst. Es wurde Anfang 2000 gezeigt, dass solche licht-reagierende Proteine als wertvolle molekulare Werkzeuge in der Biotechnologie benutzt werden können. Wenn man Licht benutzten kann, um einen molekularen Prozess zu aktivieren (beziehungsweise zu inaktivieren), kann dessen Prozess mit sehr genauer Kontrolle untersucht werden. Manche natürlich vorhandene licht-reagierende Proteine können direkt als licht-schaltbare Werkzeuge benutzt werden, aber häufig müssen solche Proteine geändert werden, um ihre Funktion anzupassen. Eine sehr erfolgreiche Herangehensweise, um die Funktion eines Proteins zu ändern, ist die Herstellung und anschließende Auswertung von Protein-Bibliotheken. Diese Methode nennt sich gerichtete Evolution (engl.: directed evolution). Eine Protein-Bibliothek wird durch die ungezielte Einführung von Mutationen im Gen eines Proteins hergestellt. Die daraus entstandene Sammlung von Proteinen (in der Regel Millionen oder Milliarden) wird danach ausgewertet, um verbesserte Mutanten des Proteins zu identifizieren. Die Auswertung erfolgt mithilfe eines Hochdurchsatz-Screening- oder Selektionssystems. Ein solches System ermöglicht es, Zellen mit Proteinen, die eine gewünschte Funktion trägen, zu identifizieren. Die Entwicklung und Optimierung von licht-schaltbaren Proteinen stellt eine besondere Herausforderung dar; die Aktivität des Proteins muss in einem Zustand (zum Beispiel unter Licht) verbessert werden und im entgegengesetzten Zustand (Dunkelheit) verhindert werden. Darüber hinaus mangelt es an Methoden, die die Hochdurchsatz-Auswertung von schaltbaren Proteinfunktion ermöglichen, welches die Anwendung von gerichteter Evolution verhindert. Das Forschungsgebiet der licht-schaltbaren Proteine würde von der Entwicklung von Systemen profitieren, die die Hochdurchsatz-Auswertung von schaltbaren Proteinfunktion ermöglicht. Diese Dissertation beschreibt die Entwicklung und Optimierung von zwei Systemen, die die Hochdurchsatz-Auswertung von schaltbaren Proteinfunktion ermöglicht. Das erste System verbindet die Produktion eines fluoreszierenden Proteins mit der Aktivität eines licht-schaltbaren Proteins, sodass Information über die Aktivität des Proteins erhalten wird. Das zweite System ermöglicht die Selektion von Protein-Protein-Interaktionen mit gezielter Affinität. Diese Dissertation beschreibt zusätzlich die Untersuchung vom licht-reagierenden Protein Photoactive Yellow Protein (PYP). Auf Grund der großen licht-induzierten strukturellen Veränderungen, ist PYP ein nützliches Proteingerüst zur Entwicklung von licht-schaltbaren Proteinen. In dieser Arbeit wurde die enzymatische Synthese vom PYP Chromophormolekül optimiert. Darüber hinaus wurde die Wiederherstellung von PYP-basierten synthetischen Proteinen zum ersten Mal mit enzymatisch-produziertem Chromophor gezeigt. KW - genetic circuits KW - protein engineering KW - photoactive proteins KW - photoactive yellow protein (PYP) KW - genetische Netzwerke KW - Protein-Engineering KW - licht-schaltbare Proteine Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430924 ER - TY - THES A1 - Lefebvre, Marie G. T1 - Two stages of skarn formation - two tin enrichments T1 - Zwei Stufen der Skarn-Bildung - zwei Phasen der Zinnmobilisierung BT - the Hämmerlein polymetallic skarn deposit, western Erzgebirge, Germany BT - die polymetallische Skarnablagerung Hämmerlein, West Erzgebirge, Deutschland N2 - Skarn deposits are found on every continents and were formed at different times from Precambrian to Tertiary. Typically, the formation of a skarn is induced by a granitic intrusion in carbonates-rich sedimentary rocks. During contact metamorphism, fluids derived from the granite interact with the sedimentary host rocks, which results in the formation of calc-silicate minerals at the expense of carbonates. Those newly formed minerals generally develop in a metamorphic zoned aureole with garnet in the proximal and pyroxene in the distal zone. Ore elements contained in magmatic fluids are precipitated due to the change in fluid composition. The temperature decrease of the entire system, due to the cooling of magmatic fluids and the entering of meteoric water, allows retrogression of some prograde minerals. The Hämmerlein skarn deposit has a multi-stage history with a skarn formation during regional metamorphism and a retrogression of primary skarn minerals during the granitic intrusion. Tin was mobilized during both events. The 340 Ma old tin-bearing skarn minerals show that tin was present in sediments before the granite intrusion, and that the first Sn enrichment occurred during the skarn formation by regional metamorphism fluids. In a second step at ca. 320 Ma, tin-bearing fluids were produced with the intrusion of the Eibenstock granite. Tin, which has been added by the granite and remobilized from skarn calc-silicates, precipitated as cassiterite. Compared to clay or marl, the skarn is enriched in Sn, W, In, Zn, and Cu. These metals have been supplied during both regional metamorphism and granite emplacement. In addition, the several isotopic and chemical data of skarn samples show that the granite selectively added elements such as Sn, and that there was no visible granitic contribution to the sedimentary signature of the skarn The example of Hämmerlein shows that it is possible to form a tin-rich skarn without associated granite when tin has already been transported from tin-bearing sediments during regional metamorphism by aqueous metamorphic fluids. These skarns are economically not interesting if tin is only contained in the skarn minerals. Later alteration of the skarn (the heat and fluid source is not necessarily a granite), however, can lead to the formation of secondary cassiterite (SnO2), with which the skarn can become economically highly interesting. N2 - Skarn-Lagerstätten befinden sich auf allen Kontinenten und wurden zu unterschiedlichen Zeiten vom Präkambrium bis zum Tertiär gebildet. Typischerweise wird die Bildung eines Skarns durch die Intrusion eines Granits in karbonatreiche Sedimentgesteine induziert. Während der Kontaktmetamorphose reagieren die Fluide aus dem Granit mit dem sedimentären Wirtgestein, was zur Bildung von Kalksilikaten auf Kosten von Karbonaten führt. Diese neu gebildeten Minerale entwickeln sich im Allgemeinen in einer metamorph zonierten Aureole mit Granat im proximalen und Pyroxen im distalen Bereich. Erzelemente die in magmatischen Fluiden enthalten sind werden aufgrund der veränderten Fluidzusammensetzung ausgefällt. Die Temperaturabsenkung des gesamten Systems, hervorgerufen durch die Abkühlung von magmatischen Fluiden sowie durch das Eindringen meteorischen Wassers, führen zu teilweisen oder vollständigen Umwandlung prograder Minerale. Die Skarn-Lagerstätte Hämmerlein hat eine mehrstufige Geschichte mit Skarnsbildung während der regionalen Metamorphose und Retrogression der primären Skarn-Minerale während der Intrusion von Graniten. Zinn wurde während beiden Ereignissen mobilisiert. Die 340 Ma alten zinnhaltigen Skarnminerale zeigen, dass Zinn in Sedimenten bereits vor dem Graniteintrag vorhanden war, und dass die erste Sn-Anreicherung während der Bildung des Skarns durch Fluide der Regionalmetamorphose stattfand. In einem zweiten Schritt um 320 Ma wurden Zinn-haltige Fluide durch die Intrusion des Eibenstockgranits freigesetzt. Diese Fluide überprägten den Skarn. Das freisetzen und das neu zugefügte Zinn ist in Kassiterit gebunden und führten dem System zusätzliches Zinn zu, wobei Zinn aus den Skarn-Kalksilikaten remobilisiert wurde. Im Vergleich zu Tonstein oder Mergel sind die Skarn mit Sn, W, In, Zn, und Cu angereichet. Diese Metalle sind während der Regionalmetamorphose und der Granitplatznahme zu unterschiedlichen Teilen zugeführt worden. Darüber hinaus zeigen die verschiedenen isotopen und chemischen Daten der Skarn-Proben, dass der Granit selektiv einige Elemente wie Sn hinzugefügt, und dass es keinen sichtbar granitischen Beitrag zur sedimentären Signatur des Skarns gab. Das Beispiel Hämmerlein zeigt, dass es möglich ist einen zinnreichen Skarn ohne zugehörigen Granit zu bilden, wenn Zinn von zinnhaltigen Sedimenten während einer Regionalmetamorphose mit wässrigen metamorphen Fluiden transportiert worden ist. Diese Skarne sind wirtschaftlich uninterssant wenn das Zinn nur in den Skarn-Mineralen enthalten ist. Spätere Umwandlung des Skarns (die Quelle der Wärme und Fluiden ist nicht unbedingt ein Granit) kann jedoch zur Bildung von sekundärem Kassiterite (SnO2) führen, womit der Skarn plötzlich wirtschaftlich hoch interessant sein kann. KW - Hämmerlein KW - skarn KW - tin KW - ore deposit KW - geochronology KW - lithium KW - boron KW - Hämmerlein KW - Skarn KW - Zinn KW - Lagerstätte KW - Geochronologie KW - Lithium KW - Bor Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427178 ER - TY - THES A1 - Liu, Jiabo T1 - Dynamics of the geomagnetic field during the last glacial T1 - Dynamik des geomagnetischen Feldes während der letzten Eiszeit N2 - Geomagnetic paleosecular variations (PSVs) are an expression of geodynamo processes inside the Earth’s liquid outer core. These paleomagnetic time series provide insights into the properties of the Earth’s magnetic field, from normal behavior with a dominating dipolar geometry, over field crises, such as pronounced intensity lows and geomagnetic excursions with a distorted field geometry, to the complete reversal of the dominating dipole contribution. Particularly, long-term high-resolution and high-quality PSV time series are needed for properly reconstructing the higher frequency components in the spectrum of geomagnetic field variations and for a better understanding of the effects of smoothing during the recording of such paleomagnetic records by sedimentary archives. In this doctorate study, full vector paleomagnetic records were derived from 16 sediment cores recovered from the southeastern Black Sea. Age models are based on radiocarbon dating and correlations of warming/cooling cycles monitored by high-resolution X-ray fluorescence (XRF) elementary ratios as well as ice-rafted debris (IRD) in Black Sea sediments to the sequence of ‘Dansgaard-Oeschger’ (DO) events defined from Greenland ice core oxygen isotope stratigraphy. In order to identify the carriers of magnetization in Black Sea sediments, core MSM33-55-1 recovered from the southeast Black Sea was subjected to detailed rock magnetic and electron microscopy investigations. The younger part of core MSM33-55-1 was continuously deposited since 41 ka. Before 17.5 ka, the magnetic minerals were dominated by a mixture of greigite (Fe3S4) and titanomagnetite (Fe3-xTixO4) in samples with SIRM/κLF >10 kAm-1, or exclusively by titanomagnetite in samples with SIRM/κLF ≤10 kAm-1. It was found that greigite is generally present as crustal aggregates in locally reducing micro-environments. From 17.5 ka to 8.3 ka, the dominant magnetic mineral in this transition phase was changing from greigite (17.5 – ~10.0 ka) to probably silicate-hosted titanomagnetite (~10.0 – 8.3 ka). After 8.3 ka, the anoxic Black Sea was a favorable environment for the formation of non-magnetic pyrite (FeS2) framboids. Aiming to avoid compromising of paleomagnetic data by erroneous directions carried by greigite, paleomagnetic data from samples with SIRM/κLF >10 kAm-1, shown to contain greigite by various methods, were removed from obtained records. Consequently, full vector paleomagnetic records, comprising directional data and relative paleointensity (rPI), were derived only from samples with SIRM/κLF ≤10 kAm-1 from 16 Black Sea sediment cores. The obtained data sets were used to create a stack covering the time window between 68.9 and 14.5 ka with temporal resolution between 40 and 100 years, depending on sedimentation rates. At 64.5 ka, according to obtained results from Black Sea sediments, the second deepest minimum in relative paleointensity during the past 69 ka occurred. The field minimum during MIS 4 is associated with large declination swings beginning about 3 ka before the minimum. While a swing to 50°E is associated with steep inclinations (50-60°) according to the coring site at 42°N, the subsequent declination swing to 30°W is associated with shallow inclinations of down to 40°. Nevertheless, these large deviations from the direction of a geocentric axial dipole field (I=61°, D=0°) still can not yet be termed as 'excursional', since latitudes of corresponding VGPs only reach down to 51.5°N (120°E) and 61.5°N (75°W), respectively. However, these VGP positions at opposite sides of the globe are linked with VGP drift rates of up to 0.2° per year in between. These extreme secular variations might be the mid-latitude expression of the Norwegian–Greenland Sea excursion found at several sites much further North in Arctic marine sediments between 69°N and 81°N. At about 34.5 ka, the Mono Lake excursion is evidenced in the stacked Black Sea PSV record by both a rPI minimum and directional shifts. Associated VGPs from stacked Black Sea data migrated from Alaska, via central Asia and the Tibetan Plateau, to Greenland, performing a clockwise loop. This agrees with data recorded in the Wilson Creek Formation, USA., and Arctic sediment core PS2644-5 from the Iceland Sea, suggesting a dominant dipole field. On the other hand, the Auckland lava flows, New Zealand, the Summer Lake, USA., and Arctic sediment core from ODP Site-919 yield distinct VGPs located in the central Pacific Ocean due to a presumably non-dipole (multi-pole) field configuration. A directional anomaly at 18.5 ka, associated with pronounced swings in inclination and declination, as well as a low in rPI, is probably contemporaneous with the Hilina Pali excursion, originally reported from Hawaiian lava flows. However, virtual geomagnetic poles (VGPs) calculated from Black Sea sediments are not located at latitudes lower than 60° N, which denotes normal, though pronounced secular variations. During the postulated Hilina Pali excursion, the VGPs calculated from Black Sea data migrated clockwise only along the coasts of the Arctic Ocean from NE Canada (20.0 ka), via Alaska (18.6 ka) and NE Siberia (18.0 ka) to Svalbard (17.0 ka), then looping clockwise through the Eastern Arctic Ocean. In addition to the Mono Lake and the Norwegian–Greenland Sea excursions, the Laschamp excursion was evidenced in the Black Sea PSV record with the lowest paleointensities at about 41.6 ka and a short-term (~500 years) full reversal centered at 41 ka. These excursions are further evidenced by an abnormal PSV index, though only the Laschamp and the Mono Lake excursions exhibit excursional VGP positions. The stacked Black Sea paleomagnetic record was also converted into one component parallel to the direction expected from a geocentric axial dipole (GAD) and two components perpendicular to it, representing only non-GAD components of the geomagnetic field. The Laschamp and the Norwegian–Greenland Sea excursions are characterized by extremely low GAD components, while the Mono Lake excursion is marked by large non-GAD contributions. Notably, negative values of the GAD component, indicating a fully reversed geomagnetic field, are observed only during the Laschamp excursion. In summary, this doctoral thesis reconstructed high-resolution and high-fidelity PSV records from SE Black Sea sediments. The obtained record comprises three geomagnetic excursions, the Norwegian–Greenland Sea excursion, the Laschamp excursion, and the Mono Lake excursion. They are characterized by abnormal secular variations of different amplitudes centered at about 64.5 ka, 41.0 ka and 34.5 ka, respectively. In addition, the obtained PSV record from the Black Sea do not provide evidence for the postulated 'Hilina Pali excursion' at about 18.5 ka. Anyway, the obtained Black Sea paleomagnetic record, covering field fluctuations from normal secular variations, over excursions, to a short but full reversal, points to a geomagnetic field characterized by a large dynamic range in intensity and a highly variable superposition of dipole and non-dipole contributions from the geodynamo during the past 68.9 to 14.5 ka. N2 - Die geomagnetischen Paläosäkularvarionen sind ein Ausdruck dynamischer Konvektionsprozesse im flüssigen äußeren Erdkern als Quelle des Erdmagnetfeldes, dem Geodynamo. Paläomagnetischen Zeitserien erlauben daher Rückschlüsse auf die veränderlichen Eigenschaften des Erdmagnetfeldes in Raum und Zeit, von stabilen Zuständen mit relativ hoher Feldstärke und dominierender Dipolgeometrie, bei der die magnetischen Pole nur in hohen Breiten migireren, über Feldkrisen wie Intensitätsminima und geomagnetischen Exkursionen mit komplexeren Geomentrien, bishin zur vollständigen und dauerhaften Umpolung des Dipolhauptfeldes. Eine geomagnetische Exkursion, als Extremfall der Paläosekularvariationen, ist charakterisiert durch kurzfristige (<104 Jahre) Abweichungen der paläomagnetischen Richtungen von der Richtung, die ein geozentrischer axialer Dipol produziert. Die aus paläognetisch bestimmten Richtungen abgeleiteten Positionen des virtuellen geomagnetischen (Nord-) Pols (VGP) liegen dabei per Definition südlich von 45°N. Für diese Doktoarbeit wurden sechzehn Sedimentkerne aus dem Schwarzen Meer herangezogen, um das Verhalten des Erdmagnetfeldes der letzten 70 ka zu untersuchen. Die dabei rekonstruierten Feldvariationen umfassen drei geomagnetische Exkursionen: die 'Norwegian-Greenland Sea excursion' (64.5 ka), die 'Laschamps excursion' (41.0 ka), sowie die 'Mono Lake excursion' (34.5 ka). Alle drei Ereignisse sind mit ausgeprägten Minima in der Feldintensität verbunden. Insbesondere während der 'Laschamps excursion', kam es zu einer kurzfristigen (0.5 ka) aber vollständigen Umpolung, während für die 'Mono Lake excursion' nur ein stark verzerrtes Dipolfeld anzunehmen ist. Die in der Literatur postulierte 'Hilina Pali excursion' (18.5 ka) konnte trotz in diesem Zeitraum zeitlich hochaufgelöster Datenreihen aus dem Schwarzen Meer nicht verifiziert werden. Für sie konnte, ähnlich wie für die 'Norwegian Greenland Sea excursion', lediglich stärker ausgeprägte, zum Teil zeitlich beschleunigte Änderungen in Inklination und Deklination der Magnetfeldrichtung nachgewiesen werden. KW - paleomagnetism KW - geomagnetic excursions KW - paleosecular variations KW - Black Sea KW - Paläomagnetik KW - geomagnetische Exkursionen KW - Paläosekularvariation KW - Schwarzes Meer Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429461 ER - TY - THES A1 - Böhne, Sebastian T1 - Different degrees of formality T1 - Verschiedene Formalitätsgrade BT - an introduction to the concept and a demonstration of its usefulness BT - Vorstellung des Konzepts und Nachweis seiner Nützlichkeit N2 - In this thesis we introduce the concept of the degree of formality. It is directed against a dualistic point of view, which only distinguishes between formal and informal proofs. This dualistic attitude does not respect the differences between the argumentations classified as informal and it is unproductive because the individual potential of the respective argumentation styles cannot be appreciated and remains untapped. This thesis has two parts. In the first of them we analyse the concept of the degree of formality (including a discussion about the respective benefits for each degree) while in the second we demonstrate its usefulness in three case studies. In the first case study we will repair Haskell B. Curry's view of mathematics, which incidentally is of great importance in the first part of this thesis, in light of the different degrees of formality. In the second case study we delineate how awareness of the different degrees of formality can be used to help students to learn how to prove. Third, we will show how the advantages of proofs of different degrees of formality can be combined by the development of so called tactics having a medium degree of formality. Together the three case studies show that the degrees of formality provide a convincing solution to the problem of untapped potential. N2 - In dieser Dissertation stellen wir das Konzept der Formalitätsgrade vor, welches sich gegen eine dualistische Sichtweise richtet, die nur zwischen formalen und informalen Beweisen unterscheidet. Letztere Sichtweise spiegelt nämlich die Unterschiede zwischen den als informal klassifizierten Argumentationen nicht wieder und ist außerdem unproduktiv, weil sie nicht in der Lage ist, das individuelle Potential der jeweiligen Argumentationsstile wertzuschätzen und auszuschöpfen. Die Dissertation hat zwei Teile. Im ersten analysieren wir das Konzept der Formalitätsgrade (eine Diskussion über die Vorteile der jeweiligen Grade eingeschlossen), während wir im zweiten Teil die Nützlichkeit der Formalitätsgrade anhand von drei Fallbeispielen nachweisen. Im ersten von diesen werden wir Haskell B. Currys Sichtweise zur Mathematik, die nebenbei bemerkt von größter Wichtigkeit für den ersten Teil der Dissertation ist, mithilfe der verschiedenen Formalitätsgrade reparieren. Im zweiten Fallbeispiel zeigen wir auf, wie die Beachtung der verschiedenen Formalitätsgrade den Studenten dabei helfen kann, das Beweisen zu erlernen. Im letzten Fallbeispiel werden wir dann zeigen, wie die Vorteile von Beweisen verschiedener Formalitätsgrade durch die Anwendung sogenannter Taktiken mittleren Formalitätsgrades kombiniert werden können. Zusammen zeigen die drei Fallbeispiele, dass die Formalitätsgrade eine überzeugende Lösung für das Problem des ungenutzten Potentials darstellen. KW - argumentation KW - Coq KW - Curry KW - degree of formality KW - formalism KW - logic KW - mathematics education KW - philosophy of mathematics KW - proof KW - proof assistant KW - proof environment KW - tactic KW - Argumentation KW - Beweis KW - Beweisassistent KW - Beweisumgebung KW - Coq KW - Curry KW - Formalismus KW - Formalitätsgrad KW - Logik KW - Mathematikdidaktik KW - Mathematikphilosophie KW - Taktik Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423795 N1 - CCS -> Applied computing -> Education -> Interactive learning environments CCS -> Theory of computation -> Logic CCS -> Computing methodologies -> Symbolic and algebraic manipulation -> Symbolic and algebraic algorithms -> Theorem proving algorithms ER - TY - THES A1 - Pohlenz, Julia T1 - Structural insights into sodium-rich silicate - carbonate glasses and melts T1 - Strukturelle Eigenschaften von natriumreichen silikatisch-karbonatischen Gläsern und Schmelzen mittels in-situ XAFS an Spurenelementen und Molekular Dynamik BT - a combined study of trace element in-situ XAFS and Molecular Dynamics N2 - Carbonate-rich silicate and carbonate melts play a crucial role in deep Earth magmatic processes and their melt structure is a key parameter, as it controls physical and chemical properties. Carbonate-rich melts can be strongly enriched in geochemically important trace elements. The structural incorporation mechanisms of these elements are difficult to study because such melts generally cannot be quenched to glasses, which are usually employed for structural investigations. This thesis investigates the influence of CO2 on the local environments of trace elements contained in silicate glasses with variable CO2 concentrations as well as in silicate and carbonate melts. The compositions studied include sodium-rich peralkaline silicate melts and glasses and carbonate melts similar to those occurring naturally at Oldoinyo Lengai volcano, Tanzania. The local environments of the three elements yttrium (Y), lanthanum (La) and strontium (Sr) were investigated in synthesized glasses and melts using X-ray absorption fine structure (XAFS) spectroscopy. Especially extended X-ray absorption fine structure spectroscopy (EXAFS) provides element specific information on local structure, such as bond lengths, coordination numbers and the degree of disorder. To cope with the enhanced structural disorder present in glasses and melts, EXAFS analysis was based on fitting approaches using an asymmetric distribution function as well as a correlation model according to bond valence theory. Firstly, silicate glasses quenched from high pressure/temperature melts with up to 7.6 wt % CO2 were investigated. In strongly and extremely peralkaline glasses the local structure of Y is unaffected by the CO2 content (with oxygen bond lengths of ~ 2.29 Å). Contrary, the bond lengths for Sr-O and La-O increase with increasing CO2 content in the strongly peralkaline glasses from ~ 2.53 to ~ 2.57 Å and from ~ 2.52 to ~ 2.54 Å, respectively, while they remain constant in extremely peralkaline glasses (at ~ 2.55 Å and 2.54 Å, respectively). Furthermore, silicate and unquenchable carbonate melts were investigated in-situ at high pressure/temperature conditions (2.2 to 2.6 GPa, 1200 to 1500 °C) using a Paris-Edinburgh press. A novel design of the pressure medium assembly for this press was developed, which features increased mechanical stability as well as enhanced transmittance at relevant energies to allow for low content element EXAFS in transmission. Compared to glasses the bond lengths of Y-O, La-O and Sr-O are elongated by up to + 3 % in the melt and exhibit higher asymmetric pair distributions. For all investigated silicate melt compositions Y-O bond lengths were found constant at ~ 2.37 Å, while in the carbonate melt the Y-O length increases slightly to 2.41 Å. The La-O bond lengths in turn, increase systematically over the whole silicate – carbonate melt joint from 2.55 to 2.60 Å. Sr-O bond lengths in melts increase from ~ 2.60 to 2.64 Å from pure silicate to silicate-bearing carbonate composition with constant elevated bond length within the carbonate region. For comparison and deeper insight, glass and melt structures of Y and Sr bearing sodium-rich silicate to carbonate compositions were simulated in an explorative ab initio molecular dynamics (MD) study. The simulations confirm observed patterns of CO2-dependent local changes around Y and Sr and additionally provide further insights into detailed incorporation mechanisms of the trace elements and CO2. Principle findings include that in sodium-rich silicate compositions carbon either is mainly incorporated as a free carbonate-group or shares one oxygen with a network former (Si or [4]Al) to form a non-bridging carbonate. Of minor importance are bridging carbonates between two network formers. Here, a clear preference for two [4]Al as adjacent network formers occurs, compared to what a statistical distribution would suggest. In C-bearing silicate melts minor amounts of molecular CO2 are present, which is almost totally dissolved as carbonate in the quenched glasses. The combination of experiment and simulation provides extraordinary insights into glass and melt structures. The new data is interpreted on the basis of bond valence theory and is used to deduce potential mechanisms for structural incorporation of investigated elements, which allow for prediction on their partitioning behavior in natural melts. Furthermore, it provides unique insights into the dissolution mechanisms of CO2 in silicate melts and into the carbonate melt structure. For the latter, a structural model is suggested, which is based on planar CO3-groups linking 7- to 9-fold cation polyhedra, in accordance to structural units as found in the Na-Ca carbonate nyerereite. Ultimately, the outcome of this study contributes to rationalize the unique physical properties and geological phenomena related to carbonated silicate-carbonate melts. N2 - Karbonatische und karbonatreiche silikatische Schmelzen spielen eine entscheidende Rolle in den magmatischen Prozessen der Erde. Die interne Schmelzstruktur bestimmt dabei maßgeblich ihre physikalischen und chemischen Eigenschaften. Karbonatreiche Schmelzen können sehr stark mit geochemisch wichtigen Spurenelementen angereichert sein. Die strukturellen Einbaumechanismen sind jedoch kaum verstanden, da diese Schmelzen nicht zu homogenen Gläsern abgeschreckt werden können, welche üblicherweise für strukturelle Untersuchungen genutzt werden. Die vorliegende Arbeit widmet sich dem Einfluss von CO2 auf die lokale Umgebung von ausgewählten Spurenelementen in karbonathaltigen silikatischen Gläsern sowie silikatisch bis karbonatischen Schmelzen. Untersucht werden natriumreiche, stark bis extrem peralkaline silikatische und karbonatische Zusammensetzungen, wie sie vom Vulkan Oldoinyo Lengai, Tansania, bekannt sind. Zum einen werden die lokale Umgebungen von Yttrium (Y), Lanthan (La) und Strontium (Sr) in synthetisierten Gläsern und Schmelzen mit Röntgen-Absorption-Feinstruktur-Spektroskopie (engl. X-ray absorption fine structure (XAFS) spectroscopy) untersucht. Insbesondere extended X-ray absorption fine structure (EXAFS) spectroscopy liefert elementspezifisch strukturelle Informationen über Bindungslängen, Koordinationszahlen und Ordnungsgrad. Dem hohen Grad struktureller Unordnung in Gläsern und Schmelzen wird in den vorliegenden EXAFS-Analysen mit der Verwendung einer asymmetrischen Verteilungsfunktion und eines Korrelationsmodells, basierend auf der Bindungsvalenztheorie, Rechnung getragen. Für silikatische Gläser mit steigendem CO2-Gehalt zwischen 0 und bis zu 7,6 Gew.-% ist festzustellen: (1) Konstante Bindungslängen für Sr-O (~ 2,55 Å) und La-O (~ 2,54 Å) in extrem peralkaliner Zusammensetzung, sowie für Y-O (~ 2,29 Å) in stark und extrem peralkaliner Zusammensetzung. (2) Zunehmende Bindungslängen für Sr-O (~ von 2,53 auf 2,57 Å) und La-O in stark peralkaliner Zusammensetzung (~ von 2,52 auf 2,54 Å). Weiterhin werden silikatische sowie nicht-abschreckbare karbonatische Schmelzen in-situ unter hohem Druck und hoher Temperatur (2,2 bis 2,6 GPa, 1200 bis 1500 °C, untersucht in einer Paris-Edinburgh-Presse) analysiert. Ein neu entwickelter Aufbau des Druckübertragungsmediums garantiert eine hohe mechanische Festigkeit und ermöglicht aufgrund hervorragender Transmissivität im relevanten Energiebereich Transmissions-EXAFS an niedrigkonzentrierten Elementen. Im Vergleich zu den Gläsern zeigen die Schmelzen generell ~ 3 % höhere Y-O-, La-O-, und Sr-O-Bindungslängen und eine erhöhte Asymmetrie in der Paarverteilung. In silikatischen Schmelzen sind Y-O-Bindungslängen konstant (~ 2,37 Å), wohingegen sie in karbonatischen Schmelzen zunehmen (bis zu 2,41 Å). La-O-Abstände vergrößern sich systematisch von silikatischen zu karbonatischen Schmelzen (von 2,55 auf 2,60 Å). Sr-O-Abstände steigen von 2,60 auf 2,64 Å in silikatischen Zusammensetzungen mit steigendem CO2-Gehalt und sind für alle karbonatischen Zusammensetzungen konstant. Zum Vergleich und besserem Verständnis wurden Y- und Sr-haltige, silikatische und karbonatische Glas- und Schmelzstrukturen in einer explorativen ab-initio Molekular Dynamik (MD) Studie simuliert. Die MD-Studie bestätigt die CO2-abhängigen lokalen Veränderungen um Y und Sr und liefert zusätzliche Einblicke in silikatische und karbonatische Glas- und Schmelzstrukturen. In natriumreicher silikatischer Zusammensetzung wird CO2 hauptsächlich als freie Karbonatgruppe eingebaut oder teilt sich als nicht-brückenbildendes Karbonat genau ein Sauerstoffatom mit einem Netzwerkbildner (Si oder [4]Al). Seltener tritt es als brückenbildendes Karbonat zwischen zwei Netzwerkbildnern auf; dabei allerdings mit einer gegenüber der statistischen Verteilung deutlich erhöhten Präferenz für zwei [4]Al als anliegende Netzwerkbildner. C-haltige Schmelzen weisen geringe Mengen an molekularem CO2 auf, welches in den abgeschreckten Gläsern fast vollständig als Karbonat gelöst ist. Die Kombination aus Experiment und Simulation gewährt außerordentliche Einblicke in nur schwierig zu untersuchende Glas- und Schmelzstrukturen. Die gewonnenen Daten werden auf Grundlage der Bindungsvalenztheorie gedeutet und hinsichtlich potentieller Mechanismen des strukturellen Spurenelementeinbaus sowie dem daraus ableitbaren Fraktionierungsverhalten in natürlichen Schmelzen diskutiert. Neue Erkenntnisse über den strukturellen CO2-Einbau werden genutzt, um ein Strukturmodell für karbonatische Schmelzen abzuleiten. Dieses basiert auf der Verknüpfung von 7- bis 9-fach koordinierten Kationenpolyedern durch die planaren Karbonat-Gruppen, ähnlich wie es im Na-Ca-Karbonat Nyerereite zu beobachten ist. Letztendlich leisten die Erkenntnisse der Arbeit somit ihren Beitrag, das Verständnis um die einzigartigen physikalischen Eigenschaften und geologischen Phänomene dieser Schmelzen zu vertiefen. KW - glass structure KW - melt structure KW - X-ray absorption spectroscopy KW - Glasstruktur KW - Schmelzstruktur KW - Röntgenabsorptionsspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423826 ER - TY - THES A1 - Hoffmann, Mathias T1 - Improving measurement and modelling approaches of the closed chamber method to better assess dynamics and drivers of carbon based greenhouse gas emissions N2 - The trace gases CO2 and CH4 pertain to the most relevant greenhouse gases and are important exchange fluxes of the global carbon (C) cycle. Their atmospheric quantity increased significantly as a result of the intensification of anthropogenic activities, such as especially land-use and land-use change, since the mid of the 18th century. To mitigate global climate change and ensure food security, land-use systems need to be developed, which favor reduced trace gas emissions and a sustainable soil carbon management. This requires the accurate and precise quantification of the influence of land-use and land-use change on CO2 and CH4 emissions. A common method to determine the trace gas dynamics and C sink or source function of a particular ecosystem is the closed chamber method. This method is often used assuming that accuracy and precision are high enough to determine differences in C gas emissions for e.g., treatment comparisons or different ecosystem components. However, the broad range of different chamber designs, related operational procedures and data-processing strategies which are described in the scientific literature contribute to the overall uncertainty of closed chamber-based emission estimates. Hence, the outcomes of meta-analyses are limited, since these methodical differences hamper the comparability between studies. Thus, a standardization of closed chamber data acquisition and processing is much-needed. Within this thesis, a set of case studies were performed to: (I) develop standardized routines for an unbiased data acquisition and processing, with the aim of providing traceable, reproducible and comparable closed chamber based C emission estimates; (II) validate those routines by comparing C emissions derived using closed chambers with independent C emission estimates; and (III) reveal processes driving the spatio-temporal dynamics of C emissions by developing (data processing based) flux separation approaches. The case studies showed: (I) the importance to test chamber designs under field conditions for an appropriate sealing integrity and to ensure an unbiased flux measurement. Compared to the sealing integrity, the use of a pressure vent and fan was of minor importance, affecting mainly measurement precision; (II) that the developed standardized data processing routines proved to be a powerful and flexible tool to estimate C gas emissions and that this tool can be successfully applied on a broad range of flux data sets from very different ecosystem; (III) that automatic chamber measurements display temporal dynamics of CO2 and CH4 fluxes very well and most importantly, that they accurately detect small-scale spatial differences in the development of soil C when validated against repeated soil inventories; and (IV) that a simple algorithm to separate CH4 fluxes into ebullition and diffusion improves the identification of environmental drivers, which allows for an accurate gap-filling of measured CH4 fluxes. Overall, the proposed standardized data acquisition and processing routines strongly improved the detection accuracy and precision of source/sink patterns of gaseous C emissions. Hence, future studies, which consider the recommended improvements, will deliver valuable new data and insights to broaden our understanding of spatio-temporal C gas dynamics, their particular environmental drivers and underlying processes. N2 - Die Spurengase CO2 und CH4 gehören zu den wichtigsten atmosphärischen Treibhausgasen und sind zugleich wichtige Austauschflüsse im globalen Kohlenstoff-(C)-Kreislauf. Als Ergebnis zunehmender anthropogener Aktivitäten insbesondere auch im Bereich der Landnutzung und des Landnutzungswandel stiegen seit Mitte des 18 Jahrhunderts die atmosphärischen CO2 und CH4 Konzentrationen deutlich an. Um die zu erwartenden Auswirkungen des globalen Klimawandels abzuschwächen aber auch um die weltweite Ernährungssicherheit zu gewährleisten, bedarf es der Entwicklung neuer Landnutzungssysteme welche sich durch verminderte Treibhausgasemissionen und ein nachhaltiges Management der Bodenkohlenstoffvorrate auszeichnen. Dies erfordert die akkurate und präzise Quantifizierung des Einflusses von Landnutzung und Landnutzungswandel auf die CO2 und CH4 Emissionen. Eine gängige Methode zur Bestimmung von Spurengasemissionen und darauf aufbauend der C Senken bzw. Quellenfunktion verschiedenster Ökosysteme stellen Haubenmessungen dar. Unterschiedliche Haubendesigns, Messprozeduren und Strategien bei der Datenaufbereitung führen jedoch mitunter zu erheblichen Unsicherheiten bei den gemessenen C Emissionen. Dies kann die Aussagekraft von Metastudien maßgeblich beeinträchtigen, da die Vergleichbarkeit mittels geschlossener Hauben durchgeführter Untersuchungen nicht gewährleistet werden kann. Daher ist eine Standardisierung der Erfassung und Auswertung von Haubenmessungen dringend erforderlich. Im Rahmen dieser Arbeit wurden deshalb eine Reihe von Fallstudien durchgeführt um: (I) standardisierte Routinen zu entwickeln welche eine fehlerfreiere Datenerfassung und Bearbeitung von Haubenmessungen erlauben und so nachvollziehbare, reproduzierbare und vergleichbare C Emissionen liefern; (II) erarbeitete Routinen zu validieren indem auf geschlossenen Haubenmessungen basierende C Emissionen mit unabhängigen Daten verglichen werden; und (III) mittels entwickelter Separationsverfahren Teilflüsse präzise zu quantifizieren um Beziehungen zwischen CO2 und CH4 Flüssen und ihren Treibern besser analysieren zu können. Die durchgeführten Fallstudien zeigen: (I) die Notwendigkeit eingesetzte Hauben unter möglichst realistischen (Feld)-Bedingungen hinsichtlich ihrer Dichtigkeit (insbesondere an der Abdichtung zwischen Rahmen und Haube) zu überprüfen, da nur so fehlerfreie Messungen sichergestellt werden können; (II) das die entwickelten Routinen zur standardisierten Datenbearbeitung ein geeignetes flexibles Werkzeug darstellen um eine verlässliche Abschatzung gasförmige C Emissionen vorzunehmen; (III) das die zeitliche Dynamik von CO2 und CH4 Flüssen sowie kleinräumige Unterschiede in der Entwicklung von Bodenkohlenstoffvorraten gut mittels automatischer Haubenmesssysteme erfasst werden können (Validierung der Ergebnisse mittels wiederholter Bodeninventarisierung); und (IV) das ein einfacher Algorithmus zur Separation von CH4 in seine Flusskompartimente (blasenförmiger Massenfluss vs. Diffusion) die Identifizierung von Treibern verbessert und so ein akkurateres Füllen von Messlücken ermöglicht. Die in der Arbeit vorgestellten Routinen zur standardisierten Datenerfassung und Bearbeitung finden gegenwärtig national wie international Anwendung und helfen somit bei der Generierung vergleichbarer, akkurater und präziser Abschätzungen von standort-/ökosystemspezifischen C Emissionen. N2 - Следовые газы CO2 и CH4 относятся к наиболее значимым парниковым газам и являются важнейшими компонентами глобального углеродного (С) цикла. С середины XVIII столетия их атмосферная концентрация значительно увеличилась, в результате возросшей антропогенной деятельности, в особенности за счет такой сферы как землепользование и изменение землепользования. С целью смягчения последствий глобального изменения климата и обеспечения продовольственной безопасности, необходима разработка систем землепользования, которые будет способствовать сокращению эмиссии следовых газов и обеспечат устойчивое управление углеродными запасами почв. В свою очередь, это требует проведения аккуратной и точной количественной оценки воздействия землепользования и изменения землепользования на эмиссии CO2 и CH4. Стандартным способом для оценки динамики следовых газов и определения функции накопления или потери углерода экосистемой является метод закрытых камер. Данный метод часто используется с учетом предположения, что аккуратность и точность полученных результатов достаточно высоки, чтобы оценить разность между потоками углеродсодержащих газов. Например, при сравнении способов воздействия на экосистему либо для оценки углеродных потоков от ее компонентов. В научной литературе описано множество различных вариантов конструкций закрытых камер, связанных с ними операционных процедур и стратегий обработки данных. Это широкое разнообразие вносит свой вклад в общую неопределенность при оценке эмиссии парниковых газов методом закрытых камер. В результате, полученные на основе мета-анализа выводы обладают определенными ограничениями, т.к. методологические различия между разными исследованиями затрудняют сравнение их результатов. В связи с этим, необходимо проведение стандартизации сбора и обработки данных для методики закрытых камер. В рамках данных тезисов, был выполнен ряд тематических исследований с целью:(1) разработать для методики закрытых камер стандартизированные процедуры несмещенного сбора и обработки данных, которые позволят получить явно отслеживаемые, воспроизводимые и сопоставимые оценки углеродных потоков; (2) провести валидацию этих процедур, путем сравнения оценок потоков углерода, полученных методом закрытых камер с результатами оценки других независимых методов; (3) разработать, на основе анализа данных, способы для разделения углеродных потоков и установить процессы, регулирующие их пространственно-временную динамику. Результаты тематических исследований показали: (1) Важно проводить испытания конструкции камер на герметичность в полевых условиях и удостовериться, что измерения потоков углерода несмещенные. В сравнении с влиянием герметичности камеры, использование клапанов для выравнивания давления и вентиляторов имело несущественное значение и влияло только на точность измерений; (2) Было подтверждено, что разработанные стандартизированные методы обработки данных являются мощным и гибким инструментом оценки эмиссии углерода. На сегодняшний день эти методы успешно применяются на широком спектре разнообразных наборов данных углеродных потоков для различных типов экосистем; (3) Измерения, выполненные автоматическими закрытыми камерами, отчетливо демонстрируют временную динамику потоков CO2 и CH4 и, что наиболее важно, они хорошо выявляют мелкомасштабные пространственные различия в накоплении почвенного углерода, что было подтверждено с помощью повторяемой инвентаризации почвенных запасов углерода; (4) Простой алгоритм разделения эмиссии CH4 на потоки выбросов в виде диффузии газа и выделения в виде пузырей улучшает идентификацию экологических факторов, которые их регулируют, что позволяет более точно оценить эмиссии CH4 в периоды между измерениями. В целом предложенные стандартизированные методы сбора и обработки данных значительно увеличивают точность моделей выделения-поглощения газообразных углеродных эмиссий. Таким образом, будущие исследования, проведенные с учетом рекомендуемых усовершенствований, позволят получить новые ценные данные и гипотезы для расширения нашего понимания пространственно-временной динамики потоков углеродсодержащих газов, экологических факторов их регулирования и лежащих в их основе процессов. N2 - Le dioxyde de carbone (CO2) et le méthane (CH4) font partie des gaz à effet de serre les plus importants et sont également des éléments majeurs du cycle global du carbone. Depuis le milieu du XVIIIe siècle, leur quantité dans l’atmosphère a considérablement augmenté en raison de l'intensification des activités anthropiques, notamment l'exploitation des terres et la modification de l'utilisation de ces dernières. Afin d’atténuer les effets du changement climatique et d’assurer la sécurité alimentaire, il faut mettre au point des systèmes d’utilisation des terres qui favorisent la réduction des émissions de gaz à effet de serre ainsi qu’une gestion durable des stocks de carbone dans les sols. Cela exige une quantification exacte et précise de l'influence de l'utilisation des terres et de la modification de l'utilisation des sols sur les émissions de CO2 et de CH4. La méthode à chambre fermée est une méthode courante pour déterminer l’évolution des gaz présents à faible concentration atmosphérique et du puits de carbone, ou pour analyser la fonction primaire d'un écosystème singulier. Cette méthode est souvent utilisée en supposant que l’exactitude et la précision sont suffisamment élevées pour déterminer les différences dans les émissions de gaz à effet de serre, par exemple pour comparer les traitements ou les différentes composantes de l’écosystème. Toutefois, la vaste gamme de conceptions de chambres différentes, les procédures de mesure et les stratégies de traitement des données décrites dans la documentation scientifique contribuent à l’incertitude générale quant à l’analyse des émissions récoltées en chambre fermée. Par conséquent, les résultats des méta-analyses sont limités, car ces différences méthodologiques entravent la comparabilité des études. La standardisation de l’acquisition et du traitement des données en chambre fermée est donc indispensable. Dans le cadre de cette thèse, une série d'études de cas ont été réalisées pour: (I) élaborer des routines standardisées pour l'acquisition et le traitement de données impartiales, dans le but de fournir des estimations des émissions de carbone en chambre fermée traçables, reproductibles et comparables; (II) valider ces routines en comparant les émissions de carbone obtenues par la méthode des chambres fermées avec des estimations indépendantes des émissions de carbone; et (III) révéler les processus qui déterminent la dynamique spatio-temporelle des émissions de carbone en développant un processus de traitement de données basé sur l’approche de la séparation des flux. Les études de cas montrent: (I) l'importance de tester la conception des chambres dans des conditions de terrain pour une étanchéité appropriée et pour assurer une mesure impartiale des flux. Comparé à l'intégrité de l'étanchéité, l'utilisation d'une soupape de compensation de pression et d'un ventilateur était d'une importance mineure, affectant principalement la précision des mesures; (II) que les routines de traitement des données standardisées développées se sont avérées être un outil puissant et flexible pour estimer les émissions de carbone. L'outil est maintenant appliqué avec succès sur un large éventail de séries de données de flux provenant d'écosystèmes très différents; (III) que les mesures faites à l’aide de chambres automatiques montrent très bien la dynamique temporelle des flux CO2 et de CH4 et, surtout, qu'elles détectent avec précision les différences spatiales à petite échelle dans le développement des réserves de carbone dans le sol lorsqu'elles sont validées par des inventaires périodiques du sol; et (IV) qu’un algorithme simple pour séparer les flux de CH4 en ébullition et en diffusion améliore l'identification de facteurs environnementaux, ce qui permet de combler avec précision les données manquantes des flux de CH4 mesurés. Dans l'ensemble, les routines standardisées proposées pour l'acquisition et le traitement des données ont grandement amélioré l'exactitude de la détection des profils source/évier des émissions de carbone gazeux. Par conséquent, les études futures, qui tiennent compte des améliorations recommandées, fourniront de nouvelles données et de nouvelles perspectives précieuses pour élargir notre compréhension de la dynamique spatio-temporelle du gaz carbone, de ses moteurs environnementaux spécifiques et des processus sous-jacents. N2 - Los gases traza CO2 y CH4 pertenecen a los gases de efecto invernadero más importantes del ciclo global del carbono (C). Su concentración en la atmósfera se ha incrementado significativamente desde mediados del siglo XVIII como resultado de la intensificación de las actividades antropogénicas, como el uso del suelo y el cambio en los usos de la tierra. Para mitigar el cambio climático global y garantizar la seguridad alimentaria es necesario desarrollar sistemas de uso del suelo que favorezcan la reducción de emisiones de gases de efecto invernadero y una gestión sostenible del carbono en el suelo. Esto requiere un cálculo exacto y preciso de la influencia del uso del suelo y de los cambios en el uso del suelo en las emisiones de CO2 y CH4. Un método común para determinar las dinámicas del gas traza y la función de fuente o sumidero de C de un ecosistema es el método de las cámaras cerradas. Este método se utiliza comúnmente asumiendo que la exactitud y precisión son lo suficientemente elevadas para determinar las diferencias en la emisiones de gases C, por ejemplo, comparaciones de tratamientos o de los diferentes componentes del ecosistema. Sin embargo, la amplia gama de diseños de cámaras, los procedimientos operativos relacionados y las estrategias de procesamiento de datos descritas en la literatura científica contribuyen a la incertidumbre general de las estimaciones de emisiones basadas en cámaras cerradas. Además, los resultados de los metanálisis son limitados, ya que estas diferencias metodológicas dificultan la comparabilidad entre los estudios. Por lo tanto, la estandarización en la obtención y procesamiento de datos en el método de la cámara cerrada es muy necesaria. En esta tesis se desarrollan un conjunto de casos de estudio para: (I) Desarrollar rutinas estandarizadas para una obtención y procesamiento de datos imparcial, con el objetivo de proporcionar estimaciones de emisiones de C basadas en cámaras cerradas trazables, reproducibles y comparables; (II) Validar esas rutinas comparando las emisiones de C derivadas del método de las cámaras cerradas con estimaciones independientes de emisiones de C; y (III) revelar procesos que impulsan la dinámica espacio temporal de las emisiones de C, a través del desarrollo de un proceso de tratamiento de datos basado en el enfoque de la separación de flujos. Los casos de estudio muestran: (I) La importancia de someter a prueba el diseño de las cámaras a las condiciones de campo para una apropiada integridad del sellado y para garantizar una medición de flujo imparcial. Comparado con la integridad del sellado, el uso de la ventilación a presión y del ventilador resultó de menor importancia, afectando principalmente a la precisión de las mediciones. (II) que las rutinas estandarizadas desarrolladas para el procesamiento de datos demostraron ser una herramienta poderosa y flexible para estimar las emisiones de gases de C. La herramienta ahora se aplica con éxito en una amplia gama de conjuntos de datos de flujo de ecosistemas muy diferentes; (III) que las mediciones con cámaras automáticas muestran claramente la dinámica temporal de las emisiones de CO2 y lo más importante, que detectan con precisión diferencias espaciales a pequeña escala en el desarrollo del C en el suelo cuando se validan con inventarios periódicos del suelo ; y (IV) que un simple algoritmo para separar flujos de CH4 entre ebullición y difusión mejora la identificación de los impulsores ambientales, lo cual permite un procedimiento más exacto para el relleno del vacío de datos de las mediciones de los flujos de CH4. En términos generales puede decirse que los algoritmos de obtención y procesamiento de datos estandarizados propuestos mejoraron en gran medida la precisión de detección de los patrones fuente / sumidero de emisiones de C gaseoso. Por lo tanto, los futuros estudios, que consideren las mejoras recomendadas, ofrecerán nuevos datos y conocimientos útiles para ampliar nuestra comprensión de la dinámica espacio-temporal del C de los gases, sus impulsores ambientales específicos y los procesos subyacentes. T2 - Verbesserung von Mess- und Modellierungsansätzen der geschlossenen Haubenmessmethode zur besseren Erfassung von raumzeitlichen Veränderungen und potentiellen Treibern kohlenstoffbasierter Treibhausgasemissionen KW - greenhouse gases KW - closed chamber method KW - carbon dioxide KW - methane KW - Kohlenstoffdioxid KW - geschlossene Haubenmessmethode KW - Treibhausgase KW - Methan Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421302 ER - TY - THES A1 - Peter, Franziska T1 - Transition to synchrony in finite Kuramoto ensembles T1 - Synchronisationsübergang in endlichen Kuramoto-Ensembles N2 - Synchronisation – die Annäherung der Rhythmen gekoppelter selbst oszillierender Systeme – ist ein faszinierendes dynamisches Phänomen, das in vielen biologischen, sozialen und technischen Systemen auftritt. Die vorliegende Arbeit befasst sich mit Synchronisation in endlichen Ensembles schwach gekoppelter selbst-erhaltender Oszillatoren mit unterschiedlichen natürlichen Frequenzen. Das Standardmodell für dieses kollektive Phänomen ist das Kuramoto-Modell – unter anderem aufgrund seiner Lösbarkeit im thermodynamischen Limes unendlich vieler Oszillatoren. Ähnlich einem thermodynamischen Phasenübergang zeigt im Fall unendlich vieler Oszillatoren ein Ordnungsparameter den Übergang von Inkohärenz zu einem partiell synchronen Zustand an, in dem ein Teil der Oszillatoren mit einer gemeinsamen Frequenz rotiert. Im endlichen Fall treten Fluktuationen auf. In dieser Arbeit betrachten wir den bisher wenig beachteten Fall von bis zu wenigen hundert Oszillatoren, unter denen vergleichbar starke Fluktuationen auftreten, bei denen aber ein Vergleich zu Frequenzverteilungen im unendlichen Fall möglich ist. Zunächst definieren wir einen alternativen Ordnungsparameter zur Feststellung einer kollektiven Mode im endlichen Kuramoto-Modell. Dann prüfen wir die Abhängigkeit des Synchronisationsgrades und der mittleren Rotationsfrequenz der kollektiven Mode von Eigenschaften der natürlichen Frequenzverteilung für verschiedene Kopplungsstärken. Wir stellen dabei zunächst numerisch fest, dass der Synchronisationsgrad stark von der Form der Verteilung (gemessen durch die Kurtosis) und die Rotationsfrequenz der kollektiven Mode stark von der Asymmetrie der Verteilung (gemessen durch die Schiefe) der natürlichen Frequenzen abhängt. Beides können wir im thermodynamischen Limes analytisch verifizieren. Mit diesen Ergebnissen können wir Erkenntnisse anderer Autoren besser verstehen und verallgemeinern. Etwas abseits des roten Fadens dieser Arbeit finden wir außerdem einen analytischen Ausdruck für die Volumenkontraktion im Phasenraum. Der zweite Teil der Arbeit konzentriert sich auf den ordnenden Effekt von Fluktuationen, die durch die Endlichkeit des Systems zustande kommen. Im unendlichen Modell sind die Oszillatoren eindeutig in kohärent und inkohärent und damit in geordnet und ungeordnet getrennt. Im endlichen Fall können die auftretenden Fluktuationen zusätzliche Ordnung unter den asynchronen Oszillatoren erzeugen. Das grundlegende Prinzip, die rauschinduzierte Synchronisation, ist aus einer Reihe von Publikationen bekannt. Unter den gekoppelten Oszillatoren nähern sich die Phasen aufgrund der Fluktuationen des Ordnungsparameters an, wie wir einerseits direkt numerisch zeigen und andererseits mit einem Synchronisationsmaß aus der gerichteten Statistik zwischen Paaren passiver Oszillatoren nachweisen. Wir bestimmen die Abhängigkeit dieses Synchronisationsmaßes vom Verhältnis von paarweiser natürlicher Frequenzdifferenz zur Varianz der Fluktuationen. Dabei finden wir eine gute Übereinstimmung mit einem einfachen analytischen Modell, in welchem wir die deterministischen Fluktuationen des Ordnungsparameters durch weißes Rauschen ersetzen. N2 - Synchronization – the adjustment of rhythms among coupled self-oscillatory systems – is a fascinating dynamical phenomenon found in many biological, social, and technical systems. The present thesis deals with synchronization in finite ensembles of weakly coupled self-sustained oscillators with distributed frequencies. The standard model for the description of this collective phenomenon is the Kuramoto model – partly due to its analytical tractability in the thermodynamic limit of infinitely many oscillators. Similar to a phase transition in the thermodynamic limit, an order parameter indicates the transition from incoherence to a partially synchronized state. In the latter, a part of the oscillators rotates at a common frequency. In the finite case, fluctuations occur, originating from the quenched noise of the finite natural frequency sample. We study intermediate ensembles of a few hundred oscillators in which fluctuations are comparably strong but which also allow for a comparison to frequency distributions in the infinite limit. First, we define an alternative order parameter for the indication of a collective mode in the finite case. Then we test the dependence of the degree of synchronization and the mean rotation frequency of the collective mode on different characteristics for different coupling strengths. We find, first numerically, that the degree of synchronization depends strongly on the form (quantified by kurtosis) of the natural frequency sample and the rotation frequency of the collective mode depends on the asymmetry (quantified by skewness) of the sample. Both findings are verified in the infinite limit. With these findings, we better understand and generalize observations of other authors. A bit aside of the general line of thoughts, we find an analytical expression for the volume contraction in phase space. The second part of this thesis concentrates on an ordering effect of the finite-size fluctuations. In the infinite limit, the oscillators are separated into coherent and incoherent thus ordered and disordered oscillators. In finite ensembles, finite-size fluctuations can generate additional order among the asynchronous oscillators. The basic principle – noise-induced synchronization – is known from several recent papers. Among coupled oscillators, phases are pushed together by the order parameter fluctuations, as we on the one hand show directly and on the other hand quantify with a synchronization measure from directed statistics between pairs of passive oscillators. We determine the dependence of this synchronization measure from the ratio of pairwise natural frequency difference and variance of the order parameter fluctuations. We find a good agreement with a simple analytical model, in which we replace the deterministic fluctuations of the order parameter by white noise. KW - synchronization KW - Kuramoto model KW - finite size KW - phase transition KW - dynamical systems KW - networks KW - Synchronisation KW - Kuramoto-Modell KW - endliche Ensembles KW - Phasenübergang KW - dynamische Systeme KW - Netzwerke Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429168 ER - TY - THES A1 - Gong, Chen Chris T1 - Synchronization of coupled phase oscillators BT - theory and modelling BT - Theorie und Modellierung N2 - Oscillatory systems under weak coupling can be described by the Kuramoto model of phase oscillators. Kuramoto phase oscillators have diverse applications ranging from phenomena such as communication between neurons and collective influences of political opinions, to engineered systems such as Josephson Junctions and synchronized electric power grids. This thesis includes the author's contribution to the theoretical framework of coupled Kuramoto oscillators and to the understanding of non-trivial N-body dynamical systems via their reduced mean-field dynamics. The main content of this thesis is composed of four parts. First, a partially integrable theory of globally coupled identical Kuramoto oscillators is extended to include pure higher-mode coupling. The extended theory is then applied to a non-trivial higher-mode coupled model, which has been found to exhibit asymmetric clustering. Using the developed theory, we could predict a number of features of the asymmetric clustering with only information of the initial state provided. The second part consists of an iterated discrete-map approach to simulate phase dynamics. The proposed map --- a Moebius map --- not only provides fast computation of phase synchronization, it also precisely reflects the underlying group structure of the dynamics. We then compare the iterated-map dynamics and various analogous continuous-time dynamics. We are able to replicate known phenomena such as the synchronization transition of the Kuramoto-Sakaguchi model of oscillators with distributed natural frequencies, and chimera states for identical oscillators under non-local coupling. The third part entails a particular model of repulsively coupled identical Kuramoto-Sakaguchi oscillators under common random forcing, which can be shown to be partially integrable. Via both numerical simulations and theoretical analysis, we determine that such a model cannot exhibit stationary multi-cluster states, contrary to the numerical findings in previous literature. Through further investigation, we find that the multi-clustering states reported previously occur due to the accumulation of discretization errors inherent in the integration algorithms, which introduce higher-mode couplings into the model. As a result, the partial integrability condition is violated. Lastly, we derive the microscopic cross-correlation of globally coupled non-identical Kuramoto oscillators under common fluctuating forcing. The effect of correlation arises naturally in finite populations, due to the non-trivial fluctuations of the meanfield. In an idealized model, we approximate the finite-sized fluctuation by a Gaussian white noise. The analytical approximation qualitatively matches the measurements in numerical experiments, however, due to other periodic components inherent in the fluctuations of the mean-field there still exist significant inconsistencies. N2 - Oszillatorische Systeme unter schwacher Kopplung können durch das Kuramoto-Modell beschrieben werden. Kuramoto-Phasenoszillatoren besitzen eine Vielzahl von Modellanwendungsfällen von der Kommunikation zwischen Nervenzellen bis zu kollektiven Einflüssen auf die politische Meinungsbildung sowie ingenieurwissenschaftlichen Anwendungen wie Josephson-Kontakten und synchronisierten elektrischen Übertragungsnetzen. In dieser Dissertation werden die Beiträge der Autorin zur Theorie der Kuramoto-Oszillatorensysteme und zum Verständnis nichttrivialer dynamischer NKörpersysteme durch die Analyse ihrer reduzierten Mittelfelddynamik zusammengefasst. Der Hauptinhalt dieser Dissertation umfasst vier Teile: Zuerst wird eine teilweise integrable Theorie global gekoppelter, identischer Kuramoto-Oszillatoren so erweitert, dass sie auch den Fall reiner Phasenkopplung höherer Ordnung umfasst. Die erweiterte Theorie wird anschließend auf ein nichttriviales Modell mit harmonischer Kopplung höherer Ordnung angewendet, welches asymmetrisches Clustering aufweist. Die Theorie sagt rein auf Basis der Anfangssystembedingungen einige Eigenschaften des asymmetrischen Clustering erfolgreich voraus. Im zweiten Teil wird die Phasendynamik von Kuramoto-Oszillatoren mithilfe einer iterierten diskreten Abbildung simuliert. Diese Abbildung – eine Möbius-Abbildung – erlaubt nicht nur eine schnelle Berechnung der Phasensynchronisation sondern spiegelt die zugrundeliegende Gruppenstruktur der Phasendynamik auch exakt wieder. Die Dynamik der iterierten Abbildung wird mit verschiedenen analogen Dynamiken mit kontinuierlicher Zeitachse verglichen. Hierbei werden bekannte Phänomene, wie etwa der Phasenübergang im Kuramoto-Sakaguchi-Oszillatormodell mit einer Verteilung der natürlichen Frequenzen und “Chimärenzustände” (chimera states) bei identischen Oszillatoren nichtlokalen Kopplungstypen, repliziert. Im dritten Teil wird ein Modell von repulsiv gekoppelten, identischen, gemeinsam stochastisch getriebenen Kuramoto-Sakaguchi-Oszillatoren beschrieben, dass teilweise integrabel ist. Sowohl durch numerische Simulationen als auch theoretische Analyse wird gezeigt, dass dieses Modell keine stationären Multi-Cluster-Zustände einnehmen kann, was den Ergebnissen anderer numerischer Studien in der Literatur widerspricht. Durch eine weitergehende Analyse wird gezeigt, dass das scheinbare Auftreten von Multi-Cluster-Zuständen der Akkumulation von inhärenten Diskretisierungsfehlern der verwendeten Integrationsalgorithmen zuzuschreiben ist, welche dem Modell Phasenkopplungen höher Ordnung hinzufügen. Als Resultat dieser Effekte wird die Bedingung der teilweisen Integrabilität verletzt. Zuletzt wird die mikroskopische Kreuzkorrelation zwischen global gekoppelten, nicht identischen gemeinsam fluktuierend getriebenen Kuramoto-Oszillatoren hergeleitet. Der Korrelationseffekt entsteht auf natürliche Art und Weise in endlichen Populationen aufgrund der nichttrivialen Fluktuation des Mittelfelds. Die endliche Fluktuation wird in einem idealisierten Modell mittels gaußschem weißem Rauschen approximiert. Die analytische Annährung stimmt mit den Ergebnissen numerischer Simulationen gut überein, die inhärenten periodischen Komponenten der Fluktuation des Mittelfels verursachen allerdings trotzdem signifikante Inkonsistenzen. T2 - Synchronisation der gekoppelten Oszillatoren KW - Synchronization KW - Nonlinear Dynamics KW - Nichtlineare Dynamik KW - Synchronisation KW - Kuramoto Oscillators KW - Kuramoto-Oszillatore KW - Complex Network KW - Komplexes Netzwerk Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-487522 ER - TY - THES A1 - Reeg, Jette T1 - Simulating the impact of herbicide drift exposure on non-target terrestrial plant communities T1 - Simulation der Auswirkungen von Herbizid-Drift-Expositionen auf Gemeinschaften von Nichtzielpflanzen N2 - In Europe, almost half of the terrestrial landscape is used for agriculture. Thus, semi-natural habitats such as field margins are substantial for maintaining diversity in intensively managed farmlands. However, plants located at field margins are threatened by agricultural practices such as the application of pesticides within the fields. Pesticides are chemicals developed to control for undesired species within agricultural fields to enhance yields. The use of pesticides implies, however, effects on non-target organisms within and outside of the agricultural fields. Non-target organisms are organisms not intended to be sprayed or controlled for. For example, plants occurring in field margins are not intended to be sprayed, however, can be impaired due to herbicide drift exposure. The authorization of plant protection products such as herbicides requires risk assessments to ensure that the application of the product has no unacceptable effects on the environment. For non-target terrestrial plants (NTTPs), the risk assessment is based on standardized greenhouse studies on plant individual level. To account for the protection of plant populations and communities under realistic field conditions, i.e. extrapolating from greenhouse studies to field conditions and from individual-level to community-level, assessment factors are applied. However, recent studies question the current risk assessment scheme to meet the specific protection goals for non-target terrestrial plants as suggested by the European Food Safety Authority (EFSA). There is a need to clarify the gaps of the current risk assessment and to include suitable higher tier options in the upcoming guidance document for non-target terrestrial plants. In my thesis, I studied the impact of herbicide drift exposure on NTTP communities using a mechanistic modelling approach. I addressed main gaps and uncertainties of the current risk assessment and finally suggested this modelling approach as a novel higher tier option in future risk assessments. Specifically, I extended the plant community model IBC-grass (Individual-based community model for grasslands) to reflect herbicide impacts on plant individuals. In the first study, I compared model predictions of short-term herbicide impacts on artificial plant communities with empirical data. I demonstrated the capability of the model to realistically reflect herbicide impacts. In the second study, I addressed the research question whether or not reproductive endpoints need to be included in future risk assessments to protect plant populations and communities. I compared the consequences of theoretical herbicide impacts on different plant attributes for long-term plant population dynamics in the community context. I concluded that reproductive endpoints only need to be considered if the herbicide effect is assumed to be very high. The endpoints measured in the current vegetative vigour and seedling emergence studies had high impacts for the dynamic of plant populations and communities already at lower effect intensities. Finally, the third study analysed long-term impacts of herbicide application for three different plant communities. This study highlighted the suitability of the modelling approach to simulate different communities and thus detecting sensitive environmental conditions. Overall, my thesis demonstrates the suitability of mechanistic modelling approaches to be used as higher tier options for risk assessments. Specifically, IBC-grass can incorporate available individual-level effect data of standardized greenhouse experiments to extrapolate to community-level under various environmental conditions. Thus, future risk assessments can be improved by detecting sensitive scenarios and including worst-case impacts on non-target plant communities. N2 - Fast die Hälfte der gesamten Landfläche in Europa wird für landwirtschaftliche Zwecke genutzt. Daher sind halb-natürliche Gebiete, wie zum Beispiel Ackerränder, von besonderer Bedeutung für den Artenreichtum in intensiv genutzten Ackerlandschaften. Vor allem in den intensiv genutzten Äckern werden Chemikalien eingesetzt um die Erträge zu erhöhen. So werden zum Beispiel Pflanzenschutzmittel eingesetzt, um Unkräuter im Acker zu vernichten. Allerdings kann dieser Einsatz auch Auswirkungen auf sogenannte Nicht-Zielarten haben. Dies sind solche Arten oder Artindividuen, die z.B. innerhalb vom Acker nicht in Konkurrenz mit den darauf wachsenden Getreidesorten stehen oder sich nicht innerhalb vom Feld befinden aber dennoch den Pflanzenschutzmitteln ausgesetzt sind. Um den Artenreichtum in halb-natürlichen Gebieten zu schützen, ist es daher notwendig eine Risikoabschätzung durchzuführen bevor ein Pflanzenschutzmittel für den Verkauf und die Anwendung zugelassen wird. Für terrestrische Nicht-Zielpflanzen erfolgt eine solche Risikoabschätzung basierend auf standardisierten Gewächshausexperimenten, in denen die Effekte auf der Ebene von Einzelindividuen gemessen werden. Um das letztliche Risiko im Freiland für ganze Pflanzengemeinschaften abzuschätzen, werden sogenannte Unsicherheitsfaktoren hinzugenommen. Allerdings stellen neuere Studien in Frage, ob der derzeitige Ansatz ausreichend sicher ist. Dies gilt vor allem in Bezug auf die aktuellen speziellen Schutzziele, die den Fokus auf den Schutz von Pflanzengemeinschaften und Artenreichtum legen. Es ist daher zwingend notwendig die Wissenslücken der derzeitigen Risikoabschätzung zu schließen und Optionen zu weiteren Studien zu geben, die das Risiko vom Einsatz von Pflanzenschutzmitteln für Nicht-Zielpflanzen realistischer abschätzen können. In meiner Dissertation nutze ich einen mechanistischen Modellierungsansatz um den Einfluss von Pflanzenschutzmitteln auf Nicht-Zielpflanzengemeinschaften zu untersuchen. Hierbei spreche ich die wesentlichen Wissenslücken und Unklarheiten der aktuellen Risikoabschätzung an und schlage zusammenfassend eine neue Option für eine realistischere Abschätzung des Risikos vor. Hierzu integriere ich den Einfluss von Herbiziden auf Einzelindividuen in das Pflanzengemeinschaftsmodell IBC-grass. In meiner ersten Studie vergleiche ich Modellvorhersagen von kurzzeitigen Herbizideffekten in künstlichen Artgemeinschaften mit experimentellen Daten. Mit der Studie zeige ich, dass das Modell den Einfluss von Herbiziden auf die Pflanzengemeinschaft realistisch vorhersagen kann. In der zweiten Studie fokussiere ich mich auf die Frage, ob Effekte auf weitere Pflanzeneigenschaften, insbesondere Fortpflanzungseigenschaften, wie zum Beispiel die Samenproduktion, im Rahmen der standardisierten Gewächshausstudien gemessen werden sollten. Die Studie zeigt, dass die derzeitig gemessenen Pflanzeneigenschaften am meisten Einfluss auf die Dynamiken einer Pflanzengesellschaft haben und somit schon geringe Schädigungen dieser Eigenschaften auf Individuenebene Auswirkungen für die Gemeinschaft haben. Dahingegen führten nur sehr starke Effekte auf die Fortpflanzungseigenschaften zu einem Einfluss auf Gemeinschaftsebene. Mit der letzten Studie zeige ich, dass der Modellansatz dazu genutzt werden kann Auswirkungen für unterschiedliche Pflanzengemeinschaften darzustellen. Zusammengefasst zeigen die Studien meiner Dissertation, dass mechanistische Modellierung eine geeignete Option für eine realistischere Risikoabschätzung ist. Auf Grund des besonderen Designs von IBC-grass können die durch derzeitige Gewächshausstudien zur Verfügung stehenden empirischen Daten in das Modell eingearbeitet werden und somit das Risiko auf Gemeinschaftsebene abgeschätzt werden. Mit Hilfe des Modells können mehrere Umweltbedingungen getestet werden und somit Extremszenarien abgedeckt werden. Meine Studien tragen dazu bei, zukünftige Risikoabschätzungen für Nicht-Zielpflanzen zu verbessern. KW - ecological modelling KW - pesticide KW - risk assessment KW - plant community KW - non-target organisms KW - ökologische Modellierung KW - Pestizide KW - Risikoabschätzung KW - Pflanzengemeinschaft KW - Nicht-Zielorganismen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429073 ER - TY - THES A1 - Trautwein, Jutta T1 - The Mental lexicon in acquisition T1 - Das mentale Lexikon im Erwerb BT - assessment, size & structure BT - Messung, Größe und Struktur N2 - The individual’s mental lexicon comprises all known words as well related infor-mation on semantics, orthography and phonology. Moreover, entries connect due to simi-larities in these language domains building a large network structure. The access to lexical information is crucial for processing of words and sentences. Thus, a lack of information in-hibits the retrieval and can cause language processing difficulties. Hence, the composition of the mental lexicon is essential for language skills and its assessment is a central topic of lin-guistic and educational research. In early childhood, measurement of the mental lexicon is uncomplicated, for example through parental questionnaires or the analysis of speech samples. However, with growing content the measurement becomes more challenging: With more and more words in the mental lexicon, the inclusion of all possible known words into a test or questionnaire be-comes impossible. That is why there is a lack of methods to assess the mental lexicon for school children and adults. For the same reason, there are only few findings on the courses of lexical development during school years as well as its specific effect on other language skills. This dissertation is supposed to close this gap by pursuing two major goals: First, I wanted to develop a method to assess lexical features, namely lexicon size and lexical struc-ture, for children of different age groups. Second, I aimed to describe the results of this method in terms of lexical development of size and structure. Findings were intended to help understanding mechanisms of lexical acquisition and inform theories on vocabulary growth. The approach is based on the dictionary method where a sample of words out of a dictionary is tested and results are projected on the whole dictionary to determine an indi-vidual’s lexicon size. In the present study, the childLex corpus, a written language corpus for children in German, served as the basis for lexicon size estimation. The corpus is assumed to comprise all words children attending primary school could know. Testing a sample of words out of the corpus enables projection of the results on the whole corpus. For this purpose, a vocabulary test based on the corpus was developed. Afterwards, test performance of virtual participants was simulated by drawing different lexicon sizes from the corpus and comparing whether the test items were included in the lexicon or not. This allowed determination of the relation between test performance and total lexicon size and thus could be transferred to a sample of real participants. Besides lexicon size, lexical content could be approximated with this approach and analyzed in terms of lexical structure. To pursue the presented aims and establish the sampling method, I conducted three consecutive studies. Study 1 includes the development of a vocabulary test based on the childLex corpus. The testing was based on the yes/no format and included three versions for different age groups. The validation grounded on the Rasch Model shows that it is a valid instrument to measure vocabulary for primary school children in German. In Study 2, I estab-lished the method to estimate lexicon sizes and present results on lexical development dur-ing primary school. Plausible results demonstrate that lexical growth follows a quadratic function starting with about 6,000 words at the beginning of school and about 73,000 words on average for young adults. Moreover, the study revealed large interindividual differences. Study 3 focused on the analysis of network structures and their development in the mental lexicon due to orthographic similarities. It demonstrates that networks possess small-word characteristics and decrease in interconnectivity with age. Taken together, this dissertation provides an innovative approach for the assessment and description of the development of the mental lexicon from primary school onwards. The studies determine recent results on lexical acquisition in different age groups that were miss-ing before. They impressively show the importance of this period and display the existence of extensive interindividual differences in lexical development. One central aim of future research needs to address the causes and prevention of these differences. In addition, the application of the method for further research (e.g. the adaptation for other target groups) and teaching purposes (e.g. adaptation of texts for different target groups) appears to be promising. N2 - Das mentale Lexikon wird als individueller Speicher, der semantische, orthographi-sche und phonologische Informationen über alle bekannten Wörter enthält, verstanden. Die lexikalischen Einträge sind aufgrund von Ähnlichkeiten auf diesen Sprachebenen im Sinne einer Netzwerkstruktur verbunden. Bei der Sprachverarbeitung von Wörtern und Sätzen müssen die Informationen aus dem mentalen Lexikon abgerufen werden. Sind diese nicht oder nur teilweise vorhanden, ist der Prozess erschwert. Die Beschaffenheit des mentalen Lexikons ist damit zentral für sprachliche Fähigkeiten im Allgemeinen, welche wiederum es-senziell für den Bildungserfolg und die Teilhabe an der Gesellschaft sind. Die Erfassung des mentalen Lexikons und die Beschreibung seiner Entwicklung ist demnach ein wichtiger Schwerpunkt linguistischer Forschung. Im frühen Kindesalter ist es noch relativ einfach, den Umfang und Inhalt des menta-len Lexikons eines Individuums zu erfassen – dies kann beispielsweise durch Befragung der Eltern oder durch Aufzeichnung von Äußerungen erfolgen. Mit steigendem Inhalt wird diese Messung allerdings schwieriger: Umso mehr Wörter im mentalen Lexikon gespeichert sind, umso unmöglicher wird es, sie alle abzufragen bzw. zu testen. Dies führt dazu, dass es nur wenige Methoden zur Erfassung lexikalischer Eigenschaften nach Schuleintritt gibt. Aus die-sem Grund bestehen auch nur wenige aktuelle Erkenntnisse über den Verlauf der lexikali-schen Entwicklung in diesem Alter sowie deren spezifischen Einfluss auf andere (sprachliche) Fähigkeiten. Diese Lücke sollte in der vorliegenden Dissertation geschlossen werden. Dazu wurden zwei Ziele verfolgt: Zum einen sollte eine aussagekräftige Methode entwickelt wer-den, mit der Umfang und Inhalt des Wortschatzes von Kindern im Grundschulalter bis ins Erwachsenenalter bestimmt werden können. Zum anderen sollten die Ergebnisse der Me-thode dazu dienen, den lexikalischen Erwerb nach Schuleintritt genauer zu beschreiben und zu verstehen. Dabei wurde neben der Entwicklung der Lexikongröße auch die Struktur des Lexikons, d.h. die Vernetzung der Einträge untereinander, betrachtet. Die grundsätzliche Idee der Arbeit beruht auf der Wörterbuch-Methode, bei der eine Auswahl an Wörtern aus einem Wörterbuch getestet und die Ergebnisse auf das gesamte Wörterbuch übertragen werden, um die Lexikongröße einer Person zu bestimmen. In der vorliegenden Dissertation diente das childLex Korpus, das die linguistische Umwelt von Grundschulkindern enthält, als Grundlage. Zunächst wurde ein Wortschatztest entwickelt, der auf dem Korpus basiert. Anschließend wurde das Testverhalten von virtuellen Versuchs-personen simuliert, indem verschiedene Lexikongrößen aus dem Korpus gezogen wurden und überprüft wurde, welche der Items aus dem Wortschatztest in den Lexika enthalten waren. Dies ermöglichte die Bestimmung der Beziehung zwischen dem Verhalten im Wort-schatztest und der absoluten Lexikongröße und ließ sich dann auf tatsächliche Studienteil-nehmer übertragen. Neben der Wortschatzgröße konnten mit dieser Methode auch der wahrscheinliche Inhalt des mentalen Lexikons und so die Vernetzung des Lexikons zu ver-schiedenen Entwicklungszeitpunkten bestimmt werden. Drei Studien wurden konzipiert, um die vorgestellten Ziele zu erreichen und die prä-sentierte Methode zu etablieren. Studie 1 diente der Entwicklung des Wortschatztests, der auf den childLex Korpus beruht. Hierzu wurde das Ja/Nein-Testformat gewählt und ver-schiedene Versionen für unterschiedliche Altersgruppen erstellt. Die Validierung mithilfe des Rasch-Modells zeigt, dass der Test ein aussagekräftiges Instrument für die Erfassung des Wortschatzes von Grundschuldkindern im Deutschen darstellt. In Studie 2 werden der da-rauf basierende Mechanismus zur Schätzung von Lexikongrößen sowie Ergebnisse zu deren Entwicklung vom Grundschul- bis ins Erwachsenenalter präsentiert. Es ergaben sich plausible Ergebnisse in Bezug auf die Wortschatzentwicklung, die einer quadratischen Funktion folgt und mit etwa 6000 Wörtern in der ersten Klasse beginnt und im Durschnitt 73.000 Wörter im jungen Erwachsenenalter erreicht. Studie 3 befasste sich mit den lexikalischen Inhalten in Bezug auf die Netzwerkstruktur des mentalen Lexikons in verschiedenen Altersgruppen. Dabei zeigt sich, dass die orthographische Vernetzung des mentalen Lexikons im Erwerb ab-nimmt. Zusammengenommen liefert die Dissertation damit einen innovativen Ansatz zur Messung und Beschreibung der Entwicklung des mentalen Lexikons in der späteren Kind-heit. Die Studien bieten aktuelle Ergebnisse zum lexikalischen Erwerb in einer Altersgruppe, in der dazu bisher wenige Erkenntnisse vorlagen. Die Ergebnisse zeigen eindrücklich, wie wichtig diese Phase für den Wortschatzerwerb ist und legen außerdem nahe, dass es starke interindividuelle Unterschiede im lexikalischen Erwerb gibt. Diesen entgegenzuwirken ist eines der Ziele zukünftiger Forschung und Bildung. Zudem ergeben sich aus der Dissertation vielfältige Möglichkeiten zur Anwendung der Methode sowohl zu Forschungszwecken, z.B. in Bezug auf die Übertragung auf andere Zielgruppen und den Effekt der Ergebnisse auf an-dere Fähigkeiten, als auch für die pädagogische Arbeit, z.B. für die Anpassung von Texten an bestimmte Zielgruppen. KW - mental lexicon KW - language acquisition KW - language assessment KW - lexion size KW - lexicon structure KW - mentales Lexikon KW - Spracherwerb KW - Sprachstandserfassung KW - Wortschatzgröße KW - Wortschatzstruktur Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434314 ER - TY - THES A1 - Krejca, Martin Stefan T1 - Theoretical analyses of univariate estimation-of-distribution algorithms N2 - Optimization is a core part of technological advancement and is usually heavily aided by computers. However, since many optimization problems are hard, it is unrealistic to expect an optimal solution within reasonable time. Hence, heuristics are employed, that is, computer programs that try to produce solutions of high quality quickly. One special class are estimation-of-distribution algorithms (EDAs), which are characterized by maintaining a probabilistic model over the problem domain, which they evolve over time. In an iterative fashion, an EDA uses its model in order to generate a set of solutions, which it then uses to refine the model such that the probability of producing good solutions is increased. In this thesis, we theoretically analyze the class of univariate EDAs over the Boolean domain, that is, over the space of all length-n bit strings. In this setting, the probabilistic model of a univariate EDA consists of an n-dimensional probability vector where each component denotes the probability to sample a 1 for that position in order to generate a bit string. My contribution follows two main directions: first, we analyze general inherent properties of univariate EDAs. Second, we determine the expected run times of specific EDAs on benchmark functions from theory. In the first part, we characterize when EDAs are unbiased with respect to the problem encoding. We then consider a setting where all solutions look equally good to an EDA, and we show that the probabilistic model of an EDA quickly evolves into an incorrect model if it is always updated such that it does not change in expectation. In the second part, we first show that the algorithms cGA and MMAS-fp are able to efficiently optimize a noisy version of the classical benchmark function OneMax. We perturb the function by adding Gaussian noise with a variance of σ², and we prove that the algorithms are able to generate the true optimum in a time polynomial in σ² and the problem size n. For the MMAS-fp, we generalize this result to linear functions. Further, we prove a run time of Ω(n log(n)) for the algorithm UMDA on (unnoisy) OneMax. Last, we introduce a new algorithm that is able to optimize the benchmark functions OneMax and LeadingOnes both in O(n log(n)), which is a novelty for heuristics in the domain we consider. N2 - Optimierung ist ein Hauptbestandteil technologischen Fortschritts und oftmals computergestützt. Da viele Optimierungsprobleme schwer sind, ist es jedoch unrealistisch, eine optimale Lösung in angemessener Zeit zu erwarten. Daher werden Heuristiken verwendet, also Programme, die versuchen hochwertige Lösungen schnell zu erzeugen. Eine konkrete Klasse sind Estimation-of-Distribution-Algorithmen (EDAs), die sich durch das Entwickeln probabilistischer Modelle über dem Problemraum auszeichnen. Ein solches Modell wird genutzt, um neue Lösungen zu erzeugen und damit das Modell zu verfeinern, um im nächsten Schritt mit erhöhter Wahrscheinlichkeit bessere Lösungen zu generieren. In dieser Arbeit untersuchen wir die Klasse univariater EDAs in der booleschen Domäne, also im Raum aller Bitstrings der Länge n. Das probabilistische Modell eines univariaten EDAs besteht dann aus einem n-dimensionalen Wahrscheinlichkeitsvektor, in dem jede Komponente die Wahrscheinlichkeit angibt, eine 1 an der entsprechenden Stelle zu erzeugen. Mein Beitrag folgt zwei Hauptrichtungen: Erst untersuchen wir allgemeine inhärente Eigenschaften univariater EDAs. Danach bestimmen wir die erwartete Laufzeit gewisser EDAs auf Benchmarks aus der Theorie. Im ersten Abschnitt charakterisieren wir, wann EDAs unbefangen bezüglich der Problemcodierung sind. Dann untersuchen wir sie in einem Szenario, in dem alle Lösungen gleich gut sind, und zeigen, dass sich ihr Modell schnell zu einem falschen entwickelt, falls es immer so angepasst wird, dass sich im Erwartungswert nichts ändert. Im zweiten Abschnitt zeigen wir, dass die Algorithmen cGA und MMAS-fp eine verrauschte Variante des klassischen Benchmarks OneMax effizient optimieren, bei der eine Gaussverteilung mit Varianz σ² hinzuaddiert wird. Wir beweisen, dass die Algorithmen das wahre Optimum in polynomieller Zeit bezüglich σ² und n erzeugen. Für den MMAS-fp verallgemeinern wir dieses Ergebnis auf lineare Funktionen. Weiterhin beweisen wir eine Laufzeit von Ω(n log(n)) für den Algorithmus UMDA auf OneMax (ohne Rauschen). Zuletzt führen wir einen neuen Algorithmus ein, der die Benchmarks OneMax und LeadingOnes in O(n log(n)) optimiert, was zuvor für noch keine Heuristik gezeigt wurde. T2 - Theoretische Analysen univariater Estimation-of-Distribution-Algorithmen KW - theory KW - estimation-of-distribution algorithms KW - univariate KW - pseudo-Boolean optimization KW - run time analysis KW - Theorie KW - Estimation-of-Distribution-Algorithmen KW - univariat KW - pseudoboolesche Optimierung KW - Laufzeitanalyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434870 ER - TY - THES A1 - Debsharma, Tapas T1 - Cellulose derived polymers T1 - Polymere aus Cellulose BT - synthesis of functional and degradable polymers from cellulose N2 - Plastics, such as polyethylene, polypropylene, and polyethylene terephthalate are part of our everyday lives in the form of packaging, household goods, electrical insulation, etc. These polymers are non-degradable and create many environmental problems and public health concerns. Additionally, these polymers are produced from finite fossils resources. With the continuous utilization of these limited resources, it is important to look towards renewable sources along with biodegradation of the produced polymers, ideally. Although many bio-based polymers are known, such as polylactic acid, polybutylene succinate adipate or polybutylene succinate, none have yet shown the promise of replacing conventional polymers like polyethylene, polypropylene and polyethylene terephthalate. Cellulose is one of the most abundant renewable resources produced in nature. It can be transformed into various small molecules, such as sugars, furans, and levoglucosenone. The aim of this research is to use the cellulose derived molecules for the synthesis of polymers. Acid-treated cellulose was subjected to thermal pyrolysis to obtain levoglucosenone, which was reduced to levoglucosenol. Levoglucosenol was polymerized, for the first time, by ring-opening metathesis polymerization (ROMP) yielding high molar mass polymers of up to ~150 kg/mol. The poly(levoglucosenol) is thermally stable up to ~220 ℃, amorphous, and is exhibiting a relatively high glass transition temperature of ~100 ℃. The poly(levoglucosenol) can be converted to a transparent film, resembling common plastic, and was found to degrade in a moist acidic environment. This means that poly(levoglucosenol) may find its use as an alternative to conventional plastic, for instance, polystyrene. Levoglucosenol was also converted into levoglucosenyl methyl ether, which was polymerized by cationic ring-opening metathesis polymerization (CROP). Polymers were obtained with molar masses up to ~36 kg/mol. These polymers are thermally stable up to ~220 ℃ and are semi-crystalline thermoplastics, having a glass transition temperature of ~35 ℃ and melting transition of 70-100 ℃. Additionally, the polymers underwent cross-linking, hydrogenation and thiol-ene click chemistry. N2 - Kunststoffe wie Polyethylen, Polypropylen und Polyethylenterephthalat sind ein großer Bestandteil unseres Alltags und finden Verwendung unter anderem als Verpackungsmaterialien, Haushaltswaren und Elektroisolierungen. Diese Polymere werden aus fossilen Ressourcen hergestellt, sind nicht abbaubar und verursachen nicht nur viele Umweltprobleme sondern können auch zu Gesundheitsschäden führen. Aufgrund dessen muss die Verwendung von erneuerbaren Ressourcen geachtet werden, wobei die hergestellten Polymere im Idealfall komplett biologisch abbaubar sind. Obwohl viele biobasierte Polymere, wie Polymilchsäure, Polybutylensuccinatadipat oder Polybutylensuccinat, bekannt sind, hat noch keines das Potential gezeigt, herkömmliche Polymere zu ersetzen. Cellulose ist einer der am häufigsten in der Natur produzierten nachwachsenden Rohstoffe und kann in verschiedene kleine organische Moleküle wie Zucker (Saccharide), Furan und auch Levoglucosenon umgewandelt werden. Ziel dieser Arbeit ist die Verwendung von Levoglucosenon als Monomer für die Synthese von Polymeren. Säurebehandelte Cellulose wurde einer thermischen Pyrolyse unterzogen, um Levoglucosenon zu erhalten, das dann weiter zu Levoglucosenol reduziert wurde. Das Levoglucosenol wurde zum ersten Mal erfolgreich über eine Ringöffnungsmetathese-Polymerisation (ROMP) polymerisiert. Die Molmassen der hergestellten Polymere erreichten Werte von bis zu ~150 kg/mol. Die thermische Analyse von Poly(levoglucosenol) zeigt, dass es bis zu einer Temperatur von ~220 ℃ stabil ist, eine Glasübergangstemperatur bei ~100 ℃ hat und ein amorphes Polymer ist. Weiterhin kann das Poly(levoglucosenol) in feuchter saurer Umgebung in kurzer Zeit abgebaut werden. Aufgrund dieser Eigenschaften kann Poly(levoglucosenol) als Alternative zu konventionellem Kunststoff, wie z.B. Polystyrol, eingesetzt werden kann. Levoglucosenol wurde weiter in Levoglucosenylmethylether umgewandelt. Levoglucosenylmethylether kann mit kationischer Ringöffnungs-Polymerisation (CROP) polymerisiert werden. Es wurden Polymere mit Molmassen von bis zu ~36 kg/mol hergestellt. Die Polymere weisen eine thermische Stabilität bis zu einer Temperatur von ~220 °C auf. Es handelt sich bei den hergestellten Poly(levoglucosenylmethylethern) um teilkristalline Thermoplaste, deren Glasüberganstemperatur bei ~35 °C und der Schmelzbereich bei 70-100 °C liegt. Die Doppelbindungen des Levoglucosenylmethylethers wurden genutzt um das Polymer zu vernetzen und zu funktionalisieren. KW - biomass valorization KW - levoglucosenol KW - ring-opening polymerization KW - degradable polymer KW - sustainable chemistry KW - Biomasseverwertung KW - Levoglucosenol KW - ringöffnende Polymerisation KW - abbaubares Polymer KW - nachhaltige Chemie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441312 ER - TY - THES A1 - Teckentrup, Lisa T1 - Understanding predator-prey interactions T1 - Verstehen von Räuber-Beute-Interaktionen BT - the role of fear in structuring prey communities BT - die Rolle der Angst bei der Strukturierung von Beutetiergemeinschaften N2 - Predators can have numerical and behavioral effects on prey animals. While numerical effects are well explored, the impact of behavioral effects is unclear. Furthermore, behavioral effects are generally either analyzed with a focus on single individuals or with a focus on consequences for other trophic levels. Thereby, the impact of fear on the level of prey communities is overlooked, despite potential consequences for conservation and nature management. In order to improve our understanding of predator-prey interactions, an assessment of the consequences of fear in shaping prey community structures is crucial. In this thesis, I evaluated how fear alters prey space use, community structure and composition, focusing on terrestrial mammals. By integrating landscapes of fear in an existing individual-based and spatially-explicit model, I simulated community assembly of prey animals via individual home range formation. The model comprises multiple hierarchical levels from individual home range behavior to patterns of prey community structure and composition. The mechanistic approach of the model allowed for the identification of underlying mechanism driving prey community responses under fear. My results show that fear modified prey space use and community patterns. Under fear, prey animals shifted their home ranges towards safer areas of the landscape. Furthermore, fear decreased the total biomass and the diversity of the prey community and reinforced shifts in community composition towards smaller animals. These effects could be mediated by an increasing availability of refuges in the landscape. Under landscape changes, such as habitat loss and fragmentation, fear intensified negative effects on prey communities. Prey communities in risky environments were subject to a non-proportional diversity loss of up to 30% if fear was taken into account. Regarding habitat properties, I found that well-connected, large safe patches can reduce the negative consequences of habitat loss and fragmentation on prey communities. Including variation in risk perception between prey animals had consequences on prey space use. Animals with a high risk perception predominantly used safe areas of the landscape, while animals with a low risk perception preferred areas with a high food availability. On the community level, prey diversity was higher in heterogeneous landscapes of fear if individuals varied in their risk perception compared to scenarios in which all individuals had the same risk perception. Overall, my findings give a first, comprehensive assessment of the role of fear in shaping prey communities. The linkage between individual home range behavior and patterns at the community level allows for a mechanistic understanding of the underlying processes. My results underline the importance of the structure of the landscape of fear as a key driver of prey community responses, especially if the habitat is threatened by landscape changes. Furthermore, I show that individual landscapes of fear can improve our understanding of the consequences of trait variation on community structures. Regarding conservation and nature management, my results support calls for modern conservation approaches that go beyond single species and address the protection of biotic interactions. N2 - Raubtiere beeinflussen ihre Beute durch die Verringerung der Anzahl (numerische Effekte) und durch das Hervorrufen von Verhaltensänderungen (Verhaltenseffekte). Während die Auswirkungen von numerischen Effekten gut erforscht sind, sind die Auswirkungen von Verhaltenseffekten unklar. Außerdem werden bei Verhaltensänderungen selten die Auswirkungen auf die Beutetiergemeinschaft betrachtet, sondern nur die Effekte auf einzelne Individuen bzw. Arten oder auf andere Stufen der Nahrungskette. Eine Betrachtung auf der Stufe der Beutetiergemeinschaft ist jedoch sehr wichtig, da nur so ein umfassendes Verständnis von Räuber-Beute-Gemeinschaften möglich ist. In der vorliegenden Arbeit habe ich die Auswirkungen von Verhaltenseffekten auf die Raumnutzung und die Struktur von Beutetiergemeinschaften untersucht. Dazu habe ich ein räumliches Modell benutzt, welches die Bildung von Beutetiergemeinschaften über den individuellen Aufbau von Aktionsräumen der Beutetiere simuliert. Die Einrichtung von Aktionsräumen basiert dabei auf der Nahrungsverfügbarkeit in der Landschaft und auf dem vom Beutetier wahrgenommenen Risiko von einem Räuber gefressen zu werden. Die räumliche Verteilung des wahrgenommenen Risikos wird auch als Landschaft der Angst bezeichnet. Meine Ergebnisse zeigen, dass sich die Raumnutzung und die Struktur der Beutetiergemeinschaft durch Verhaltenseffekte verändern. Unter dem Einfluss von Angst haben die Beutetiere ihre Aktionsräume in sicherere Bereiche der Landschaft verlegt. Außerdem hat sich in risikoreichen Landschaften die Vielfalt der Beutetiere verringert und die Zusammensetzung zu Arten mit einem geringen Körpergewicht verschoben. Wenn die Beutetiergemeinschaft Landschaftsveränderungen wie z.B. dem Verlust oder der Zerschneidung von Lebensraum ausgesetzt war, haben sich die Auswirkungen von Verhaltenseffekten weiter verstärkt. Durch eine Erhöhung der Größe und Anzahl von Rückzugsräumen, die nicht von Räubern erreicht werden können, sowie deren Verbindung in der Landschaft, kann die Stärke dieser Effekte jedoch begrenzt werden. In einem weiteren Schritt habe ich die Auswirkungen von Unterschieden in der Risikowahrnehmung zwischen Individuen untersucht. Diese Unterschiede haben dazu geführt, dass Tiere mit einer hohen Risikowahrnehmung sich ihren Aktionsraum vornehmlich in sicheren Bereichen gesucht haben, während Tiere mit einer geringen Risikowahrnehmung Bereiche mit einer hohen Nahrungsverfügbarkeit genutzt haben. Dadurch konnten sich in Landschaften mit unterschiedlichen Risiken, vielfältigere Beutetiergemeinschaften etablieren, als in Landschaften mit gleichmäßigem Risiko. Insgesamt geben meine Ergebnisse einen guten Überblick über die Auswirkungen von Verhaltenseffekten auf Beutetiergemeinschaften. Die Verknüpfung von individuellem Verhalten mit Mustern auf der Gemeinschaftsebene erlaubt es die zugrundeliegenden Mechanismen zu identifizieren und zu verstehen. In Bezug auf den Naturschutz unterstützen meine Ergebnisse den Ruf nach modernen Schutzmaßnahmen, die über den Erhalt von einzelnen Arten hinausgehen und den Schutz von Beziehungen zwischen Arten einbeziehen. KW - ecology KW - landscape of fear KW - predator-prey KW - movement KW - biodiversity KW - Ökologie KW - Landschaft der Angst KW - Räuber-Beute KW - Bewegung KW - Biodiversität Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431624 ER - TY - THES A1 - Sterzel, Till T1 - Analyzing global typologies of socio-ecological vulnerability BT - the cases of human security in drylands, and rapid coastal urbanization N2 - On a planetary scale human populations need to adapt to both socio-economic and environmental problems amidst rapid global change. This holds true for coupled human-environment (socio-ecological) systems in rural and urban settings alike. Two examples are drylands and urban coasts. Such socio-ecological systems have a global distribution. Therefore, advancing the knowledge base for identifying socio-ecological adaptation needs with local vulnerability assessments alone is infeasible: The systems cover vast areas, while funding, time, and human resources for local assessments are limited. They are lacking in low an middle-income countries (LICs and MICs) in particular. But places in a specific socio-ecological system are not only unique and complex – they also exhibit similarities. A global patchwork of local rural drylands vulnerability assessments of human populations to socio-ecological and environmental problems has already been reduced to a limited number of problem structures, which typically cause vulnerability. However, the question arises whether this is also possible in urban socio-ecological systems. The question also arises whether these typologies provide added value in research beyond global change. Finally, the methodology employed for drylands needs refining and standardizing to increase its uptake in the scientific community. In this dissertation, I set out to fill these three gaps in research. The geographical focus in my dissertation is on LICs and MICs, which generally have lower capacities to adapt, and greater adaptation needs, regarding rapid global change. Using a spatially explicit indicator-based methodology, I combine geospatial and clustering methods to identify typical configurations of key factors in case studies causing vulnerability to human populations in two specific socio-ecological systems. Then I use statistical and analytical methods to interpret and appraise both the typical configurations and the global typologies they constitute. First, I improve the indicator-based methodology and then reanalyze typical global problem structures of socio-ecological drylands vulnerability with seven indicator datasets. The reanalysis confirms the key tenets and produces a more realistic and nuanced typology of eight spatially explicit problem structures, or vulnerability profiles: Two new profiles with typically high natural resource endowment emerge, in which overpopulation has led to medium or high soil erosion. Second, I determine whether the new drylands typology and its socio-ecological vulnerability concept advance a thematically linked scientific debate in human security studies: what drives violent conflict in drylands? The typology is a much better predictor for conflict distribution and incidence in drylands than regression models typically used in peace research. Third, I analyze global problem structures typically causing vulnerability in an urban socio-ecological system - the rapidly urbanizing coastal fringe (RUCF) – with eleven indicator datasets. The RUCF also shows a robust typology, and its seven profiles show huge asymmetries in vulnerability and adaptive capacity. The fastest population increase, lowest income, most ineffective governments, most prevalent poverty, and lowest adaptive capacity are all typically stacked in two profiles in LICs. This shows that beyond local case studies tropical cyclones and/or coastal flooding are neither stalling rapid population growth, nor urban expansion, in the RUCF. I propose entry points for scaling up successful vulnerability reduction strategies in coastal cities within the same vulnerability profile. This dissertation shows that patchworks of local vulnerability assessments can be generalized to structure global socio-ecological vulnerabilities in both rural and urban socio-ecological systems according to typical problems. In terms of climate-related extreme events in the RUCF, conflicting problem structures and means to deal with them are threatening to widen the development gap between LICs and high-income countries unless successful vulnerability reduction measures are comprehensively scaled up. The explanatory power for human security in drylands warrants further applications of the methodology beyond global environmental change research in the future. Thus, analyzing spatially explicit global typologies of socio-ecological vulnerability is a useful complement to local assessments: The typologies provide entry points for where to consider which generic measures to reduce typical problem structures – including the countless places without local assessments. This can save limited time and financial resources for adaptation under rapid global change. N2 - Menschliche Gesellschaften müssen sich weltweit an sozioökonomische und ökologische Probleme unter rapidem globalen Wandel anpassen. Dies gilt für gekoppelte Mensch-Umwelt-Systeme (sozio-ökologische Systeme) in ländlichen und in städtischen Gebieten. Beispiele sind Trockengebiete oder urban geprägte Küsten. Solche sozio-ökologischen Systeme haben eine globale Ausdehnung. Daher ist es nicht praktikabel, die Wissensbasis zur Ermittlung des sozio-ökologischen Anpassungsbedarfs allein mit lokalen Vulnerabilitätsanalysen voranzutreiben: Die Systeme decken große Gebiete ab, während finanzielle Mittel, Zeit und Personal für lokale Analysen begrenzt sind. In Ländern mit niedrigem und mittlerem Einkommen (LICs und MICs) mangelt es daran besonders. Aber Orte in einem konkreten sozioökologischen System sind nicht nur einzigartig und komplex – sie weisen auch Gemeinsamkeiten auf. Ein globaler Flickenteppich lokaler Vulnerabilitätsanalysen von Gesellschaften gegenüber sozioökonomischen und ökologischen Problemen in Trockengebieten wurde bereits auf eine begrenzte Anzahl von Problemstrukturen reduziert, die typischerweise Verwundbarkeiten verursachen. Es stellt sich jedoch die Frage, ob dies auch in urbanen sozioökologischen Systemen möglich ist. Es stellt sich auch die Frage, ob diese Typologien über die Forschung zum globalen Wandel hinaus einen Mehrwert bieten. Schließlich muss die für Trockengebiete angewandte Methodik verfeinert und standardisiert werden, um ihre Aufnahme in der Wissenschaft zu erhöhen. In dieser Dissertation habe ich versucht, diese drei Forschungslücken zu schließen. Der geografische Schwerpunkt meiner Dissertation liegt auf LICs und MICs, die im Allgemeinen über geringere Anpassungskapazitäten und einen größeren Anpassungsbedarf gegenüber schnellen globalen Wandels verfügen. Unter Verwendung einer räumlich expliziten, indikatorgestützten Methodik kombiniere ich raumbezogene und Clustering-Methoden, um typische Konfigurationen von Schlüsselfaktoren in Fallstudien zu identifizieren, die Verwundbarkeiten für Gesellschaften in zwei spezifischen sozio-ökologischen Systemen verursachen. Dann benutze ich statistische und analytische Methoden, um sowohl die typischen Konfigurationen als auch die globalen Typologien zu interpretieren und zu bewerten. Im ersten Teil verbessere ich die indikatorbasierte Methodik und reanalysiere dann typische globale Problemstrukturen sozioökologischer Verwundbarkeit in ländlichen Trockengebieten mit sieben Indikatordatensätzen. Die Reanalyse bestätigt die Kernaussagen und führt zu einer realistischeren und differenzierteren Typologie von acht räumlich expliziten Problemstrukturen bzw. Vulnerabilitätsprofilen: Zwei neue Profile mit typischer hoher natürlicher Ressourcenausstattung treten auf, in denen Überbevölkerung zu mittlerer bis hoher Bodenerosion geführt hat. Im zweiten Teil stelle ich fest, ob die neue Trockengebietstypologie und ihr sozioökologisches Vulnerabilitätskonzept eine thematisch verknüpfte wissenschaftliche Debatte über menschliche Sicherheit vorantreiben können: Was treibt gewalttätige Konflikte in Trockengebieten an? Die Typologie ist ein deutlich besserer Prädiktor für die Verteilung und Inzidenz von Konflikten in Trockengebieten als Regressionsmodelle, die typischerweise in der Friedensforschung verwendet werden. Im dritten Teil analysiere ich mit elf Indikatordatensätzen globale Problemstrukturen, die in einem urbanen sozioökologischen System - der rapide urbanisierenden Küstenzone (RUCF) – typischerweise Verwundbarkeiten verursachen. Die RUCF weist ebenfalls eine robuste Typologie auf und ihre sieben Profile zeigen große Asymmetrien in Bezug auf Vulnerabilität und Anpassungskapazität. Der schnellste Bevölkerungszuwachs, das niedrigste Einkommen, die ineffektivsten Regierungen, die am weitesten verbreitete Armut und die geringste Anpassungskapazität sind typischerweise in zwei Profilen in LICs geballt. Dies zeigt jenseits von lokalen Analysen, dass tropische Wirbelstürme und / oder Überschwemmungen im RUCF weder schnelles Bevölkerungswachstum noch städtische Expansion verhindern. Ich schlage Einstiegspunkte für die Skalierung erfolgreicher Strategien zur Reduzierung von Vulnerabilität in Küstenstädten innerhalb des gleichen Vulnerabilitätsprofils vor. Diese Dissertation zeigt, dass Flickenteppiche lokaler Vulnerabilitätsanalysen verallgemeinert werden können, um globale sozioökologische Vulnerabilitäten in ländlichen und städtischen sozioökologischen Systemen nach typischen Problemstrukturen zu systematisieren. In Bezug auf klimatische Extremereignisse drohen sich entgegenstehende Problemstrukturen und Mittel, um mit ihnen umzugehen, die Entwicklungslücke zwischen LICs und Ländern mit hohem Einkommen in der RUCF zu vergrößern, wenn erfolgreiche Maßnahmen zur Vulnerabilitätsreduzierung nicht umfassend ausgeweitet werden. Die Erklärungskraft für menschliche Sicherheit in Trockengebieten berechtigt weitere Anwendungen der Methodik über die globale Umweltforschung hinaus. Die Analyse räumlich expliziter globaler Typologien sozio-ökologischer Vulnerabilität ist daher eine sinnvolle Ergänzung zu lokalen Analysen: Die Typologien bieten Einstiegspunkte dafür, welche generischen Maßnahmen wo in Betracht zu ziehen, um typische Problemstrukturen zu reduzieren - einschließlich der unzähligen Orte ohne lokale Analysen. Dies kann begrenzte Zeit und finanzielle Ressourcen für Anpassung unter rapidem globalen Wandel sparen. KW - vulnerability KW - global environmental change KW - patterns KW - drylands KW - indicator-based analysis KW - adaptation KW - Socio-ecological system KW - cluster analysis KW - subnational resolution KW - resource scarcity KW - environment KW - coastal cities KW - coastal urbanization Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-428837 ER - TY - THES A1 - Zapata, Sebastian Henao T1 - Paleozoic to Pliocene evolution of the Andean retroarc between 26 and 28°S: interactions between tectonics, climate, and upper plate architecture T1 - Paläozoische bis pliozäne Entwicklung des andinen Randbeckens zwischen 26 und 28° Süd: Interaktion von Tektonik, Klima und Architektur der kontinentalen Kruste BT - interactions between tectonics, climate, and upper plate architecture N2 - Interactions and feedbacks between tectonics, climate, and upper plate architecture control basin geometry, relief, and depositional systems. The Andes is part of a longlived continental margin characterized by multiple tectonic cycles which have strongly modified the Andean upper plate architecture. In the Andean retroarc, spatiotemporal variations in the structure of the upper plate and tectonic regimes have resulted in marked along-strike variations in basin geometry, stratigraphy, deformational style, and mountain belt morphology. These along-strike variations include high-elevation plateaus (Altiplano and Puna) associated with a thin-skin fold-and-thrust-belt and thick-skin deformation in broken foreland basins such as the Santa Barbara system and the Sierras Pampeanas. At the confluence of the Puna Plateau, the Santa Barbara system and the Sierras Pampeanas, major along-strike changes in upper plate architecture, mountain belt morphology, basement exhumation, and deformation style can be recognized. I have used a source to sink approach to unravel the spatiotemporal tectonic evolution of the Andean retroarc between 26 and 28°S. I obtained a large low-temperature thermochronology data set from basement units which includes apatite fission track, apatite U-Th-Sm/He, and zircon U-Th/He (ZHe) cooling ages. Stratigraphic descriptions of Miocene units were temporally constrained by U-Pb LA-ICP-MS zircon ages from interbedded pyroclastic material. Modeled ZHe ages suggest that the basement of the study area was exhumed during the Famatinian orogeny (550-450 Ma), followed by a period of relative tectonic quiescence during the Paleozoic and the Triassic. The basement experienced horst exhumation during the Cretaceous development of the Salta rift. After initial exhumation, deposition of thick Cretaceous syn-rift strata caused reheating of several basement blocks within the Santa Barbara system. During the Eocene-Oligocene, the Andean compressional setting was responsible for the exhumation of several disconnected basement blocks. These exhumed blocks were separated by areas of low relief, in which humid climate and low erosion rates facilitated the development of etchplains on the crystalline basement. The exhumed basement blocks formed an Eocene to Oligocene broken foreland basin in the back-bulge depozone of the Andean foreland. During the Early Miocene, foreland basin strata filled up the preexisting Paleogene topography. The basement blocks in lower relief positions were reheated; associated geothermal gradients were higher than 25°C/km. Miocene volcanism was responsible for lateral variations on the amount of reheating along the Campo-Arenal basin. Around 12 Ma, a new deformational phase modified the drainage network and fragmented the lacustrine system. As deformation and rock uplift continued, the easily eroded sedimentary cover was efficiently removed and reworked by an ephemeral fluvial system, preventing the development of significant relief. After ~6 Ma, the low erodibility of the basement blocks which began to be exposed caused relief increase, leading to the development of stable fluvial systems. Progressive relief development modified atmospheric circulation, creating a rainfall gradient. After 3 Ma, orographic rainfall and high relief lead to the development of proximal fluvial-gravitational depositional systems in the surrounding basins. N2 - Die Wechselwirkungen zwischen Tektonik, Klima und dem Aufbau der Oberkruste beeinflussen Relief, Beckengeometrien und sedimentäre Systeme. Die geologische Geschichte der Anden ist durch wiederkehrende tektonische Zyklen gekennzeichnet, die nachhaltig den Aufbau der umliegenden Oberkruste geprägt haben. Im Vorlandbecken der Anden (Retro-Arc Typus) führten räumlich und zeitlich variierende strukturgeologische Prozesse in der Oberkruste zu diversen Beckengeometrien, Deformationsvorgängen, sowie stratigraphische und geomorphologische Markern entlang des Streichens des Hochgebirgszuges. Die räumliche Variation beinhaltet unter anderem Hochgebirgsplateaus wie dem Altiplano oder der Puna, die jeweils mit dem thin-skin Aufschiebungsgürtel oder der thick-skin Deformation des zerbrochenen Vorlands im Santa-Barbara-System, bzw. der Sierras Pampeanas assoziiert werden. Besonders am Tripelpunkt zwischen der Puna Plateau, dem Santa-Barbara-System und der Sierras Pampeanas werden deutliche Veränderungen in der Oberkrustenarchitektur, der Oberflächenbeschaffenheit, der dominierenden Deformationsprozesse und der Heraushebung des Grundgebirges ersichtlich. Ich habe einen Quelle-zu-Senke Ansatz genutzt, um die räumliche und zeitliche tektonische Entwicklung der zentralen Ostanden zwischen 26° und 28°S aufzudecken. Dabei habe ich einen umfangreichen Niedertemperaturdatensatz aus Gesteinen des Grundgebirges gewonnen, welche folgende Methoden mit einschließen: Apatit Spaltspur Methode (apatite fission Track, AFT), Apatit U-Th-Sm/He (AHe), und Zirkon U-Th/He (Zhe) Abkühlalter. Für die stratigraphische Besprechung und die exakte Altersbestimmung der Einheiten des Miozäns wurden U-Pb ICP-MS-LA Zirkonalter aus pyroklastisch zwischengelagerten Materialien genutzt. Die modellierten ZHe Altersdatierungen legen den Schluss nahe, dass das Grundgebirge im Untersuchungsgebiet während der Famatinischen Orogenese (vor 550-450 Ma) herausgehoben wurde, woraufhin im Paläozoikum und dem Trias eine Phase von tektonischer Ruhe folgte. Während der Kreide und dem einsetzenden Salta Rift wurde das Grundgebirge in Form von Horststrukturen freigelegt. Nach der ersten Freilegung wurden einige Grundgebirgsblöcke wieder erwärmt durch die rift-parallele Grabenverfüllung im Santa-Barbara-System. Während dem Eozän und dem Oligozän ist der Übergang in ein kompressives Stressregime verantwortlich für die Heraushebung mehrerer losgelöster Grundgebirgszüge. Diese freigelegten Blöcke entstanden zeitgleich wie Gebiete mit flachem Relief, wo feuchtes Klima und geringe Erosionsraten die Herausbildung von „etchplains“ im kristallinem Grundgebirge ermöglichen. Weiterhin durchbrechen diese Gebirgsblöcke das Vorlandbecken, welches sich im Depozentrum des back-bulges der Anden herausgebildet hat. Während des frühen Miozäns füllten Vorlandbeckensedimente die vorher vorhandene paläogene Topographie. Die Grundgebirgsblöcke mit niedrigem Relief wurden wieder erwärmt und wiesen einen Temperaturgradienten von mehr als 25°C/km auf. Der Vulkanismus im Miozän war verantwortlich für laterale Variationen der Intensität der erneuten Erwärmung innerhalb des Campo-Arenal Beckens. Vor etwa 12 Ma modifizierte eine neue Deformationsphase das Abflussnetz und zerstückelte das lakustrische System. Während die Deformation und die Gebirgsbildung anhielt, wurden überlagernde Sedimentschichten einfach erodiert, effizient beseitigt und durch fluviale Prozesse umgelagert, die die weitere Herausbildung von Relief verhinderten. Nach ~6 Ma ermöglichte die geringe Erodierbarkeit des Grundgebirges deren Reliefzunahme, wodurch sich stabile fluviale Systeme herausbildeten. Möglicherweise unterbrach die fortschreitende Reliefzunahme atmosphärische Zirkulationsprozesse, sodass sich laterale Niederschlagsgradienten ausbildeten. Nach 3 Ma führten orographische Niederschlagsbarrieren zu der Entwicklung von nahe liegenden fluvial-gravitationalen Ablagerungssystemen in den umliegenden Becken. KW - climate KW - tectonics KW - Andes KW - inherited structures KW - Klima KW - Tektonik KW - Anden KW - ererbte Strukturen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439036 ER - TY - THES A1 - Melani, Giacomo T1 - From structural fluctuations to vibrational spectroscopy of adsorbates on surfaces T1 - Von Strukturfluktuationen bis zur Schwingungsspektroskopie von Adsorbaten auf Oberflächen BT - a theoretical study of H2O on α-Al2O3(0001) BT - eine theoretische Untersuchung von H2O auf α-Al2O3 (0001) N2 - Aluminum oxide is an Earth-abundant geological material, and its interaction with water is of crucial importance for geochemical and environmental processes. Some aluminum oxide surfaces are also known to be useful in heterogeneous catalysis, while the surface chemistry of aqueous oxide interfaces determines the corrosion, growth and dissolution of such materials. In this doctoral work, we looked mainly at the (0001) surface of α-Al 2 O 3 and its reactivity towards water. In particular, a great focus of this work is dedicated to simulate and address the vibrational spectra of water adsorbed on the α-alumina(0001) surface in various conditions and at different coverages. In fact, the main source of comparison and inspiration for this work comes from the collaboration with the “Interfacial Molecular Spectroscopy” group led by Dr. R. Kramer Campen at the Fritz-Haber Institute of the MPG in Berlin. The expertise of our project partners in surface-sensitive Vibrational Sum Frequency (VSF) generation spectroscopy was crucial to develop and adapt specific simulation schemes used in this work. Methodologically, the main approach employed in this thesis is Ab Initio Molecular Dynamics (AIMD) based on periodic Density Functional Theory (DFT) using the PBE functional with D2 dispersion correction. The analysis of vibrational frequencies from both a static and a dynamic, finite-temperature perspective offers the ability to investigate the water / aluminum oxide interface in close connection to experiment. The first project presented in this work considers the characterization of dissociatively adsorbed deuterated water on the Al-terminated (0001) surface. This particular structure is known from both experiment and theory to be the thermodynamically most stable surface termination of α-alumina in Ultra-High Vacuum (UHV) conditions. Based on experiments performed by our colleagues at FHI, different adsorption sites and products have been proposed and identified for D 2 O. While previous theoretical investigations only looked at vibrational frequencies of dissociated OD groups by staticNormal Modes Analysis (NMA), we rather employed a more sophisticated approach to directly assess vibrational spectra (like IR and VSF) at finite temperature from AIMD. In this work, we have employed a recent implementation which makes use of velocity-velocity autocorrelation functions to simulate such spectral responses of O-H(D) bonds. This approach allows for an efficient and qualitatively accurate estimation of Vibrational Densities of States (VDOS) as well as IR and VSF spectra, which are then tested against experimental spectra from our collaborators. In order to extend previous work on unimolecularly dissociated water on α-Al 2 O 3 , we then considered a different system, namely, a fully hydroxylated (0001) surface, which results from the reconstruction of the UHV-stable Al-terminated surface at high water contents. This model is then further extended by considering a hydroxylated surface with additional water molecules, forming a two-dimensional layer which serves as a potential template to simulate an aqueous interface in environmental conditions. Again, employing finite-temperature AIMD trajectories at the PBE+D2 level, we investigated the behaviour of both hydroxylated surface (HS) and the water-covered structure derived from it (known as HS+2ML). A full range of spectra, from VDOS to IR and VSF, is then calculated using the same methodology, as described above. This is the main focus of the second project, reported in Chapter 5. In this case, comparison between theoretical spectra and experimental data is definitely good. In particular, we underline the nature of high-frequency resonances observed above 3700 cm −1 in VSF experiments to be associated with surface OH-groups, known as “aluminols” which are a key fingerprint of the fully hydroxylated surface. In the third and last project, which is presented in Chapter 6, the extension of VSF spectroscopy experiments to the time-resolved regime offered us the opportunity to investigate vibrational energy relaxation at the α-alumina / water interface. Specifically, using again DFT-based AIMD simulations, we simulated vibrational lifetimes for surface aluminols as experimentally detected via pump-probe VSF. We considered the water-covered HS model as a potential candidate to address this problem. The vibrational (IR) excitation and subsequent relaxation is performed by means of a non-equilibrium molecular dynamics scheme. In such a scheme, we specifically looked at the O-H stretching mode of surface aluminols. Afterwards, the analysis of non-equilibrium trajectories allows for an estimation of relaxation times in the order of 2-4 ps which are in overall agreement with measured ones. The aim of this work has been to provide, within a consistent theoretical framework, a better understanding of vibrational spectroscopy and dynamics for water on the α-alumina(0001) surface,ranging from very low water coverage (similar to the UHV case) up to medium-high coverages, resembling the hydroxylated oxide in environmental moist conditions. N2 - Das Hauptziel dieser Doktorarbeit war die Untersuchung der Wechselwirkung zwischen Aluminiumoxid (α-Al2O3) und Wasser, wobei die (0001)-Oberfläche von α-Al2O3 im Fokus der Betrachtungen stand. Infolge der Entwicklung moderner oberflächensensitiver spektroskopischer Methoden, insbesondere in der Schwingungsspektroskopie, ist es inzwischen experimentell möglich, die Oberflächenchemie dieser Oxidmaterialien zu untersuchen und atomistische Informationen über ihre wässrigen Grenzflächen zu erhalten. Unsere Gruppe hat mit der Interfacial Molecular Spectroscopy Gruppe des Fritz-Haber-Instituts der MPG in Berlin zusammengearbeitet, deren Expertise in der oberflächensensitiven Vibrational Sum Frequency (VSF) Generation liegt. Diese Technik gestattet den spezifischen Nachweis von Adsorbatvibrationen, beispielsweise des Produkts der Wasserdissoziation und -adsorption. Zur theoretischen Untersuchung dieses Systems wurden verschiedene Berechnungsmethoden genutzt, wobei bevorzugt die Ab-initio-Molekulardynamik (AIMD) zum Einsatz kam. Darüber hinaus konzentrierten wir uns auf die Simulation von Schwingungsfrequenzen und -spektren für verschiedene Systeme unter Verwendung eines neuen, effizienten Algorithmus, der auf Grundlage klassischer Zeitkorrelationsfunktionen entwickelt wurde. Das erste Projekt untersuchte die einfachsten Adsorptionsprodukte von Wasserreaktionen auf der Al-terminierten α-Al2O3(0001)-Oberfläche, die unter Ultrahochvakuumbedingungen (UHV) als stabilste Struktur bekannt ist. Mit AIMD-basierten Methoden haben wir verschiedene Spezies simuliert, die aus unimolekular adsorbiertem Wasser stammen, und ihre Schwingungsfrequenzen im Vergleich zum Experiment bestimmt. In einem zweiten Projekt widmeten wir uns einer Situation, in der eine vollständig hydroxylierte α-Aluminiumoxid-Oberfläche mit einer ebenfalls vollständig hydroxylierten, aber um eine zusätzliche Wasserschicht erweiterten α-Aluminiumoxid-Oberfläche wechselwirkt. Diese beiden Strukturen dienen als Grundlage zur weitergehenden Untersuchung von Aluminiumoxid-Oberflächen mit größeren Wasser-Bedeckungsgraden unter Umgebungsbedingungen. Wiederum simulierten wir vollständige Schwingunsspektren (einschließlich IR und VSF). Hierzu wurden etablierte Methoden genutzt, die auf der Verwendung von Zeitkorrelationsfunktionen basieren, jedoch von uns im Rahmen dieser Doktorarbeit weiterentwickelt wurden. Schließlich haben wir in einem dritten Projekt in Zusammenarbeit mit Experimentatoren die Schwingungsrelaxation an der Wasser / α-Al2O3-Grenzfläche beschrieben. Motiviert durch Pump-Probe-VSF-Experimente zur Bestimmung der Schwingungslebensdauer adsorbierter OH-Spezies entwickelten und verwendeten wir einen AIMD-Ansatz zur Simulation der Anregungs- und Relaxationsprozesse. Auf Grundlage von Nichtgleichgewichtstrajektorien konnten wir auch eine Relaxationszeitskala für OH-Gruppen ermitteln, die zwischen 2 und 4 Pikosekunden beträgt und gut mit experimentellen Werten übereinstimmt. KW - theoretical chemistry KW - molecular dynamics KW - DFT KW - vibrational spectroscopy KW - theoretische Chemie KW - Molekulardynamik KW - DFT KW - Schwingungsspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441826 ER - TY - THES A1 - López García, Patricia T1 - Coiled coils as mechanical building blocks T1 - Coiled Coils als mechanische Bausteine N2 - The natural abundance of Coiled Coil (CC) motifs in cytoskeleton and extracellular matrix proteins suggests that CCs play an important role as passive (structural) and active (regulatory) mechanical building blocks. CCs are self-assembled superhelical structures consisting of 2-7 α-helices. Self-assembly is driven by hydrophobic and ionic interactions, while the helix propensity of the individual helices contributes additional stability to the structure. As a direct result of this simple sequence-structure relationship, CCs serve as templates for protein design and sequences with a pre-defined thermodynamic stability have been synthesized de novo. Despite this quickly increasing knowledge and the vast number of possible CC applications, the mechanical function of CCs has been largely overlooked and little is known about how different CC design parameters determine the mechanical stability of CCs. Once available, this knowledge will open up new applications for CCs as nanomechanical building blocks, e.g. in biomaterials and nanobiotechnology. With the goal of shedding light on the sequence-structure-mechanics relationship of CCs, a well-characterized heterodimeric CC was utilized as a model system. The sequence of this model system was systematically modified to investigate how different design parameters affect the CC response when the force is applied to opposing termini in a shear geometry or separated in a zipper-like fashion from the same termini (unzip geometry). The force was applied using an atomic force microscope set-up and dynamic single-molecule force spectroscopy was performed to determine the rupture forces and energy landscape properties of the CC heterodimers under study. Using force as a denaturant, CC chain separation is initiated by helix uncoiling from the force application points. In the shear geometry, this allows uncoiling-assisted sliding parallel to the force vector or dissociation perpendicular to the force vector. Both competing processes involve the opening of stabilizing hydrophobic (and ionic) interactions. Also in the unzip geometry, helix uncoiling precedes the rupture of hydrophobic contacts. In a first series of experiments, the focus was placed on canonical modifications in the hydrophobic core and the helix propensity. Using the shear geometry, it was shown that both a reduced core packing and helix propensity lower the thermodynamic and mechanical stability of the CC; however, with different effects on the energy landscape of the system. A less tightly packed hydrophobic core increases the distance to the transition state, with only a small effect on the barrier height. This originates from a more dynamic and less tightly packed core, which provides more degrees of freedom to respond to the applied force in the direction of the force vector. In contrast, a reduced helix propensity decreases both the distance to the transition state and the barrier height. The helices are ‘easier’ to unfold and the remaining structure is less thermodynamically stable so that dissociation perpendicular to the force axis can occur at smaller deformations. Having elucidated how canonical sequence modifications influence CC mechanics, the pulling geometry was investigated in the next step. Using one and the same sequence, the force application points were exchanged and two different shear and one unzipping geometry were compared. It was shown that the pulling geometry determines the mechanical stability of the CC. Different rupture forces were observed in the different shear as well as in the unzipping geometries, suggesting that chain separation follows different pathways on the energy landscape. Whereas the difference between CC shearing and unzipping was anticipated and has also been observed for other biological structures, the observed difference for the two shear geometries was less expected. It can be explained with the structural asymmetry of the CC heterodimer. It is proposed that the direction of the α-helices, the different local helix propensities and the position of a polar asparagine in the hydrophobic core are responsible for the observed difference in the chain separation pathways. In combination, these factors are considered to influence the interplay between processes parallel and perpendicular to the force axis. To obtain more detailed insights into the role of helix stability, helical turns were reinforced locally using artificial constraints in the form of covalent and dynamic ‘staples’. A covalent staple bridges to adjacent helical turns, thus protecting them against uncoiling. The staple was inserted directly at the point of force application in one helix or in the same terminus of the other helix, which did not experience the force directly. It was shown that preventing helix uncoiling at the point of force application reduces the distance to the transition state while slightly increasing the barrier height. This confirms that helix uncoiling is critically important for CC chain separation. When inserted into the second helix, this stabilizing effect is transferred across the hydrophobic core and protects the force-loaded turns against uncoiling. If both helices were stapled, no additional increase in mechanical stability was observed. When replacing the covalent staple with a dynamic metal-coordination bond, a smaller decrease in the distance to the transition was observed, suggesting that the staple opens up while the CC is under load. Using fluorinated amino acids as another type of non-natural modification, it was investigated how the enhanced hydrophobicity and the altered packing at the interface influences CC mechanics. The fluorinated amino acid was inserted into one central heptad of one or both α-helices. It was shown that this substitution destabilized the CC thermodynamically and mechanically. Specifically, the barrier height was decreased and the distance to the transition state increased. This suggests that a possible stabilizing effect of the increased hydrophobicity is overruled by a disturbed packing, which originates from a bad fit of the fluorinated amino acid into the local environment. This in turn increases the flexibility at the interface, as also observed for the hydrophobic core substitution described above. In combination, this confirms that the arrangement of the hydrophobic side chains is an additional crucial factor determining the mechanical stability of CCs. In conclusion, this work shows that knowledge of the thermodynamic stability alone is not sufficient to predict the mechanical stability of CCs. It is the interplay between helix propensity and hydrophobic core packing that defines the sequence-structure-mechanics relationship. In combination, both parameters determine the relative contribution of processes parallel and perpendicular to the force axis, i.e. helix uncoiling and uncoiling-assisted sliding as well as dissociation. This new mechanistic knowledge provides insight into the mechanical function of CCs in tissues and opens up the road for designing CCs with pre-defined mechanical properties. The library of mechanically characterized CCs developed in this work is a powerful starting point for a wide spectrum of applications, ranging from molecular force sensors to mechanosensitive crosslinks in protein nanostructures and synthetic extracellular matrix mimics. N2 - Das „Coiled Coil“ (CC) Faltungsmotiv ist Bestandteil vieler Proteine im Zytoskelett und der extrazellulären Matrix. Es kann daher davon ausgegangen werden, dass CCs essentielle mechanische Bausteine darstellen, die sowohl passive (strukturelle) als auch aktive (regulatorische) Aufgaben erfüllen. CCs bestehen aus 2-7 α-helikalen Untereinheiten, die eine superhelikale Struktur formen. Die Faltung und Stabilität der Superhelix wird durch hydrophobe und ionische Wechselwirkungen bestimmt, sowie durch die Helixpropensität der einzelnen Aminosäuren. Auf der Grundlage dieser gut verstandenen Struktur-Funktionsbeziehungen werden CCs häufig als Vorlage für das de novo Proteindesign genutzt. Trotz stetig wachsender wissenschaftlicher Erkenntnisse und der mannigfaltigen Anwendungsmöglichkeiten von CCs, ist ihre mechanische Funktion noch weitestgehend unerforscht. Insbesondere ist der Zusammenhang zwischen der Aminosäuresequenz und der mechanischen Stabilität kaum bekannt. Dieses Wissen ist jedoch essentiell für die Anwendung von CCs als nanomechanische Bausteine. Um die mechanischen Struktur-Funktionsbeziehungen von CCs zu beleuchten, wurde ein gut charakterisiertes CC-Heterodimer als Modellsystem genutzt. Dessen Sequenz wurde systematisch modifiziert, um den Einfluss verschiedener Strukturparameter auf die mechanische Stabilität des CCs zu untersuchen. Mittels Rasterkraftmikroskop-basierter Einzelmolekülkraftspektroskopie wurden die Kraftangriffspunkte so platziert, dass das CC entweder geschert oder wie ein Reißverschluss geöffnet wurde („Unzip“-Geometrie). Dabei wurde die Kraft bestimmt, die zur Separation der beiden Helices benötigt wird. Diese sogenannte Abrisskraft wurde bei verschiedenen Ladungsraten gemessen, um Rückschlüsse auf die Energielandschaft der CCs zu ziehen. Die anliegende Kraft führt zunächst zur Entfaltung der Helix-Enden an den Kraftangriffspunkten. Diese partielle Entfaltung ermöglicht in der Scher-Geometrie zwei Mechanismen, die letztlich zur Separation der Helices führen: die Verschiebung der Helices entlang des Kraftvektors und die Dissoziation senkrecht zur angelegten Kraft. Auch in der „Unzip“-Geometrie geht die teilweise Entfaltung der Dissoziation voraus. Zunächst wurde der Einfluss von hydrophoben Wechselwirkungen im Kern des CCs sowie der Helixpropensität systematisch untersucht. In der verwendeten Scher-Geometrie führten entsprechende Aminosäuremodifikationen zu einer Änderung der Abrisskraft des CCs, wobei spezifische Unterschiede in der Energielandschaft festzustellen sind. Weniger dicht gepackte hydrophobe Wechselwirkungen verlängern hauptsächlich den Abstand zum Übergangszustand, da sie die Freiheitsgrade des Entfaltungspfades erhöhen. Eine verringerte Helixpropensität verringert sowohl die Aktivierungsenergie als auch den Abstand zum Übergangszustand. Die niedrige thermodynamische Stabilität dieser Modifikation führt dazu, dass weniger Kraft angewandt werden muss, um die Dissoziation der Helices senkrecht zum Kraftvektor zu erreichen. Mit diesem Wissen über den Einfluss der Helixpropensität und der hydrophoben Wechselwirkungen, wurde anschließend die mechanische Entfaltung in zwei verschiedenen Scher-Geometrien, sowie der „Unzip“-Geometrie untersucht. Dazu wurde jeweils die gleiche Sequenz verwendet, wobei nur die Kraftangriffspunkte modifiziert wurden. Die Ergebnisse zeigen, dass die Positionierung der Kraftangriffspunkte essentiell für die gemessene mechanische Stabilität des CC ist. Wie auch in anderen biologischen Strukturen zu beobachten, besteht ein Unterschied zwischen Scher- und „Unzip“-Geometrie. Jedoch weist das CC auch in den beiden Scher-Geometrien Unterschiede in der Stabilität auf. Dies ist auf eine Asymmetrie der ansonsten hochrepetitiven Sequenz zurückzuführen. Die Rolle der Helixstabilität wurde durch die lokale Stabilisierung von Helixwindungen mit kovalenten und dynamischen molekularen Klammern genauer erforscht. Die Klammern verknüpfen zwei benachbarte Windungen und stabilisieren diese so gegen die mechanische Entfaltung. Die kovalente Klammer wurde entweder direkt am Kraftangriffspunkt eingefügt oder in der Partnerhelix, an der die Kraft nicht direkt angreift. Es wurde gezeigt, dass die Klammern die mechanische Stabilität des CCs erhöhen. Dem liegen eine Verringerung des Abstands zum Übergangszustand und eine leichte Erhöhung der Energiebarriere zu Grunde. Helix-stabilisierende Effekte können durch die hydrophoben Wechselwirkungen auf die Partnerhelix übertragen werden. Das Klammern beider Helices führte nicht zu einer weiteren Erhöhung der mechanischen Stabilität. Bei Einfügen einer dynamischen Klammer direkt am Kraftangriffspunkt fällt die Verringerung des Abstands zum Übergangszustand kleiner aus. Dies ist auf das Öffnen der reversiblen Klammer bei Krafteinwirkung zurückzuführen. Auch die Rolle der hydrophoben Wechselwirkungen wurde unter Verwendung einer nicht-natürlichen Modifikation detaillierter untersucht. Dazu wurde eine fluorinierte Aminosäure im zentralen Teil des CCs eingebaut. Die fluorinierte Aminosäure ist hydrophober als die Ursprüngliche und verändert die Packung der Seitenketten im hydrophoben Kern. Die Anwesenheit der fluorinierten Aminosäure in einer der beiden Helices führte zu einer Erniedrigung der Aktivierungsenergie sowie zu einer gleichzeitigen Erhöhung des Abstandes zum Übergangszustand. Dies zeigt, dass die fluorinierte Aminosäure in erster Linie die Packung der hydrophoben Aminosäuren stört, während der Einfluss des hydrophoben Effekts ehr gering ist. Die fluorinierte Aminosäure kann nicht gut in die lokale Umgebung der anderen Aminosäuren integriert werden und zeigt so, dass die Anordnung und Wechselwirkung der hydrophoben Aminosäuren im Kern essentiell für die mechanische Stabilität von CCs ist. Zusammenfassend zeigt diese Arbeit, dass allein auf Grundlage der thermodynamischen Stabilität nicht auf die mechanische Stabilität von CCs geschlossen werden kann. Das Zusammenspiel zwischen Helixstabilität und hydrophoben Wechselwirkungen ist maßgebend um die Zusammenhänge zwischen Sequenz, Struktur und mechanischer Stabilität von CCs zu verstehen. Beide Faktoren tragen zu den Entfaltungsmechanismen parallel und senkrecht zur Kraftrichtung bei. Diese neuen mechanistischen Einblicke in die sequenzabhängige mechanische Stabilität von CCs ermöglichen die Entwicklung von CCs mit maßgeschneiderten mechanischen Eigenschaften. Die hier charakterisierte CC-Bibliothek ist ein hervorragender Ausgangspunkt für ein breites Spektrum an potentiellen Anwendungen, von molekularen Kraftsensoren bis zu mechanosensitiven Bausteinen für Proteinnanostrukturen und künstlichen extrazellulären Matrices. KW - biochemistry KW - peptides KW - coiled coils KW - mechanics KW - single-molecule force spectroscopy KW - Biochemie KW - Peptide KW - Coiled coils KW - mechanische Stabilität KW - Einzelmolekülkraftspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429568 ER - TY - THES A1 - Walczak, Ralf T1 - Molecular design of nitrogen-doped nanoporous noble carbon materials for gas adsorption T1 - Molekulares Design Stickstoffdotierter, Nanoporöser, und Edler Kohlenstoffmaterialien für Gasadsorption N2 - In den modernen Gesellschaften führt ein stetig steigender Energiebedarf zu dem zunehmenden Verbrauch fossiler Brennstoffe wie Kohle, Öl, und Gas. Die Verbrennung dieser kohlenstoffbasierten Brennstoffe führt unweigerlich zur Freisetzung von Treibhausgasen, vor allem von CO2. Die CO2 Aufnahme unmittelbar bei den Verbrennungsanlagen oder direkt aus der Luft, zusammen mit Regulierung von CO2 produzierenden Energiesektoren (z.B. Kühlanlagen), können den CO2 Ausstoß reduzieren. Allerdings führen insbesondere bei der CO2 Aufnahme die geringen CO2 Konzentrationen und die Aufnahme konkurrierender Gase zu niedrigen CO2 Kapazitäten und Selektivitäten. Das Zusammenspiel der Gastmoleküle mit porösen Materialien ist dabei essentiell. Poröse Kohlenstoffmaterialien besitzen attraktive Eigenschaften, unter anderem elektrische Leitfähigkeit, einstellbare Porosität, als auch chemische und thermische Stabilität. Allerdings führt die zu geringe Polarisierbarkeit dieser Materialien zu einer geringen Affinität zu polaren Molekülen (z.B. CO2, H2O, oder NH3). Diese Affinität kann durch den Einbau von Stickstoff erhöht werden. Solche Materialien sind oft „edler“ als reine Kohlenstoffe, dies bedeutet, dass sie eher oxidierend wirken, als selbst oxidiert zu werden. Die Problematik besteht darin, einen hohen und gleichmäßig verteilten Stickstoffgehalt in das Kohlenstoffgerüst einzubauen. Die Zielsetzung dieser Dissertation ist die Erforschung neuer Synthesewege für stickstoffdotierte edle Kohlenstoffmaterialien und die Entwicklung eines grundlegenden Verständnisses für deren Anwendung in Gasadsorption und elektrochemischer Energiespeicherung. Es wurde eine templatfreie Synthese für stickstoffreiche, edle, und mikroporöse Kohlenstoffmaterialien durch direkte Kondensation eines stickstoffreichen organischen Moleküls als Vorläufer erarbeitet. Dadurch konnten Materialien mit hohen Adsorptionskapazitäten für H2O und CO2 bei niedrigen Konzentrationen und moderate CO2/N2 Selektivitäten erzielt werden. Um die CO2/N2 Selektivitäten zu verbessern, wurden mittels der Einstellung des Kondensationsgrades die molekulare Struktur und Porosität der Kohlenstoffmaterialien kontrolliert. Diese Materialien besitzen die Eigenschaften eines molekularen Siebs für CO2 über N2, das zu herausragenden CO2/N2 Selektivitäten führt. Der ultrahydrophile Charakter der Porenoberflächen und die kleinen Mikroporen dieser Kohlenstoffmaterialien ermöglichen grundlegende Untersuchungen für die Wechselwirkungen mit Molekülen die polarer sind als CO2, nämlich H2O und NH3. Eine weitere Reihe stickstoffdotierter Kohlenstoffmaterialien wurde durch Kondensation eines konjugierten mikroporösen Polymers synthetisiert und deren strukturelle Besonderheiten als Anodenmaterial für die Natriumionen Batterie untersucht. Diese Dissertation leistet einen Beitrag zur Erforschung stickstoffdotierter Kohlenstoffmaterialien und deren Wechselwirkungen mit verschiedenen Gastmolekülen. N2 - The growing energy demand of the modern economies leads to the increased consumption of fossil fuels in form of coal, oil, and natural gases, as the mains sources. The combustion of these carbon-based fossil fuels is inevitably producing greenhouse gases, especially CO2. Approaches to tackle the CO2 problem are to capture it from the combustion sources or directly from air, as well as to avoid CO2 production in energy consuming sources (e.g., in the refrigeration sector). In the former, relatively low CO2 concentrations and competitive adsorption of other gases is often leading to low CO2 capacities and selectivities. In both approaches, the interaction of gas molecules with porous materials plays a key role. Porous carbon materials possess unique properties including electric conductivity, tunable porosity, as well as thermal and chemical stability. Nevertheless, pristine carbon materials offer weak polarity and thus low CO2 affinity. This can be overcome by nitrogen doping, which enhances the affinity of carbon materials towards acidic or polar guest molecules (e.g., CO2, H2O, or NH3). In contrast to heteroatom-free materials, such carbon materials are in most cases “noble”, that is, they oxidize other matter rather than being oxidized due to the very positive working potential of their electrons. The challenging task here is to achieve homogenous distribution of significant nitrogen content with similar bonding motives throughout the carbon framework and a uniform pore size/distribution to maximize host-guest interactions. The aim of this thesis is the development of novel synthesis pathways towards nitrogen-doped nanoporous noble carbon materials with precise design on a molecular level and understanding of their structure-related performance in energy and environmental applications, namely gas adsorption and electrochemical energy storage. A template-free synthesis approach towards nitrogen-doped noble microporous carbon materials with high pyrazinic nitrogen content and C2N-type stoichiometry was established via thermal condensation of a hexaazatriphenylene derivative. The materials exhibited high uptake of guest molecules, such as H2O and CO2 at low concentrations, as well as moderate CO2/N2 selectivities. In the following step, the CO2/N2 selectivity was enhanced towards molecular sieving of CO2 via kinetic size exclusion of N2. The precise control over the condensation degree, and thus, atomic construction and porosity of the resulting materials led to remarkable CO2/N2 selectivities, CO2 capacities, and heat of CO2 adsorption. The ultrahydrophilic nature of the pore walls and the narrow microporosity of these carbon materials served as ideal basis for the investigation of interface effects with more polar guest molecules than CO2, namely H2O and NH3. H2O vapor physisorption measurements, as well as NH3-temperature programmed desorption and thermal response measurements showed exceptionally high affinity towards H2O vapor and NH3 gas. Another series of nitrogen-doped carbon materials was synthesized by direct condensation of a pyrazine-fused conjugated microporous polymer and their structure-related performance in electrochemical energy storage, namely as anode materials for sodium-ion battery, was investigated. All in all, the findings in this thesis exemplify the value of molecularly designed nitrogen-doped carbon materials with remarkable heteroatom content implemented as well-defined structure motives. The simultaneous adjustment of the porosity renders these materials suitable candidates for fundamental studies about the interactions between nitrogen-doped carbon materials and different guest species. KW - carbon materials KW - nitrogen-doped KW - gas adsorption KW - porosity KW - Porösität KW - Gasadsorption KW - Stickstoffdotiert KW - Kohlenstoffmaterialien Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-435241 ER - TY - THES A1 - Nguyen, Quyet Doan T1 - Electro-acoustical probing of space-charge and dipole-polarization profiles in polymer dielectrics for electret and electrical-insulation applications T1 - Elektroakustische Abtastung von elektrischen Ladungs- und Polarisationsprofilen in Polymerfolien für Elektret- und Isolations-Anwendungen N2 - Electrets are dielectrics with quasi-permanent electric charge and/or dipoles, sometimes can be regarded as an electric analogy to a magnet. Since the discovery of the excellent charge retention capacity of poly(tetrafluoro ethylene) and the invention of the electret microphone, electrets have grown out of a scientific curiosity to an important application both in science and technology. The history of electret research goes hand in hand with the quest for new materials with better capacity at charge and/or dipole retention. To be useful, electrets normally have to be charged/poled to render them electro-active. This process involves electric-charge deposition and/or electric dipole orientation within the dielectrics ` surfaces and bulk. Knowledge of the spatial distribution of electric charge and/or dipole polarization after their deposition and subsequent decay is crucial in the task to improve their stability in the dielectrics. Likewise, for dielectrics used in electrical insulation applications, there are also needs for accumulated space-charge and polarization spatial profiling. Traditionally, space-charge accumulation and large dipole polarization within insulating dielectrics is considered undesirable and harmful to the insulating dielectrics as they might cause dielectric loss and could lead to internal electric field distortion and local field enhancement. High local electric field could trigger several aging processes and reduce the insulating dielectrics' lifetime. However, with the advent of high-voltage DC transmission and high-voltage capacitor for energy storage, these are no longer the case. There are some overlapped between the two fields of electrets and electric insulation. While quasi-permanently trapped electric-charge and/or large remanent dipole polarization are the requisites for electret operation, stably trapped electric charge in electric insulation helps reduce electric charge transport and overall reduced electric conductivity. Controlled charge trapping can help in preventing further charge injection and accumulation as well as serving as field grading purpose in insulating dielectrics whereas large dipole polarization can be utilized in energy storage applications. In this thesis, the Piezoelectrically-generated Pressure Steps (PPSs) were employed as a nondestructive method to probe the electric-charge and dipole polarization distribution in a range of thin film (several hundred micron) polymer-based materials, namely polypropylene (PP), low-density polyethylene/magnesium oxide (LDPE/MgO) nanocomposites and poly(vinylidene fluoride-co- trifluoro ethylene) (P(VDF-TrFE)) copolymer. PP film surface-treated with phosphoric acid to introduce surfacial isolated nanostructures serves as example of 2-dimensional nano-composites whereas LDPE/MgO serves as the case of 3-dimensional nano-composites with MgO nano-particles dispersed in LDPE polymer matrix. It is evidenced that the nanoparticles on the surface of acid-treated PP and in the bulk of LDPE/MgO nanocomposites improve charge trapping capacity of the respective material and prevent further charge injection and transport and that the enhanced charge trapping capacity makes PP and LDPE/MgO nanocomposites potential materials for both electret and electrical insulation applications. As for PVDF and VDF-based copolymers, the remanent spatial polarization distribution depends critically on poling method as well as specific parameters used in the respective poling method. In this work, homogeneous polarization poling of P(VDF-TrFE) copolymers with different VDF-contents have been attempted with hysteresis cyclical poling. The behaviour of remanent polarization growth and spatial polarization distribution are reported and discussed. The Piezoelectrically-generated Pressure Steps (PPSs) method has proven as a powerful method for the charge storage and transport characterization of a wide range of polymer material from nonpolar, to polar, to polymer nanocomposites category. N2 - Elektrete sind Dielektrika mit quasi-permanenter elektrischer Ladung und/oder quasi-permanent ausgerichteten elektrischen Dipolen - das elektrische Analogon zu einem Magneten. Seit der Entdeckung der besonders hohen Stabilitaet negativer Raumladungen in Polytetrafluorethylen (PTFE, Handelsname Teflon) und der Erfindung des Elektretmikrofons ist aus der spannenden wissenschaftlichen Fragestellung nach den Ursachen der hervorragenden Ladungsspeicherung in Elektreten auch eine wichtige technische Anwendung geworden. In der Geschichte der Elektretforschung und der Elektretanwendungen geht es neben der Ursachenklaerung auch immer um die Suche nach neuen Materialien mit besserer Ladungsspeicherung und/oder Dipolpolarisation. Elektretmaterialien muessen in der Regel elektrisch aufgeladen oder gepolt werden, um die gewuenschten elektroaktiven Eigenschaften zu erhalten. Dabei werden entweder elektrische Ladungen auf der Oberflaeche oder im Volumen des Elektretmaterials deponiert und/oder elektrische Dipole im Material ausgerichtet. Genaue Informationen ueber die raeumliche Verteilung der elektrischen Ladungen und/oder der Dipolpolarisation sowie deren Entwicklung im Laufe der Zeit sind entscheidend fuer eine gezielte Verbesserung der Elektretstabilitaet. Dielektrika, die zur elektrischen Isolierung von Hochspannungsanlagen eingesetzt werden, koennen ebenfalls elektrische Raumladungen und/oder Dipolpolarisationen enthalten, deren Verteilungen entscheidend fuer die Beherrschung der damit einhergehenden Eigenschaftsaenderungen sind. Traditionell gelten Raumladungen und Dipolpolarisationen in elektrischen Isolierungen als unerwuenscht und schaedlich, da sie zu erheblichen Verlusten und zu Verzerrungen der inneren elektrischen Felder fuehren koennen. Hohe lokale Felder koennen Alterungsprozesse ausloesen und die Lebensdauer der isolierenden Dielektrika erheblich verkuerzen. Mit dem Aufkommen der Hochspannungs-Gleichstromuebertragung und des Hochspannungskondensators zur Energiespeicherung in den letzten Jahren hat sich die Situation jedoch grundlegend geaendert, da Raumladungen prinzipiell nicht mehr vermeidbar sind und bei entsprechender Gestaltung der Isolierung moeglicherweise sogar von Vorteil sein koennen. Hier ergeben sich nun Ueberschneidungen und Synergien zwischen Elektreten und elektrischen Isoliermaterialien, zumal in beiden Faellen hohe elektrische Gleichfelder auftreten. Waehrend quasi-permanent gespeicherte elektrische Ladungen und/oder stark quasi- permanente oder remanente Dipolpolarisationen das wesentliche Merkmal von Elektreten sind, koennen stabil gespeicherte elektrische Ladungen in elektrischen Isolierungen dazu beitragen, den schaedlichen Ladungstransport und damit die effektive elektrische Leitfaehigkeit der Dielektrika zu reduzieren. Ein kontrolliertes Einbringen von Raumladungen kann die Injektion und die Anhaeufung weiterer Ladungen verhindern, waehrend stark Dipolpolarisationen die Kapazitaet von elektrischen Energiespeichern wesentlich erhoehen koennen. In der vorliegenden Arbeit wurden piezoelektrisch erzeugte Druckstufen (Piezoelectrically generated Pressure Steps oder PPSs) eingesetzt, um die Verteilung elektrischer Ladungen und/oder ausgerichteter elektrischer Dipole in relativ duennen polymeren Dielektrika (Mikrometerbereich) zu untersuchen. Wesentliche Probenmaterialien waren Polypropylen (PP), Komposite aus Polyethylen mit Magnesiumoxid-Nanopartikeln in geringen Mengen (LDPE/MgO) sowie Poly(vinyliden fluorid-trifluorethylen)-Copolymere (P(VDF-TrFE)). PP-Folien, die mit Phosphorsaeure oberflaechenbehandelt wurden, um voneinander isolierte Nanostrukturen an der Oberflaeche zu erzeugen, sind ein Beispiel fuer ein zweidimensionales (2-D) Nanokomposit, waehrend LDPE/MgO ein dreidimensionales (3-D) Nanokomposit darstellt. Es konnte nachgewiesen werden, dass die Nanopartikel auf der Oberflaeche von saeurebehandeltem PP und im Volumen von LDPE/MgO-Nanokompositen die Ladungsspeicherfaehigkeit des jeweiligen Materials entscheidend verbessern. Damit werden weitere Ladungsinjektionen und der Ladungstransport verhindert, was die 2-D PP- und die 3-D LDPE/MgO-Nanokomposite zu geeigneten Kandidaten sowohl fuer Elektret- als auch fuer Isolationsanwendungen macht. Bei Polyvinylidenfluorid (PVDF) und Copolymeren auf der Basis von Vinylidenfluorid (VDF) haengt die remanente raeumliche Polarisationsverteilung entscheidend von der jeweiligen Polungsmethode sowie von den Parametern des jeweiligen Polungsvorgangs ab. Hier wurde versucht, eine homogene Polung von P(VDF-TrFE)-Copolymeren mit unterschiedlichen VDF-Gehalten mit dem Verfahren der zyklischen Polung (sogenannte Hysterese-Polung) zu erzeugen. Das Entstehen der remanenten Polarisation und deren raeumliche Verteilung konnten erfasst und interpretiert werden, um Hinweise für eine optimale Polung zu erhalten. An den genannten Beispielen konnte gezeigt werden, dass die Methode der piezoelektrisch erzeugten Druckstufen (PPS) ein leistungsfaehiges Verfahren zur Charakterisierung der Ladungsspeicherung und des Ladungstransports in Dielektrika ist und dass damit ein breites Spektrum von unpolaren Polymeren ueber polare Polymerdielektrika bis hin zu polaren Nanokompositen sinnvoll untersucht werden kann. Es wurden wesentliche Erkenntnisse zur Ladungsspeicherung und zur remanten Polarisation in den untersuchten Polymeren gewonnen. KW - electro-acoustic electric-charge and polarization profiling KW - space charge KW - polypropylene KW - polyethylene nanocomposites KW - magnesium oxide KW - polymer electrets KW - ferroelectrets KW - electrical insulation KW - piezoelectricity KW - ferroelectricity KW - poly(vinylidene fluoride) KW - hysteresis KW - elektroakustische Abtastung elektrischer Ladungen und Dipolpolarisationen KW - elektrische Raumladung KW - Polypropylen KW - Polyethylen-Nanokomposite KW - Magnesiumoxid KW - Polymerelektrete KW - Ferroelektrete KW - elektrische Isolierung KW - Piezoelektrizität KW - Ferroelektrizität KW - Poly(vinylidenfluorid) KW - Hysterese Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-445629 ER - TY - THES A1 - Gawron, Marian T1 - Towards automated advanced vulnerability analysis N2 - The identification of vulnerabilities in IT infrastructures is a crucial problem in enhancing the security, because many incidents resulted from already known vulnerabilities, which could have been resolved. Thus, the initial identification of vulnerabilities has to be used to directly resolve the related weaknesses and mitigate attack possibilities. The nature of vulnerability information requires a collection and normalization of the information prior to any utilization, because the information is widely distributed in different sources with their unique formats. Therefore, the comprehensive vulnerability model was defined and different sources have been integrated into one database. Furthermore, different analytic approaches have been designed and implemented into the HPI-VDB, which directly benefit from the comprehensive vulnerability model and especially from the logical preconditions and postconditions. Firstly, different approaches to detect vulnerabilities in both IT systems of average users and corporate networks of large companies are presented. Therefore, the approaches mainly focus on the identification of all installed applications, since it is a fundamental step in the detection. This detection is realized differently depending on the target use-case. Thus, the experience of the user, as well as the layout and possibilities of the target infrastructure are considered. Furthermore, a passive lightweight detection approach was invented that utilizes existing information on corporate networks to identify applications. In addition, two different approaches to represent the results using attack graphs are illustrated in the comparison between traditional attack graphs and a simplistic graph version, which was integrated into the database as well. The implementation of those use-cases for vulnerability information especially considers the usability. Beside the analytic approaches, the high data quality of the vulnerability information had to be achieved and guaranteed. The different problems of receiving incomplete or unreliable information for the vulnerabilities are addressed with different correction mechanisms. The corrections can be carried out with correlation or lookup mechanisms in reliable sources or identifier dictionaries. Furthermore, a machine learning based verification procedure was presented that allows an automatic derivation of important characteristics from the textual description of the vulnerabilities. N2 - Die Erkennung von Schwachstellen ist ein schwerwiegendes Problem bei der Absicherung von modernen IT-Systemen. Mehrere Sicherheitsvorfälle hätten durch die vorherige Erkennung von Schwachstellen verhindert werden können, da in diesen Vorfällen bereits bekannte Schwachstellen ausgenutzt wurden. Der Stellenwert der Sicherheit von IT Systemen nimmt immer weiter zu, was auch mit der Aufmerksamkeit, die seit kurzem auf die Sicherheit gelegt wird, zu begründen ist. Somit nimmt auch der Stellenwert einer Schwachstellenanalyse der IT Systeme immer mehr zu, da hierdurch potenzielle Angriffe verhindert und Sicherheitslücken geschlossen werden können. Die Informationen über Sicherheitslücken liegen in verschiedenen Quellen in unterschiedlichen Formaten vor. Aus diesem Grund wird eine Normalisierungsmethode benötigt, um die verschiedenen Informationen in ein einheitliches Format zu bringen. Das damit erzeugte Datenmodell wird in der HPI-VDB gespeichert, in die auch darauf aufbauende Analyseansätze integriert wurden. Diese Analysemethoden profitieren direkt von den Eigenschaften des Datenmodells, das maschinenlesbare Vor- und Nachbedingungen enthält. Zunächst wurden verschiedene Methoden zur Erkennung von Schwachstellen in IT Systemen von durchschnittlichen Nutzern und auch in Systemen von großen Firmen entwickelt. Hierbei wird der Identifikation der installierten Programme die größte Aufmerksamkeit beigemessen, da es der grundlegende Bestandteil der Erkennung von Schwachstellen ist. Für die Ansätze wird weiterhin die Erfahrung des Nutzers und die Eigenschaften der Zielumgebung berücksichtigt. Zusätzlich wurden zwei weitere Ansätze zur Repräsentation der Ergebnisse integriert. Hierfür wurden traditionelle Angriffsgraphen mit einer vereinfachten Variante verglichen, die auch in die Datenbank integriert wurde. Des Weiteren spielt die Datenqualität eine wichtige Rolle, da die Effizienz der Analysemethoden von der Qualität der Informationen abhängt. Deshalb wurden Probleme wie Unvollständigkeit und Unzuverlässigkeit der Informationen mit verschiedenen Korrekturansätzen bewältigt. Diese Korrekturen werden mithilfe von Korrelationen und Maschinellem Lernen bewerkstelligt, wobei die automatische Ausführbarkeit eine grundlegende Anforderung darstellt. KW - IT-security KW - vulnerability KW - analysis KW - IT-Sicherheit KW - Schwachstelle KW - Analyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426352 ER - TY - THES A1 - Rezaei, Mina T1 - Deep representation learning from imbalanced medical imaging N2 - Medical imaging plays an important role in disease diagnosis, treatment planning, and clinical monitoring. One of the major challenges in medical image analysis is imbalanced training data, in which the class of interest is much rarer than the other classes. Canonical machine learning algorithms suppose that the number of samples from different classes in the training dataset is roughly similar or balance. Training a machine learning model on an imbalanced dataset can introduce unique challenges to the learning problem. A model learned from imbalanced training data is biased towards the high-frequency samples. The predicted results of such networks have low sensitivity and high precision. In medical applications, the cost of misclassification of the minority class could be more than the cost of misclassification of the majority class. For example, the risk of not detecting a tumor could be much higher than referring to a healthy subject to a doctor. The current Ph.D. thesis introduces several deep learning-based approaches for handling class imbalanced problems for learning multi-task such as disease classification and semantic segmentation. At the data-level, the objective is to balance the data distribution through re-sampling the data space: we propose novel approaches to correct internal bias towards fewer frequency samples. These approaches include patient-wise batch sampling, complimentary labels, supervised and unsupervised minority oversampling using generative adversarial networks for all. On the other hand, at algorithm-level, we modify the learning algorithm to alleviate the bias towards majority classes. In this regard, we propose different generative adversarial networks for cost-sensitive learning, ensemble learning, and mutual learning to deal with highly imbalanced imaging data. We show evidence that the proposed approaches are applicable to different types of medical images of varied sizes on different applications of routine clinical tasks, such as disease classification and semantic segmentation. Our various implemented algorithms have shown outstanding results on different medical imaging challenges. N2 - Medizinische Bildanalyse spielt eine wichtige Rolle bei der Diagnose von Krankheiten, der Behandlungsplanung, und der klinischen Überwachung. Eines der großen Probleme in der medizinischen Bildanalyse ist das Vorhandensein von nicht ausbalancierten Trainingsdaten, bei denen die Anzahl der Datenpunkte der Zielklasse in der Unterzahl ist. Die Aussagen eines Modells, welches auf einem unbalancierten Datensatz trainiert wurde, tendieren dazu Datenpunkte in die Klasse mit der Mehrzahl an Trainingsdaten einzuordnen. Die Aussagen eines solchen Modells haben eine geringe Sensitivität aber hohe Genauigkeit. Im medizinischen Anwendungsbereich kann die Einordnung eines Datenpunktes in eine falsche Klasse Schwerwiegende Ergebnisse mit sich bringen. In die Nichterkennung eines Tumors Beispielsweise brigt ein viel höheres Risiko für einen Patienten, als wenn ein gesunder Patient zum Artz geschickt wird. Das Problem des Lernens unter Nutzung von nicht ausbalancierten Trainingsdaten wird erst seit Kurzem bei der Klassifizierung von Krankheiten, der Entdeckung von Tumoren und beider Segmentierung von Tumoren untersucht. In der Literatur wird hier zwischen zwei verschiedenen Ansätzen unterschieden: datenbasierte und algorithmische Ansätze. Die vorliegende Arbeit behandelt das Lernen unter Nutzung von unbalancierten medizinischen Bilddatensätzen mittels datenbasierter und algorithmischer Ansätze. Bei den datenbasierten Ansätzen ist es unser Ziel, die Datenverteilung durch gezieltes Nutzen der vorliegenden Datenbasis auszubalancieren. Dazu schlagen wir neuartige Ansätze vor, um eine ausgeglichene Einordnung der Daten aus seltenen Klassen vornehmen zu können. Diese Ansätze sind unter anderem synthesize minority class sampling, patient-wise batch normalization, und die Erstellung von komplementären Labels unter Nutzung von generative adversarial networks. Auf der Seite der algorithmischen Ansätze verändern wir den Trainingsalgorithmus, um die Tendenz in Richtung der Klasse mit der Mehrzahl an Trainingsdaten zu verringern. Dafür schlagen wir verschiedene Algorithmen im Bereich des kostenintensiven Lernens, Ensemble-Lernens und des gemeinsamen Lernens vor, um mit stark unbalancierten Trainingsdaten umgehen zu können. Wir zeigen, dass unsere vorgeschlagenen Ansätze für verschiedenste Typen von medizinischen Bildern, mit variierender Größe, auf verschiedene Anwendungen im klinischen Alltag, z. B. Krankheitsklassifizierung, oder semantische Segmentierung, anwendbar sind. Weiterhin haben unsere Algorithmen hervorragende Ergebnisse bei unterschiedlichen Wettbewerben zur medizinischen Bildanalyse gezeigt. KW - machine learning KW - deep learning KW - computer vision KW - imbalanced learning KW - medical image analysis KW - Maschinenlernen KW - tiefes Lernen KW - unbalancierter Datensatz KW - Computervision KW - medizinische Bildanalyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442759 ER - TY - THES A1 - Amirkhanyan, Aragats T1 - Methods and frameworks for GeoSpatioTemporal data analytics T1 - Methoden und Frameworks für geo-raumzeitliche Datenanalysen N2 - In the era of social networks, internet of things and location-based services, many online services produce a huge amount of data that have valuable objective information, such as geographic coordinates and date time. These characteristics (parameters) in the combination with a textual parameter bring the challenge for the discovery of geospatiotemporal knowledge. This challenge requires efficient methods for clustering and pattern mining in spatial, temporal and textual spaces. In this thesis, we address the challenge of providing methods and frameworks for geospatiotemporal data analytics. As an initial step, we address the challenges of geospatial data processing: data gathering, normalization, geolocation, and storage. That initial step is the basement to tackle the next challenge -- geospatial clustering challenge. The first step of this challenge is to design the method for online clustering of georeferenced data. This algorithm can be used as a server-side clustering algorithm for online maps that visualize massive georeferenced data. As the second step, we develop the extension of this method that considers, additionally, the temporal aspect of data. For that, we propose the density and intensity-based geospatiotemporal clustering algorithm with fixed distance and time radius. Each version of the clustering algorithm has its own use case that we show in the thesis. In the next chapter of the thesis, we look at the spatiotemporal analytics from the perspective of the sequential rule mining challenge. We design and implement the framework that transfers data into textual geospatiotemporal data - data that contain geographic coordinates, time and textual parameters. By this way, we address the challenge of applying pattern/rule mining algorithms in geospatiotemporal space. As the applicable use case study, we propose spatiotemporal crime analytics -- discovery spatiotemporal patterns of crimes in publicly available crime data. The second part of the thesis, we dedicate to the application part and use case studies. We design and implement the application that uses the proposed clustering algorithms to discover knowledge in data. Jointly with the application, we propose the use case studies for analysis of georeferenced data in terms of situational and public safety awareness. N2 - Heute ist die Zeit der sozialen Netzwerke, des Internets der Dinge und der Standortbezogenen Diensten (Location-Based services). Viele Online-Dienste erzeugen eine riesige Datenmenge, die wertvolle Informationen enthält, wie z. B. geographische Koordinaten und Datum sowie Zeit. Diese Informationen (Parameter) in Kombination mit einem Textparameter stellen die Herausforderung für die Entdeckung von geo-raumzeitlichem (geospatiotemporal) Wissen dar. Diese Herausforderung erfordert effiziente Methoden zum Clustering und Pattern-Mining in räumlichen, zeitlichen und textlichen Aspekten. In dieser Dissertation stellen wir uns der Herausforderung, Methoden und Frameworks für geo-raumzeitliche Datenanalysen bereitzustellen. Im ersten Schritt gehen wir auf die Herausforderungen der Geodatenverarbeitung ein: Datenerfassung, -Normalisierung, -Ortung und -Speicherung. Dieser Schritt ist der Grundstein für die nächste Herausforderung – das geographische Clustering. Es erfordert das Entwerfen einer Methode für das Online-Clustering georeferenzierter Daten. Dieser Algorithmus kann als Serverseitiger Clustering-Algorithmus für Online-Karten verwendet werden, die massive georeferenzierte Daten visualisieren. Im zweiten Schritt entwickeln wir die Erweiterung dieser Methode, die zusätzlich den zeitlichen Aspekt der Daten berücksichtigt. Dazu schlagen wir den Dichte und Intensitätsbasierten geo-raumzeitlichen Clustering-Algorithmus mit festem Abstand und Zeitradius vor. Jede Version des Clustering-Algorithmus hat einen eigenen Anwendungsfall, den wir in dieser Doktorarbeit zeigen. Im nächsten Kapitel dieser Arbeit betrachten wir die raumzeitlich Analyse aus der Perspektive der sequentiellen Regel-Mining-Herausforderung. Wir entwerfen und implementieren ein Framework, das Daten in textliche raumzeitliche Daten umwandelt. Solche Daten enthalten geographische Koordinaten, Zeit und Textparameter. Auf diese Weise stellen wir uns der Herausforderung, Muster- / Regel-Mining-Algorithmen auf geo-raumzeitliche Daten anzuwenden. Als Anwendungsfallstudie schlagen wir raumzeitliche Verbrechensanalysen vor – Entdeckung raumzeitlicher Muster von Verbrechen in öffentlich zugänglichen Datenbanken. Im zweiten Teil der Arbeit diskutieren wir über die Anwendung und die Fallstudien. Wir entwerfen und implementieren eine Anwendungssoftware, die die vorgeschlagene Clustering-Algorithmen verwendet, um das Wissen in Daten zu entdecken. Gemeinsam mit der Anwendungssoftware betrachten wir Anwendungsbeispiele für die Analyse georeferenzierter Daten im Hinblick auf das Situationsbewusstsein. KW - geospatial data KW - data analytics KW - clustering KW - situational awareness KW - Geodaten KW - Datenanalyse KW - Clustering KW - Situationsbewusstsein Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441685 ER - TY - THES A1 - Burmester, Juliane T1 - Linguistic and visual salience in sentence comprehension T1 - Linguistische und visuelle Salienz im Satzverständnis BT - evidence from behavioural and electrophysiological studies BT - Evidenz aus behavioralen and elektrophysiologischen Studien N2 - Interlocutors typically link their utterances to the discourse environment and enrich communication by linguistic (e.g., information packaging) and extra-linguistic (e.g., eye gaze, gestures) means to optimize information transfer. Psycholinguistic studies underline that ‒for meaning computation‒ listeners profit from linguistic and visual cues that draw their focus of attention to salient information. This dissertation is the first work that examines how linguistic compared to visual salience cues influence sentence comprehension using the very same experimental paradigms and materials, that is, German subject-before-object (SO) and object-before-subject (OS) sentences, across the two cue modalities. Linguistic salience was induced by indicating a referent as the aboutness topic. Visual salience was induced by implicit (i.e., unconscious) or explicit (i.e., shared) manipulations of listeners’ attention to a depicted referent. In Study 1, a selective, facilitative impact of linguistic salience on the context-sensitive OS word order was found using offline comprehensibility judgments. More precisely, during online sentence processing, this impact was characterized by a reduced sentence-initial Late positivity which reflects reduced processing costs for updating the current mental representation of discourse. This facilitative impact of linguistic salience was not replicated by means of an implicit visual cue (Study 2) shown to modulate word order preferences during sentence production. However, a gaze shift to a depicted referent as an indicator of shared attention eased sentence-initial processing similar to linguistic salience as revealed by reduced reading times (Study 3). Yet, this cue did not modulate the strong subject-antecedent preference during later pronoun resolution like linguistic salience. Taken together, these findings suggest a significant impact of linguistic and visual salience cues on sentence comprehension, which substantiates that both the information delivered via language and via the visual environment is integrated into the mental representation of the discourse; but, the way how salience is induced is crucial to its impact. N2 - In der alltäglichen Kommunikation optimieren Gesprächspartner den Informationstransfer typischerweise durch linguistische und extra-linguistische, visuelle Hinweise (z.B. Blickbewegungen, Zeigegesten), mittels derer sie ihre Äußerungen mit dem Diskursumfeld verknüpfen. Psycholinguistische Studien unterstreichen, dass Zuhörer für das Verstehen von Sätzen sowohl von linguistischen als auch visuellen Hinweisreizen profitieren, die ihre Aufmerksamkeit auf saliente Informationen lenken. Ziel dieser Dissertation ist es, zu charakterisieren, ob und inwiefern visuelle im Vergleich zu linguistischer Salienz das Satzverständnis beeinflusst. Linguistische Salienz wurde durch das Einführen eines Referenten, als sog. Topik, induziert. Visuelle Salienz wurde durch implizite (unbewusste) oder explizite (bewusste) Manipulationen der Aufmerksamkeit von erwachsenen StudienteilnehmerInnen auf einen visuell abgebildeten Referenten hervorgerufen. Im Fokus der drei Studien dieser Dissertation steht die Untersuchung des Einflusses von linguistischer und visueller Salienz auf die satzinitiale Verarbeitung von kanonischen Subjekt-Verb-Objekt (SO)- und nicht-kanonischen Objekt-Verb-Subjekt (OS)-Sätzen im Deutschen, wobei in beiden Modalitäten dieselben experimentellen Paradigmen verwendet werden. Studie 1 liefert Evidenz für einen selektiven, erleichternden Einfluss von zuvor induzierter linguistischer Salienz auf das Verstehen von OS-Sätzen. Dieser Einfluss linguistischer Salienz zeigte sich sowohl nach der Präsentation der Zielsätze, nämlich anhand behavioraler Daten zur Beurteilung des Verständnisses, als auch während des Lesens von OS-Sätzen, nämlich in Form einer satzinitialen, reduzierten späten Positivierung (sog. Late Positivity) in den ereigniskorrelierten Potentialen der elektrophysiologischen Messung. Dieser erleichternde Einfluss der linguistischen Salienz wurde nicht durch die implizite, visuelle Manipulation der Aufmerksamkeit der StudienteilnehmerInnen auf einen visuell abgebildeten Referenten repliziert (Studie 2). In Studie 3 weist die explizite, intentionale Manipulation der Aufmerksamkeit der StudienteilnehmerInnen mittels der Blickbewegung einer (virtuellen) Person auf einen visuell abgebildeten Referenten jedoch auf eine satzinitiale Verarbeitungserleichterung in Form verkürzter Lesezeiten von SO- und OS-Sätzen hin. Dieser Effekt visueller Salienz ähnelte zwar dem Einfluss linguistischer Salienz während des satzinitialen Lesens, unterschied sich jedoch von dieser während der anschließenden Pronomeninterpretation. Zusammengefasst liefern die Ergebnisse dieser Dissertation Evidenz für einen signifikanten Einfluss linguistischer und visueller Salienz auf das Satzverständnis, wobei die kontextuelle Einbettung von Salienzmerkmalen eine entscheidende Rolle für die Integration von Information in die mentale Diskursrepräsentation spielt. KW - sentence processing KW - sentence comprehension KW - linguistic salience KW - visual salience KW - aboutness topic KW - German word order KW - information structure KW - discourse context KW - mental representation KW - Satzverarbeitung KW - Satzverständnis KW - linguistische Salienz KW - visuelle Salienz KW - Topik KW - Wortstellung im Deutschen KW - Informationsstruktur KW - Diskurskontext KW - mentale Repräsentation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443155 ER - TY - THES A1 - Krentz, Konrad-Felix T1 - A Denial-of-Sleep-Resilient Medium Access Control Layer for IEEE 802.15.4 Networks T1 - Eine Denial-of-Sleep-Resiliente Mediumzugriffsschicht für IEEE-802.15.4-Netzwerke N2 - With the emergence of the Internet of things (IoT), plenty of battery-powered and energy-harvesting devices are being deployed to fulfill sensing and actuation tasks in a variety of application areas, such as smart homes, precision agriculture, smart cities, and industrial automation. In this context, a critical issue is that of denial-of-sleep attacks. Such attacks temporarily or permanently deprive battery-powered, energy-harvesting, or otherwise energy-constrained devices of entering energy-saving sleep modes, thereby draining their charge. At the very least, a successful denial-of-sleep attack causes a long outage of the victim device. Moreover, to put battery-powered devices back into operation, their batteries have to be replaced. This is tedious and may even be infeasible, e.g., if a battery-powered device is deployed at an inaccessible location. While the research community came up with numerous defenses against denial-of-sleep attacks, most present-day IoT protocols include no denial-of-sleep defenses at all, presumably due to a lack of awareness and unsolved integration problems. After all, despite there are many denial-of-sleep defenses, effective defenses against certain kinds of denial-of-sleep attacks are yet to be found. The overall contribution of this dissertation is to propose a denial-of-sleep-resilient medium access control (MAC) layer for IoT devices that communicate over IEEE 802.15.4 links. Internally, our MAC layer comprises two main components. The first main component is a denial-of-sleep-resilient protocol for establishing session keys among neighboring IEEE 802.15.4 nodes. The established session keys serve the dual purpose of implementing (i) basic wireless security and (ii) complementary denial-of-sleep defenses that belong to the second main component. The second main component is a denial-of-sleep-resilient MAC protocol. Notably, this MAC protocol not only incorporates novel denial-of-sleep defenses, but also state-of-the-art mechanisms for achieving low energy consumption, high throughput, and high delivery ratios. Altogether, our MAC layer resists, or at least greatly mitigates, all denial-of-sleep attacks against it we are aware of. Furthermore, our MAC layer is self-contained and thus can act as a drop-in replacement for IEEE 802.15.4-compliant MAC layers. In fact, we implemented our MAC layer in the Contiki-NG operating system, where it seamlessly integrates into an existing protocol stack. N2 - Mit dem Aufkommen des Internets der Dinge (IoT), werden immer mehr batteriebetriebene und energieerntende Geräte in diversen Anwendungsbereichen eingesetzt, etwa in der Heimautomatisierung, Präzisionslandwirtschaft, Industrieautomatisierung oder intelligenten Stadt. In diesem Kontext stellen sogenannte Denial-of-Sleep-Angriffe eine immer kritischer werdende Bedrohung dar. Solche Angriffe halten batteriebetriebene, energieerntende oder anderweitig energiebeschränkte Geräte zeitweise oder chronisch ab, in energiesparende Schlafmodi überzugehen. Erfolgreiche Denial-of-Sleep-Angriffe führen zumindest zu einer langen Ausfallzeit der betroffenen Geräte. Um betroffene batteriebetriebene Geräte wieder in Betrieb zu nehmen, müssen zudem deren Batterien gewechselt werden. Dies ist mühsam oder eventuell sogar unmöglich, z.B. wenn solche Geräte an unzugänglichen Orten installiert sind. Obwohl die Forschungsgemeinschaft bereits viele Denial-of-Sleep-Abwehrmechanismen vorgeschlagen hat, besitzen die meisten aktuellen IoT-Protokolle überhaupt keine Denial-of-Sleep-Abwehrmechanismen. Dies kann zum einen daran liegen, dass man des Problems noch nicht gewahr ist, aber zum anderen auch daran, dass viele Integrationsfragen bislang ungeklärt sind. Des Weiteren existieren bisher sowieso noch keine effektiven Abwehrmechanismen gegen bestimmte Denial-of-Sleep-Angriffe. Der Hauptbeitrag dieser Dissertation ist die Entwicklung einer Denial-of-Sleep-resilienten Mediumzugriffsschicht für IoT-Geräte, die via IEEE-802.15.4-Funkverbindungen kommunizieren. Die entwickelte Mediumzugriffsschicht besitzt zwei Hauptkomponenten. Die erste Hauptkomponente ist ein Denial-of-Sleep-resilientes Protokoll zur Etablierung von Sitzungsschlüsseln zwischen benachbarten IEEE-802.15.4-Knoten. Diese Sitzungsschlüssel dienen einerseits der grundlegenden Absicherung des Funkverkehrs und andererseits der Implementierung zusätzlicher Denial-of-Sleep-Abwehrmechanismen in der zweiten Hauptkomponente. Die zweite Hauptkomponente ist ein Denial-of-Sleep-resilientes Mediumzugriffsprotokoll. Bemerkenswert an diesem Mediumzugriffsprotokoll ist, dass es nicht nur neuartige Denial-of-Sleep-Abwehrmechanismen enthält, sondern auch dem Stand der Technik entsprechende Mechanismen zur Verringerung des Energieverbrauchs, zur Steigerung des Durchsatzes sowie zur Erhöhung der Zuverlässigkeit. Zusammenfassend widersteht bzw. mildert unsere Denial-of-Sleep-resiliente Mediumzugriffsschicht alle uns bekannten Denial-of-Sleep-Angriffe, die gegen sie gefahren werden können. Außerdem kann unsere Denial-of-Sleep-resiliente Mediumzugriffsschicht ohne Weiteres an Stelle von IEEE-802.15.4-konformen Mediumzugriffsschichten eingesetzt werden. Dies zeigen wir durch die nahtlose Integration unserer Mediumzugriffsschicht in den Netzwerk-Stack des Betriebssystems Contiki-NG. KW - medium access control KW - denial of sleep KW - internet of things KW - Mediumzugriffskontrolle KW - Schlafentzugsangriffe KW - Internet der Dinge Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439301 ER - TY - THES A1 - Nagel, Oliver T1 - Amoeboid cells as a transport system for micro-objects T1 - Amöboide Zellen als Transportsystem für Mikroobjekte N2 - Due to advances in science and technology towards smaller and more powerful processing units, the fabrication of micrometer sized machines for different tasks becomes more and more possible. Such micro-robots could revolutionize medical treatment of diseases and shall support to work on other small machines. Nevertheless, scaling down robots and other devices is a challenging task and will probably remain limited in near future. Over the past decade the concept of bio-hybrid systems has proved to be a promising approach in order to advance the further development of micro-robots. Bio-hybrid systems combine biological cells with artificial components, thereby benefiting from the functionality of living biological cells. Cell-driven micro-transport is one of the most prominent applications in the emerging field of these systems. So far, micrometer sized cargo has been successfully transported by means of swimming bacterial cells. The potential of motile adherent cells as transport systems has largely remained unexplored. This thesis concentrates on the social amoeba Dictyostelium discoideum as a potential candidate for an amoeboid bio-hybrid transport system. The use of this model organism comes with several advantages. Due to the unspecific properties of Dictyostelium adhesion, a wide range of different cargo materials can be used for transport. As amoeboid cells exceed bacterial cells in size by one order of magnitude, also the size of an object carried by a single cell can also be much larger for an amoeba. Finally it is possible to guide the cell-driven transport based on the chemotactic behavior of the amoeba. Since cells undergo a developmentally induced chemotactic aggregation, cargo could be assembled in a self-organized manner into a cluster. It is also possible to impose an external chemical gradient to guide the amoeboid transport system to a desired location. To establish Dictyostelium discoideum as a possible candidate for bio-hybrid transport systems, this thesis will first investigate the movement of single cells. Secondly, the interaction of cargo and cells will be studied. Eventually, a conceptional proof will be conducted, that the cheomtactic behavior can be exploited either to transport a cargo self-organized or through an external chemical source. N2 - Durch die Fortschritte in Wissenschaft und Technik hin zu kleineren und leistungsfähigeren Prozessoren wird die Herstellung von Maschinen mit einer Größe von wenigen Mikrometern immer wahrscheinlicher. Solche Mikro-Roboter könnten sowohl die medizinische Behandlung von Krankheiten revolutionieren als auch dabei helfen andere kleine Maschinen zu bauen. Nichts desto trotz ist es eine komplizierte Aufgabe Roboter sowie andere Maschinen zu verkleinern und wird in naher Zukunft wohl nur begrenzt möglich sein. Im Verlauf des letzten Jahrzehnts hat sich das Konzept der Bio-Hybridsysteme als ein vielversprechender Ansatz entwickelt, um Mikro-Roboter weiter zu entwickeln. Bio-Hybridsysteme kombinieren biologische Zellen mit künstlichen Komponenten, um so einen Vorteil aus der Funktionalität lebender biologischer Zellen zu ziehen. Der zellgetriebene Mikro-Transport ist eine der bekanntesten Anwendungen in dem wachsenden Feld dieser Systeme. Bisher wurde mikrometergroße Fracht erfolgreich mit Hilfe von schwimmenden Bakterien transportiert. Das Potential beweglicher, adhärenter Zellen als Transportsystem blieb bisher weitgehend unerforscht. Diese Arbeit beschäftigt sich mit der sozialen Amöbe Dictyostelium discoideum als einen potentiellen Kandidaten für ein auf Amöben basiertes Bio-Hybridtransportsystem. Die Nutzung dieses Modellorganismus bringt einige Vorteile mit sich. Auf Grund der unspezifischen Adhäsion von Dictyostelium ist es möglich eine Vielzahl von verschiedenen Frachtmaterialien für den Transport zu nutzen. Da Amöben um eine Größenordnung größer sind als Bakterien, können auch die Objekte, die eine einzelne Amöbe transportieren kann um einiges größer sein, als bei einer einzelnen Bakterie. Desweiteren ist noch möglich den zellgetrieben Transport durch das chemotaktische Verhalten der Amöben zu steuern. Da die Zellen im Verlauf ihres Lebenszyklus’ eine entwicklungsinduzierte chemotaktische Aggregation durchlaufen, ist es möglich, die Fracht in einer selbstorganisierten Art und Weise in Aggregate zusammen zu führen. Es ist auch möglich einen externen chemotaktischen Stimulus zu generieren, um das auf Amöben basierende Transportsystem zu einer gewünschten Position zu lenken. Um Dictyostelium discoideum als denkbaren Kandidaten für ein Bio-Hybridtransportsystem zu etablieren, wird in dieser Arbeit zuerst die Bewegung einzelner Zellen untersucht. Als zweites wird die Interaktion von Zellen und Fracht studiert. Zum Schluss wird ein konzeptioneller Beweis geführt, dass das chemotaktische Verhalten der Zellen genutzt werden kann, um eine Fracht entweder selbstorganisiert oder mit Hilfe eines externen Stimulus zu transportieren. KW - bio-hybrid KW - dicytostelium KW - chemotaxsis KW - Bio-Hybrid KW - Dicytostelium KW - Chemotaxsis Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442192 ER - TY - THES A1 - Perlich, Anja T1 - Digital collaborative documentation in mental healthcare T1 - Digitale Mittel zur kooperativen Dokumentation im Bereich der psychischen Gesundheit N2 - With the growth of information technology, patient attitudes are shifting – away from passively receiving care towards actively taking responsibility for their well- being. Handling doctor-patient relationships collaboratively and providing patients access to their health information are crucial steps in empowering patients. In mental healthcare, the implicit consensus amongst practitioners has been that sharing medical records with patients may have an unpredictable, harmful impact on clinical practice. In order to involve patients more actively in mental healthcare processes, Tele-Board MED (TBM) allows for digital collaborative documentation in therapist-patient sessions. The TBM software system offers a whiteboard-inspired graphical user interface that allows therapist and patient to jointly take notes during the treatment session. Furthermore, it provides features to automatically reuse the digital treatment session notes for the creation of treatment session summaries and clinical case reports. This thesis presents the development of the TBM system and evaluates its effects on 1) the fulfillment of the therapist’s duties of clinical case documentation, 2) patient engagement in care processes, and 3) the therapist-patient relationship. Following the design research methodology, TBM was developed and tested in multiple evaluation studies in the domains of cognitive behavioral psychotherapy and addiction care. The results show that therapists are likely to use TBM with patients if they have a technology-friendly attitude and when its use suits the treatment context. Support in carrying out documentation duties as well as fulfilling legal requirements contributes to therapist acceptance. Furthermore, therapists value TBM as a tool to provide a discussion framework and quick access to worksheets during treatment sessions. Therapists express skepticism, however, regarding technology use in patient sessions and towards complete record transparency in general. Patients expect TBM to improve the communication with their therapist and to offer a better recall of discussed topics when taking a copy of their notes home after the session. Patients are doubtful regarding a possible distraction of the therapist and usage in situations when relationship-building is crucial. When applied in a clinical environment, collaborative note-taking with TBM encourages patient engagement and a team feeling between therapist and patient. Furthermore, it increases the patient’s acceptance of their diagnosis, which in turn is an important predictor for therapy success. In summary, TBM has a high potential to deliver more than documentation support and record transparency for patients, but also to contribute to a collaborative doctor-patient relationship. This thesis provides design implications for the development of digital collaborative documentation systems in (mental) healthcare as well as recommendations for a successful implementation in clinical practice. N2 - Die Verbreitung von Informationstechnologie kann die Rolle von Patienten verändern: weg vom passiven Erhalt ärztlicher Zuwendung hin zur eigenverantwortlichen Mitwirkung an ihrer Genesung. Wesentliche Schritte zur Ermündigung von Patienten sind eine gute Zusammenarbeit mit dem behandelnden Arzt und der Zugang zu den eigenen Akten. Unter Psychotherapeuten gibt es jedoch einen impliziten Konsens darüber, dass die Einsicht in psychiatrische Akten unvorhersehbare, nachteilige Effekte auf die klinische Praxis hervorrufen könnte. Um auch Patienten aktiver an der Erhaltung und Wiederherstellung ihrer mentalen Gesundheit zu beteiligen, ermöglicht Tele-Board MED (TBM) das gemeinschaftliche Erstellen von digitalen Notizen. Diese Dissertation beschreibt die Entwicklung des TBM Software-Systems, das es Therapeut und Patient ermöglicht, gemeinsam während der Sitzung wie auf einem Whiteboard Notizen zu machen. Außerdem bietet TBM Funktionen, um auf Grundlage der digitalen Gesprächsnotizen automatisch Sitzungsprotokolle und klinische Fallberichte zu erstellen. Methodologisch basiert die Entwicklung und Evaluierung von TBM auf dem Paradigma für Design Research. Es wurden vielfältige Studien in den Bereichen der Verhaltens- und Suchttherapie durchgeführt, um die Auswirkungen auf folgende Aspekte zu evaluieren: 1) die Erfüllung der Dokumentationspflichten von Therapeuten, 2) das Engagement von Patienten in Behandlungsprozessen und 3) die Beziehung zwischen Patient und Therapeut. Die Studien haben gezeigt, dass Therapeuten dazu geneigt sind, TBM mit ihren Patienten zu nutzen, wenn sie technologie-freundlich eingestellt sind und wenn es zum Behandlungskontext passt. Zur Akzeptanz tragen auch die schnelle Erstellung von klinischen Dokumenten sowie die Erfüllung der gesetzlichen Forderung nach Aktentransparenz bei. Weiterhin schätzen Therapeuten TBM als Werkzeug, um Therapiegespräche zu strukturieren und während der Sitzung schnell auf Arbeitsblätter zuzugreifen. Therapeuten äußerten hingegen auch Skepsis gegenüber der Technologienutzung im Patientengespräch und vollständiger Aktentransparenz. Patienten erhoffen sich von TBM eine verbesserte Kommunikation mit ihrem Therapeuten und denken, dass sie sich besser an die Gesprächsinhalte erinnern können, wenn sie eine Kopie ihrer Akte erhalten. Patienten brachten Bedenken zum Ausdruck, TBM in Situationen zu nutzen, in denen der Beziehungsaufbau im Vordergrund steht, und darüber, dass Therapeuten sich abgelenkt fühlen könnten. Als TBM im klinischen Umfeld eingesetzt wurde, wurde ein erhöhtes Patientenengagement und ein gesteigertes Teamgefühl beobachtet. Außerdem stieg bei Patienten die Akzeptanz ihrer Diagnosen, welche wiederum ein wichtiger Prädiktor für Therapieerfolg ist. Zusammenfassend lässt sich festhalten, dass TBM großes Potential hat: Über die damit mögliche Dokumentationsunterstützung und Aktentransparenz hinaus wird auch die Zusammenarbeit von Therapeut und Patient unterstützt. Diese Dissertation fasst Kriterien zur Entwicklung von gemeinschaftlichen Dokumentationssystemen in der (psychischen) Gesundheitsfürsorge sowie Empfehlungen für eine erfolgreiche Implementierung in der klinischen Praxis zusammen. KW - medical documentation KW - psychotherapy KW - addiction care KW - computer-mediated therapy KW - digital whiteboard KW - patient empowerment KW - doctor-patient relationship KW - design research KW - user experience KW - evaluation KW - medizinische Dokumentation KW - Psychotherapie KW - Suchtberatung und -therapie KW - computervermittelte Therapie KW - digitales Whiteboard KW - Patientenermündigung KW - Arzt-Patient-Beziehung KW - Design-Forschung KW - User Experience KW - Evaluation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440292 ER - TY - THES A1 - Meeßen, Christian T1 - The thermal and rheological state of the Northern Argentinian foreland basins T1 - Der thermische und rheologische Zustand der Nordargentinischen Vorlandbecken N2 - The foreland of the Andes in South America is characterised by distinct along strike changes in surface deformational styles. These styles are classified into two end-members, the thin-skinned and the thick-skinned style. The superficial expression of thin-skinned deformation is a succession of narrowly spaced hills and valleys, that form laterally continuous ranges on the foreland facing side of the orogen. Each of the hills is defined by a reverse fault that roots in a basal décollement surface within the sedimentary cover, and acted as thrusting ramp to stack the sedimentary pile. Thick-skinned deformation is morphologically characterised by spatially disparate, basement-cored mountain ranges. These mountain ranges are uplifted along reactivated high-angle crustal-scale discontinuities, such as suture zones between different tectonic terranes. Amongst proposed causes for the observed variation are variations in the dip angle of the Nazca plate, variation in sediment thickness, lithospheric thickening, volcanism or compositional differences. The proposed mechanisms are predominantly based on geological observations or numerical thermomechanical modelling, but there has been no attempt to understand the mechanisms from a point of data-integrative 3D modelling. The aim of this dissertation is therefore to understand how lithospheric structure controls the deformational behaviour. The integration of independent data into a consistent model of the lithosphere allows to obtain additional evidence that helps to understand the causes for the different deformational styles. Northern Argentina encompasses the transition from the thin-skinned fold-and-thrust belt in Bolivia, to the thick-skinned Sierras Pampeanas province, which makes this area a well suited location for such a study. The general workflow followed in this study first involves data-constrained structural- and density-modelling in order to obtain a model of the study area. This model was then used to predict the steady-state thermal field, which was then used to assess the present-day rheological state in northern Argentina. The structural configuration of the lithosphere in northern Argentina was determined by means of data-integrative, 3D density modelling verified by Bouguer gravity. The model delineates the first-order density contrasts in the lithosphere in the uppermost 200 km, and discriminates bodies for the sediments, the crystalline crust, the lithospheric mantle and the subducting Nazca plate. To obtain the intra-crustal density structure, an automated inversion approach was developed and applied to a starting structural model that assumed a homogeneously dense crust. The resulting final structural model indicates that the crustal structure can be represented by an upper crust with a density of 2800 kg/m³, and a lower crust of 3100 kg/m³. The Transbrazilian Lineament, which separates the Pampia terrane from the Río de la Plata craton, is expressed as a zone of low average crustal densities. In an excursion, we demonstrate in another study, that the gravity inversion method developed to obtain intra-crustal density structures, is also applicable to obtain density variations in the uppermost lithospheric mantle. Densities in such sub-crustal depths are difficult to constrain from seismic tomographic models due to smearing of crustal velocities. With the application to the uppermost lithospheric mantle in the north Atlantic, we demonstrate in Tan et al. (2018) that lateral density trends of at least 125\,km width are robustly recovered by the inversion method, thereby providing an important tool for the delineation of subcrustal density trends. Due to the genetic link between subduction, orogenesis and retroarc foreland basins the question rises whether the steady-state assumption is valid in such a dynamic setting. To answer this question, I analysed (i) the impact of subduction on the conductive thermal field of the overlying continental plate, (ii) the differences between the transient and steady-state thermal fields of a geodynamic coupled model. Both studies indicate that the assumption of a thermal steady-state is applicable in most parts of the study area. Within the orogenic wedge, where the assumption cannot be applied, I estimated the transient thermal field based on the results of the conducted analyses. Accordingly, the structural model that had been obtained in the first step, could be used to obtain a 3D conductive steady-state thermal field. The rheological assessment based on this thermal field indicates that the lithosphere of the thin-skinned Subandean ranges is characterised by a relatively strong crust and a weak mantle. Contrarily, the adjacent foreland basin consists of a fully coupled, very strong lithosphere. Thus, shortening in northern Argentina can only be accommodated within the weak lithosphere of the orogen and the Subandean ranges. The analysis suggests that the décollements of the fold-and-thrust belt are the shallow continuation of shear zones that reside in the ductile sections of the orogenic crust. Furthermore, the localisation of the faults that provide strain transfer between the deeper ductile crust and the shallower décollement is strongly influenced by crustal weak zones such as foliation. In contrast to the northern foreland, the lithosphere of the thick-skinned Sierras Pampeanas is fully coupled and characterised by a strong crust and mantle. The high overall strength prevents the generation of crustal-scale faults by tectonic stresses. Even inherited crustal-scale discontinuities, such as sutures, cannot sufficiently reduce the strength of the lithosphere in order to be reactivated. Therefore, magmatism that had been identified to be a precursor of basement uplift in the Sierras Pampeanas, is the key factor that leads to the broken foreland of this province. Due to thermal weakening, and potentially lubrication of the inherited discontinuities, the lithosphere is locally weakened such that tectonic stresses can uplift the basement blocks. This hypothesis explains both the spatially disparate character of the broken foreland, as well as the observed temporal delay between volcanism and basement block uplift. This dissertation provides for the first time a data-driven 3D model that is consistent with geophysical data and geological observations, and that is able to causally link the thermo-rheological structure of the lithosphere to the observed variation of surface deformation styles in the retroarc foreland of northern Argentina. N2 - Das Vorland der südamerikanischen Anden ist durch lateral variierende Deformationsregimes des östlichen Vorlands geprägt. Dabei treten zwei grundlegend verschiedene Endglieder mit charakteristischer Architektur auf: flach abgescherte Falten- und Überschiebungsgürtel einerseits und Vorland-Sockelüberschiebungen ("zerbrochenes Vorland") andererseits. Das morphologische Erscheinungsbild der Falten- und Überschiebungsgürtel entspricht lateral ausgedehnten, dicht aneinander gereihten Abfolgen von Hügeln und Tälern. Die Hügel werden durch eine darunter liegende Überschiebung definiert, die in einem subhorizontalen Abscherhorizont in 10 bis 20 km Tiefe endet. Sockelüberschiebungen hingegen sind in Gebieten mit geringer Sedimentmächtigkeit zu finden und sind durch weit auseinander liegende Erhebungen charakterisiert, welche von steil einfallenden, reaktivierten krustenskaligen Verwerfungen begrenzt werden. Als Ursachen der beobachteten Deformationsvariationen wurden präexistente Schwächezonen, Sedimentmächtigkeiten, Lithosphärenverdickung, Vulkanismus oder kompositionelle Eigenschaften aufgeführt. Diese Vorschläge waren überwiegend konzeptuell und meist auf Grundlage von Feldbeobachtungen oder synthetischen numerischen, thermo-mechanischen Modelle abgeleitet. Die vorliegende Dissertation beleuchtet zum ersten mal die Ursachen der beobachteten Deformationsstile aus der Perspektive von dreidimensionaler, Daten-integrativer Modellierung. Durch die Integration voneinander unabhängiger Daten erlaubt diese Art der Beschreibung des physikalischen Zustands der Lithosphäre die Erlangung zusätzliche Hinweise auf die zugrundeliegenden Ursachen der verschiedenen Derformationsregimes. Für eine solche Studie bietet sich Nord-Argentinien an, da dort beide Vorland-Endglieder vorzufinden sind. Die dafür im wesentlichen durchgeführten Arbeitsschritte beinhalten die Erstellung eines strukturellen Dichtemodells des Untersuchungsgebiets, die Berechnung des 3D stationären thermischen Feldes, sowie die Analyse der rheologischen Eigenschaften der Lithosphäre. Das datenbasierte strukturelle Dichtemodell ist mit verschiedenen geologischen und geophysikalischen Beobachtungen sowie dem Bouguer-Schwerefeld konsistent. Dieses Modell bildet die primären Dichtekontraste der oberen 200 km der Lithosphäre ab und differenziert Körper für die Sedimente, die kristalline Kruste, den lithosphärischen Mantel, und die subduzierende Nazca-Platte. Um die krusteninterne Dichteverteilung zu erhalten wurde ein automatisierter Inversionsprozess entworfen der es erlaubt eine leichtere Oberkruste und eine schwerere Unterkruste geometrisch zu definieren. Die Modellierung zeigt, dass die Kruste in Nord-Argentinien durch eine leichtere Oberkruste (2800 kg/m³) und eine dichtere Unterkruste (3100 kg/m³) repräsentiert werden kann. Das Transbrasilianische Linement, welches das Pampia Terran im Westen vom Río de La Plata Kraton im Osten trennt, ist durch eine im Vergleich zur Umgebung geringere durchschnittliche Krustendichte charakterisiert. In einem Exkurs wird anschließend demonstriert, dass die hier entwickelte Inversionsmethodik zur Ermittlung von intrakrustalen Dichtekontrasten auch im obersten lithosphärischen Mantel angewandt werden kann. Dichten zwischen der Kruste-Mantel-Grenze und etwa 50\,km Tiefe sind besonders schwer zu bestimmen, da tomographische Modelle die Geschwindigkeitsvariationen von seismischen Wellen in diesen Bereichen nicht auflösen. In Tan u.a. (2018) demonstrieren wir, dass die Inversionsmethode Dichteverläufe mit einer lateralen Ausdehnung von 125 km oder weniger ermitteln kann, und somit einen wichtigen Beitrag zur Bestimmung von subkrustalen Dichteverteilungen im Mantel liefert. Wegen der genetischen Verbindung zwischen Subduktion, Orogenese und Retroarc Vorlandbecken stellt sich die Frage, ob die Annahme eines stationären thermischen Feldes für solch ein dynamisches Modelliergebiet zulässig ist. Um diese Frage zu beantworten wurde zum einen der Einfluss von Subduktion auf das konduktive thermische Feld auf die kontinentale Lithosphäre untersucht. Zum anderen wurde die Abweichung zwischen transientem und stationären thermischen Feld eines gekoppelten geodynamischen Modells untersucht. Beide Untersuchungen weisen darauf hin, dass die Annahme eines stationären thermischen Felds für den Großteil des Modelliergebiets zulässig ist. Im orogenen Keil, in dem diese Annahme nicht gilt, wurde das transiente thermische Feld mithilfe der erfolgten Untersuchungen abgeschätzt. Entsprechend kann für das Arbeitsgebiet im Vorland das strukturelle Modell aus dem ersten Schritt zur Berechnung des stationären 3D konduktiven thermischen Feldes herangezogen werden. Basierend auf der ermittelten Dichte- und Temperatur-Konfigurationen konnte anschließend die rheologische Konfiguration berechnet werden. Die rheologischen Analysen zeigen, dass die Lithosphäre in Falten- und Überschiebungsgürteln nur eine gerine Festigkeit besitzt und die Kruste Großteil zur integrierten Festigkeit beiträgt. Das benachbarte Vorlandbecken jedoch weist eine vollständig gekoppelte und starke Lithosphäre auf, weshalb Krustenverkürzung nur im vergleichsweise schwachen orogenen Keil aufgenommen werden kann. Daher komme ich zu der Schlussfolgerung, dass die Abscherhorizonte der Falten- und Überschiebungsgürtel die oberflächennahe Fortsetzung von Scherzonen in der duktilen Kruste unterhalb des Orogens sind. Die Lokalisation der Transferzonen zwischen der duktilen Kruste und dem Abscherhorizont sind dabei maßgeblich durch präexistente Schwächezonen in der Kruste beeinflusst. Im zerbrochenen Vorland der Sierras Pampeanas ist die Lithosphäre vollständig gekoppelt und durch einen Mantel hoher Festigkeit charakterisiert. Die sehr hohe integrierte lithosphärische Festigkeit des zerbrochenen Vorlands verhindert die Bildung von Störungen durch tektonische Kräfte. Selbst krustenskalige Schwächezonen können die Festigkeit nicht ausreichend reduzieren, weshalb eine thermische Schwächung benötigt wird. Daher spielt der Magmatismus, der in direkter Nachbarschaft zu den Schwächezonen in der Sierras Pampeanas nachgewiesen wurde, eine Schlüsselrolle in der Entstehung des zerbrochenen Vorlands. Diese Hypothese erklärt die große räumliche Distanz zwischen den Vorlandsockelüberschiebungen, sowie die beobachtete zeitliche Verzögerung zwischen Magmatismus und Hebung der Gebirgskämme. Die vorliegende Studie kann somit aufgrund Daten-integrativer Modellierung einen kausalen Zusammenhang zwischen der Lithosphärenstruktur, den beobachteten Deformationsmechanismen und unabhängigen geologischen Beobachtungen herstellen. KW - Argentina KW - Rheology KW - Foreland basin KW - Foreland basins KW - Density modelling KW - Chaco-Paraná basin KW - Andes KW - Argentinien KW - Rheologie KW - Vorlandbecken KW - Dichtemodellierung KW - Chaco-Paraná Becken KW - Anden Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439945 ER - TY - THES A1 - Wolf, Mathias Johannes T1 - The role of partial melting on trace element and isotope systematics of granitic melts T1 - Die Bedeutung partieller Schmelzbildung für die Spurenelement- und Isotopensystematik granitischer Schmelzen N2 - Partial melting is a first order process for the chemical differentiation of the crust (Vielzeuf et al., 1990). Redistribution of chemical elements during melt generation crucially influences the composition of the lower and upper crust and provides a mechanism to concentrate and transport chemical elements that may also be of economic interest. Understanding of the diverse processes and their controlling factors is therefore not only of scientific interest but also of high economic importance to cover the demand for rare metals. The redistribution of major and trace elements during partial melting represents a central step for the understanding how granite-bound mineralization develops (Hedenquist and Lowenstern, 1994). The partial melt generation and mobilization of ore elements (e.g. Sn, W, Nb, Ta) into the melt depends on the composition of the sedimentary source and melting conditions. Distinct source rocks have different compositions reflecting their deposition and alteration histories. This specific chemical “memory” results in different mineral assemblages and melting reactions for different protolith compositions during prograde metamorphism (Brown and Fyfe, 1970; Thompson, 1982; Vielzeuf and Holloway, 1988). These factors do not only exert an important influence on the distribution of chemical elements during melt generation, they also influence the volume of melt that is produced, extraction of the melt from its source, and its ascent through the crust (Le Breton and Thompson, 1988). On a larger scale, protolith distribution and chemical alteration (weathering), prograde metamorphism with partial melting, melt extraction, and granite emplacement are ultimately depending on a (plate-)tectonic control (Romer and Kroner, 2016). Comprehension of the individual stages and their interaction is crucial in understanding how granite-related mineralization forms, thereby allowing estimation of the mineralization potential of certain areas. Partial melting also influences the isotope systematics of melt and restite. Radiogenic and stable isotopes of magmatic rocks are commonly used to trace back the source of intrusions or to quantify mixing of magmas from different sources with distinct isotopic signatures (DePaolo and Wasserburg, 1979; Lesher, 1990; Chappell, 1996). These applications are based on the fundamental requirement that the isotopic signature in the melt reflects that of the bulk source from which it is derived. Different minerals in a protolith may have isotopic compositions of radiogenic isotopes that deviate from their whole rock signature (Ayres and Harris, 1997; Knesel and Davidson, 2002). In particular, old minerals with a distinct parent-to-daughter (P/D) ratio are expected to have a specific radiogenic isotope signature. As the partial melting reaction only involves selective phases in a protolith, the isotopic signature of the melt reflects that of the minerals involved in the melting reaction and, therefore, should be different from the bulk source signature. Similar considerations hold true for stable isotopes. N2 - Partielle Schmelzbildung ist ein zentraler Prozess für die geochemische Differentiation der Erdkruste (Vielzeuf et al., 1990). Die Umverteilung chemischer Elemente während der Schmelzbildung beeinflusst die Zusammensetzung der oberen und unteren Erdkruste entscheidend und stellt einen Mechanismus zur Konzentration und zum Transport chemischer Elemente dar. Das Verständnis der diversen Prozesse und der kontrollierenden Faktoren ist deshalb nicht nur von wissenschaftlichem Interesse sondern auch von ökonomischer Bedeutung um die Nachfrage für seltene Metalle zu decken. Die Umverteilung von Haupt- und Spurenelementen während des partiellen Aufschmelzens ist ein entscheidender Schritt für das Verständnis wie sich granitgebundene Lagerstätten bilden (Hedenquist and Lowenstern, 1994). Die Schmelzbildung und die Mobilisierung von Erz-Elementen (z. B. Sn, W, Nb, Ta) in die Schmelze hängt von der Zusammensetzung der sedimentären Ausgangsgesteine und den Schmelzbedingungen ab. Verschiedene Ausgangsgesteine haben aufgrund ihrer Ablagerungs- und Verwitterungsgeschichte unterschiedliche Zusammensetzungen. Dieses spezifische geochemische „Gedächtnis“ resultiert in unterschiedlichen Mineralparagenesen und Schmelzreaktionen in verschiedenen Ausgangsgesteinen während der prograden Metamorphose. (Brown and Fyfe, 1970; Thompson, 1982; Vielzeuf and Holloway, 1988). Diese Faktoren haben nicht nur einen wichtigen Einfluss auf die Verteilung chemischer Elemente während der Schmelzbildung, sie beeinflussen auch das Volumen an Schmelze, die Extraktion der Schmelze aus dem Ausgangsgestein und deren Aufstieg durch die Erdkruste (Le Breton and Thompson, 1988). Auf einer grösseren Skala unterliegen die Verteilung der Ausgangsgesteine und deren chemische Alteration (Verwitterung), die prograde Metamorphose mit partieller Schmelzbildung, Schmelzextraktion und die Platznahme granitischer Intrusionen einer plattentektonischen Kontrolle. Das Verständnis der einzelnen Schritte und deren Wechselwirkungen ist entscheidend um zu verstehen wie granitgebunden Lagerstätten entstehen und erlaubt es, das Mineralisierungspotential bestimmter Gebiete abzuschätzen. Partielles Aufschmelzen beeinflusst auch die Isotopensystematik der Schmelze und des Restites. Die Zusammensetzungen radiogener und stabiler Isotopen von magmatischen Gesteinen werden im Allgemeinen dazu verwendet um deren Ursprungsgesteine zu identifizieren oder um Mischungsprozesses von Magmen unterschiedlichen Ursprunges zu quantifizieren (DePaolo and Wasserburg, 1979; Lesher, 1990; Chappell, 1996). Diese Anwendungen basieren auf der fundamentalen Annahme, dass die Isotopenzusammensetzung der Schmelze derjenigen des Ausgangsgesteines entspricht. Unterschiedliche Minerale in einem Gestein können unterschiedliche, vom Gesamtgestein abweichende, Isotopenzusammensetzungen haben (Ayres and Harris, 1997; Knesel and Davidson, 2002). Insbesondere für alte Minerale, mit einem unterschiedlichen Mutter-Tochter Nuklidverhältnis, ist eine spezifische Isotopenzusammensetzung zu erwarten. Da im partiellen Schmelzprozess nur bestimmte Minerale eines Gesteines involviert sind, entspricht die Isotopenzusammensetzung der Schmelze derjenigen der Minerale welche an der Schmelzreaktion teilnehmen. Daher sollte die Isotopenzusammensetzung der Schmelze von derjenigen des Ursprungsgesteines abweichen. Ähnliche Überlegungen treffen auch für stabile Isotopen zu. KW - geochemistry KW - trace elements KW - radiogenic isotopes KW - stable isotopes KW - resources KW - Sn Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423702 ER - TY - THES A1 - Cecchini, Gloria T1 - Improving network inference by overcoming statistical limitations T1 - Verbesserung der Netzwerkrekonstruktion durch überwinden statistischer Limits N2 - A reliable inference of networks from data is of key interest in many scientific fields. Several methods have been suggested in the literature to reliably determine links in a network. These techniques rely on statistical methods, typically controlling the number of false positive links, but not considering false negative links. In this thesis new methodologies to improve network inference are suggested. Initial analyses demonstrate the impact of falsepositive and false negative conclusions about the presence or absence of links on the resulting inferred network. Consequently, revealing the importance of making well-considered choices leads to suggest new approaches to enhance existing network reconstruction methods. A simulation study, presented in Chapter 3, shows that different values to balance false positive and false negative conclusions about links should be used in order to reliably estimate network characteristics. The existence of type I and type II errors in the reconstructed network, also called biased network, is accepted. Consequently, an analytic method that describes the influence of these two errors on the network structure is explored. As a result of this analysis, an analytic formula of the density of the biased vertex degree distribution is found (Chapter 4). In the inverse problem, the vertex degree distribution of the true underlying network is analytically reconstructed, assuming the probabilities of type I and type II errors. Chapters 4-5 show that the method is robust to incorrect estimates of α and β within reasonable limits. In Chapter 6, an iterative procedure to enhance this method is presented in the case of large errors on the estimates of α and β. The investigations presented so far focus on the influence of false positive and false negative links on the network characteristics. In Chapter 7, the analysis is reversed - the study focuses on the influence of network characteristics on the probability of type I and type II errors, in the case of networks of coupled oscillators. The probabilities of α and β are influenced by the shortest path length and the detour degree, respectively. These results have been used to improve the network reconstruction, when the true underlying network is not known a priori, introducing a novel and advanced concept of threshold. N2 - Eine zuverlässige Rekonstruktion eines Netzwerks aus Daten ist von entscheidender Bedeutung in der Wissenschaft. Einige Methoden werden in der Literatur vorgeschlagen um Verbindungen in einem Netzwerk akkurat zu bestimmen. Diese Methoden vertrauen auf die Anwendung der Statistik, indem sie falsch positive Verbindungen berücksichtigen, allerdings positiv falsche Verbindungen ignoriert. In dieser Arbeit werden neue Methoden vorgeschlagen, um die Rekonstruktion zu verbessern. Erste Analysen veranschaulichen den Einfluss falsch positiver und positiv falscher Verbindungen auf das resultierende Netzwerk. Daraus wird die Bedeutsamkeit ersichtlich, die eine gut gewählte Entscheidung hinsichtlich der Faktoren auf die Qualität der Rekonstruktion hat, wodurch sich neu Methoden ableiten lassen. Eine Simulation, welche in Kapitel 3 zu finden ist, veranschaulicht, dass verschiedene Werte für falsch postive und positiv falsche Verbindungen zu verwenden sind, um genaue Vorhersagen bezüglich des Netzwerkverhaltens zu treffen. Die Existenz Fehler erster und zweiter Art in der Rekonstruktion sind unvermeidbar und werden akzeptiert. Ein analytischer Ansatz, der den Einfluss dieser beiden Fehler beschreibt wird gesucht. Aus dieser Analyse in Kapitel 4 folgt eine Formel welche die Verteilung der Quantität der Knotenverbindungen beschreibt. Bei dem inversen Problem wird die Knotengrad-Verteilung des originalen Netzwerkes, mit Berücksichtigung der Wahrscheinlichkeit von Fehlern erster und zweiter Art, analytisch berechnet. Kapitel 4-5 zeigen, dass die Methode auch bei einigermaßen falschen Schätzungen von α und β Resultate innerhalb vertretbarer Grenzen liefert. In Kapitel 6 wird ein iteratives Verfahren vorgestellt, welches diese Methode bei außerordentlich falschen Schätzungen von α und β verbessert. Die bis jetzt vorgestellte Recherche fokussiert sich auf den Einfluss falsch positiver und positiv falscher Verbindungen auf die Netzwerkscharakteristik. Im Kapitel 7 wird der Prozess umgedreht. Die Arbeit fokussiert sich auf den Einfluss auf die Netzwerkkarakteristik durch die Fehler erster und zweiter Art im Falle eines Netzwerkes mit gekoppelten Oszillatoren. Die Wahrscheinlichkeit von α und β wird beeinflusst durch den kürzesten Verbindungsweg und dem Detour Grad. Diese Ergebnisse wurden genutzt um die Netzwerk Rekonstruktion zu verbessern, wenn das originale Netzwerk nicht zuvor bekannt war. Dies beschreibt einen neuen fortgeschritten Weg der Grenzwertbestimmung. KW - network inference KW - network reconstruction KW - statistical methods KW - Netzwerk Inferenz KW - Netzwerk Rekonstruktion KW - statistische Methoden Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426705 ER - TY - THES A1 - Ramachandran, Varsha T1 - Massive star evolution, star formation, and feedback at low metallicity T1 - Massive Sternentwicklung, Sternentstehung, und das Feedback bei niedriger Metallizität BT - quantitative spectroscopy of OB stars in the Magellanic Clouds N2 - The goal of this thesis is to broaden the empirical basis for a better, comprehensive understanding of massive star evolution, star formation and feedback at low metallicity. Low metallicity massive stars are a key to understand the early universe. Quantitative information on metal-poor massive stars was sparse before. The quantitative spectroscopic studies of massive star populations associated with large-scale ISM structures were not performed at low metallicity before, but are important to investigate star-formation histories and feedback in detail. Much of this work relies on spectroscopic observations with VLT-FLAMES of ~500 OB stars in the Magellanic Clouds. When available, the optical spectroscopy was complemented by UV spectra from the HST, IUE, and FUSE archives. The two representative young stellar populations that have been studied are associated with the superbubble N 206 in the Large Magellanic Cloud (LMC) and with the supergiant shell SMC-SGS 1 in the Wing of the Small Magellanic Cloud (SMC), respectively. We performed spectroscopic analyses of the massive stars using the nonLTE Potsdam Wolf-Rayet (PoWR) model atmosphere code. We estimated the stellar, wind, and feedback parameters of the individual massive stars and established their statistical distributions. The mass-loss rates of N206 OB stars are consistent with theoretical expectations for LMC metallicity. The most massive and youngest stars show nitrogen enrichment at their surface and are found to be slower rotators than the rest of the sample. The N 206 complex has undergone star formation episodes since more than 30 Myr, with a current star formation rate higher than average in the LMC. The spatial age distribution of stars across the complex possibly indicates triggered star formation due to the expansion of the superbubble. Three very massive, young Of stars in the region dominate the ionizing and mechanical feedback among hundreds of other OB stars in the sample. The current stellar wind feedback rate from the two WR stars in the complex is comparable to that released by the whole OB sample. We see only a minor fraction of this stellar wind feedback converted into X-ray emission. In this LMC complex, stellar winds and supernovae equally contribute to the total energy feedback, which eventually powered the central superbubble. However, the total energy input accumulated over the time scale of the superbubble significantly exceeds the observed energy content of the complex. The lack of energy along with the morphology of the complex suggests a leakage of hot gas from the superbubble. With a detailed spectroscopic study of massive stars in SMC-SGS 1, we provide the stellar and wind parameters of a large sample of OB stars at low metallicity, including those in the lower mass-range. The stellar rotation velocities show a broad, tentatively bimodal distribution, with Be stars being among the fastest. A few very luminous O stars are found close to the main sequence, while all other, slightly evolved stars obey a strict luminosity limit. Considering additional massive stars in evolved stages, with published parameters and located all over the SMC, essentially confirms this picture. The comparison with single-star evolutionary tracks suggests a dichotomy in the fate of massive stars in the SMC. Only stars with an initial mass below 30 solar masses seem to evolve from the main sequence to the cool side of the HRD to become a red supergiant and to explode as type II-P supernova. In contrast, more massive stars appear to stay always hot and might evolve quasi chemically homogeneously, finally collapsing to relatively massive black holes. However, we find no indication that chemical mixing is correlated with rapid rotation. We measured the key parameters of stellar feedback and established the links between the rates of star formation and supernovae. Our study demonstrates that in metal-poor environments stellar feedback is dominated by core-collapse supernovae in combination with winds and ionizing radiation supplied by a few of the most massive stars. We found indications of the stochastic mode of star formation, where the resulting stellar population is fully capable of producing large-scale structures such as the supergiant shell SMC-SGS 1 in the Wing. The low level of feedback in metal-poor stellar populations allows star formation episodes to persist over long timescales. Our study showcases the importance of quantitative spectroscopy of massive stars with adequate stellar-atmosphere models in order to understand star-formation, evolution, and feedback. The stellar population analyses in the LMC and SMC make us understand that massive stars and their impact can be very different depending on their environment. Obviously, due to their different metallicity, the massive stars in the LMC and the SMC follow different evolutionary paths. Their winds differ significantly, and the key feedback agents are different. As a consequence, the star formation can proceed in different modes. N2 - Massereiche Sterne, also Sterne, die ihre Entwicklung mit mehr als acht Sonnenmassen starten, spielen die Hauptrolle in der chemischen Entwicklung des Universums. Darüberhinaus formen sie das sie umgebende interstellare Medium, aus dem sie entstanden sind, durch ihre ionisierende Strahlung und ihre starken Massenausflüsse in Form von Sternwinden und Supernovaexplosionen, das sogenannte Feedback. Diese Arbeit verbreitert die empirische Basis für ein besseres Verständnis der Entwicklung, Entstehung und des Feedbacks massereicher Sterne bei niedriger Metallizität, wie sie auch im frühen Universum herrschte, wesentlich. Hierfür wurden die Daten von zwei großen spektroskopischen Beobachtungskampagnen in der Großen (LMC) und in der Kleinen Magellanschen Wolke (SMC) - beides Galaxien mit erniedrigter Metallizität - mittels des Non-LTE Potsdam Wolf-Rayet (PoWR) Model Atmosphere Codes quantitativ analysiert, um wesentliche Stern-, Wind- und Feedbackparameter sowie ihre statistische Verteilung zu bestimmen und damit ein globales Bild der massereichen Sterne und ihrer Wechselwirkung mit der Umgebung zu erhalten. Diese Analysen stützen sich hauptsächlich auf Spektren aus dem optischen Bereich, die mit dem Fibre Large Array Multi Element Spectrograph (FLAMES) am Very Large Telescope (VLT) von ~ 500 OBSternen in den Magellanschen Wolken aufgenommen worden, ergänzt durch UV-Spektren aus den Archiven verschiedener UV-Satelliten. Die zwei repräsentativen jungen Sternpopulationen, die untersucht wurden, gehören zur Superbubble N206 in der LMC beziehungsweise zur Supergiant Shell SMC-SGS 1 im Wing der SMC. Die analysierte Stichprobe des N206-Komplexes umfasst alle heißen massereichen Sterne vom Typ OB, Of, und Wolf-Rayet, wobei letztere weit entwickelt und durch starke Sternwinde gekennzeichnet sind. Auf Basis unsere Analysen fanden wir heraus, dass der Komplex seit 30 Mio. Jahren mehrere Sternentstehungsepisoden durchlief. Die räumliche Altersverteilung dieser Sterne über den Komplex weist möglicherweise auf getriggerte Sternentstehung infolge der Ausdehnung der Superbubble hin. Drei sehr massereiche, junge Of-Sterne in dieser Region dominieren das ionisierende und mechanische Feedback unter hunderten von anderen OBSternen in der Region. Die SMC hat eine noch niedrigere Metallizität als die LMC, was sich u.a. auch in der Sternentwicklung niederschlagen sollte. Daher wurde mittels der Daten der Spektralanalysen der Supergiant Shell SMC-SGS 1 in der SMC zusammen mit weiteren Daten aus der Literatur das am dichtesten besiedelte Hertzsprung-Russell-Diagramm der massereichen Sterne in der SMC erstellt. Der Vergleich mit Sternentwicklungsrechnungen suggeriert eine Zweiteilung der Entwicklungswege massereicher Sterne in der SMC. Dabei scheint die gemessene Rotation der Sterne überraschenderweise keinen großen Einfluss zu haben. Wir vermuten daher, dass die Masse und Metallizität der Sterne zusammen hauptverantwortlich für die beobachtete Zweiteilung sind. Desweiteren konnte erstmalig auf einer breiten Datenbasis aufbauend die Korrelation zwischen Metallizität und Stärke von OB-Sternwinden etabliert werden, allerdings sind die ermittelten Windstärken weit schwächer als vorhergesagt (Weak-Wind-Problem) und in Sternentwicklungsrechnungen verwendet. Die Alter und räumliche Verteilung von massereichen Sternen zeigen, dass Sternentstehung seit über 100 Mio. Jahren in der ruhigen Region niedriger Dichte in der SMC eher stochastisch als sequenziell voranschreitet und höher ist als von Messungen diffuser Hα-Emission abgeleitet wurde. Das Feedback in dieser Region wird aufgrund der schwachen Sternwinde durch Supernovae bestimmt, während die Ionization der gesamten Region durch einen einzigen sehr heißen und leuchtkräftigen Wolf-Rayet-Stern dominiert wird. Die niedrige Feedbackrate in metallarmen Sternpopulationen scheint für die Größe und das Überleben von Molekülwolken förderlich zu sein, sodass Sternentstehungsepisoden über einen längeren Zeitraum ablaufen. Solch ausgedehnte Sternentstehung kann dazu führen, dass es eine fortwährende Quelle von ionisierenden Photonen gibt, welche in das zirkumgalaktische Medium durch Löcher oder Kanäle entweichen können, die durch Supernovae erzeugt worden. Diese Studie regt an, dass Sternentstehungsregionen mit langer Geschichte ihre Spuren im umgebenden ISM auch bei niedriger Metallizität hinterlassen werden. Die zukünftigen großräumigen Spektroskopiestudien von weiter entfernten Galaxien mit noch geringeren Metallizitäten können weitere Einsichten in unser derzeitiges Verständnis von massereichen Sternen bringen. KW - massive stars KW - stellar feedback KW - spectroscopy KW - stellar evolution KW - star formation KW - massive Sterne KW - Sternfeedback KW - Spektroskopie KW - Sternentwicklung KW - Sternentstehung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432455 ER - TY - THES A1 - Sablowski, Daniel T1 - Spectroscopic analysis of the benchmark system Alpha Aurigae T1 - Spektroskopische Analysen des Vergleichssystems alpha Aurigae N2 - Binaries play an important role in observational and theoretical astrophysics. Since the mass and the chemical composition are key ingredients for stellar evolution, high-resolution spectroscopy is an important and necessary tool to derive those parameters to high confidence in binaries. This involves carefully measured orbital motion by the determination of radial velocity (RV) shifts and sophisticated techniques to derive the abundances of elements within the stellar atmosphere. A technique superior to conventional cross-correlation methods to determine RV shifts in known as spectral disentangling. Hence, a major task of this thesis was the design of a sophisticated software package for this approach. In order to investigate secondary effects, such as flux and line-profile variations, imprinting changes on the spectrum the behavior of spectral disentangling on such variability is a key to understand the derived values, to improve them, and to get information about the variability itself. Therefore, the spectral disentangling code presented in this thesis and available to the community combines multiple advantages: separation of the spectra for detailed chemical analysis, derivation of orbital elements, derivation of individual RVs in order to investigate distorted systems (either by third body interaction or relativistic effects), the suppression of telluric contaminations, the derivation of variability, and the possibility to apply the technique to eclipsing binaries (important for orbital inclination) or in general to systems that undergo flux-variations. This code in combination with the spectral synthesis codes MOOG and SME was used in order to derive the carbon 12C/13C isotope ratio (CIR) of the benchmark binary Capella. The observational result will be set into context with theoretical evolution by the use of MESA models and resolves the discrepancy of theory and observations existing since the first measurement of Capella's CIR in 1976. The spectral disentangling code has been made available to the community and its applicability to completely different behaving systems, Wolf-Rayet stars, have also been investigated and resulted in a published article. Additionally, since this technique relies strongly on data quality, continues development of scientific instruments to achieve best observational data is of great importance in observational astrophysics. That is the reason why there has also been effort in astronomical instrumentation during the work on this thesis. N2 - Doppelsterne spielen eine wichtige Rolle in der beobachtenden und theoretischen Astrophysik. Die Massen und die chemische Zusammensetzung der Sterne sind dabei ausschlaggebende Parameter. Die wichtige und notwendige Methode um diese zu bestimmen ist hochaufgelöste Spektroskopie. Dies beinhaltet eine penible Bestimmung der orbitalen Bewegung durch die Vermessung von Radialgeschwindigkeitsverschiebungen (RV) und fortgeschrittene Techniken zur Bestimmung der Häufigkeiten der in der Sternatmosphäre vorhandenen Elemente. Gegenüber der konventionellen Kreuzkorrelation zur Bestimmung der RV-Verschiebungen, gilt die Methode des sogenannten 'spectral disentanglings' als überlegen. Daher bestand ein Großteil der vorliegenden Arbeit darin, eine solche Methode in einem weiterentwickelten Softwarepacket zu realisieren. Um sekundäre Effekte zu verstehen, welche zu weiteren Änderungen im Spektrum führen, also insbesondere solche wie Fluss- und Linienprofilvariationen, ist es von zentraler Bedeutung das Verhalten des spectral disentangling durch solche Variabilitäten zu verstehen, sodass die ermittelten Größen besser interpretiert und verbessert, sowie Informationen über die Variabilität selbst abgeleitet werden können. Daher vereint der in dieser Arbeit vorgestellte und der Allgemeinheit offen stehende Algorithmus für das spectral disentangling mehrere Vorteile: Separation der Spektren für detaillierte chemische Analysen, Ableitung der orbitalen Bahnelemente, Ableitung der einzelnen RV-Verschiebungen um auch gestörte Systeme (z.B. durch einen dritten Körper oder relativistische Effekte) analysieren zu können, die Reduktion des Einflusses tellurischer Kontamination, Ableitung der Variabilität und die Möglichkeit der Anwendung auf Bedeckungsveränderliche (wichtig zur Bestimmung der Inklination) bzw. allgemeiner auf Systeme mit Flussvariationen. Der vorgestellte Algorithmus wurde zusammen mit MOOG und SME zur Erzeugung synthetischer Spektren verwendet um das Kohlenstoff-12C/13C Isotopen-Verhältnis (KIV) des Referenzsystems Capella zu bestimmen. Dieses Ergebnis aus Beobachtungen wird in Kontext zur theoretischen Entwicklung durch Verwendung von MESA Modellen gesetzt und löst die Unstimmigkeit zwischen Beobachtung und Theorie die bereits seit der ersten Messung des KIV von Kapella von 1976 existiert. Der Algorithmus für das spectral disentangling ist der Allgemeinheit zugänglich gemacht und wurde auf vollkommen anders verhaltende Objekte, den Wolf-Rayet-Sternen, angewendet, was in einer publizierten Arbeit resultierte. Da die Methode stark von der Qualität der Beobachtungsdaten abhängt, ist eine kontinuierliche Weiterentwicklung der wissenschaftlichen Messtechnik der beobachtenden Astrophysik sehr wichtig um die bestmöglichsten Beobachtungsdaten gewinnen zu können. Daher wurden auch große Anstrengungen in der astronomischen Instrumentierung während dieser Arbeit unternommen. KW - Stellar physics KW - Stellar evolution KW - spectroscopy KW - instrumentation KW - carbon-isotope-ratio KW - Capella KW - Stellarphysik KW - Sternentwicklung KW - Spektroskopie KW - Instrumentierung KW - Kohlenstoff-Isotopen-Verhältnis KW - Kapella Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432396 ER - TY - THES A1 - Herrmann, Johannes T1 - The mechanical behavior of shales T1 - Das mechanische Verhalten von Schiefergesteinen N2 - The thesis comprises three experimental studies, which were carried out to unravel the short- as well as the long-term mechanical properties of shale rocks. Short-term mechanical properties such as compressive strength and Young’s modulus were taken from recorded stress-strain curves of constant strain rate tests. Long-term mechanical properties are represented by the time– dependent creep behavior of shales. This was obtained from constant stress experiments, where the test duration ranged from a couple minutes up to two weeks. A profound knowledge of the mechanical behavior of shales is crucial to reliably estimate the potential of a shale reservoir for an economical and sustainable extraction of hydrocarbons (HC). In addition, healing of clay-rich forming cap rocks involving creep and compaction is important for underground storage of carbon dioxide and nuclear waste. Chapter 1 introduces general aspects of the research topic at hand and highlights the motivation for conducting this study. At present, a shift from energy recovered from conventional resources e.g., coal towards energy provided by renewable resources such as wind or water is a big challenge. Gas recovered from unconventional reservoirs (shale plays) is considered a potential bridge technology. In Chapter 2, short-term mechanical properties of two European mature shale rocks are presented, which were determined from constant strain rate experiments performed at ambient and in situ deformation conditions (confining pressure, pc ≤ 100 MPa, temperature, T ≤ 125 °C, representing pc, T - conditions at < 4 km depth) using a Paterson– type gas deformation apparatus. The investigated shales were mainly from drill core material of Posidonia (Germany) shale and weathered material of Bowland (United Kingdom) shale. The results are compared with mechanical properties of North American shales. Triaxial compression tests performed perpendicular to bedding revealed semibrittle deformation behavior of Posidonia shale with pronounced inelastic deformation. This is in contrast to Bowland shale samples that deformed brittle and displayed predominantly elastic deformation. The static Young’s modulus, E, and triaxial compressive strength, σTCS, determined from recorded stress-strain curves strongly depended on the applied confining pressure and sample composition, whereas the influence of temperature and strain rate on E and σTCS was minor. Shales with larger amounts of weak minerals (clay, mica, total organic carbon) yielded decreasing E and σTCS. This may be related to a shift from deformation supported by a load-bearing framework of hard phases (e.g., quartz) towards deformation of interconnected weak minerals, particularly for higher fractions of about 25 – 30 vol% weak phases. Comparing mechanical properties determined at reservoir conditions with mechanical data applying effective medium theories revealed that E and σTCS of Posidonia and Bowland shale are close to the lower (Reuss) bound. Brittleness B is often quoted as a measure indicating the response of a shale formation to stimulation and economic production. The brittleness, B, of Posidonia and Bowland shale, estimated from E, is in good agreement with the experimental results. This correlation may be useful to predict B from sonic logs, from which the (dynamic) Young’s modulus can be retrieved. Chapter 3 presents a study of the long-term creep properties of an immature Posidonia shale. Constant stress experiments (σ = const.) were performed at elevated confining pressures (pc = 50 – 200 MPa) and temperatures (T = 50 – 200 °C) to simulate reservoir pc, T - conditions. The Posidonia shale samples were acquired from a quarry in South Germany. At stresses below ≈ 84 % compressive strength of Posidonia shale, at high temperature and low confining pressure, samples showed pronounced transient (primary) creep with high deformation rates in the semibrittle regime. Sample deformation was mainly accommodated by creep of weak sample constituents and pore space reduction. An empirical power law relation between strain and time, which also accounts for the influence of pc, T and σ on creep strain was formulated to describe the primary creep phase. Extrapolation of the results to a creep period of several years, which is the typical time interval for a large production decline, suggest that fracture closure is unlikely at low stresses. At high stresses as expected for example at the contact between the fracture surfaces and proppants added during stimulation measures, subcritical crack growth may lead to secondary and tertiary creep. An empirical power law is suggested to describe secondary creep of shale rocks as a function of stress, pressure and temperature. The predicted closure rates agree with typical production decline curves recorded during the extraction of hydrocarbons. At the investigated conditions, the creep behavior of Posidonia shale was found to correlate with brittleness, calculated from sample composition. In Chapter 4 the creep properties of mature Posidonia and Bowland shales are presented. The observed long-term creep behavior is compared to the short-term behavior determined in Chapter 2. Creep experiments were performed at simulated reservoir conditions of pc = 50 – 115 MPa and T = 75 – 150 °C. Similar to the mechanical response of immature Posidonia shale samples investigated in Chapter 3, creep strain rates of mature Bowland and Posidonia shales were enhanced with increasing stress and temperature and decreasing confining pressures. Depending on applied deformation conditions, samples displayed either only a primary (decelerating) or in addition also a secondary (quasi-steady state) and subsequently a tertiary (accelerating) creep phase before failure. At the same deformation conditions, creep strain of Posidonia shale, which is rich in weak constituents, is tremendously higher than of quartz-rich Bowland shale. Typically, primary creep strain is again mostly accommodated by deformation of weak minerals and local pore space reduction. At the onset of tertiary creep most of the deformation was accommodated by micro crack growth. A power law was used to characterize the primary creep phase of Posidonia and Bowland shale. Primary creep strain of shale rocks is inversely correlated to triaxial compressive strength and brittleness, as described in Chapter 2. Chapter 5 provides a synthesis of the experimental findings and summarizes the major results of the studies presented in Chapters 2 – 4 and potential applications in the Exploration & Production industry. Chapter 6 gives a brief outlook on potential future experimental research that would help to further improve our understanding of processes leading to fracture closure involving proppant embedment in unconventional shale gas reservoirs. Such insights may allow to improve stimulation techniques aimed at maintaining economical extraction of hydrocarbons over several years. N2 - Die vorliegende Dissertation befasst sich mit drei separaten, experimentellen Studien, die durchgeführt wurden, um die mechanischen Eigenschaften, wie Druckfestigkeit, Elastizitätsmodul und Langzeit-Kriecheigenschaften von Schiefergesteinen zu untersuchen. Dabei wurden die aufgezeichneten Spannungs-Verformungskurven von kurzzeitigen (wenige Minuten) Deformationsexperimenten bei konstanter Verformungsrate genutzt, um mechanische Druckfestigkeit und elastische Parameter zu bestimmen. Um die zeitabhängigen Kriecheigenschaften zu charakterisieren, wurden Deformationstests bei konstanter Spannung durchgeführt. Hier variierte die Testdauer zwischen wenigen Minuten und zwei Wochen. Ein verbesserter Kenntnisstand auf diesem Gebiet ist notwendig, um das Potential eines unkonventionellen Schiefergesteinsreservoirs im Hinblick auf eine wirtschaftliche und nachhaltige Förderung von Kohlenwasserstoffen zuverlässig abzuschätzen. Im ersten Kapitel wird eine allgemeine Einleitung in das Thema der Dissertation gegeben, wobei im Besonderen auf die Motivation für die vorliegende Studie eingegangen wird. Die Einleitung fokussiert sich dabei auf die aktuell vorherrschende Herausforderung, die Energieversorgung durch konventionelle Ressourcen, wie beispielsweise Kohle, durch regenerative Ressourcen, wie z.B. Wind oder Wasser, zu ersetzen. Üblicherweise wird der Energiezeugung aus unkonventionell gewonnenem Erdgas dabei die Rolle einer Brückentechnologie zugewiesen. Die Motivation zur Durchführung dieser Arbeit ist es, das mechanische Verhalten von Gasschiefern zu untersuchen, die auch in Europa einen substantiellen Beitrag zur Gasförderung liefern können. In Kapitel 2 werden die Ergebnisse von Experimenten dargestellt, die exemplarisch auf die Bestimmung der Druckfestigkeit und des Elastizitätsmoduls von zwei reifen, europäischen Schiefergesteinen abzielen. Dazu wurden in einer Gasdruckapparatur Deformationsexperimente an Proben durchgeführt die senkrecht zur Schichtung orientiert entnommen wurden. Die Versuche wurden bei konstanter Verformungsrate und bei nachgestellten in situ Umgebungsbedingungen bis etwa 4 km Tiefe durchgeführt (Manteldruck, pc ≤ 100 MPa, Temperatur, T ≤ 125 °C). Die untersuchten Schieferproben stammen hauptsächlich aus Kernmaterial von erbohrtem Posidonienschiefer aus Niedersachsen und aus englischen Bowlandschiefer, das aus natürlichen Aufschlüssen gewonnen wurde. Zusätzlich wurden einige nordamerikanische Schieferproben zum Vergleich untersucht. Die triaxialen Kompressionstests zeigen ein semi-sprödes Deformationsverhalten mit ausgeprägter inelastischer Verformung des untersuchten Posidonienschiefers, wohingegen sich Bowlandschiefer spröde und bis zum Bruch vorzugsweise elastisch verformt. Der Elastizitätsmodul, E, und die Druckfestigkeit, σTCS, weisen bei erhöhten Drücken und Temperaturen eine starke Abhängigkeit vom Manteldruck und der Gesteinsmineralogie auf. Der Einfluss von Temperatur und Verformungsrate auf E und σTCS ist dagegen vernachlässigbar. Mit ansteigendem Anteil an mechanisch weichen Mineralphasen, z.B. Ton, Glimmer und organisch gebundenem Kohlenstoff, nehmen E und σTCS der untersuchten Schiefergesteine ab. Dies ist durch eine verändertes Verformungsverhalten begründet, das von der Deformation eines lasttragenden Gerüstes aus mechanisch festen Mineralen, wie beispielsweise Quarz, bis zu einer Verformung von miteinander verbundenen mechanisch weichen Mineralen reicht. Der Übergang wurde ab einem Volumenanteil von etwa 25 – 30 vol% weicher Mineralphasen beobachtet. Beim Vergleich der experimentell ermittelten mechanischen Eigenschaften (E, σTCS) mit Vorhersagen, in denen die Zusammensetzung der Schiefer berücksichtigt wird (effective medium theories, Voigt-Reuss Grenzen) ist erkennbar, dass E und σTCS nahe an der unteren (Reuss) Grenze liegen. Die aus dem Elastizitätsmodul berechnete Sprödfestigkeit (brittleness, B) von Posidonien- und Bowlandschiefer stimmt gut mit dem gemessenen Spannungs-Verformungsverhalten überein. Die Sprödfestigkeit eines Gesteins wird oft als Indiz zur Abschätzung des möglichen Erfolges von Stimulationsmaßnahmen betrachtet. Daher ist der Zusammenhang zwischen elastischen Eigenschaften, die sich mit Ultraschallmessungen (sonic-log) in Bohrungen abschätzen lassen und dem mechanischen Verhalten von Gasschiefern für eine schnelle und kostengünstige Beurteilung wichtig. Im dritten Kapitel werden die Langzeit-Kriecheigenschaften von Schiefergesteinen untersucht. Dafür wurden Deformationsexperimente bei konstanter Spannung (σ = konst.) und erhöhten Umlagerungsdrücken (pc = 50 – 200 MPa) und Temperaturen (T = 50 – 200 °C) an einem unreifen Posidonienschiefer, welcher in einem aktiven Steinbruch in Süddeutschland gewonnen wurde, durchgeführt. Bei Spannungen unterhalb ≈ 84 % der Druckfestigkeit des Schiefers und hohen Temperaturen und niedrigen Manteldrücken zeigen die deformierten Schieferproben transientes (primäres) Kriechen im semi-spröden Regime mit relativ hohen Verformungsraten. Der größte Teil der Deformation wird dabei durch die Verformung von mechanisch weichen Mineralphasen und Porenraumreduktion aufgenommen. Ein empirisches Potenzgesetz wurde aufgestellt, um die zeitabhängige primäre Kriechphase in Abhängigkeit von Manteldruck, Temperatur und Spannung zu charakterisieren. Dabei wurde festgestellt, dass ein mögliches Rissschließen über einen typischen Zeitraum von wenigen Jahren bei der Annahme von ausschließlich primären Kriechen unwahrscheinlich ist. Typischerweise entstehen an den Kotaktflächen zwischen hydraulisch stimulierten Rissen innerhalb der Schieferformation und dem Stützmittel, welches dem Stimulationsfluid hinzugefügt wird, um offene Risse aufrecht zu erhalten, hohe Differentialspannungen. Dadurch kann zusätzliches (subkritisches) Risswachstum initiiert werden, welches bei den untersuchten Proben unter hoher Differentialspannung zusätzlich zum primären auch zum sekundären und tertiären Kriechen bis zum Versagen der Probe führte. Bei Verwendung eines empirischen Potenzgesetzes zur Beschreibung der sekundären Kriechphase kann eine, im Vergleich zur primären Kriechregime, substanziell höhere Rissschließungsrate abgeschätzt werden. Diese erscheint wesentlich zuverlässiger, da sie mit den Zeiträumen typische gemessener Produktionsrückgänge einer Bohrung übereinstimmt. Zusätzlich wurde eine inverse Korrelation zwischen gemessener Verformung und Sprödigkeit, basierend auf der Schiefermineralogie, festgestellt. In Kapitel 4 werden weiterführende Untersuchungen vorgestellt, in dem die Kriecheigenschaften von reifem Posidonien-und Bowlandschiefer gemessen und mit den mechanischen Eigenschaften, bestimmt in Kurzzeit-Deformationsversuchen bei konstanter Verformungsrate (Kapitel 2) verglichen werden. Dafür wurden Kriechversuche an Posidonien- und Bowlandschiefermaterial, wie in Kapitel 2 beschrieben, bei simulierten Reservoirdrücken und -temperaturen durchgeführt (pc = 50 – 115 MPa, T = 75 – 150 °C). Auch für diese Schiefergesteine wurde eine erhöhte Verformung bei erhöhten Spannungen und Temperaturen und niedrigen Manteldrücken gemessen. In Abhängigkeit von den vorherrschenden Deformationsbedingungen wiesen die Proben beider Schiefergesteine entweder nur eine primäre oder zusätzlichen zur primären auch eine sekundäre und tertiäre Kriechphase auf. Bei gleichem Umlagerungsdruck und gleicher Temperatur erwies sich der tonreiche Posidonienschiefer als deutlich weniger fest als der quarzreiche Bowlandschiefer. Während der Großteil der Deformation in der primären Kriechphase durch die Verformung von weichen Mineralen und Porenraumreduktion aufgefangen wurde, ist eine Mikrorissbildung bezeichnend für das tertiäre Kriechen. Um das primäre Kriechverhalten der unterschiedlichen Schiefergesteine zu charakterisieren, wurde auch hier ein Potenzgesetz genutzt, welches einen Vergleich mit den Kriecheigenschaften anderer Schiefergesteinen erlaubt. Die gewonnenen Ergebnisse zeigen eine deutliche inverse Korrelation zwischen primärer Verformung und der gemessenen Druckfestigkeit und der berechneten Sprödigkeit. Dies ermöglicht es die Langzeit-Kriecheigenschaften von Schiefergesteinen mit den, aus einem Kurzzeittest gemessenen, mechanischen Eigenschaften grob abzuschätzen, solange die angenommen Zeitintervalle zwischen zwei Stimulationsoperationen in dem in der Praxis typischen Zeitintervall von einigen Jahren liegt. Im fünften Kapitel werden die erzielten Ergebnisse nochmals im Zusammenhang dargestellt. Hier wird im Besonderen auf eine potentielle Anwendung der Ergebnisse in der E & P - Industrie eingegangen. Abschließend wird im sechsten Kapitel auf mögliche Experimente eingegangen, die zukünftig durchgeführt werden könnten, um unser Verständnis in Bezug auf die spannungsinduzierte Rissschließung in Schieferlagerstätten durch die Einbettung der Stützmittel in die Formation zu verbessern. Diese Erkenntnisse wären wiederum hilfreich, um eine ökonomische und nachhaltige Förderung von Kohlenwasserstoffen von stimulierten Bohrungen zu gewährleisten, die in unkonventionelle Lagerstätten abgeteuft wurden. KW - strength KW - Young's modulus KW - creep properties KW - Festigkeit KW - Elastizitätsmodul KW - Kriecheigenschaften Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429683 ER - TY - THES A1 - Schlenter, Judith T1 - Predictive language processing in late bilinguals T1 - Vorausschauende Sprachverarbeitung bei späten Bilingualen BT - Evidence from visual-world eye-tracking BT - Visual-World Eye-Tracking Evidenz N2 - The current thesis examined how second language (L2) speakers of German predict upcoming input during language processing. Early research has shown that the predictive abilities of L2 speakers relative to L1 speakers are limited, resulting in the proposal of the Reduced Ability to Generate Expectations (RAGE) hypothesis. Considering that prediction is assumed to facilitate language processing in L1 speakers and probably plays a role in language learning, the assumption that L1/L2 differences can be explained in terms of different processing mechanisms is a particularly interesting approach. However, results from more recent studies on the predictive processing abilities of L2 speakers have indicated that the claim of the RAGE hypothesis is too broad and that prediction in L2 speakers could be selectively limited. In the current thesis, the RAGE hypothesis was systematically put to the test. In this thesis, German L1 and highly proficient late L2 learners of German with Russian as L1 were tested on their predictive use of one or more information sources that exist as cues to sentence interpretation in both languages, to test for selective limits. The results showed that, in line with previous findings, L2 speakers can use the lexical-semantics of verbs to predict the upcoming noun. Here the level of prediction was more systematically controlled for than in previous studies by using verbs that restrict the selection of upcoming nouns to the semantic category animate or inanimate. Hence, prediction in L2 processing is possible. At the same time, this experiment showed that the L2 group was slower/less certain than the L1 group. Unlike previous studies, the experiment on case marking demonstrated that L2 speakers can use this morphosyntactic cue for prediction. Here, the use of case marking was tested by manipulating the word order (Dat > Acc vs. Acc > Dat) in double object constructions after a ditransitive verb. Both the L1 and the L2 group showed a difference between the two word order conditions that emerged within the critical time window for an anticipatory effect, indicating their sensitivity towards case. However, the results for the post-critical time window pointed to a higher uncertainty in the L2 group, who needed more time to integrate incoming information and were more affected by the word order variation than the L1 group, indicating that they relied more on surface-level information. A different cue weighting was also found in the experiment testing whether participants predict upcoming reference based on implicit causality information. Here, an additional child L1 group was tested, who had a lower memory capacity than the adult L2 group, as confirmed by a digit span task conducted with both learner groups. Whereas the children were only slightly delayed compared to the adult L1 group and showed the same effect of condition, the L2 speakers showed an over-reliance on surface-level information (first-mention/subjecthood). Hence, the pattern observed resulted more likely from L1/L2 differences than from resource deficits. The reviewed studies and the experiments conducted show that L2 prediction is affected by a range of factors. While some of the factors can be attributed to more individual differences (e.g., language similarity, slower processing) and can be interpreted by L2 processing accounts assuming that L1 and L2 processing are basically the same, certain limits are better explained by accounts that assume more substantial L1/L2 differences. Crucially, the experimental results demonstrate that the RAGE hypothesis should be refined: Although prediction as a fast-operating mechanism is likely to be affected in L2 speakers, there is no indication that prediction is the dominant source of L1/L2 differences. The results rather demonstrate that L2 speakers show a different weighting of cues and rely more on semantic and surface-level information to predict as well as to integrate incoming information. N2 - Die vorliegende Dissertation untersucht, wie Nicht-Muttersprachler des Deutschen sprachliche Information vorausschauend verarbeiten. Frühere Forschungsarbeiten haben gezeigt, dass diese Fähigkeit bei Fremdsprachsprechern im Vergleich zu Muttersprachlern eingeschränkt ist. Dies resultierte in der Formulierung der RAGE Hypothese, die besagt, dass Nicht-Muttersprachler eine reduzierte Fähigkeit besitzen, Erwartungen zu generieren. Unter der Berücksichtigung, dass vorausschauende Verarbeitung die Sprachverarbeitung bei Muttersprachlern erleichtert und möglicherweise eine Rolle beim Sprachenlernen spielt, ist die Annahme, dass sich Mutter- und Fremdsprachunterschiede durch unterschiedliche Verarbeitungsmechanismen erklären lassen, besonders interessant. Jedoch zeigen die Ergebnisse neuerer Studien, dass die Annahmen der RAGE Hypothese zu generell sind und es selektive Unterschiede zwischen Mutter- und Fremdsprachsprechern geben könnte. In dieser Dissertation wurde die RAGE Hypothese systematisch überprüft. KW - prediction KW - L2 sentence processing KW - RAGE hypothesis KW - visual-world eye-tracking KW - vorausschauende Sprachverarbeitung KW - Fremdsprachverarbeitung KW - RAGE Hypothese KW - Visual-World Eye-Tracking Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432498 ER - TY - THES A1 - Civitillo, Sauro T1 - Teachers’ cultural diversity beliefs and culturally responsive practices T1 - Überzeugungen von Lehrern zur kulturellen Vielfalt und kultursensiblen Unterricht N2 - The present dissertation about teachers’ cultural diversity beliefs and culturally responsive practices includes a general introduction (Chapter 1), a systematic literature review (Chapter 2), three empirical studies (Chapter 3, 4, and 5) and it ends with a general discussion and conclusion (Chapter 6). The major focus of investigation laid in creating a deeper understanding of teachers’ beliefs about cultural diversity and how those beliefs are related to teaching practices, which could or could not be considered to be culturally responsive. In this dissertation, I relied on insights from theoretical perspectives that derived from the field of psychology such as social cognitive theory and intergroup ideologies, as well as from the field of multicultural education such as culturally responsive teaching. In Chapter 1, I provide the background of this dissertation, with contextual information regarding the German educational system, the theoretical framework used and the main research objectives of each study. In Chapter 2, I conducted a systematic review of the existing international studies on trainings addressing cultural diversity beliefs with pre-service teachers. More specifically, the aims of the systematic literature review were (1) to provide a description of main components and contextual characteristics of teacher trainings targeting cultural diversity beliefs, (2) report the training effects, and (3) detail the methodological strengths and weaknesses of these studies. By examining the main components and contextual characteristics of teacher trainings, the effects on beliefs about cultural diversity as well as the methodological strengths and weaknesses of these studies in a single review, I took an integrated approach to these three processes. To review the final pool of studies (N = 36) I used a descriptive and narrative approach, relying primarily on the use of words and text to summarise and explain findings of the synthesis. The three empirical studies that follow, all highlight aspects of how far and how teacher beliefs about cultural diversity translate into real-world practices in schools. In Chapter 3, to expand the validity of culturally responsive teaching to the German context, I aimed at verifying the dimensional structure of German version of the Culturally Responsive Classroom Management Self-Efficacy Scale (CRCMSES; Siwatu, Putman, Starker-Glass, & Lewis, 2015). I conducted Exploratory and Confirmatory Factor Analysis, and run correlations between the subscales of the CRCMSES and a measure of cultural diversity- related stress. Data (n = 504) used for the first empirical study (Chapter 3) were collected in the InTePP-project (Inclusive Teaching Professionalization Panel) in which pre-service teachers’ competencies and beliefs were assessed longitudinally at two universities: the University of Potsdam and the University of Cologne. In the second empirical study, which forms Chapter 4, the focus is on teachers’ practices resembling school approaches to cultural diversity. In this study, I investigated two research questions: (1a) What types of descriptive norms regarding cultural diversity are perceived by teachers and students with and without an immigrant background and (1b) what is their degree of congruence? Additionally, I was also interested in how are teachers’ and students’ perceptions of descriptive norms about cultural diversity related to practices and artefacts in the physical and virtual school environment? Data for the second empirical study (Chapter 4) were previously collected in a dissertation project of doctor Maja Schachner funded by the federal program “ProExzellenz” of the Free State of Thuringia. Adopting a mixed-methods research design I conducted a secondary analysis of data from teachers’ (n = 207) and students’ (n = 1,644) gathered in 22 secondary schools in south-west Germany. Additional sources of data in this study were based on pictures of school interiors (hall and corridors) and sixth-grade classrooms’ walls (n = 2,995), and screenshots from each school website (n = 6,499). Chapter 5 addresses the question of how culturally responsive teaching, teacher cultural diversity beliefs, and self-reflection on own teaching are related. More specifically, in this study I addressed two research questions: (1) How does CRT relate to teachers’ beliefs about incorporating cultural diversity content into daily teaching and learning activities? And (2) how does the level of teachers’ self-reflection on their own teaching relate to CRT? For this last empirical chapter, I conducted a multiple case study with four ethnic German teachers who work in one culturally and ethnically diverse high school in Berlin, using classroom video observations and post-observation interviews. In the final chapter (Chapter 6), I summarised the main findings of the systematic literature review and three empirical studies, and discuss their scientific and practical implications. This dissertation makes a significant contribution to the field of educational science to understanding culturally responsive teaching in terms of its measurement, focus on both beliefs and practices and the link between the two, and theoretical, practical, and future study implications. N2 - Die vorliegende Dissertation über Überzeugungen von Lehrern zur kulturellen Vielfalt und zum kultursensiblen Unterricht beinhaltet eine allgemeine Einführung (Kapitel 1), eine systematische Literaturübersicht (Kapitel 2), drei empirische Studien (Kapitel 3, 4 und 5) und endet mit einer allgemeinen Diskussion und dem Fazit (Kapitel 6). Der Schwerpunkt der Untersuchung sollte auf der Schaffung eines tieferen Verständnisses und Überzeugungen der Lehrer über kulturelle Vielfalt liegen und wie diese Überzeugungen mit den Unterrichtspraktiken zusammenhängen, die als kulturell ansprechend angesehen werden konnten oder nicht. In dieser Dissertation stützte ich mich auf Erkenntnisse aus theoretischen Perspektiven, die sich aus dem Bereich der Psychologie, insb. wie der sozialen Kognitionstheorie und gruppenübergreifenden Ideologien sowie aus dem Bereich der multikulturellen Bildungsarbeit und des kultursensiblen Unterrichts, ableiten. In Kapitel 1 stelle ich den Hintergrund dieser Dissertation mit kontextuellen Informationen über das deutsche Bildungssystem, den theoretischen Rahmen und die Forschungsziele der einzelnen Studien dar. In Kapitel 2 habe ich mit Lehrern in der Ausbildung eine systematische Review der bestehenden internationalen Studien zu Schulungen, die sich mit den Überzeugungen zur kulturellen Vielfalt befassen, durchgeführt. Insbesondere waren Ziele der systematischen Literaturrecherche: (1) die Beschreibung der Hauptkomponenten und kontextuellen Merkmale von Lehrerausbildungen, die sich an den Überzeugungen der kulturellen Vielfalt orientieren; (2) die Schulungseffekte zu berichten und (3) die methodischen Stärken und Schwächen dieser Studien zu beschreiben. Durch die Prüfung der Hauptkomponenten und kontextuellen Merkmale der Lehrerausbildung, der Auswirkungen auf die Überzeugungen von kulltureller Vielfalt sowie der methodischen Stärken und Schwächen dieser Studien in einer einzigen Untersuchung, habe ich einen ganzheitlichen Ansatz für diese drei Prozesse gewählt. Um die endgültige Kette von Studien (N = 36) zu untersuchen, benutzte ich einen deskriptiven und narrativen Ansatz, der sich hauptsächlich auf die Verwendung von Wörtern und Texten stützte, um die Ergebnisse der Synthese zusammenzufassen und zu erläutern. Die drei folgenden empirischen Studien zeigen Aspekte auf, inwieweit sich die Überzeugungen der Lehrer über kulturelle Vielfalt in reale Praktiken in Schulen umsetzen lassen. In Kapitel 3, zielte ich darauf ab, die Gültigkeit der Schulung bei kultureller Herausforderung auf den deutschen Kontext auszudehnen und die dimensionale Struktur der deutschen Version der Culturally Responsive Classroom Management Self-Efficacy Scale (CRCMSES; Siwatu, Putman, Starker-Glass, & Lewis, 2015) nachzuprüfen. Ich habe eine Exploratory und Contirmatory Factor Analysis durchgeführt, und um Korrelationen zwischen den Subskalen der CRCMSES und einem Maß für den Stress im Zusammenhang mit kultureller Vielfalt zu ermitteln. Die Daten (n = 504) für die erste empirische Studie (Kapitel 3) wurden im InTePP-Projekt (Inclusive Teaching Professionalization Panel) gesammelt, in dem die Kompetenzen und Überzeugungen der Lehrkräfte in Ausbildung an zwei Universitäten, der Universität Potsdam und der Universität Köln, longitudinal bewertet wurden. In der zweiten empirischen Studie, die Kapitel 4 bildet, liegt der Schwerpunkt auf den Praktiken der Lehrer, die den schulischen Ansätzen zur kulturellen Vielfalt ähneln. In dieser Studie bin ich zwei Forschungsfragen nachfegangen: (1a) Welche Arten von beschreibenden Normen zur kulturellen Vielfalt werden von Lehrern und Schülern mit und ohne Migrationshintergrund wahrgenommen und (1b) wie hoch ist ihr Grad der Kongruenz? Darüber hinaus interessierte mich auch, wie die Wahrnehmungen von Lehrern und Schülern über die Normen zur kulturellen Vielfalt mit Praktiken und Unterrichtsergebnessen in der physischen und virtuellen Schulumgebung zusammen hängen? Die Daten für die zweite empirische Studie (Kapitel 4) wurden zuvor in einem vom Landesprogramm "ProExzellenz" des Freistaates Thüringen geförderten Dissertationsprojekt von Doktor Maja Schachner gesammelt. Mit Hilfe einer gemischten Forschungsmethode habe ich eine Sekundäranalyse der Daten von Lehrern (n = 207) und Schülern (n = 1.644) an 22 Sekundarschulen im Südwesten Deutschlands durchgeführt. Weitere Datenquellen in dieser Studie basierten auf Bildern von Schulinnenräumen (Halle und Flure) und Wänden von Klassenzimmern der sechsten Klasse (n = 2,995) sowie Screenshots von jeder Schul-Website (n = 6,499). Kapitel 5 befasst sich mit der Frage, wie kulturell ansprechender Unterricht, mit den Überzeugungen von Lehrern zur kulturellen Vielfalt und Selbstreflexion über den eigenen Unterricht zusammenhängen. Genauer gesagt, habe ich in dieser Studie zwei Forschungsfragen angesprochen: (1) Wie verhält sich CRT zu den Überzeugungen der Lehrer über die Einbeziehung von Inhalten zur kulturellen Vielfalt in die täglichen Lehr- und Lernaktivitäten? Und (2) Inwiefern bezieht sich das Niveau der Selbstreflexion der Lehrer über ihren eigenen Unterricht auf CRT? Für dieses letzte empirische Kapitel habe ich eine mehrfache Fallstudie mit vier ethnischen Deutschlehrern durchgeführt, die an einem kulturell und ethnisch vielfältigen Gymnasium in Berlin arbeiten, wobei ich Videobeobachtungen im Klassenzimmer und Interviews nach der Beobachtung verwendete. Im letzten Kapitel (Kapitel 6) habe ich die wichtigsten Ergebnisse der systematischen Literaturrecherche und den drei empirischen Studien zusammengefasst und deren wissenschaftliche und praktische Auswirkungen diskutiert. Diese Dissertation leistet einen wichtigen Beitrag auf dem Gebiet der Erziehungswissenschaft zum Verständnis einer Schulung mit kultureller Herausforderung in Bezug auf ihre Messbarkeit, die sich konzentrieren auf beides: Überzeugungen und Praktiken und die Verbindung zwischen den beiden und auf theoretische, praktische und zukünftige Auswirkungen der Studie. Stichworte: kulturelle Vielfalt, Überzeugungen von Lehrern, kultursensibler Unterricht. KW - cultural diversity KW - kulturelle Vielfalt KW - teacher beliefs KW - culturally responsive teaching KW - Überzeugungen von Lehrern KW - kultursensibler Unterricht Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427763 ER - TY - THES A1 - Kuberski, Stephan R. T1 - Fundamental motor laws and dynamics of speech N2 - The present work is a compilation of three original research articles submitted (or already published) in international peer-reviewed venues of the field of speech science. These three articles address the topics of fundamental motor laws in speech and dynamics of corresponding speech movements: 1. Kuberski, Stephan R. and Adamantios I. Gafos (2019). "The speed-curvature power law in tongue movements of repetitive speech". PLOS ONE 14(3). Public Library of Science. doi: 10.1371/journal.pone.0213851. 2. Kuberski, Stephan R. and Adamantios I. Gafos (In press). "Fitts' law in tongue movements of repetitive speech". Phonetica: International Journal of Phonetic Science. Karger Publishers. doi: 10.1159/000501644 3. Kuberski, Stephan R. and Adamantios I. Gafos (submitted). "Distinct phase space topologies of identical phonemic sequences". Language. Linguistic Society of America. The present work introduces a metronome-driven speech elicitation paradigm in which participants were asked to utter repetitive sequences of elementary consonant-vowel syllables. This paradigm, explicitly designed to cover speech rates from a substantially wider range than has been explored so far in previous work, is demonstrated to satisfy the important prerequisites for assessing so far difficult to access aspects of speech. Specifically, the paradigm's extensive speech rate manipulation enabled elicitation of a great range of movement speeds as well as movement durations and excursions of the relevant effectors. The presence of such variation is a prerequisite to assessing whether invariant relations between these and other parameters exist and thus provides the foundation for a rigorous evaluation of the two laws examined in the first two contributions of this work. In the data resulting from this paradigm, it is shown that speech movements obey the same fundamental laws as movements from other domains of motor control do. In particular, it is demonstrated that speech strongly adheres to the power law relation between speed and curvature of movement with a clear speech rate dependency of the power law's exponent. The often-sought or reported exponent of one third in the statement of the law is unique to a subclass of movements which corresponds to the range of faster rates under which a particular utterance is produced. For slower rates, significantly larger values than one third are observed. Furthermore, for the first time in speech this work uncovers evidence for the presence of Fitts' law. It is shown that, beyond a speaker-specific speech rate, speech movements of the tongue clearly obey Fitts' law by emergence of its characteristic linear relation between movement time and index of difficulty. For slower speech rates (when temporal pressure is small), no such relation is observed. The methods and datasets obtained in the two assessment above provide a rigorous foundation both for addressing implications for theories and models of speech as well as for better understanding the status of speech movements in the context of human movements in general. All modern theories of language rely on a fundamental segmental hypothesis according to which the phonological message of an utterance is represented by a sequence of segments or phonemes. It is commonly assumed that each of these phonemes can be mapped to some unit of speech motor action, a so-called speech gesture. For the first time here, it is demonstrated that the relation between the phonological description of simple utterances and the corresponding speech motor action is non-unique. Specifically, by the extensive speech rate manipulation in the herein used experimental paradigm it is demonstrated that speech exhibits clearly distinct dynamical organizations underlying the production of simple utterances. At slower speech rates, the dynamical organization underlying the repetitive production of elementary /CV/ syllables can be described by successive concatenations of closing and opening gestures, each with its own equilibrium point. As speech rate increases, the equilibria of opening and closing gestures are not equally stable yielding qualitatively different modes of organization with either a single equilibrium point of a combined opening-closing gesture or a periodic attractor unleashed by the disappearance of both equilibria. This observation, the non-uniqueness of the dynamical organization underlying what on the surface appear to be identical phonemic sequences, is an entirely new result in the domain of speech. Beyond that, the demonstration of periodic attractors in speech reveals that dynamical equilibrium point models do not account for all possible modes of speech motor behavior. N2 - In der vorliegende Arbeit belegen wir die Gültigkeit zweier bedeutender Motorikgesetze in Sprechdaten repetitiver Silben des Deutsch und Englischs: das fittsche Gesetz und das speed-curvature power law. Durch Anwendung eines größeren Sprechratenbereichs als in bisherigen Untersuchungen und anspruchsvollen numerischen Methoden zeigen wir das Auftreten dieser beiden Gesetze in klarerer Gestalt als in anderen Arbeit zuvor. Des Weiteren eröffnen wir den Versuch die Struktur repetitiver Sprechbewegungen dynamisch zu beschreiben, mit ersten Indizien für die Existenz mehrerer, qualitativ verschiedener,dynamischer Moden in ein und derselben phonologischen Sequenz. T2 - Allgemeine motorische Gesetzmäßigkeiten und dynamische Strukturen des Sprechens KW - speech motor control KW - speed-curvature power law KW - Fitts' law KW - repetitive speech KW - tongue movements KW - Sprechmotorik KW - Speed-Curvature Power Law KW - Fitts' Gesetz KW - Sprechwiederholungen KW - Zungenbewegungen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437714 ER - TY - THES A1 - Sotiropoulou, Stavroula T1 - Pleiotropy of phonetic indices in the expression of syllabic organization N2 - This dissertation is concerned with the relation between qualitative phonological organization in the form of syllabic structure and continuous phonetics, that is, the spatial and temporal dimensions of vocal tract action that express syllabic structure. The main claim of the dissertation is twofold. First, we argue that syllabic organization exerts multiple effects on the spatio-temporal properties of the segments that partake in that organization. That is, there is no unique or privileged exponent of syllabic organization. Rather, syllabic organization is expressed in a pleiotropy of phonetic indices. Second, we claim that a better understanding of the relation between qualitative phonological organization and continuous phonetics is reached when one considers how the string of segments (over which the nature of the phonological organization is assessed) responds to perturbations (scaling of phonetic variables) of localized properties (such as durations) within that string. Specifically, variation in phonetic variables and more specifically prosodic variation is a crucial key to understanding the nature of the link between (phonological) syllabic organization and the phonetic spatio-temporal manifestation of that organization. The effects of prosodic variation on segmental properties and on the overlap between the segments, we argue, offer the right pathway to discover patterns related to syllabic organization. In our approach, to uncover evidence for global organization, the sequence of segments partaking in that organization as well as properties of these segments or their relations with one another must be somehow locally varied. The consequences of such variation on the rest of the sequence can then be used to unveil the span of organization. When local perturbations to segments or relations between adjacent segments have effects that ripple through the rest of the sequence, this is evidence that organization is global. If instead local perturbations stay local with no consequences for the rest of the whole, this indicates that organization is local. N2 - Die vorliegende Dissertation befasst sich mit dem Verhältnis zwischen qualitativer Phonologie im Sinne silbischer Struktur und kontinuierlicher Phonetik im Sinne raum- und zeitbezogener Eigenschaften artikulatorischer Bewegungen, welche ebendiese Struktur ausdrücken. Die Dissertation stellt zwei Hauptthesen auf: Erstens behaupten wir, dass silbische Struktur verschiedene Auswirkungen auf die räumlichen und zeitlichen Eigenschaften der beteiligten Segmente hat. Das heißt, dass es keinen einzelnen ausgezeichneten Indikator für die silbische Struktur gibt, vielmehr muss diese durch mehrere verschiedene phonetischen Indexe beschrieben werden. Zweitens behaupten wir, dass man ein besseres Verständnis über den Zusammenhang von qualitativer phonologischer Struktur und kontinuierlicher Phonetik erhält, wenn man berücksichtigt, wie Abfolgen von Segmenten, welche die phonologische Struktur bestimmen, auf Perturbationen von lokalen phonetischen Eigenschaften reagieren. Die Variabilität phonetischer und insbesondere prosodischer Parameter spielt hierbei eine wesentliche Rolle. Wir behaupten, dass die Effekte prosodischer Variation der Eigenschaften einzelner Segmente und deren Überlappung einen geeigneten Weg zur Aufklärung silbisch-struktureller Muster aufzeigen. Wenn man Hinweise auf eine globale silbische Struktur herausarbeiten möchte, müssen folglich sowohl die Abfolge als auch die lokalen Eigenschaften der beteiligten Segmente variiert werden. Auswirkungen der Variationen können dann Auskunft über der Art und Gestalt der silbischen Struktur geben. Wenn lokale Perturbationen von Segmenten oder von Relationen zwischen benachbarten Segmenten die restliche Sequenz beeinflussen, ist dies als Hinweis auf eine globale Organisation zu bewerten. Wenn lokale Perturbationen hingegen lokal verbleiben ohne die restliche Sequenz zu beeinflussen, ist dies als Hinweis auf eine lokale Organisation zu bewerten. KW - Syllabic organization KW - inter-segmental coordination KW - obstruent-liquid clusters KW - prosodic modulation KW - compensatory effects KW - silbische Struktur KW - kompensatorischer Effekt KW - Koordination zwischen Segmenten KW - Obstruent-Liquide Konsonantencluster KW - prosodische Variation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546399 ER - TY - THES A1 - Döring, Matthias T1 - The public encounter T1 - Dynamiken von Bürger-Staat-Interaktionen BT - dynamics of citizen-state interactions N2 - This thesis puts the citizen-state interaction at its center. Building on a comprehensive model incorporating various perspectives on this interaction, I derive selected research gaps. The three articles, comprising this thesis, tackle these gaps. A focal role plays the citizens’ administrative literacy, the relevant competences and knowledge necessary to successfully interact with public organizations. The first article elaborates on the different dimensions of administrative literacy and develops a survey instrument to assess these. The second study shows that public employees change their behavior according to the competences that citizens display during public encounters. They treat citizens preferentially that are well prepared and able to persuade them of their application’s potential. Thereby, they signal a higher success potential for bureaucratic success criteria which leads to the employees’ cream-skimming behavior. The third article examines the dynamics of employees’ communication strategies when recovering from a service failure. The study finds that different explanation strategies yield different effects on the client’s frustration. While accepting the responsibility and explaining the reasons for a failure alleviates the frustration and anger, refusing the responsibility leads to no or even reinforcing effects on the client’s frustration. The results emphasize the different dynamics that characterize the nature of citizen-state interactions and how they establish their short- and long-term outcomes. N2 - Die vorliegende Arbeit setzt sich mit der direkten Interaktion zwischen BürgerInnen und Verwaltungen auseinander. Auf Basis eines umfassenden Modells, das verschiedene Perspektiven auf die Dynamiken dieser “public encounter” beschreibt, werden ausgewählte Forschungslücken hervorgehoben. Die drei Artikel, die diese Dissertation konstituieren, fokussieren diese Lücken. Dabei spielt die Frage nach den notwendigen Kompetenzen von BürgerInnen, die es ermöglichen, erfolgreich und auf Augenhöhe mit Verwaltungen interagieren zu können, eine wichtige Rolle. Die Relevanz verschiedener Dimensionen wird herausgearbeitet und mit Hilfe eines Survey-Instruments validiert. In einer weiteren Studie zeigt sich, dass VerwaltungsmitarbeiterInnen BürgerInnen bevorzugen, die dank dieser Kompetenzen besser auf Interaktionen vorbereitet sind. Aufgrund der besseren Vorbereitung sowie der Fähigkeit, ihr Gegenüber vom Nutzen des Antrags zu überzeugen, gelingt es BürgerInnen mit einer hohen Kompetenz, eine höhere Erfolgswahrscheinlichkeit im Sinne der organisationalen Ziele zu signalisieren. Der dritte Artikel beleuchtet die Dynamik der Kommunikationsstrategien von MitarbeiterInnen im Falle von Fehlern bei der Erbringung von Dienstleistungen. Die Studie stellt heraus, dass verschiedene Kommunikationsstrategien zur Wiedergutmachung von Fehlern unterschiedliche Effekte auf das Frustrationsniveau der KlientInnen haben. Hierbei zeigt sich, dass die bewusste Übernahme von Verantwortung sowie die Erläuterung der Ursachen des Fehlers die Frustration senken, während das Abwälzen der Verantwortung keinen bzw. sogar einen verstärkenden Effekt auf die Frustration hat. Die Ergebnisse verdeutlichen die Dynamiken, die bei der Interaktion zwischen BürgerInnen und Verwaltungen entstehen und für das kurz- und langfristige Ergebnis dieser Interaktionen maßgeblich sein können. KW - administrative literacy KW - behavioral public administration KW - citizen-state interactions KW - Verwaltungskompetenz KW - Behavioralistische Verwaltungswissenschaft KW - Bürger-Staat-Interaktionen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-502276 ER - TY - THES A1 - Kehm, Richard T1 - The impact of metabolic stress and aging on functionality and integrity of pancreatic islets and beta-cells T1 - Der Einfluss von metabolischem Stress und Alterung auf die Funktionalität und Integrität von Langerhans-Inseln und β-Zellen N2 - The increasing age of worldwide population is a major contributor for the rising prevalence of major pathologies and disease, such as type 2 diabetes, mediated by massive insulin resistance and a decline in functional beta-cell mass, highly associated with an elevated incidence of obesity. Thus, the impact of aging under physiological conditions and in combination with diet-induced metabolic stress on characteristics of pancreatic islets and beta-cells, with the focus on functionality and structural integrity, were investigated in the present dissertation. Primarily induced by malnutrition due to chronic and excess intake of high caloric diets, containing large amounts of carbohydrates and fats, obesity followed by systemic inflammation and peripheral insulin resistance occurs over time, initiating metabolic stress conditions. Elevated insulin demands initiate an adaptive response by beta-cell mass expansion due to increased proliferation, but prolonged stress conditions drive beta-cell failure and loss. Aging has been also shown to affect beta-cell functionality and morphology, in particular by proliferative limitations. However, most studies in rodents were performed under beta-cell challenging conditions, such as high-fat diet interventions. Thus, in the first part of the thesis (publication I), a characterization of age-related alterations on pancreatic islets and beta-cells was performed by using plasma samples and pancreatic tissue sections of standard diet-fed C57BL/6J wild-type mice in several age groups (2.5, 5, 10, 15 and 21 months). Aging was accompanied by decreased but sustained islet proliferative potential as well as an induction of cellular senescence. This was associated with a progressive islet expansion to maintain normoglycemia throughout lifespan. Moreover, beta-cell function and mass were not impaired although the formation and accumulation of AGEs occurred, located predominantly in the islet vasculature, accompanied by an induction of oxidative and nitrosative (redox) stress. The nutritional behavior throughout human lifespan; however, is not restricted to a balanced diet. This emphasizes the significance to investigate malnutrition by the intake of high-energy diets, inducing metabolic stress conditions that synergistically with aging might amplify the detrimental effects on endocrine pancreas. Using diabetes-prone NZO mice aged 7 weeks, fed a dietary regimen of carbohydrate restriction for different periods (young mice - 11 weeks, middle-aged mice - 32 weeks) followed by a carbohydrate intervention for 3 weeks, offered the opportunity to distinguish the effects of diet-induced metabolic stress in different ages on the functionality and integrity of pancreatic islets and their beta-cells (publication II, manuscript). Interestingly, while young NZO mice exhibited massive hyperglycemia in response to diet-induced metabolic stress accompanied by beta-cell dysfunction and apoptosis, middle-aged animals revealed only moderate hyperglycemia by the maintenance of functional beta-cells. The loss of functional beta-cell mass in islets of young mice was associated with reduced expression of PDX1 transcription factor, increased endocrine AGE formation and related redox stress as well as TXNIP-dependent induction of the mitochondrial death pathway. Although the amounts of secreted insulin and the proliferative potential were comparable in both age groups, islets of middle-aged mice exhibited sustained PDX1 expression, almost regular insulin secretory function, increased capacity for cell cycle progression as well as maintained redox potential. The results of the present thesis indicate a loss of functional beta-cell mass in young diabetes-prone NZO mice, occurring by redox imbalance and induction of apoptotic signaling pathways. In contrast, aging under physiological conditions in C57BL/6J mice and in combination with diet-induced metabolic stress in NZO mice does not appear to have adverse effects on the functionality and structural integrity of pancreatic islets and beta-cells, associated with adaptive responses on changing metabolic demands. However, considering the detrimental effects of aging, it has to be assumed that the compensatory potential of mice might be exhausted at a later point of time, finally leading to a loss of functional beta-cell mass and the onset and progression of type 2 diabetes. The polygenic, diabetes-prone NZO mouse is a suitable model for the investigation of human obesity-associated type 2 diabetes. However, mice at advanced age attenuated the diabetic phenotype or do not respond to the dietary stimuli. This might be explained by the middle age of mice, corresponding to the human age of about 38-40 years, in which the compensatory mechanisms of pancreatic islets and beta cells towards metabolic stress conditions are presumably more active. N2 - Das steigende Alter der Weltbevölkerung ist ein wesentlicher Faktor für die zunehmende Prävalenz bedeutsamer Pathologien und Krankheiten, wie dem Typ-2-Diabetes, der durch eine massive Insulinresistenz und eine Abnahme der funktionellen Beta-Zellmasse hervorgerufen wird und in hohem Maße mit einem verstärkten Auftreten von Fettleibigkeit assoziiert ist. Daher wurde in der vorliegenden Dissertation der Einfluss der Alterung unter physiologischen Bedingungen und in Kombination mit ernährungs-bedingtem, metabolischem Stress auf die Eigenschaften von Langerhans-Inseln und Beta-Zellen, mit dem Schwerpunkt auf Funktionalität und strukturelle Integrität, untersucht. Primär induziert durch Fehlernährung infolge des chronischen und übermäßigen Konsums von kalorienreichen Diäten, die große Mengen an Kohlenhydraten und Fetten enthalten, kann Adipositas, gefolgt von systemischen Entzündungen und peripherer Insulinresistenz, im Laufe des Lebens entstehen und metabolische Stresszustände auslösen. Daraus resultiert ein erhöhter Insulinbedarf, der eine adaptive Reaktion durch die Vergrößerung der Beta-Zellmasse infolge gesteigerter Proliferation auslöst. Längere Stressbedingungen führen hingegen zu Schäden an und Verlust von Beta-Zellen. Es wurde zudem gezeigt, dass das Altern die Funktionalität und Morphologie von Beta-Zellen, insbesondere durch proliferative Limitationen, beeinflusst. Die meisten Studien in Nagetieren wurden jedoch unter erhöhten Stressbedingungen für Beta-Zellen, beispielsweise durch die Fütterung von Hochfett-Diäten, durchgeführt. Deshalb wurde im ersten Teil der Arbeit (Publikation I) eine Charakterisierung von altersbedingten Veränderungen auf die Langerhans-Inseln und Beta-Zellen unter Verwendung von Plasmaproben und Pankreasgewebeschnitten von C57BL/6J-Wildtyp-Mäusen verschiedener Altersgruppen (2,5; 5; 10; 15 und 21 Monate), die mit einer Standarddiät gefüttert wurden, durchgeführt. Das Altern ging mit einem reduzierten, jedoch anhaltenden Proliferationspotential der Langerhans-Inseln sowie einer Induktion der zellulären Seneszenz einher. Dies war mit einem fortschreitenden Wachstum der Langerhans-Inseln verbunden, um eine Normoglykämie während der gesamten Lebensdauer aufrechtzuerhalten. Zudem wurden die Beta-Zell-Masse und die Funktionalität nicht beeinträchtigt, obwohl eine Bildung und Akkumulation von AGEs, die vorwiegend im Gefäßsystem der Langerhans-Inseln lokalisiert und von einer Induktion von oxidativem und nitrosativem (redox) Stress begleitet war, auftrat. Das Ernährungsverhalten während der gesamten Lebensspanne ist jedoch nicht auf eine ausgewogene Ernährung beschränkt. Dies unterstreicht die Bedeutung der Untersuchung von Fehlernährung durch die Einnahme energiereicher Diäten, wodurch metabolische Stresszustände induziert werden, die synergistisch mit dem Altern schädigende Effekte auf das endokrine Pankreas verstärken können. Verwendet wurden 7 Wochen alte, zur Entwicklung von Typ-2-Diabetes neigende NZO-Mäuse, die unterschiedlich langen kohlenhydratrestriktiven Fütterungsperioden (junge Mäuse - 11 Wochen, Mäuse mittleren Alters - 32 Wochen), gefolgt von einer 3-wöchigen Kohlenhydratintervention ausgesetzt waren. Dadurch konnten die Auswirkungen von ernährungsbedingtem metabolischem Stress auf die Funktionalität und Integrität von Langerhans-Inseln und deren Beta-Zellen in verschiedenen Altersstufen untersucht werden (Publikation II, Manuskript). Interessanterweise zeigten junge NZO-Mäuse eine massive Hyperglykämie als Reaktion auf den ernährungsbedingten, metabolischen Stress was von Beta-Zelldysfunktion und Apoptose begleitet war. Tiere mittleren Alters zeigten hingegen nur eine moderate Hyperglykämie durch den Erhalt funktioneller Beta-Zellen. Der Verlust funktioneller Beta-Zellmasse in jungen Mäusen war mit einer verminderten Expression des PDX1-Transkriptionsfaktors, einer erhöhten endokrinen AGE-Bildung und damit verbundenem Redox Stress sowie einer TXNIP-abhängigen Induktion des mitochondrialen Apoptosewegs verbunden. Obwohl die Mengen an sekretiertem Insulin sowie das Proliferationspotential in beiden Altersgruppen vergleichbar waren, zeigten die Langerhans-Inseln der Mäuse im mittleren Alter eine anhaltende PDX1-Expression, eine nahezu reguläre Insulinsekretionsfunktion, eine erhöhte Kapazität für das Fortschreiten des Zellzyklus sowie einen Erhalt des Redoxpotentials. Die Ergebnisse der vorliegenden Arbeit zeigen einen Verlust funktioneller Beta-Zellmasse bei jungen, diabetogenen NZO-Mäusen, der durch ein Redox-Ungleichgewicht und die Induktion apoptotischer Signalwege verursacht wurde. Im Gegensatz dazu scheint das Altern unter physiologischen Bedingungen bei C57BL/6J-Mäusen und in Kombination mit ernährungsbedingtem metabolischem Stress bei NZO-Mäusen keine nachteiligen Auswirkungen auf die Funktionalität und strukturelle Integrität von Langerhans und Beta-Zellen zu haben, was mit adaptiven Reaktionen auf wechselnde Stoffwechsel-anforderungen assoziiert war. In Anbetracht der negativen Auswirkungen der Alterung muss jedoch berücksichtigt werden, dass das Kompensationsverhalten von Mäusen zu einem späteren Zeitpunkt erschöpft sein könnte, was schließlich zu einem Verlust der funktionellen Beta-Zellmasse und dem Auftreten und Fortschreiten von Typ-2-Diabetes führt. Die polygene, zu Typ-2-Diabetes neigende NZO-Maus ist ein geeignetes Modell für die Untersuchung von mit Adipositas-assoziiertem Typ-2-Diabetes beim Menschen. Mäuse im fortgeschrittenen Alter zeigten jedoch einen verminderten diabetischen Phänotyp oder reagierten nicht auf die diätetischen Reize. Dies könnte durch das mittlere Alter der Mäuse erklärt werden, das dem menschlichen Alter von etwa 38 bis 40 Jahren entspricht, in dem die Kompensationsmechanismen von Langerhans-Inseln und Beta-Zellen gegenüber metabolischen Stressbedingungen möglicherweise aktiver sind. KW - Alterung KW - aging KW - Beta-Zelle KW - beta-cell KW - metabolischer Stress KW - metabolic stress Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441099 ER - TY - THES A1 - Kriegerowski, Marius T1 - Development of waveform-based, automatic analysis tools for the spatio-temporal characterization of massive earthquake clusters and swarms N2 - Earthquake swarms are characterized by large numbers of events occurring in a short period of time within a confined source volume and without significant mainshock aftershock pattern as opposed to tectonic sequences. Intraplate swarms in the absence of active volcanism usually occur in continental rifts as for example in the Eger Rift zone in North West Bohemia, Czech Republic. A common hypothesis links event triggering to pressurized fluids. However, the exact causal chain is often poorly understood since the underlying geotectonic processes are slow compared to tectonic sequences. The high event rate during active periods challenges standard seismological routines as these are often designed for single events and therefore costly in terms of human resources when working with phase picks or computationally costly when exploiting full waveforms. This methodological thesis develops new approaches to analyze earthquake swarm seismicity as well as the underlying seismogenic volume. It focuses on the region of North West (NW) Bohemia, a well studied, well monitored earthquake swarm region. In this work I develop and test an innovative approach to detect and locate earthquakes using deep convolutional neural networks. This technology offers great potential as it allows to efficiently process large amounts of data which becomes increasingly important given that seismological data storage grows at increasing pace. The proposed deep neural network trained on NW Bohemian earthquake swarm records is able to locate 1000 events in less than 1 second using full waveforms while approaching precision of double difference relocated catalogs. A further technological novelty is that the trained filters of the deep neural network’s first layer can be repurposed to function as a pattern matching event detector without additional training on noise datasets. For further methodological development and benchmarking, I present a new toolbox to generate realistic earthquake cluster catalogs as well as synthetic full waveforms of those clusters in an automated fashion. The input is parameterized using constraints on source volume geometry, nucleation and frequency-magnitude relations. It harnesses recorded noise to produce highly realistic synthetic data for benchmarking and development. This tool is used to study and assess detection performance in terms of magnitude of completeness Mc of a full waveform detector applied to synthetic data of a hydrofracturing experiment at the Wysin site, Poland. Finally, I present and demonstrate a novel approach to overcome the masking effects of wave propagation between earthquake and stations and to determine source volume attenuation directly in the source volume where clustered earthquakes occur. The new event couple spectral ratio approach exploits high frequency spectral slopes of two events sharing the greater part of their rays. Synthetic tests based on the toolbox mentioned before show that this method is able to infer seismic wave attenuation within the source volume at high spatial resolution. Furthermore, it is independent from the distance towards a station as well as the complexity of the attenuation and velocity structure outside of the source volume of swarms. The application to recordings of the NW Bohemian earthquake swarm shows increased P phase attenuation within the source volume (Qp < 100) based on results at a station located close to the village Luby (LBC). The recordings of a station located in epicentral proximity, close to Nový Kostel (NKC), show a relatively high complexity indicating that waves arriving at that station experience more scattering than signals recorded at other stations. The high level of complexity destabilizes the inversion. Therefore, the Q estimate at NKC is not reliable and an independent proof of the high attenuation finding given the geometrical and frequency constraints is still to be done. However, a high attenuation in the source volume of NW Bohemian swarms has been postulated before in relation to an expected, highly damaged zone bearing CO 2 at high pressure. The methods developed in the course of this thesis yield the potential to improve our understanding regarding the role of fluids and gases in intraplate event clustering. N2 - Erdbebenschwärme zeichnen sich durch eine große Anzahl an Ereignissen in einem relativ kleinen Zeitraum und Volumen aus. Im Gegensatz zu tektonischen Sequenzen ist in der Regel keine signifikantes Muster von Vor- und Nachbeben erkennbar. In Abwesenheit aktiven Vulkanismusses, kommen Erdbebenschwärme innerhalb kontinentaler Platten häufg an kontinentalen Verwerfungen vor, wie Beispielsweise im Bereich des Egergrabens im nordböhmischen Becken (Tschechien). Eine übliche Hypothese verbindet den Erdbebenentstehungsprozess mit Hochdruckfluiden. Der exakte kausale Zusammenhang ist jedoch häufig enigmatisch, da die zugrundeliegenden geotektonischen Prozesse im Vergleich zu tektonischen Sequenzen relativ langsam sind. Die hohe Erdbebenrate während aktiver Phasen stellt hohe Anforderungen an etablierte seismologische Routinen da diese häufg für Einzelereignisse konzipiert sind. So können sie einen hohen Aufwand bei manueller Selektion seismischer Phasen (picking) bedeuten oder rechenerisch aufwändig sein wenn volle Wellenformen verarbeitet werden sollen. Im Rahmen dieser methodologischen Thesis werden neue Ansätze zur Analyse seismischer Schwärme, sowie des zugrundeliegenden seismogenen Volumens entwickelt. Der Fokus liegt hierbei auf der gut untersuchten und überwachten nordböhmischen Schwarmregion. Ich entwickle und teste in dieser Arbeit einen innovativen Ansatz zur Detektion und Lokalisation von Erdbeben basierend auf einem tiefen konvolvierenden neuronalen Netzwerk. Diese Technologie bietet großes Potential da sie es erlaubt große Datenmengen effizient zu verarbeiten was durch die zunehmenden Datenmengen seismologischer Datenzentren immer weiter an Bedeutung gewinnt. Das entwickelte tiefe neuronale Netzwerk, trainiert auf Aufnahmen nordböhmischer Erdbebenschwärme, ist in der Lage 1000 Eregnisse in weniger als 1 Sekunde bei Verwendung voller Wellenformen zu lokalisieren und erreicht eine Präzision die vergleichbar ist mit der Genauigkeit eines Katalogs, der mittels Doppelte Differenzen Methode relokalisiert wurde. Eine weitere technologische Neuheit ist, dass die trainierten Filter der ersten Schicht des tiefen neuronalen Netzwerkes als Mustererkennungsfilter umfunktioniert werden und damit als Ereignisdetektor dienen können, ohne, dass zuvor explizit auf Rauschdaten trainiert werden muss. Für die weitere technologische Entwicklung stelle ich ein neues, automatisiertes Werkzeug für die synthetisierung realistischer Erdbebenschwarmkataloge, sowie hierauf basierender synthetischer voller Wollenform vor. Die Eingabeparameter werden durch die Geometrie des Quellvolumens, der Nukleationscharakteristik und Magnitude-Häufigkeitsverteilung definiert. Weiter können Rauschsignale realer Daten verwendet werden um äußerst realistische synthetische Daten zu generieren. Dieses Werkzeug wird verwendet um die Vollständigkeitmagnitude eines Detektors für volle Wellenformen anhand synthetischer Daten zu evaluieren. Die synthetisierten Daten sind Motiviert durch ein Hydrofrackingexperiment in Wysin (Polen). Des Weiteren stelle ich einen neuen Ansatz vor, der die Effekte der Wellenausbreitung zwischen Erdbeben und Stationen ausblendet und die Bestimmung der Dämpfung unmittelbar im Quellvolumen von Schwarmerdbeben erlaubt. Diese neue Methode benutzt das hochfrequente spektrale Verhältnis von Ereignispaaren mit gemeinsamen Strahlenwegen. Synthetische Tests zeigen, dass die Methode in der Lage ist die Dämpfung innerhalb des Quellvolumens mit hoher räumlicher Genauigkeit zu bestimmen. Weiter ist sie im Einzelnen unabhängig von der Entfernung zwischen Ereignis und Station als auch von der Komplexität der Dämpfungs und Geschwindigkeitsstruktur außerhalb des Quellvolumens. Die Anwendung auf Daten des nordböhmischen Erdbebenschwarms zeigt eine erhöhte P Phasen Dämpfung im Quellvolumen (Qp < 100) basierend auf Daten einer Station in der Nähe des Dorfes Luby (LBC). Die Wellenformen einer Station in unmittelbarer epizentraler Nähe, bei Novy Kostel (NKC), weisen eine relativ hohe Komplexität auf, was darauf hindeutet, dass seismische Wellen, die diese Station erreichen relativ stark gestreut werden im Vergleich zu anderen Stationen. Das hohe Maß an Komplexität destabilisiert die Methode und führt zu ungenauen Schätzungen an der Station NKC. Daher bedarf es einer weiteren unabhängigen Validierung der hohen Dämpfung bei gegebenen geometrischen und spektralen Voraussetzungen. Nichtsdestoweniger wurde bereits eine hohe Dämpfung im Quellvolumen der nordböhmischen Schwärme postuliert und erwartet, insbesondere im Zusammenhang mit einer Zone hoher Brüchigkeit die CO2 bei hohen Drücken beinhaltet. Die Methoden die im Rahmen dieser Thesis entwickelt werden haben das Potential unser Verständnis bezüglich der Rolle von Fluiden und Gasen bei Erdbebenschärmen innerhalb kontinentaler Platten zu verbessern. KW - attenuation tomography KW - earthquake swarms KW - deep learning KW - Dämpfungstomographie KW - Erdbebenschwärme KW - tiefes Lernen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-444040 ER - TY - THES A1 - Kochlik, Bastian Max T1 - Relevance of biomarkers for the diagnosis of the frailty syndrome T1 - Die Bedeutung von Biomarkern für die Diagnose des Frailty-Syndroms BT - focus on parameters of muscle protein turnover, micronutrients and oxidative stress BT - 3-Methylhistidine, Mikronährstoffe und oxidativer Stress im Fokus N2 - Frailty and sarcopenia share some underlying characteristics like loss of muscle mass, low muscle strength, and low physical performance. Imaging parameters and functional examinations mainly assess frailty and sarcopenia criteria; however, these measures can have limitations in clinical settings. Therefore, finding suitable biomarkers that reflect a catabolic muscle state e.g. an elevated muscle protein turnover as suggested in frailty, are becoming more relevant concerning frailty diagnosis and risk assessment. 3-Methylhistidine (3-MH) and its ratios 3-MH-to-creatinine (3-MH/Crea) and 3 MH-to-estimated glomerular filtration rate (3-MH/eGFR) are under discussion as possible biomarkers for muscle protein turnover and might support the diagnosis of frailty. However, there is some skepticism about the reliability of 3-MH measures since confounders such as meat and fish intake might influence 3-MH plasma concentrations. Therefore, the influence of dietary habits and an intervention with white meat on plasma 3-MH was determined in young and healthy individuals. In another study, the cross-sectional associations of plasma 3-MH, 3-MH/Crea and 3-MH/eGFR with the frailty status (robust, pre-frail and frail) were investigated. Oxidative stress (OS) is a possible contributor to frailty development, and high OS levels as well as low micronutrient levels are associated with the frailty syndrome. However, data on simultaneous measures of OS biomarkers together with micronutrients are lacking in studies including frail, pre-frail and robust individuals. Therefore, cross-sectional associations of protein carbonyls (PrCarb), 3-nitrotyrosine (3-NT) and several micronutrients with the frailty status were determined. A validated UPLC-MS/MS (ultra-performance liquid chromatography tandem mass spectrometry) method for the simultaneous quantification of 3-MH and 1-MH (1 methylhistidine, as marker for meat and fish consumption) was presented and used for further analyses. Omnivores showed higher plasma 3-MH and 1-MH concentrations than vegetarians and a white meat intervention resulted in an increase in plasma 3-MH, 3 MH/Crea, 1-MH and 1-MH/Crea in omnivores. Elevated 3-MH and 3-MH/Crea levels declined significantly within 24 hours after this white meat intervention. Thus, 3-MH and 3-MH/Crea might be used as biomarker for muscle protein turnover when subjects did not consume meat 24 hours prior to blood samplings. Plasma 3-MH, 3-MH/Crea and 3-MH/eGFR were higher in frail individuals than in robust individuals. Additionally, these biomarkers were positively associated with frailty in linear regression models, and higher odds to be frail were found for every increase in 3 MH and 3-MH/eGFR quintile in multivariable logistic regression models adjusted for several confounders. This was the first study using 3-MH/eGFR and it is concluded that plasma 3-MH, 3-MH/Crea and 3-MH/eGFR might be used to identify frail individuals or individuals at higher risk to be frail, and that there might be threshold concentrations or ratios to support these diagnoses. Higher vitamin D3, lutein/zeaxanthin, γ-tocopherol, α-carotene, β-carotene, lycopene and β-cryptoxanthin concentrations and additionally lower PrCarb concentrations were found in robust compared to frail individuals in multivariate linear models. Frail subjects had higher odds to be in the lowest than in the highest tertile for vitamin D3 α-tocopherol, α-carotene, β-carotene, lycopene, lutein/zeaxanthin, and β cryptoxanthin, and had higher odds to be in the highest than in the lowest tertile for PrCarb than robust individuals in multivariate logistic regression models. Thus, a low micronutrient together with a high PrCarb status is associated with pre-frailty and frailty. N2 - Gebrechlichkeit (englisch: frailty) und Sarkopenie teilen einige zugrundeliegende Merkmale wie einen Verlust von Muskelmasse, eine geringe Muskelkraft und eine geringe körperliche Leistungsfähigkeit, welche durch einen erhöhten Muskelproteinumsatz entstehen können. Kriterien der Gebrechlichkeit und Sarkopenie werden hauptsächlich durch bildgebende Verfahren sowie funktionelle Untersuchungen gemessen, die in ihrer Durchführbarkeit im klinischen Alltag jedoch eingeschränkt sein können. Daher gewinnt das Finden geeigneter Biomarker zur Anzeige eines erhöhten Muskelproteinumsatzes (kataboler Muskelzustand) in Bezug auf Diagnose und Risikobewertung der Gebrechlichkeit zunehmend an Bedeutung. 3-Methylhistidin (3-MH) und die Verhältnisse 3-MH zu Kreatinin (3-MH/Crea) und 3-MH zu geschätzter glomerulärer Filtrationsrate (3-MH/eGFR) werden als solche möglichen Biomarker diskutiert und könnten folglich die Diagnose und Risikobewertung von Gebrechlichkeit unterstützen. Es herrscht jedoch eine gewisse Skepsis hinsichtlich der Zuverlässigkeit von 3-MH-Messungen, da 3-MH-Plasmakonzentrationen durch Fleisch- und Fischaufnahme beeinflusst werden können. Daher wurde der Einfluss von Ernährungsgewohnheiten (Mischkost oder vegetarisch) und einer Intervention mit Hähnchenfleisch auf Plasma-3-MH bei jungen und gesunden Personen untersucht. In einer weiteren Studie wurden die Querschnittsassoziationen von 3-MH, 3-MH/Crea und 3-MH/eGFR im Plasma mit dem Frailty-Status (robust, pre-frail und frail) untersucht. Oxidativer Stress (OS) ist ein potentieller Faktor der zur Entwicklung von Gebrechlichkeit beiträgt, und sowohl hohe OS-Konzentrationen als auch niedrige Mikronährstoffkonzentrationen sind mit Gebrechlichkeit assoziiert. Daten zu simultanen Messungen von OS und Mikronährstoffen in Personen aller drei Frailty-Kategorien (robust, pre-frail und frail) fehlen jedoch. Aus diesem Grund wurden Querschnittsassoziationen von Proteincarbonylen (PrCarb), 3-Nitrotyrosin (3-NT) und mehrerer fettlöslicher Mikronährstoffe mit dem Frailty-Status bestimmt. Eine validierte UPLC-MS/MS-Methode (ultra-performance liquid chromatography tandem mass spectrometry) zur simultanen Bestimmung von 3-MH und 1-MH (1 Methylhistidin als Marker für den Fleisch- und Fischkonsum) in Plasma wurde beschrieben und für die weiteren Analysen verwendet. Mischköstler wiesen höhere 3 MH- und 1-MH-Konzentrationen in Plasma auf als Vegetarier. Die Intervention mit Hähnchenfleisch führte zu einem Anstieg von Plasma 3-MH, 3-MH/Crea, 1-MH und 1 MH/Crea bei Mischköstlern. Diese erhöhten 3-MH- und 3-MH/Crea-Spiegel sanken innerhalb von 24 Stunden nach der Intervention signifikant ab. Folglich stellen 3-MH und 3-MH/Crea potentielle Biomarker für den Muskelproteinumsatz dar, wenn Personen für 24 Stunden vor der Blutentnahme kein Fleisch verzehrt haben. Gebrechliche Teilnehmer wiesen höhere Plasma 3-MH-, 3-MH/Crea- und 3 MH/eGFR-Werte auf als robuste Teilnehmer und zusätzlich waren diese Biomarker in linearen Regressionsmodellen positiv mit Gebrechlichkeit assoziiert. In multivariablen logistischen Regressionsmodellen (adjustiert für mehrere Confounder) waren gebrechliche Personen im Vergleich zu robusten Personen mit einer höheren Wahrscheinlichkeit in einer höheren 3-MH- und 3-MH/eGFR-Quintile. Diese erste Studie, die 3-MH/eGFR als Biomarker für Gebrechlichkeit untersucht hat, erlaubt die Schlussfolgerung, dass Plasma-3-MH, -3-MH/Crea und -3-MH/eGFR verwendet werden könnte, um gebrechliche Personen oder Personen mit einem erhöhten Frailty-Risiko zu identifizieren. Möglicherweise gibt es auch Schwellenwerte, die diese Diagnosen unterstützen können. In multivariaten Regressionsanalysen wiesen robuste Personen höhere Vitamin D3-, Lutein/Zeaxanthin-, γ-Tocopherol-, α-Carotin-, β-Carotin-, Lycopin- und β Cryptoxanthin-Konzentrationen sowie niedrigere PrCarb-Konzentrationen auf als gebrechliche Personen. Zudem waren in multinomialen logistischen Regressionsanalysen gebrechliche Personen mit einer höheren Wahrscheinlichkeit sowohl in der niedrigsten Vitamin D3-, α-Tocopherol-, α-Carotin-, β-Carotin-, Lycopin-, Lutein/Zeaxanthin- und β Cryptoxanthin-Tertil als auch im höchsten PrCarb-Tertil zu finden als robuste Personen. Es wird daher geschlussfolgert, dass niedrige Mikronährstoffkonzentrationen zusammen mit hohen PrCarb-Konzentrationen mit Gebrechlichkeit und dessen Vorstufe (pre-frailty) assoziiert sind. KW - biomarker KW - Biomarker KW - frailty KW - Frailty KW - micronutrients KW - Mikronährstoffe KW - oxidative stress KW - oxidativer Stress KW - 3-methylhistidine KW - 3-Methylhistidin KW - muscle protein turnover KW - Muskelproteinumsatz Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441186 ER - TY - THES A1 - Al-Halbouni, Djamil T1 - Photogrammetry and distinct element geomechanical modelling of sinkholes and large-scale karstic depressions T1 - Photogrammetrie und geomechanische Diskrete-Elemente-Modellierung von Erdfällen und großskaligen Karstsenken N2 - Sinkholes and depressions are typical landforms of karst regions. They pose a considerable natural hazard to infrastructure, agriculture, economy and human life in affected areas worldwide. The physio-chemical processes of sinkholes and depression formation are manifold, ranging from dissolution and material erosion in the subsurface to mechanical subsidence/failure of the overburden. This thesis addresses the mechanisms leading to the development of sinkholes and depressions by using complementary methods: remote sensing, distinct element modelling and near-surface geophysics. In the first part, detailed information about the (hydro)-geological background, ground structures, morphologies and spatio-temporal development of sinkholes and depressions at a very active karst area at the Dead Sea are derived from satellite image analysis, photogrammetry and geologic field surveys. There, clusters of an increasing number of sinkholes have been developing since the 1980s within large-scale depressions and are distributed over different kinds of surface materials: clayey mud, sandy-gravel alluvium and lacustrine evaporites (salt). The morphology of sinkholes differs depending in which material they form: Sinkholes in sandy-gravel alluvium and salt are generally deeper and narrower than sinkholes in the interbedded evaporite and mud deposits. From repeated aerial surveys, collapse precursory features like small-scale subsidence, individual holes and cracks are identified in all materials. The analysis sheds light on the ongoing hazardous subsidence process, which is driven by the base-level fall of the Dead Sea and by the dynamic formation of subsurface water channels. In the second part of this thesis, a novel, 2D distinct element geomechanical modelling approach with the software PFC2D-V5 to simulating individual and multiple cavity growth and sinkhole and large-scale depression development is presented. The approach involves a stepwise material removal technique in void spaces of arbitrarily shaped geometries and is benchmarked by analytical and boundary element method solutions for circular cavities. Simulated compression and tension tests are used to calibrate model parameters with bulk rock properties for the materials of the field site. The simulations show that cavity and sinkhole evolution is controlled by material strength of both overburden and cavity host material, the depth and relative speed of the cavity growth and the developed stress pattern in the subsurface. Major findings are: (1) A progressively deepening differential subrosion with variable growth speed yields a more fragmented stress pattern with stress interaction between the cavities. It favours multiple sinkhole collapses and nesting within large-scale depressions. (2) Low-strength materials do not support large cavities in the material removal zone, and subsidence is mainly characterised by gradual sagging into the material removal zone with synclinal bending. (3) High-strength materials support large cavity formation, leading to sinkhole formation by sudden collapse of the overburden. (4) Large-scale depression formation happens either by coalescence of collapsing holes, block-wise brittle failure, or gradual sagging and lateral widening. The distinct element based approach is compared to results from remote sensing and geophysics at the field site. The numerical simulation outcomes are generally in good agreement with derived morphometrics, documented surface and subsurface structures as well as seismic velocities. Complementary findings on the subrosion process are provided from electric and seismic measurements in the area. Based on the novel combination of methods in this thesis, a generic model of karst landform evolution with focus on sinkhole and depression formation is developed. A deepening subrosion system related to preferential flow paths evolves and creates void spaces and subsurface conduits. This subsequently leads to hazardous subsidence, and the formation of sinkholes within large-scale depressions. Finally, a monitoring system for shallow natural hazard phenomena consisting of geodetic and geophysical observations is proposed for similarly affected areas. N2 - Dolinen und Senken sind typische Landformen von Karstgebieten. Sie stellen in den betroffenen Gebieten weltweit ein erhebliches Naturrisiko für Infrastruktur, Landwirtschaft, Wirtschaft und das menschliche Leben dar. Die physikalisch-chemischen Prozesse der Entstehung solcher Senkungen sind vielfältig und reichen von Auflösung und Materialerosion im Untergrund bis zu mechanischem Absenken/Bruchs des Oberbodens. Diese Arbeit betrachtet die Mechanismen, die zur Entwicklung von Dolinen und Senken führen, anhand von verschiedenen geowissenschaftlichen Methoden:Fernerkundung, Gesteinsmechanischer Modellierung und pberflächennaher Geophysik. Im ersten Teil werden detaillierte Informationen über den geologischen Hintergrund, Bodenstrukturen, Formen und die räumlich-zeitliche Entwicklung von Senkungen an einem sehr aktiven Karstgebiet am Toten Meer zusammengetragen. Dort bilden sich seit den 1980er Jahren immer größere Ansammlungen von Erdfällen, wie diese Phänomene auch oft genannt werden. Die Form der Erdfälle unterscheidet sich je nach Material, in dem sie entstehen: Erdfälle in Sand-Kies Böden und Salz sind im Allgemeinen tiefer und schmaler als Dolinen in den Schlammablagerungen des Toten Meeres. Wiederholte Aufnahmen aus der Luft mit Hilfe von Drohnen oder Ballons helfen dabei, kleine Absenkungen, einzelne Löcher und Risse zu identifizieren. Die Ursache dieser gefährlichen Absenkungen am Toten Meer ist in dem stetigen Fall des Seespiegels und der Bildung von starken Unterwasserkanälen zu sehen, die fortlaufend Material aus dem Boden herausspülen, sog. Subrosion. Im zweiten Teil dieser Dissertation wird ein neuer, geomechanischer Modellierungsansatz zur Simulation des Wachstums von Hohlräumen im Untergrund und der Bildung von Senkungsstrukturen vorgestellt. Die Simulationen zeigen, dass die Entwicklung der Hohlräume und Erdfälle durch die Materialstärke, die Tiefe und Geschwindigkeit des Hohlraumwachstums und durch das sich bildende Spannungsmuster im Untergrund gesteuert wird. Die wichtigsten Ergebnisse der Studie sind: (1) Eine fortlaufend sich vertiefende Subrosion mit variabler Wachstumsgeschwindigkeit führt zu einem stärker fragmentierten Spannungsmuster im Boden. Es begünstigt das Bilden von ineinander verschachtelten Erdfällen (Cluster) in großen Vertiefungen. (2) Materialien mit niedriger Festigkeit (wie z.B. Schlamm) können keine großen Hohlräume bilden, und das Absinken geschieht durch ein allmähliches Absacken. (3) Materialien mit hoher Festigkeit (wie z.B. verfestigte Sande/Kiese oder Steinsalz) unterstützen die Bildung großer Hohlräume, was zu einem plötzlichen Zusammenbruch des Oberbodens führen kann. (4) Großskalige Senkungsstrukturen bilden sich entweder durch das Verschachteln von kleineren Dolinen, blockweise sprödem Versagen, oder das allmähliche Absinken mit seitlicher Erweiterung. Die Ergebnisse der numerischen Simulationen stimmen im Allgemeinen sehr gut sowohl mit den beobachteten Senkungsformen an der Oberfläche überein, als auch mit Untergrundstrukturen beobachtet durch seismische und elektrische Methoden. Basierend auf der neuartigen Methodenkombination dieser Arbeit wird ein generisches Modell der Entwicklung von Senkungsstrukturen in Karstgebieten vorgestellt. Eine sich vertiefende Subrosion entlang von unterirdischen Kanälen erzeugt Hohlräume und führt in der Folge zu diesen gefährlichen Absenkungen und zur Bildung von Erdfällen innerhalb großer Vertiefungen. KW - Photogrammetry KW - Sinkholes KW - Karst KW - Discrete Element Method KW - Geomechanical Modelling KW - Applied Geophysics KW - Natural Hazards KW - Photogrammetrie KW - Erdfälle KW - Karst KW - Diskrete-Elemente-Methode KW - Geomechanische Modellierung KW - Angewandte Geophysik KW - Naturgefahren Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432159 ER - TY - THES A1 - Kegelmann, Lukas T1 - Advancing charge selective contacts for efficient monolithic perovskite-silicon tandem solar cells T1 - Entwicklung Ladungsselektiver Kontakte für Effiziente Monolithische Perowskit-Silizium Tandem-Solarzellen N2 - Hybrid organic-inorganic perovskites are one of the most promising material classes for photovoltaic energy conversion. In solar cells, the perovskite absorber is sandwiched between n- and p-type contact layers which selectively transport electrons and holes to the cell’s cathode and anode, respectively. This thesis aims to advance contact layers in perovskite solar cells and unravel the impact of interface and contact properties on the device performance. Further, the contact materials are applied in monolithic perovskite-silicon heterojunction (SHJ) tandem solar cells, which can overcome the single junction efficiency limits and attract increasing attention. Therefore, all contact layers must be highly transparent to foster light harvesting in the tandem solar cell design. Besides, the SHJ device restricts processing temperatures for the selective contacts to below 200°C. A comparative study of various electron selective contact materials, all processed below 180°C, in n-i-p type perovskite solar cells highlights that selective contacts and their interfaces to the absorber govern the overall device performance. Combining fullerenes and metal-oxides in a TiO2/PC60BM (phenyl-C60-butyric acid methyl ester) double-layer contact allows to merge good charge extraction with minimized interface recombination. The layer sequence thereby achieved high stabilized solar cell performances up to 18.0% and negligible current-voltage hysteresis, an otherwise pronounced phenomenon in this device design. Double-layer structures are therefore emphasized as a general concept to establish efficient and highly selective contacts. Based on this success, the concept to combine desired properties of different materials is transferred to the p-type contact. Here, a mixture of the small molecule Spiro-OMeTAD [2,2’,7,7’-tetrakis(N,N-di-p-methoxyphenylamine)-9,9’-spirobifluoren] and the doped polymer PEDOT [poly(3,4-ethylenedioxythiophene)] is presented as a novel hole selective contact. PEDOT thereby remarkably suppresses charge recombination at the perovskite surface, allowing an increase of quasi-Fermi level splitting in the absorber. Further, the addition of Spiro-OMeTAD into the PEDOT layer is shown to enhance charge extraction at the interface and allow high efficiencies up to 16.8%. Finally, the knowledge on contact properties is applied to monolithic perovskite-SHJ tandem solar cells. The main goal is to optimize the top contact stack of doped Spiro-OMeTAD/molybdenum oxide(MoOx)/ITO towards higher transparency by two different routes. First, fine-tuning of the ITO deposition to mitigate chemical reduction of MoOx and increase the transmittance of MoOx/ITO stacks by 25%. Second, replacing Spiro-OMeTAD with the alternative hole transport materials PEDOT/Spiro-OMeTAD mixtures, CuSCN or PTAA [poly(triaryl amine)]. Experimental results determine layer thickness constrains and validate optical simulations, which subsequently allow to realistically estimate the respective tandem device performances. As a result, PTAA represents the most promising replacement for Spiro-OMeTAD, with a projected increase of the optimum tandem device efficiency for the herein used architecture by 2.9% relative to 26.5% absolute. The results also reveal general guidelines for further performance gains of the technology. N2 - Hybride, organisch-anorganische Perowskite gelten als eine der vielversprechendsten Materialklassen für die photovoltaische Energieumwandlung. Dazu werden Perowskit-Absorber in Solarzellen zwischen n- und p-Typ Kontaktschichten angeordnet, die Elektronen oder Löcher selektiv zur Kathode bzw. Anode der Zelle transportieren. Ziel dieser Arbeit ist es, die ladungsselektiven Transportschichten in Perowskit-Solarzellen zu verbessern und Einflüsse der Grenzflächen- und Kontakteigenschaften auf die Zelleffizienz herauszustellen. Darüber hinaus werden die selektiven Schichten in monolithischen Perowskit-Silizium-Heterokontakt (SHK) Tandem-Solarzellen eingesetzt. Diese können höhere Wirkungsgrade als Einfachsolarzellen erzielen und erfahren zunehmende Aufmerksamkeit aus der Forschung. Hierfür müssen alle Kontaktschichten hochtransparent sein, um eine möglichst effiziente Lichtausnutzung im Tandem-Solarzellen-Design zu erzielen. Des Weiteren limitiert die SHK-Solarzelle die höchst mögliche Temperatur zur Abscheidung der selektiven Kontakte auf 200°C. In einer Vergleichsstudie werden deshalb zunächst verschiedene elektronenselektive Kontaktmaterialien, die alle unter 180°C prozessiert werden, in n-i-p-Typ Perowskit-Solarzellen eingesetzt. Es zeigt sich hierbei, wie wesentlich die selektiven Kontakte und ihre Grenzflächen zum Absorber die Effizienz der Solarzellen bestimmen. Eine Kombination aus Fulleren und Metalloxid in einem TiO2/PC60BM (Phenyl-C60-Buttersäuremethylester) Doppelschichtkontakt ermöglicht dabei eine besonders gute Ladungsextraktion und stark reduzierte Grenzflächenrekombination. Die Materialzusammenstellung erreicht in der Studie hohe stabilisierte Solarzellenwirkungsgrade bis zu 18,0% und eine vernachlässigbare Strom-Spannungs-Hysterese, ein üblicherweise ausgeprägtes Phänomen in diesem Zellaufbau. Das Ergebnis stellt Doppelschicht-Strukturen als generelles Konzept zur Herstellung effizienter und hochselektiver Kontakte heraus. Basierend auf diesem Erfolg wird das Konzept, Eigenschaften verschiedener Materialien miteinander zu kombinieren, anschließend auf den p-Typ Kontakt übertragen. Dazu wird ein neuartiger lochselektiver Kontakt vorgestellt, bestehend aus einer Mischung des kleinen Moleküls Spiro-OMeTAD [2,2‘7,7‘-tetrakis(N,N-di-p-methoxyphenylamin)-9,9‘-spirobifluoren] und dem dotierten Polymer PEDOT [poly(3,4-ethylendioxythiophen)]. PEDOT unterdrückt dabei bemerkenswerter Weiße die Ladungsträgerrekombination an der Perowskit-Grenzfläche, wodurch eine Erhöhung der Quasi-Fermi-Niveau-Aufspaltung im Absorber erzielt wird. Weiterhin wird gezeigt, dass die Zugabe von Spiro-OMeTAD in die PEDOT-Schicht die Lochextraktion an der Grenzfläche verbessert und folglich hohe Solarzellenwirkungsgrade von bis zu 16,8% ermöglicht. Schließlich wird das gewonnene Wissen über die Bedeutung der Kontakt- und Grenzflächeneigenschaften auf monolithische Perowskit-SHK-Tandemsolarzellen angewandt. Das Hauptziel dabei ist die Optimierung des oberen Kontaktstapels, bestehend aus dotiertem Spiro-OMeTAD/Molybdän Oxid (MoOx)/ITO, hin zu verbesserter Transparenz. Zwei verschiedene Ansätze werden hierzu verfolgt. Erstens, durch Feinanpassung der ITO-Abscheidung kann eine chemische Reduktion von MoOx verringert und die Transmission von MoOx/ITO-Schichtstapeln um 25% erhöht werden. Zweitens: Durch Ersetzen des Spiro-OMeTAD mit alternativen, transparenteren Lochtransportmaterialien sollen parasitäre Absorptionsverluste vermieden werden. Als potentielle Lochkontakte werden dabei PEDOT/Spiro-OMeTAD-Mischungen, CuSCN und PTAA [Poly(triarylamin)] analysiert. Experimentelle Untersuchungen liefern optimierte Dicken der Lochkontakt und MoOx Schichten und dienen der Validierung optischer Simulationen der Schichtstapel. Dies erlaubt im Folgenden eine realistische Abschätzung der maximal erreichbaren Tandemsolarzelleneffizienzen. Dabei stellt PTAA den vielversprechendsten Ersatz für Spiro-OMeTAD dar, mit einer prognostizierten Erhöhung des erreichbaren Tandem-Solarzellenwirkungsgrad um 2,9% relativ auf 26,5% absolut. Die Ergebnisse stellen zudem einen Leitfaden zur weiteren Effizienzsteigerung der Tandemsolarzellen-Technologie dar. KW - perovskite KW - silicon KW - tandem solar cell KW - interface engineering KW - contact layers KW - Perowskit KW - Silizium KW - Tandem-Solarzelle KW - Interface-Engineering KW - Kontaktschichten Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426428 ER - TY - THES A1 - Hornick, Thomas T1 - Impact of climate change effects on diversity and function of pelagic heterotrophic bacteria studied in large-scale mesocosm facilities T1 - Studien zum Einfluss des Klimawandels auf die Diversität und Funktion pelagischer heterotropher Bakterien in Mesokosmen N2 - Seit der Industriellen Revolution steigt die Konzentration von Kohlenstoffdioxid (CO2) und anderen Treibhausgasen in der Erdatmosphäre stetig an, wodurch wesentliche Prozesse im Erdsystem beeinflusst werden. Dies wird mit dem Begriff „Klimawandel“ umschrieben. Aquatische Ökosysteme sind sehr stark davon betroffen, da sie als Integral vieler Prozesse in einer Landschaft fungieren. Ziel dieser Doktorarbeit war zu bestimmen, wie verschiedene Auswirkungen des Klimawandels die Gemeinschaftsstruktur und Aktivität von heterotrophen Bakterien in Gewässern verändert, welche eine zentrale Rolle bei biogeochemischen Prozessen einnehmen. Diese Arbeit konzentriert sich auf zwei Aspekte des Klimawandels: (1) Ozeane nehmen einen Großteil des atmosphärischen CO2 auf, welches im Meerwasser das chemische Gleichgewicht des Karbonatsystems verschiebt („Ozeanversauerung“). (2) Durch kontinuierlichen Anstieg der Erdoberflächentemperatur werden Veränderungen im Klimasystem der Erde vorhergesagt, welche u. a. die Häufigkeit und Heftigkeit von episodischen Wetterereignissen (z.B. Stürme) verstärken wird. Insbesondere Sommer-Stürme sind dabei in der Lage die sommerliche Temperaturschichtung der Wassersäule in Seen zu zerstören. Beide Effekte des Klimawandels können weitreichende Auswirkungen auf Wasserchemie/-physik sowie die Verteilung von Organismen haben, was mittels Mesokosmen simuliert wurde. Dabei untersuchten wir den Einfluss der Ozeanversauerung auf heterotrophe bakterielle Prozesse in der Ostsee bei geringen Konzentrationen an gelösten Nährstoffen. Unsere Ergebnisse zeigen, dass Ozeanversauerungseffekte in Kombination mit Nährstofflimitation indirekt das Wachstum von heterotrophen Bakterien durch veränderte trophische Interaktionen beeinflussen können und potentiell zu einer Erhöhung der Autotrophie des Ökosystems führen. In einer weiteren Studie analysierten wir, wie Ozeanversauerung die Umsetzung und Qualität gelösten organischen Materials (DOM) durch heterotrophe Bakterien beeinflussen kann. Die Ergebnisse weisen jedoch darauf hin, dass Änderungen in der DOM-Qualität durch heterotrophe bakterielle Prozesse mit zunehmender Ozeanversauerung unwahrscheinlich sind. Desweiteren wurde der Einfluss eines starken Sommer-Sturmes auf den stratifizierten, oligotroph-mesotrophen Stechlinsee simuliert. Mittels oberflächlicher Durchmischung in Mesokosmen wurde die bestehende Thermokline zerstört und die durchmischte Oberflächenwasserschicht vergrößert. Dies änderte die physikalischen und chemischen Gradienten innerhalb der Wassersäule. Effekte der Einmischung von Tiefenwasser änderten in der Folge die Zusammensetzung der bakteriellen Gemeinschaftsstruktur und stimulierten das Wachstum filamentöser Cyanobakterien, die zu einer Cyanobakterien-Blüte führte und so maßgeblich die metabolischen Prozesse von heterotrophen Bakterien bestimmte. Unsere Studie gibt ein mechanistisches Verständnis, wie Sommer-Stürme bakterielle Gemeinschaften und Prozesse für längere Zeit während der sommerlichen Stratifizierung beeinflussen können. Die in dieser Arbeit präsentierten Ergebnisse zeigen Veränderungen bakterieller Gemeinschaften und Prozesse, welche mit dem einhergehenden Klimawandel erwartet werden können. Diese sollten bei Beurteilung klimarelevanter Fragen hinsichtlich eines zukünftigen Gewässer-managements Berücksichtigung finden. N2 - The unprecedented increase in atmospheric concentrations of carbon dioxide (CO2) and other greenhouse gases (GHG) by anthropogenic activities since the Industrial Revolution impacts on various earth system processes, commonly referred to as `climate change´ (CC). CC faces aquatic ecosystems with extreme abiotic perturbations that potentially alter the interrelations between functional autotrophic and heterotrophic plankton groups. These relations, however, modulate biogeochemical cycling and mediate the functioning of aquatic ecosystems as C sources or sinks to the atmosphere. The aim of this thesis was therefore to investigate how different aspects of CC influence community composition and functioning of pelagic heterotrophic bacteria. These organisms constitute a major component of biogeochemical cycling and largely determine the balance between autotrophic and heterotrophic processes. Due to the vast amount of potential CC impacts, this thesis focuses on the following two aspects: (1) Increased exchange of CO2 across the atmosphere-water interface and reaction of CO2 with seawater leads to profound shifts in seawater carbonate chemistry, commonly termed as `ocean acidification´ (OA), with consequences for organism physiology and the availability of dissolved inorganic carbon (DIC) in seawater. (2) The increase in atmospheric GHG concentration impacts on the efficiency with which the Earth cools to space, affecting global surface temperature and climate. With ongoing CC, shifts in frequency and severity of episodic weather events, such as storms, are expected that in particular might affect lake ecosystems by disrupting thermal summer stratification. Both aspects of CC were studied at the ecosystem-level in large-volume mesocosm experiments by using the Kiel Off-shore Mesocosms for Future Ocean Simulations (KOSMOS) deployed at different coastal marine locations, and the LakeLab facility in Lake Stechlin. We evaluated the impact of OA on heterotrophic bacterial metabolism in a brackish coastal ecosystem during low-nutrient summer months in the Baltic Sea. There are several in situ experiments that already assessed potential OA-induced changes in natural plankton communities at diverse spatial and seasonal conditions. However, most studies were performed at high phytoplankton biomass conditions, partly provoked by nutrient amendments. Our study highlights potential OA effects at low-nutrient conditions that are representative for most parts of the ocean and of particular interest in current OA research. The results suggest that during extended periods at low-nutrient concentrations, increasing pCO2 levels indirectly impact the growth balance of heterotrophic bacteria via trophic bacteria-phytoplankton interactions and shift the ecosystem to a more autotrophic system. Further work investigated how OA affects heterotrophic bacterial dissolved organic matter (DOM) transformation in two mesocsom studies, performed at different nutrient conditions. We observed similar succession patterns for individual compound pools during a phytoplankton bloom and subsequent accumulation of these compounds irrespective of the pCO2 treatment. Our results indicate that OA-induced changes in the dynamics of bacterial DOM transformation and potential impacts on DOM quality are unlikely. In addition, there have been no indications that in dependence of nutrient conditions, different amounts of photosynthetic organic matter are channelled into the more recalcitrant DOM pool. This provides novel insights into the general dynamics of the marine DOM pool. A fourth enclosure experiment in oligo-mesotrophic Lake Stechlin assessed the impact of a severe summer storm on lake bacterial communities during thermal stratification by artificially mixing. Mixing disrupted and lowered the thermocline, increasing the upper mixed layer and substantially changed water physical-chemical variables. Deep water entrainment and associated changes in water physical-chemical variables significantly affected relative bacterial abundances for about one week. Afterwards a pronounced cyanobacterial bloom developed in response to mixing which affected community assembly of heterotrophic bacteria. Colonization and mineralization of senescent phytoplankton cells by heterotrophic bacteria largely determined C-sequestration to the sediment. About six weeks after mixing, bacterial communities and measured activity parameters converged to control conditions. As such, summer storms have the potential to affect bacterial communities for a prolonged period during summer stratification. The results highlight effects on community assembly and heterotrophic bacterial metabolism that are associated to entrainment of deep water into the mixed water layer and assess consequences of an episodic disturbance event for the coupling between bacterial metabolism and autochthonous DOM production in large volume clear-water lakes. Altogether, this doctoral thesis reveales substantial sensitivities of heterotrophic bacterial metabolism and community structure in response to OA and a simulated summer storm event, which should be considered when assessing the impact of climate change on marine and lake ecosystems. KW - climate change KW - ocean acidification KW - Ozeanversauerung KW - Klimawandel KW - Gewässerökologie KW - heterotrophic bacteria Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-428936 ER - TY - THES A1 - Nikkhoo, Mehdi T1 - Analytical and numerical elastic dislocation models of volcano deformation processes T1 - Analytische und numerische Dislokationsmodelle von Verformungsprozessen an Vulkanen N2 - The advances in modern geodetic techniques such as the global navigation satellite system (GNSS) and synthetic aperture radar (SAR) provide surface deformation measurements with an unprecedented accuracy and temporal and spatial resolutions even at most remote volcanoes on Earth. Modelling of the high-quality geodetic data is crucial for understanding the underlying physics of volcano deformation processes. Among various approaches, mathematical models are the most effective for establishing a quantitative link between the surface displacements and the shape and strength of deformation sources. Advancing the geodetic data analyses and hence, the knowledge on the Earth’s interior processes, demands sophisticated and efficient deformation modelling approaches. Yet the majority of these models rely on simplistic assumptions for deformation source geometries and ignore complexities such as the Earth’s surface topography and interactions between multiple sources. This thesis addresses this problem in the context of analytical and numerical volcano deformation modelling. In the first part, new analytical solutions for triangular dislocations (TDs) in uniform infinite and semi-infinite elastic media have been developed. Through a comprehensive investigation, the locations and causes of artefact singularities and numerical instabilities associated with TDs have been determined and these long-standing drawbacks have been addressed thoroughly. This approach has then been extended to rectangular dislocations (RDs) with full rotational degrees of freedom. Using this solution in a configuration of three orthogonal RDs a compound dislocation model (CDM) has been developed. The CDM can represent generalized volumetric and planar deformation sources efficiently. Thus, the CDM is relevant for rapid inversions in early warning systems and can also be used for detailed deformation analyses. In order to account for complex source geometries and realistic topography in the deformation models, in this thesis the boundary element method (BEM) has been applied to the new solutions for TDs. In this scheme, complex surfaces are simulated as a continuous mesh of TDs that may possess any displacement or stress boundary conditions in the BEM calculations. In the second part of this thesis, the developed modelling techniques have been applied to five different real-world deformation scenarios. As the first and second case studies the deformation sources associated with the 2015 Calbuco eruption and 2013–2016 Copahue inflation period have been constrained by using the CDM. The highly anisotropic source geometries in these two cases highlight the importance of using generalized deformation models such as the CDM, for geodetic data inversions. The other three case studies in this thesis involve high-resolution dislocation models and BEM calculations. As the third case, the 2013 pre-explosive inflation of Volcán de Colima has been simulated by using two ellipsoidal cavities, which locate zones of pressurization in the volcano’s lava dome. The fourth case study, which serves as an example for volcanotectonics interactions, the 3-D kinematics of an active ring-fault at Tendürek volcano has been investigated through modelling displacement time series over the 2003–2010 time period. As the fifth example, the deformation sources associated with North Korea’s underground nuclear test in September 2017 have been constrained. These examples demonstrate the advancement and increasing level of complexity and the general applicability of the developed dislocation modelling techniques. This thesis establishes a unified framework for rapid and high-resolution dislocation modelling, which in addition to volcano deformations can also be applied to tectonic and humanmade deformations. N2 - Fortschritte in modernen geodätischen Techniken wie dem globalen Navigationssatellitensystem (GNSS) und dem Synthetic Apertur Radar (SAR), liefern Messungen der Oberflächenverformung mit einer beispiellosen Genauigkeit sowie zeitlichen und räumlichen Auflösungen, selbst an abgelegensten Vulkanen. Die Modellierung von hochqualitativen geodätischen Daten ist entscheidend für das Verständnis der zugrundeliegenden Physik der Verformungsprozesse an diesen Vulkanen. Um eine quantitative Verbindung zwischen den Oberflächenverschiebungen und der Form und Stärke von Verformungsquellen herzustellen, sind mathematische Modelle am effektivsten. Die Fortschnitte in geodätischen Datenanalysen und damit das Wissen über die Prozesse im Inneren der Erde erfordern ausgefeilte und effiziente Ansätze der Verformungsmodellierung. Die meisten dieser Modelle beruhen jedoch auf vereinfachten Annahmen der Geometrien der Verformungsquellen und ignorieren Komplexitäten wie die Erdoberflächentopographie und Wechselwirkungen zwischen mehreren Quellen. Diese Doktorarbeit befasst sich mit diesem Problem im Kontext der analytischen und numerischen Vulkanverformungsmodellierung. Im ersten Schritt wurden neue analytische Lösungen für dreieckige Dislokationen (triangular dislocation-TD) im gleichförmigen elastischen Voll- und Halbraum entwickelt. Durch eine umfassende Untersuchung wurden die Orte und Ursachen von TDs verbundenen Artefaktsingularitäten und numerischen Instabilitäten identifiziert und diese Problematik gelöst. Dieser Ansatz wurde dann auf rechteckige Dislokationen (rectangular dislocation-RD) mit vollen Rotationsfreiheitsgraden erweitert. Unter Verwendung dieser Lösung in einer Konfiguration von drei orthogonalen RDs wurde ein “Zusammengesetztes Dislokationsmodel” (compound dislocation model-CDM) entwickelt. Das CDM kann verallgemeinerte volumetrische und planare Verformungsquellen effizient darstellen. Somit ist das CDM für schnelle Inversionen in Frühwarnungssystemen relevant und kann auch für detaillierte Verformungsanalysen verwendet werden. Um komplexe Quellengeometrien und eine realistische Topographie in den Verformungsmodellen dieser Untersuchung zu berücksichtigen, wurde die Randelementmethode (REM) auf die neuen Lösungen für TDs angewendet. In diesem Schema werden komplexe Oberflächen als ein kontinuierliches Netz von DVs simuliert, die in den REM-Berechnungen beliebige Verschiebungs- oder Spannungsgrenzbedingungen aufweisen können. Als Beispiele wurden die entwickelten Modellierungstechniken auf fünf verschiedene reale Verformungsszenarien angewendet. Das erste und zweite Beispiel, die Calbuco-Eruption 2015 und die 2013–2016 Copahue-Aufwölbungsperiode, wurden durch die Verwendung des CDM näher beschrieben. Die hoch anisotropen Quellengeometrien in diesen beiden Fällen unterstreichen die Bedeutung der Verwendung verallgemeinerter Verformungsmodelle wie dem CDM für geodätische Dateninversionen. Weitere Fallstudien dieser Doktorarbeit umfassen hochauflösende Versetzungsmodelle und REM-Berechnungen. Die Aufwölbung 2013 am Volcán de Colima wurde simuliert, indem zwei ellipsoidale Quellen verwendet wurden, die Druckzonen im Lavadom des Vulkans lokalisieren. Danach, als Beispiel für Vulkantektonik-Interaktionen, wurde die 3-D-Kinematik einer aktiven Ringstörung am Tendürek-Vulkan durch Modellierung von InSAR-Zeitreihen über die Zeitperiode 2003–2010 simuliert. Als letztes Beispiel wurden die Verformungsquellen, die im Zusammenhang mit Nordkoreas unterirdischem Atomtest im September 2017 stehen, simuliert und der Einsatz der verwendeten Methoden auch in nicht vulkanischen Terrain gezeigt. Diese Beispiele zeigen den Fortschritt und das zunehmende Niveau der Komplexität und die allgemeine Anwendbarkeit der entwickelten Dislokationsmodellierungstechniken. Diese Doktorarbeit unterstreicht die Anwendung von neuer schneller und hochauflösender Dislokationsmodellierung, die neben Vulkanverformungen auch auf tektonische und vom Menschen verursachte Verformungen angewendet werden kann. KW - Volcano deformation modelling KW - Triangular dislocations (TDs) KW - Compound dislocation models (CDMs) KW - Inverse modelling KW - crustal deformations KW - Vulkanverformungsmodellierung KW - dreieckige Dislokationen (TDs) KW - Zusammengesetztes Dislokationsmodel (CDM) KW - inverse Modellirung KW - Krustenverformungen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429720 ER - TY - THES A1 - von Kaphengst, Dragana T1 - Project’s management quality in development cooperation T1 - Managementqualität von Projekten in der Entwicklungszusammenarbeit N2 - In light of the debate on the consequences of competitive contracting out of traditionally public services, this research compares two mechanisms used to allocate funds in development cooperation—direct awarding and competitive contracting out—aiming to identify their potential advantages and disadvantages. The agency theory is applied within the framework of rational-choice institutionalism to study the institutional arrangements that surround two different money allocation mechanisms, identify the incentives they create for the behavior of individual actors in the field, and examine how these then transfer into measurable differences in managerial quality of development aid projects. In this work, project management quality is seen as an important determinant of the overall project success. For data-gathering purposes, the German development agency, the Gesellschaft für Internationale Zusammenarbeit (GIZ), is used due to its unique way of work. Whereas the majority of projects receive funds via direct-award mechanism, there is a commercial department, GIZ International Services (GIZ IS) that has to compete for project funds. The data concerning project management practices on the GIZ and GIZ IS projects was gathered via a web-based, self-administered survey of project team leaders. Principal component analysis was applied to reduce the dimensionality of the independent variable to total of five components of project management. Furthermore, multiple regression analysis identified the differences between the separate components on these two project types. Enriched by qualitative data gathered via interviews, this thesis offers insights into everyday managerial practices in development cooperation and identifies the advantages and disadvantages of the two allocation mechanisms. The thesis first reiterates the responsibility of donors and implementers for overall aid effectiveness. It shows that the mechanism of competitive contracting out leads to better oversight and control of implementers, fosters deeper cooperation between the implementers and beneficiaries, and has a potential to strengthen ownership of recipient countries. On the other hand, it shows that the evaluation quality does not tremendously benefit from the competitive allocation mechanism and that the quality of the component knowledge management and learning is better when direct-award mechanisms are used. This raises questions about the lacking possibilities of actors in the field to learn about past mistakes and incorporate the finings into the future interventions, which is one of the fundamental issues of aid effectiveness. Finally, the findings show immense deficiencies in regard to oversight and control of individual projects in German development cooperation. KW - development cooperation KW - project management quality KW - evaluation KW - GIZ KW - knowledge management KW - Entwicklungszusammenarbeit KW - Qualität des Projektmanagements KW - Evaluierung KW - GIZ KW - Wissensmanagement Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430992 ER - TY - THES A1 - Laudan, Jonas T1 - Changing susceptibility of flood-prone residents in Germany T1 - Die Änderung der Anfälligkeit von Hochwassergefährdeten Anwohnern in Deutschland BT - mental coping and mitigation behaviour in the context of different flood types BT - Mentale Bewältigung und Schadensminderungsverhalten im Zusammenhang mit Verschiedenen Hochwassertypen N2 - Floods are among the most costly natural hazards that affect Europe and Germany, demanding a continuous adaptation of flood risk management. While social and economic development in recent years altered the flood risk patterns mainly with regard to an increase in flood exposure, different flood events are further expected to increase in frequency and severity in certain European regions due to climate change. As a result of recent major flood events in Germany, the German flood risk management shifted to more integrated approaches that include private precaution and preparation to reduce the damage on exposed assets. Yet, detailed insights into the preparedness decisions of flood-prone households remain scarce, especially in connection to mental impacts and individual coping strategies after being affected by different flood types. This thesis aims to gain insights into flash floods as a costly hazard in certain German regions and compares the damage driving factors to the damage driving factors of river floods. Furthermore, psychological impacts as well as the effects on coping and mitigation behaviour of flood-affected households are assessed. In this context, psychological models such as the Protection Motivation Theory (PMT) and methods such as regressions and Bayesian statistics are used to evaluate influencing factors on the mental coping after an event and to identify psychological variables that are connected to intended private flood mitigation. The database consists of surveys that were conducted among affected households after major river floods in 2013 and flash floods in 2016. The main conclusions that can be drawn from this thesis reveal that the damage patterns and damage driving factors of strong flash floods differ significantly from those of river floods due to a rapid flow origination process, higher flow velocities and flow forces. However, the effects on mental coping of people that have been affected by flood events appear to be weakly influenced by different flood types, but yet show a coherence to the event severity, where often thinking of the respective event is pronounced and also connected to a higher mitigation motivation. The mental coping and preparation after floods is further influenced by a good information provision and a social environment, which encourages a positive attitude towards private mitigation. As an overall recommendation, approaches for an integrated flood risk management in Germany should be followed that also take flash floods into account and consider psychological characteristics of affected households to support and promote private flood mitigation. Targeted information campaigns that concern coping options and discuss current flood risks are important to better prepare for future flood hazards in Germany. N2 - Hochwasser zählen zu den schadensträchtigsten Naturgefahren, die in Europa und Deutschland vorkommen. In Deutschland traten in den letzten Jahren einige sehr starke Hochwasser und Überflutungen auf, die die Einstufung von Hochwassern als gefährliche Naturgewalt bestätigten. Private Haushalte leiden unter finanziellen und persönlichen Verlusten und sind sogar teilweise mehrfach betroffen. Folgenreiche Hochwasser, die im Gedächtnis blieben, waren insbesondere das Elbe-Hochwasser im Sommer 2002 sowie Überschwemmungen mit Schwerpukten an Elbe und Donau im Juni 2013. Im Mai und Juni 2016 kam es zu heftigen Unwettern über Zentraleuropa, während insbesondere Süddeutschland von Starkregen und Sturzfluten betroffen war. Hierbei wurden vereinzelte Ortschaften in Baden-Württtemberg (vor allem Braunsbach) und Bayern (vor allem Simbach am Inn) von extremen Sturzfluten beeinträchtigt und Bauwerke stark beschädigt. Als Reaktion auf die Flusshochwasser 2002 und 2013 wurde unter anderem das aktuelle Hochwasserrisikomanagement in Deutschland so angepasst, dass neben übergeordneten und technischen Hochwasserschutzmaßnahmen auch auf lokaler Ebene Maßnahmen ergriffen werden müssen. Diese umfassen Hochwasservorsorgemaßnahmen, die betroffene Haushalte selbst implementieren sollen. Neben strukturellen Maßnahmen wie z.B. der Verlegung von Heizung, Elektronik und Öltank in nicht-gefährdete Stockwerke sowie dem Schutz des Gebäudes vor Eindringen von Wasser, können auch nichtstrukturelle Maßnahmen, wie z.B. eine angepasste Wohnraumnutzung und das Verwenden von geeigneter Inneneinrichtung, ergriffen werden, um Hochwasserschäden signifikant zu verringern. Bis heute ist es jedoch unklar, aus welchen Gründen sich die betroffenen Menschen für Hochwasservorsorgemaßnahmen entscheiden und wie die individuelle Motivation, Maßnahmen zu implementieren, verstärkt werden kann. Neben dem Wissen um die eigene Hochwassergefährdung ist anzunehmen, dass die Selbsteinschätzung in Bezug auf einen wirksamen Umgang mit Hochwassern ausschlaggebend für die Motivation zur Vorsorge ist. Außerdem kann davon ausgegangen werden, dass verschiedene Hochwassertypen wie Flusshochwasser und Sturzfluten mit ihren unterschiedlichen Dynamiken unterschiedliche Auswirkungen auf die mentale Bewältigung und somit auch auf das Vorsorgeverhalten hervorrufen. Die vorliegende Arbeit hat demnach zum Ziel, Flusshochwasser und Sturzfluten in Deutschland miteinander zu vergleichen, wobei der Fokus auf schadenstreibenden Faktoren und psychologischen Auswirkungen auf betroffene Haushalte liegt. Weiterhin sollen damit verbundenes Vorsorgeverhalten untersucht und gegebenenfalls Handlungsempfehlungen für das Hochwasserrisikomanagement abgeleitet werden, das einerseits psychologische Charakteristika und andererseits Sturzfluten als signifikante Naturgefahr in Deutschland miteinbezieht. Hierbei werden sozio-ökonomische, zwischenmenschliche und psychologische Variablen von Haushalten ausgewertet, die 2013 und 2016 von Flusshochwassern und Sturzfluten betroffen waren. Dabei kommen verschiedene Methoden (Regressionen, Bayessche Statistik) und Modelle (Protection Motivation Theory) zum Einsatz, um Verbindungen zwischen den Variablen aufzeigen. Die Ergebnisse veranschaulichen erstens, dass Flusshochwasser und Sturzfluten zwar unterschiedliche Schäden an Gebäuden aufgrund verschiedener Flutdynamiken hervorrufen können, was sich bei Betroffenen jedoch nicht in unterschiedlichen psychologischen Auswirkungen widerspiegelt. Vielmehr ist die jeweilige Stärke und Schwere des Hochwassers entscheidend für charakteristische Ausprägungen von psychologischen Variablen. In diesem Falle sorgt eine stärkere Flut dafür, dass häufiger an das jeweilige Ereignis gedacht wird, während die Motivation zur Eigenvorsorge in solchen Fällen erhöht scheint. Zweitens sind ein soziales Umfeld, in dem bereits Vorsorgemaßnahmen implementiert wurden, sowie hilfreiche Informationen für geeignete Maßnahmen, deren Kosten und Aufklärung über das aktuelle Hochwasserrisiko förderlich für die Motivation, private Vorsorge zu betreiben. Ein aktuelles Hochwasserrisikomanagement sollte demnach auch Sturzfluten als mögliches Risiko in Deutschland miteinbeziehen und mehr in die Aufklärung und private Unterstützung bei Hochwassern investieren. Ein besseres Verstehen von psychologischen und mentalen Auswirkungen von verschiedenen Hochwassertypen hat den Vorteil, dass Hilfe und Informationskampagnen individuell und effizient gestaltet, Schäden minimiert und Schadensprognosen aufgrund der genaueren Kenntnisse über Vorsorgeverhalten verbessert werden können. KW - floods KW - psychology KW - flash floods KW - Hochwasser KW - Psychologie KW - Sturzfluten Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434421 ER - TY - THES A1 - Numberger, Daniela T1 - Urban wastewater and lakes as habitats for bacteria and potential vectors for pathogens T1 - Urbane Abwässer und Seen als Habitat für Bakterien und potentielle Vektoren für Krankheitserreger N2 - Wasser ist lebensnotwendig und somit eine essentielle Ressource. Jedoch sind unsere Süßwasser-Ressourcen begrenzt und ihre Erhaltung daher besonders wichtig. Verschmutzungen mit Chemikalien und Krankheitserregern, die mit einer wachsenden Bevölkerung und Urbanisierung einhergehen, verschlechtern die Qualität unseres Süßwassers. Außerdem kann Wasser als Übertragungsvektor für Krankheitserreger dienen und daher wasserbürtige Krankheiten verursachen. Der Leibniz-Forschungsverbund INFECTIONS‘21 untersuchte innerhalb der interdisziplinären Forschungsgruppe III - „Wasser", Gewässer als zentralen Mittelpunkt für Krankheiterreger. Dabei konzentrierte man sich auf Clostridioides difficile sowie aviäre Influenza A-Viren, von denen angenommen wird, dass sie in die Gewässer ausgeschieden werden. Ein weiteres Ziel bestand darin, die bakterielle Gemeinschaften eines Klärwerkes der deutschen Hauptstadt Berlin zu charakterisieren, um anschließend eine Bewertung des potentiellen Gesundheitsrisikos geben zu können. Bakterielle Gemeinschaften des Roh- und Klarwassers aus dem Klärwerk unterschieden sich signifikant voneinander. Der Anteil an Darm-/Fäkalbakterien war relativ niedrig und potentielle Darmpathogene wurden größtenteils aus dem Rohwasser entfernt. Ein potentielles Gesundheitsrisiko konnte allerdings von potentiell pathogenen Legionellen wie L. lytica festgestellt werden, deren relative Abundanz im Klarwasser höher war als im Rohwasser. Es wurden außerdem drei C. difficile-Isolate aus den Klärwerk-Rohwasser und einem städtischen Badesee in Berlin (Weisser See) gewonnen und sequenziert. Die beiden Isolate aus dem Klärwerk tragen keine Toxin-Gene, wohingegen das Isolat aus dem See Toxin-Gene besitzt. Alle drei Isolate sind sehr nah mit humanen Stämmen verwandt. Dies deutet auf ein potentielles, wenn auch sporadisches Gesundheitsrisiko hin. (Aviäre) Influenza A-Viren wurden in 38.8% der untersuchten Sedimentproben mittels PCR detektiert, aber die Virusisolierung schlug fehl. Ein Experiment mit beimpften Wasser- und Sedimentproben zeigte, dass für die Isolierung aus Sedimentproben eine relativ hohe Viruskonzentration nötig ist. In Wasserproben ist jedoch ein niedriger Titer an Influenza A-Viren ausreichend, um eine Infektion auszulösen. Es konnte zudem auch festgestellt werden, dass sich „Madin-Darby Canine Kidney (MDCK)―-Zellkulturen im Gegensatz zu embryonierten Hühnereiern besser eignen, um Influenza A-Viren aus Sediment zu isolieren. Zusammenfassend lässt sich sagen, dass diese Arbeit mögliche Gesundheitsrisiken aufgedeckt hat, wie etwa durch Legionellen im untersuchten Berliner Klärwerk, deren relative Abundanz in geklärtem Abwasser höher ist als im Rohwasser. Desweiteren wird indiziert, dass Abwasser und Gewässer als Reservoir und Vektor für pathogene Organismen dienen können, selbst für nicht-typische Wasser-Pathogene wie C. difficile. N2 - Water is essential to life and thus, an essential resource. However, freshwater resources are limited and their maintenance is crucial. Pollution with chemicals and pathogens through urbanization and a growing population impair the quality of freshwater. Furthermore, water can serve as vector for the transmission of pathogens resulting in water-borne illness. The Interdisciplinary Research Group III – "Water" of the Leibniz alliance project INFECTIONS‘21 investigated water as a hub for pathogens focusing on Clostridioides difficile and avian influenza A viruses that may be shed into the water. Another aim of this study was to characterize the bacterial communities in a wastewater treatment plant (WWTP) of the capital Berlin, Germany to further assess potential health risks associated with wastewater management practices. Bacterial communities of WWTP inflow and effluent differed significantly. The proportion of fecal/enteric bacteria was relatively low and OTUs related to potential enteric pathogens were largely removed from inflow to effluent. However, a health risk might exist as an increased relative abundance of potential pathogenic Legionella spp. such as L. lytica was observed. Three Clostridioides difficile isolates from wastewater inflow and an urban bathing lake in Berlin (‗Weisser See‘) were obtained and sequenced. The two isolates from the wastewater did not carry toxin genes, whereas the isolate from the lake was positive for the toxin genes. All three isolates were closely related to human strains. This indicates a potential, but rather sporadic health risk. Avian influenza A viruses were detected in 38.8% of sediment samples by PCR, but virus isolation failed. An experiment with inoculated freshwater and sediment samples showed that virus isolation from sediment requires relatively high virus concentrations and worked much better in Madin-Darby Canine Kidney (MDCK) cell cultures than in embryonated chicken eggs, but low titre of influenza contamination in freshwater samples was sufficient to recover virus. In conclusion, this work revealed potential health risks coming from bacterial groups with pathogenic potential such as Legionella spp. whose relative abundance is higher in the released effluent than in the inflow of the investigated WWTP. It further indicates that water bodies such as wastewater and lake sediments can serve as reservoir and vector, even for non-typical water-borne or water-transmitted pathogens such as C. difficile. KW - water KW - Wasser KW - bacteria KW - Bakterien KW - influenza A viruses KW - Influenza A Viren KW - pathogens KW - Krankheitserreger Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437095 ER - TY - THES A1 - Lozada Gobilard, Sissi Donna T1 - From genes to communities: Assessing plant diversity and connectivity in kettle holes as metaecosystems in agricultural landscapes T1 - Von Genen zu Gemeinschaften: Bewertung der Pflanzenvielfalt und Konnektivität in Söllen als Metaökosystem in Agrarlandschaften N2 - Species assembly from a regional pool into local metacommunities and how they colonize and coexist over time and space is essential to understand how communities response to their environment including abiotic and biotic factors. In highly disturbed landscapes, connectivity of isolated habitat patches is essential to maintain biodiversity and the entire ecosystem functioning. In northeast Germany, a high density of the small water bodies called kettle holes, are good systems to study metacommunities due to their condition as “aquatic islands” suitable for hygrophilous species that are surrounded by in unsuitable matrix of crop fields. The main objective of this thesis was to infer the main ecological processes shaping plant communities and their response to the environment, from biodiversity patterns and key life-history traits involved in connectivity using ecological and genetic approaches; and to provide first insights of the role of kettle holes harboring wild-bee species as important mobile linkers connecting plant communities in this insular system. t a community level, I compared plant diversity patterns and trait composition in ephemeral vs. permanent kettle holes). My results showed that types of kettle holes act as environmental filers shaping plant diversity, community-composition and trait-distribution, suggesting species sorting and niche processes in both types of kettle holes. At a population level, I further analyzed the role of dispersal and reproductive strategies of four selected species occurring in permanent kettle holes. Using microsatellites, I found that breeding system (degree of clonality), is the main factor shaping genetic diversity and genetic divergence. Although, higher gene flow and lower genetic differentiation among populations in wind vs. insect pollinated species was also found, suggesting that dispersal mechanisms played a role related to gene flow and connectivity. For most flowering plants, pollinators play an important role connecting communities. Therefore, as a first insight of the potential mobile linkers of these plant communities, I investigated the diversity wild-bees occurring in these kettle holes. My main results showed that local habitat quality (flower resources) had a positive effect on bee diversity, while habitat heterogeneity (number of natural landscape elements surrounding kettle holes 100–300m), was negatively correlated. This thesis covers from genetic flow at individual and population level to plant community assembly. My results showed how patterns of biodiversity, dispersal and reproduction strategies in plant population and communities can be used to infer ecological processes. In addition, I showed the importance of life-history traits and the relationship between species and their abiotic and biotic interactions. Furthermore, I included a different level of mobile linkers (pollinators) for a better understanding of another level of the system. This integration is essential to understand how communities respond to their surrounding environment and how disturbances such as agriculture, land-use and climate change might affect them. I highlight the need to integrate many scientific areas covering from genes to ecosystems at different spatiotemporal scales for a better understanding, management and conservation of our ecosystems. N2 - Die Zusammenstellung regionaler Artgemeinschaften in eine lokale Metagemeinschaft ist essentiell für das Verständnis artspezifischer Reaktionen auf ihre biotische und abiotische Umwelt als auch, wie sie diese in zeitlichem und räumichem Umfang besiedeln und koexistieren. In fragmentierten Landschaften ist die Verknüpfung isolierter Habitate (Konnektivität) nötig, um die Biodiversität und Funktionalität von Ökosystemen aufrecht zu erhalten. Der Nordosten Deutschlands ist durch eine hohe Dichte von Kleinstgewässern, die solch isolierte Habitate darstellen, charakterisiert. In einer Matrix aus Agrarfeldern dienen diese sogenannten Sölle aquatischen Arten als „Habitatsinsel“. Aufgrund dieser Landschaftsstruktur stellen sie ein geeignetes Untersuchungsgebiet für Metagemeinschaften dar. Das Ziel diser Arbeit ist es ökologische Prozesse zu untersuchen, die zur Vegetationszusammensetzung und deren Reaktion auf sich ändernde Umweltbedingungen führen. Mittels ökologscher und genetischer Methoden wird dies auf der Grundlage von Biodiversitätsmustern und Lebenszyklusmerkmalen untersucht, die in die Konnektivität involviert sind. Auf Pflanzengemeinschaftsebene wurden Diversitätsmuster und Merkmalszusammensetzungen in ephemeren und permanenten Söllen verglichen. Die Ergebnisse zeigen, dass die unterschiedlichen Typen von Söllen als Umweltfilter agieren, die die pflanzliche Artenvielfalt, Gemeinschaftszusammensetzung und Merkmalsverteilung beeinflussen. Dies führt zu der Schlussfolgerung, dass „Species-sorting“ und Prozesse der Nichenbildung in beiden Typen von Söllen vorkommen. Auf Populationsebene wird der Ausbreitungsmeachnismus sowie die Reproduktionsstrategie vier verschiedener Pflanzenarten untersucht. Durch Mikrosatellitenanalysen wird gezeigt, dass der Grad der Klonalität den größten Einfluss auf die genetischen Diversität und den Genfluss hat. Zusätzlich weisen molekulare Analysen auf ein geringes Maß an genetischen Unterschieden zwischen Populationen windbestäubter Arten im Vergleich zu insektenbestäubter Arten hin. Dies bedeutet, dass der Ausbreitungsmechanismus einer Art einen grundlegenden Einfluss auf den Genfluss und die Konnektivität von Populationen hat. Für viele blühende Pflanzen, spielen Bestäuber, wie Wildbienen, eine wesentliche Rolle bei der Vernetzung isolierter Habitate. Um das Potential dieser mobilen Linker zu untersuchen, wird die Wildbienendiversität verschiedener Sölle analysiert. Dadurch konnte gezeigt werden, dass die lokale Habitatsqualität (Blütenressourcen) einen positiven Effekt auf die Artenvielfalt hat, während die Habitatsheterogenität (Anzahl von natürlichen Landschaftselementen in unmittelbarer Nähe) eine negative Korrelation aufweist. Diese Ergebnisse unterstreichen die Bedeutung von Wildbienenpopulationen als mobile Linker zwischen isolierten Habitaten. Die Ergebnisse dieser Arbeit zeigen, wie durch Biodiversitätsmuster, Verbreitungs- und Reproduktionsstrategien pflanzlicher Gemeinschaften auf ökologische Prozesse rückgeschlossen werden kann. Des Weiteren ist die Wichtigkeit der Lebenszyklusmerkmale zwischen Arten und deren Umweltinteraktionen verdeutlicht. Die Berücksichtigung mobiler Linker (Bestäuber) ermöglicht eine zusätzliche Betrachtungsebene. Durch diese Arbeit wird die Notwendigkeit hervorgehoben, verschiedene wissenschaftliche Bereiche, wie Genetik und Ökologie, zu vereinen, um ein allumfassendes Verständnis unserer Ökosysteme zu erlangen und somit zu ihrem Schutz beizutragen. KW - connectivity KW - Konnektivität KW - plant diversity KW - Pflanzendiversitaet Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437684 ER - TY - THES A1 - Appiah-Dwomoh, Edem Korkor T1 - Postural control and back pain in adolescent athletes T1 - Posturale Kontrolle und Rückenschmerzen bei Nachwuchsathleten N2 - Back pain is a problem in adolescent athletes affecting postural control which is an important requirement for physical and daily activities whether under static or dynamic conditions. One leg stance and star excursion balance postural control tests are effective in measuring static and dynamic postural control respectively. These tests have been used in individuals with back pain, athletes and non-athletes without first establishing their reliabilities. In addition to this, there is no published literature investigating dynamic posture in adolescent athletes with back pain using the star excursion balance test. Therefore, the aim of the thesis was to assess deficit in postural control in adolescent athletes with and without back pain using static (one leg stance test) and dynamic postural (SEBT) control tests. Adolescent athletes with and without back pain participated in the study. Static and dynamic postural control tests were performed using one leg stance and SEBT respectively. The reproducibility of both tests was established. Afterwards, it was determined whether there was an association between static and dynamic posture using the measure of displacement of the centre pressure and reach distance respectively. Finally, it was investigated whether there was a difference in postural control in adolescent athletes with and without back pain using the one leg stance test and the SEBT. Fair to excellent reliabilities was recorded for the static (one leg stance) and dynamic (star excursion balance) postural control tests in the subjects of interest. No association was found between variables of the static and dynamic tests for the adolescent athletes with and without back pain. Also, no statistically significant difference was obtained between adolescent athletics with and without back pain using the static and dynamic postural control test. One leg stance test and SEBT can be used as measures of postural control in adolescent athletes with and without back pain. Although static and dynamic postural control might be related, adolescent athletes with and without back pain might be using different mechanisms in controlling their static and dynamic posture. Consequently, static and dynamic postural control in adolescent athletes with back pain was not different from those without back pain. These outcome measures might not be challenging enough to detect deficit in postural control in our study group of interest. N2 - Rückenschmerzen sind ein zunehmendes Problem bei Nachwuchsathleten und beeinflussen die statische und dynamische posturale Kontrolle, die eine wichtige Voraussetzung für sportliche als auch tägliche Aktivitäten darstellt. Der Stand auf einem Bein und der Star Excursion Balance Test (SEBT) sind effektive Tests zur Beurteilung der statischen bzw. dynamischen posturalen Kontrolle. Beide Tests wurden bereits bei Populationen mit Rückenschmerzen, Sportlern und Nicht-Sportlern angewandt, ohne vorherige Reliabilitätsmessung. Des Weiteren wurde bisher die dynamische posturale Kontrolle mittels des SEBT bei Nachwuchsathleten mit Rückenschmerzen nicht untersucht. Daher ist das Ziel dieser Arbeit die posturale Kontrolle von Nachwuchsathleten mit Rückenschmerzen mit Hilfe eines statischen (Einbeinstand) und eines dynamischen (SEBT) Tests zu beurteilen. Nachwuchsathleten mit und ohne Rückenschmerzen wurden mit Hilfe der beiden Tests untersucht. Die Reproduzierbarkeit beider Untersuchungen wurde durch vorhergehende Messungen sichergestellt. Anschließend wurde untersucht, ob es einen Zusammenhang zwischen der statischen und dynamischen posturalen Kontrolle gibt, indem die Abweichungen des Druckmittelpunktes (center of pressure) auf einer Kraftmessplatte mit der erreichten Reichweite beim SEBT verglichen wurden. Abschließend konnte untersucht werden ob es einen Unterschied in der posturalen Kontrolle zwischen Nachwuchsathleten mit und ohne Rückenschmerzen gibt. Es konnten moderate bis hervorragende Reliabilitätswerte für den statischen (Einbeinstand) und dynamischen (SEBT) Test der posturalen Kontrolle in der untersuchten Zielgruppe festgestellt werden. Es konnte kein Zusammenhang zwischen den Parametern des statischen und des dynamischen Tests bei Nachwuchsathleten mit und ohne Rückenschmerzen gefunden werden. Weiterhin gab es keinen signifikanten Unterschied zwischen den Parametern der statischen und dynamischen Haltungskontrolle in der beschriebenen Population. Der Einbeinstand auf der Kraftmessplatte und der SEBT können zur Beurteilung der Haltungskontrolle bei Nachwuchsathleten mit und ohne Rückenschmerzen eingesetzt werden. Der fehlende Zusammenhang zwischen den Parametern der statischen und dynamischen Haltungskontrolle könnte darauf zurückzuführen sein, dass verschiedene neuromuskuläre Mechanismen für die Regulierung der statischen und dynamischen Haltungskontrolle bei den Athleten verantwortlich sein könnten. Demzufolge gab es keinen Unterschied, weder in der statischen noch in der dynamischen posturalen Kontrolle, zwischen Nachwuchsathleten mit und ohne Rückenschmerzen. Anspruchsvollere Aufgaben sind nötig um die Defizite in der Haltungskontrolle von Nachwuchsathleten zu untersuchen. KW - postural control KW - adolescent athletes KW - back pain KW - one leg stance KW - star excursion balance test KW - posturale Kontrolle KW - Nachwuchsathleten KW - Rückenschmerzen KW - einbeiniger Standtest Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442692 ER - TY - THES A1 - Stutter Garcia, Ana T1 - The use of grammatical knowledge in an additional language T1 - Die Verwendung des grammatischen Wissens in einer weiteren Fremdsprache BT - effects of native and non-native linguistic constraints BT - der Effekt von muttersprachlichen und nicht-muttersprachlichen linguistischen Beschränkungen N2 - This thesis investigates whether multilingual speakers’ use of grammatical constraints in an additional language (La) is affected by the native (L1) and non-native grammars (L2) of their linguistic repertoire. Previous studies have used untimed measures of grammatical performance to show that L1 and L2 grammars affect the initial stages of La acquisition. This thesis extends this work by examining whether speakers at intermediate levels of La proficiency, who demonstrate mature untimed/offline knowledge of the target La constraints, are differentially affected by their L1 and L2 knowledge when they comprehend sentences under processing pressure. With this purpose, several groups of La German speakers were tested on word order and agreement phenomena using online/timed measures of grammatical knowledge. Participants had mirror distributions of their prior languages and they were either L1English/L2Spanish speakers or L1Spanish/L2English speakers. Crucially, in half of the phenomena the target La constraint aligned with English but not with Spanish, while in the other half it aligned with Spanish but not with English. Results show that the L1 grammar plays a major role in the use of La constraints under processing pressure, as participants displayed increased sensitivity to La constraints when they aligned with their L1, and reduced sensitivity when they did not. Further, in specific phenomena in which the L2 and La constraints aligned, increased L2 proficiency resulted in an enhanced sensitivity to the La constraint. These findings suggest that both native and non-native grammars affect how speakers use La grammatical constraints under processing pressure. However, L1 and L2 grammars differentially influence on participants’ performance: While L1 constraints seem to be reliably recruited to cope with the processing demands of real-time La use, proficiency in an L2 can enhance sensitivity to La constraints only in specific circumstances, namely when L2 and La constraints align. N2 - In dieser Dissertation wird untersucht, ob mehrsprachige Personen, wenn sie grammatikalische Beschränkungen in einer zusätzlichen Sprache (La) verarbeiten, von ihrer Muttersprache (L1) und/oder ihrer Nicht-Muttersprache (L2) beeinflusst werden. Frühere Studien haben durch Messungen ohne Zeitangabe (offline Messungen) der grammatikalischen Leistung gezeigt, dass die L1- und L2-Grammatik die Anfangsstadien des La-Spracherwerbs beeinflusst. In dieser Dissertation wird diese Arbeit auf zweierlei Weise erweitert. Einerseits wird untersucht, ob die L1- und L2-Grammatik die La auf unterschiedliche Weise beeinflusst, wenn mehrsprachige Personen La Sätze unter Druck verarbeiten müssen. Anderseits werden in der Dissertation nur Personen mit mittleren La-Kenntnissen getestet, die ausgereifte Kenntnisse über die getesteten La Phänomene in offline Messungen vorwiesen. Zu diesem Zweck wurden mehrere Gruppen von La Deutschsprachlern auf Wortreihenfolgen- und Konkordanz-Phänomene getestet, wobei online Messungen der grammatikalischen Fähigkeiten verwendet wurden. Die Teilnehmer waren entweder L1Englisch / L2Spanisch oder L1Spanisch / L2Englisch Sprecher. Entscheidend ist, dass die Hälfte der getesteten Beschränkungen auf Englisch, aber nicht auf Spanisch ausgerichtet war, während die andere Hälfte wiederum auf Spanisch, aber nicht auf Englisch ausgerichtet war. Die Ergebnisse zeigen, dass die L1-Grammatik eine wichtige Rolle bei der Verarbeitung von La-Beschränkungen unter Zeitdruck spielt. Die Teilnehmer zeigten eine erhöhte Sensibilität gegenüber La-Beschränkungen, wenn diese mit ihrer eigenen L1 übereinstimmten. Eine verringerte Sensibilität zeigt sich wiederum, wenn die Übereinstimmung nicht vorliegt. Ferner führte eine erhöhte L2-Kompetenz, unter bestimmten Beschränkungen, bei denen die L2 und La übereinstimmen, zu einer erhöhten Sensibilität gegenüber der La-Beschränkung. Diese Ergebnisse legen nahe, dass sowohl die muttersprachliche als auch die nicht muttersprachliche Grammatik die Verwendung von La Beschränkungen unter Verarbeitungsdruck beeinflusst. L1- und L2-Grammatik wirkt sich jedoch unterschiedlich auf die Leistungen der Teilnehmer aus. Während die L1 Grammatik zuverlässig angewendet wird, um den Verarbeitungsanforderungen der Echtzeit La-Verwendung gerecht zu werden, kann die Kenntnis einer L2 die Sensibilität gegenüber La-Beschränkungen nur unter bestimmten Umständen verbessern. Nämlich dann wenn die L2- und La-Beschränkungen parallel ausgerichtet sind. KW - additional language KW - cross-linguistic influence KW - multilingualism KW - grammatical knowledge KW - zusätzliche Sprache KW - sprachübergreifender Einfluss KW - Multilingualität KW - Grammatikkenntnisse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469326 ER - TY - THES A1 - Codeco, Marta Sofia Ferreira T1 - Constraining the hydrology at Minas da Panasqueira W-Sn-Cu deposit, Portugal T1 - Bestimmung der Hydrologie der W-Sn-Cu Lagerstätte in der Miene Panasqueira, Portugal T1 - Considerações sobre a hidrologia do depósito de W-Sn-Cu da Panasqueira, Portugal N2 - This dissertation combines field and geochemical observations and analyses with numerical modeling to understand the formation of vein-hosted Sn-W ore in the Panasqueira deposit of Portugal, which is among the ten largest worldwide. The deposit is located above a granite body that is altered by magmatic-hydrothermal fluids in its upper part (greisen). These fluids are thought to be the source of metals, but that was still under debate. The goal of this study is to determine the composition and temperature of hydrothermal fluids at Panasqueira, and with that information to construct a numerical model of the hydrothermal system. The focus is on analysis of the minerals tourmaline and white mica, which formed during mineralization and are widespread throughout the deposit. Tourmaline occurs mainly in alteration zones around mineralized veins and is less abundant in the vein margins. White mica is more widespread. It is abundant in vein margins as well as alteration zones, and also occurs in the granite greisen. The laboratory work involved in-situ microanalysis of major- and trace elements in tourmaline and white mica, and boron-isotope analysis in both minerals by secondary ion mass spectrometry (SIMS). The boron-isotope composition of tourmaline and white mica suggests a magmatic source. Comparison of hydrothermally-altered and unaltered rocks from drill cores shows that the ore metals (W, Sn, Cu, and Zn) and As, F, Li, Rb, and Cs were introduced during the alteration. Most of these elements are also enriched in tourmaline and mica, which confirms their potential value as exploration guides to Sn-W ores elsewhere. The thermal evolution of the hydrothermal system was estimated by B-isotope exchange thermometry and the Ti-in-quartz method. Both methods yielded similar temperatures for the early hydrothermal phase: 430° to 460°C for B-isotopes and 503° ± 24°C for Ti-in-quartz. Mineral pairs from a late fault zone yield significantly lower median temperatures of 250°C. The combined results of thermometry with variations in chemical and B-isotope composition of tourmaline and mica suggest that a similar magmatic-hydrothermal fluid was active at all stages of mineralization. Mineralization in the late stage shows the same B-isotope composition as in the main stage despite a ca. 250°C cooling, which supports a multiple injection model of magmatic-hydrothermal fluids. Two-dimensional numerical simulations of convection in a multiphase NaCl hydrothermal system were conducted: (a) in order to test a new approach (lower dimensional elements) for flow through fractures and faults and (b) in order to identify conditions for horizontal fluid flow as observed in the flat-lying veins at Panasqueira. The results show that fluid flow over an intrusion (heat and fluid source) develops a horizontal component if there is sufficient fracture connectivity. Late, steep fault zones have been identified in the deposit area, which locally contain low-temperature Zn-Pb mineralization. The model results confirm that the presence of subvertical faults with enhanced permeability play a crucial role in the ascent of magmatic fluids to the surface and the recharge of meteoric waters. Finally, our model results suggest that recharge of meteoric fluids and mixing processes may be important at later stages, while flow of magmatic fluids dominate the early stages of the hydrothermal fluid circulation. N2 - In dieser Dissertation werden Feldbeobachtungen und geochemische Analysen mit numerischer Modellierung kombiniert, um die Bildung von Sn-W-Cu- Mineralisation in der Erzlagerstätte Panasqueira in Portugal zu verstehen. Panasqueira gehört zu den 10 größten Sn-W Lagerstätten weltweit, sie befindet sich oberhalb eines Granitkörpers, der im oberen Bereich durch magmatisch-hydrothermale Fluide alteriert ist (Greisenbildung). Es wird postuliert, dass magmatisch Fluide die Quelle für Metalle sind, das wurde aber bislang nicht eindeutig bestätigt. Das Ziel dieser Arbeiten ist es, die Zusammensetzung und Temperatur der hydrothermalen Fluide in Panasqueira zu bestimmen und mit diesen Informationen ein numerisches Modell des hydrothermalen Systems zu erstellen. Der Schwerpunkt liegt auf der Untersuchung von Turmalin und Hellglimmer, welche bei der Mineralisation gebildet wurden und in der gesamten Lagerstätte weit verbreitet sind. Turmalin kommt hauptsächlich in Alterationszonen um die vererzten Quarzgänge vor, sowie weniger häufig im Randbereich der Gänge. Hellglimmer dagegen ist stärker verbreitet. Es kommt sowohl in Quarzgangrändern und Alterationszonen vor als auch im Greisenkörper. Die Laborarbeiten umfassten in-situ Mikroanalytik der Haupt- und Spurenelementgehalte von Turmalin und Hellglimmer sowie die Analyse der Bor-isotopen in beiden Mineralen mittels Sekundärionen-Massenspektrometrie (SIMS). Die Bor-Isotopenzusammensetzung von Turmalin und Hellglimmer deuten auf eine magmatische Quelle hin. Der Vergleich von hydrothermal-überprägten mit unveränderten Gesteinsproben aus Bohrkernen zeigt, dass die Erzmetalle (W, Sn, Cu, Zn) sowie As, F, Li, Rb und Cs während der Alteration hinzugefügt wurden. Die meisten dieser Elemente sind auch in Turmalin und Glimmer angereichert, womit ihre Nützlichkeit als Explorationshilfe für Sn-W-Erze in anderen Gebieten bestätigt wird. Die thermische Entwicklung des Hydrothermalsystems wurde durch B-Isotopenaustausch-Thermometrie sowie durch die Ti-in-Quarz- Methode bestimmt. Beide Methoden ergaben für die frühe Hydrothermalphase ähnliche Temperaturen: 430° - 460°C für B-Isotope und 503° ± 24°C für Ti-in-Quarz. Mineral Paare aus einer späten Verwerfungszone ergaben deutlich niedrigere B-Isotopentemperaturen von durchschnittlich 250°C. Die Kombination der Thermometrie mit den chemischen und B-Isotopenvariationen in Turmalin und Glimmer deutet darauf hin, dass ein ähnliches magmatisch-hydrothermales Fluid in allen Mineralisierungsstufen beteiligt war. Die Mineralisierung im späten Stadium zeigt dieselbe B-Isotopenzusammensetzung wie die Hauptphase trotz der Abkühlung um ca. 250°C, was ein Mehrfachinjektionsmodell des magmatisch-hydrothermalen Fluids unterstützt. Zwei-dimensionale numerische Simulationen der Konvektion in einem mehrphasen NaCl System wurden durchgeführt um: a) eine neue Methode (lower dimensional elements) für hydrothermales Fließen durch Brüche und Störungszonen zu testen und b) die Voraussetzungen für die in Panasqueira dominierende horizontale Fluidbewegung in den flach liegenden Gängen zu identifizieren. Die Ergebnisse zeigen, dass Fluidströmungen immer dann eine starke horizontale Komponente haben wenn ausreichende Bruchverbindungen im Gestein vorhanden sind. Späte, steile Bruchzonen sind in der Umgebung der Lagerstätte identifiziert worden, welche lokal niedrig-temperierte Zn-Pb Mineralisierungen führen. Die Modellergebnisse bestätigen, dass das Vorhandensein subvertikaler Störungszonen mit höherer Permeabilität eine entscheidende Rolle für den Aufstieg magmatischer Fluide zur Oberfläche und das Eindringen von meteorischen Fluiden spielen. Schließlich schlagen unsere Simulationsergebnisse vor, dass das Eindringen meteorischer Fluide und Mischungsprozesse in späteren Phasen der hydrothermalen Zirkulation wichtig sind, während magmatische Fluide in frühen Phasen dominieren. N2 - O estudo apresentado na presente dissertação combina análises e observações campo e geoquímica (e.g. multi-elementar, mineral, isotópica) com modelação numérica por forma a compreender a evolução do sistema hidrotermal da Panasqueira e a formação dos filões sub-horizontais. O jazigo filoniano da Panasqueira, localizado em Portugal, encontra-se entre os dez maiores depósitos do tipo a nível mundial e é o maior produtor de W na União Europeia. O depósito desenvolveu-se a topo de um granito Varisco do tipo S, cuja cúpula se encontra greisenizada devido a circulação de fluidos de carácter magmato-hidrotermal. Pensa-se que estes fluidos sejam a fonte dos metais para a génese do jazigo, contudo esta questão tem constituído matéria de grande debate. Por forma, a compreender a evolução hidrotermal e construir um modelo numérico capaz de simular a hidrologia do sistema hidrotermal da Panasqueira, este trabalho envolveu a determinação da composição e temperatura dos fluidos hidrotermais. Para o efeito, este estudo concentrou-se na caracterização geoquímica e isotópica de turmalina e mica branca, as quais se formaram durante os processos iniciais de alteração hidrotermal e/ou mineralização, ocorrendo em diversos contextos. A turmalina ocorre essencialmente nos halos de alteração hidrotermal que encerram os veios mineralizados e está predominantemente associada aos estádios pré-mineralização. Em contraste, a mica branca ocorre em diversos contextos: greisen, filões (salbandas), e halos de alteração hidrotermal, estando associada quer aos estádios precoces, quer aos estádios principais de mineralização. O trabalho laboratorial envolveu análises in-situ de elementos maiores e traço em turmalina e mica, e análises isotópicas (isótopos de boro) em ambas as fases minerais através de espectrometria de massa por iões secundários (SIMS). As composições isotópicas da turmalina e mica branca sugerem uma fonte magmática para os fluidos hidrotermais. A comparação dos dados de litogeoquímica dos metassedimentos alterados e não alterados mostra que os metais (W, Sn, Cu e Zn), assim como em As, F, Li, Rb e Cs foram introduzidos durante o processo de alteração hidrotermal. Parte substancial destes elementos encontram-se também enriquecidos na mica e turmalina, o que confirma o seu potencial valor como vectores de prospecção mineral para os depósitos de W-Sn. A evolução térmica do sistema hidrotermal da Panasqueira foi estimada utilizando geotermómetros minerais. O geotermómetro do quartzo (Ti-in-quartz) indica temperaturas de 503° ± 24°C para a alteração precoce das rochas encaixantes, o que é consistente com as temperaturas médias de 430° a 460°C} obtidas através da geotermometria isotópica de boro em turmalina e mica branca nas salbandas micáceas. As zonas de falha estudadas através da utilização de pares-minerais indicam temperaturas médias substancialmente mais baixas (250°C). A combinação dos estudos de geotermometria mineral com as variações químicas e isotópicas obtidas para a turmalina e mica sugerem que um fluido magmático-hidrotermal relativamente homogéneo esteve activo durante todos os estádios de mineralização. Durante estádios tardios, a os fluidos mineralizantes possuem as mesmas composições isotópicas obtidas para os estádios principais, embora que registando um arrefecimento de ca. 250°C, o que suporta um modelo dinâmico com múltiplas injecções de fluidos magmático-hidrotermais. Simulações numéricas bidimensionais da convecção num sistema hidrotermal multifásico salino foram conduzidas: (i) para testar uma nova metodologia (“lower dimensional elements”) capaz de traduzir o fluxo de fluidos através de fracturas e falhas e, (ii) para identificar as condições do fluxo horizontal observado nos filões sub-horizontais da Panasqueira. Os resultados mostram que o escoamento dos fluidos em associação com uma intrusão (fonte de calor e fluidos) desenvolve uma componente horizontal, desde que haja conectividade suficiente. Falhas tardias inclinadas identificadas na área contem localmente mineralização de Zn e Pb de baixa temperatura. Os resultados dos modelos numéricos confirmam que a presença de falhas sub-verticais de permeabilidade acrescida tem um papel crucial na ascensão de fluidos magmáticos até a superfície e na infiltração de águas meteóricas. Por fim, os resultados das simulações sugerem que a infiltração de águas meteóricas e processos de mistura de fluidos possam ser importantes durantes os estádios tardios, enquanto os fluidos de carácter magmático dominam os estádios iniciais da circulação hidrotermal dos fluidos. KW - Panasqueira KW - tourmaline KW - muscovite KW - Boron isotopes KW - tungsten-tin deposits KW - magmatic-hydrothermal systems KW - LA-ICP-MS KW - SIMS KW - numerical simulation KW - fluid flow KW - fracture-controlled KW - alteration geochemistry KW - Panasqueira KW - Turmalin KW - Muscovit KW - Bor-isotopen KW - Wofram-Zinn Lagerstätte KW - magmatisch-hydrothermale Systeme KW - LA-ICP-MS KW - SIMS KW - numerische Modellierung KW - Fluid-strömungen KW - strukturelle Kontrolle KW - Alterationsgeochemie KW - Panasqueira KW - turmalina KW - muscovite KW - Isótopos de Boro KW - depósitos de volfrâmio-estanho KW - sistemas magmático-hidrotermais KW - LA-ICP-MS KW - SIMS KW - simulações numéricas KW - fluxo de fluidos KW - controlo estrutural KW - geoquímica da alteração hidrotermal Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429752 ER - TY - THES A1 - Kurpiers, Jona T1 - Probing the pathways of free charge generation and recombination in organic solar cells T1 - Pfade der Generierung und Rekombination freier Ladungsträger in organischen Solarzellen BT - the role of excess energy and dispersive effects BT - die Rolle von Überschussenergie und dispersiven Effekten N2 - Organic semiconductors are a promising class of materials. Their special properties are the particularly good absorption, low weight and easy processing into thin films. Therefore, intense research has been devoted to the realization of thin film organic solar cells (OPVs). Because of the low dielectric constant of organic semiconductors, primary excitations (excitons) are strongly bound and a type II heterojunction needs to be introduced to split these excitations into free charges. Therefore, most organic solar cells consist of at least an electron donor and electron acceptor material. For such donor acceptor systems mainly three states are relevant; the photoexcited exciton on the donor or acceptor material, the charge transfer state at the donor-acceptor interface and the charge separated state of a free electron and hole. The interplay between these states significantly determines the efficiency of organic solar cells. Due to the high absorption and the low charge carrier mobilities, the active layers are usually thin but also, exciton dissociation and free charge formation proceeds rapidely, which makes the study of carrier dynamics highly challenging. Therefore, the focus of this work was first to install new experimental setups for the investigation of the charge carrier dynamics in complete devices with superior sensitivity and time resolution and, second, to apply these methods to prototypical photovoltaic materials to address specific questions in the field of organic and hybrid photovoltaics. Regarding the first goal, a new setup combining transient absorption spectroscopy (TAS) and time delayed collection field (TDCF) was designed and installed in Potsdam. An important part of this work concerned the improvement of the electronic components with respect to time resolution and sensitivity. To this end, a highly sensitive amplifier for driving and detecting the device response in TDCF was developed. This system was then applied to selected organic and hybrid model systems with a particular focus on the understanding of the loss mechanisms that limit the fill factor and short circuit current of organic solar cells. The first model system was a hybrid photovoltaic material comprising inorganic quantum dots decorated with organic ligands. Measurements with TDCF revealed fast free carrier recombination, in part assisted by traps, while bias-assisted charge extraction measurements showed high mobility. The measured parameters then served as input for a successful description of the device performance with an analytical model. With a further improvement of the instrumentation, a second topic was the detailed analysis of non-geminate recombination in a disordered polymer:fullerene blend where an important question was the effect of disorder on the carrier dynamics. The measurements revealed that early time highly mobile charges undergo fast non-geminate recombination at the contacts, causing an apparent field dependence of free charge generation in TDCF experiments if not conducted properly. On the other hand, recombination the later time scale was determined by dispersive recombination in the bulk of the active layer, showing the characteristics of carrier dynamics in an exponential density of state distribution. Importantly, the comparison with steady state recombination data suggested a very weak impact of non-thermalized carriers on the recombination properties of the solar cells under application relevant illumination conditions. Finally, temperature and field dependent studies of free charge generation were performed on three donor-acceptor combinations, with two donor polymers of the same material family blended with two different fullerene acceptor molecules. These particular material combinations were chosen to analyze the influence of the energetic and morphology of the blend on the efficiency of charge generation. To this end, activation energies for photocurrent generation were accurately determined for a wide range of excitation energies. The results prove that the formation of free charge is via thermalized charge transfer states and does not involve hot exciton splitting. Surprisingly, activation energies were of the order of thermal energy at room temperature. This led to the important conclusion that organic solar cells perform well not because of predominate high energy pathways but because the thermalized CT states are weakly bound. In addition, a model is introduced to interconnect the dissociation efficiency of the charge transfer state with its recombination observable with photoluminescence, which rules out a previously proposed two-pool model for free charge formation and recombination. Finally, based on the results, proposals for the further development of organic solar cells are formulated. N2 - Organische Halbleiter sind eine vielversprechende Materialklasse. Ihre besonderen Eigenschaften sind die gute Absorption, das geringe Gewicht und die einfache Verarbeitung zu dünnen Filmen. Daher wird intensiv an der Realisierung organischer Dünnschichtsolarzellen (OPVs) geforscht. Aufgrund der niedrigen Dielektrizitätskonstante organischer Halbleiter sind primäre Anregungen (Exzitonen) jedoch stark gebunden, und es muss ein Typ II-Heteroübergang eingeführt werden, um diese Anregungen in freie Ladungen zu trennen. Daher bestehen die meisten organischen Solarzellen aus mindestens einem Elektronendonator und einem Elektronenakzeptormaterial. Für solche Donator-Akzeptorsysteme sind hauptsächlich drei Zustünde relevant; das Exziton auf dem Donator- oder Akzeptormaterial, der Ladungstransferzustand an der Donator-Akzeptor-Grenzfläche und der ladungsgetrennte Zustand eines freien Elektrons und Lochs. Das Zusammenspiel dieser Zustände bestimmt maßgeblich die Effizienz organischer Solarzellen. Aufgrund der hohen Absorption und der geringen Ladungsträgermobilitäten sind die aktiven Schichten dünn, aber auch die Exzitonendissoziation und die Bildung freier Ladung findet auf kurzen Zeitskalen statt, was die Analyse der Ladungsträgerdynamik erschwert. Im Mittelpunkt dieser Arbeit standen daher zunächst die Installation neuer Versuchsaufbauten zur Untersuchung der Ladungsträgerdynamik in optimierten Solarzellen mit überlegener Empfindlichkeit und Zeitauflösung sowie die Anwendung dieser Methoden auf prototypische photovoltaische Materialien. Im Hinblick auf das erste Ziel wurde ein neuer Aufbau, der optische Methoden wie die zeitaufgelöste Absorptionsspektroskopie (TAS) mit optolektronischen Methoden, wie die zeitaufgelöste Ladungsextraktion (TDCF) kombiniert. Ein wichtiger Teil dieser Arbeit war die Verbesserung der elektronischen Komponenten hinsichtlich der Zeitauflösung und Empfindlichkeit. Zu diesem Zweck wurde ein hochempfindlicher Verstärker zur Ansteuerung und Detektion der Probenantwort in TDCF entwickelt. Dieser Versuchsaufbau wurde im Folgenden auf verschiedene Modellsysteme angewendet, mit besonderem Fokus auf dem Verständnis der Verlustmechanismen, die den Füllfaktor und den Kurzschlussstrom organischer Solarzellen limittieren. Das erste Modellsystem ist ein hybrides Material, das aus anorganischen Quantenpunkten mit organischen Liganden besteht. Messungen mit TDCF ergaben eine schnelle Rekombination freier Ladungsträger, die teilweise durch Fallen unterstützt wurde, während Ladungsextraktionsexperimente unter quasi-konstanter Beleuchtung eine hohe Mobilität zeigten. Mit den gemessenen Parametern konnte die Kennlinie gut mit einem analytischen Modell beschrieben werden. Mit einer weiteren Verbesserung des Aufbaus konnte ein zweites Thema, die detaillierte Analyse der nicht-geminalen Rekombination in einer ungeordneten Polymer-Fulleren-Mischung bearbeitet werden. Die Messungen zeigten, dass hochmobilen Ladungen zu frühen Zeiten eine schnelle, nicht-geminale Rekombination an den Kontakten durchlaufen, was eine scheinbare Feldabhängigkeit der Generierung freier Ladung in TDCF-Experimenten verursachen kann. Andererseits wurde die Rekombination auf längeren Zeitskalen durch dispersive Rekombination in der aktiven Schicht bestimmt, wobei die Ursache der Ladungsträgerdynamik in einer exponentiellen Verteilung der Zustandsdichte liegt. Der Vergleich mit Rekombinationsdaten im stationären Zustand ergab einen sehr schwachen Einfluss nicht-thermalisierter Ladungsträger auf die Rekombinationseigenschaften der Solarzellen unter anwendungsrelevanten Bedingungen. Schließlich wurden temperatur- und feldabhängige Studien zur Erzeugung freier Ladung an drei Donator-Akzeptor-Kombinationen durchgeführt, wobei zwei Donatorpolymere der gleichen Materialfamilie mit zwei verschiedenen Fulleren-Akzeptormolekülen gemischt wurden. Diese besonderen Materialkombinationen wurden ausgewählt, um den Einfluss der Energetik und Morphologie der Mischung auf die Effizienz der Ladungserzeugung zu analysieren. Zu diesem Zweck wurden die Aktivierungsenergien für die Photostromerzeugung für einen weiten Bereich von Anregungsenergien genau bestimmt. Die Ergebnisse beweisen, dass die Bildung freier Ladungen über thermalisierte Ladungstransferzustände erfolgt und keine Aufspaltung mit heißen Exzitonen beinhaltet. Überraschenderweise sind die Aktivierungsenergien vergleichbar mit der thermischen Energie bei Raumtemperatur. Dies führte zu der wichtigen Schlussfolgerung, dass organische Solarzellen nicht aufgrund von hochenergetischen Pfaden gut funktionieren, sondern weil die thermalisierten Ladungstransferzustände schwach gebunden sind. Darüber hinaus wird ein Modell eingeführt, um die Dissoziationseffizienz des Ladungstransferzustands mit seiner mit Photolumineszenz beobachtbaren Rekombination zu verbinden, wodurch ein zuvor vorgeschlagenes Zwei-Pool-Modell für die Bildung und Rekombination von freien Ladungen ausgeschlossen wird. Abschließend werden auf Basis der Ergebnisse Vorschläge zur Weiterentwicklung organischer Solarzellen formuliert. KW - organic solar cells KW - time resolved pump probe spectroscopy Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429099 ER - TY - THES A1 - Knöchel, Jane T1 - Model reduction of mechanism-based pharmacodynamic models and its link to classical drug effect models T1 - Modellreduktion von mechanistischen pharmacodynamischen Modellen und deren Verbindung zu klassischen Wirkstoff-Effekt-Modellen N2 - Continuous insight into biological processes has led to the development of large-scale, mechanistic systems biology models of pharmacologically relevant networks. While these models are typically designed to study the impact of diverse stimuli or perturbations on multiple system variables, the focus in pharmacological research is often on a specific input, e.g., the dose of a drug, and a specific output related to the drug effect or response in terms of some surrogate marker. To study a chosen input-output pair, the complexity of the interactions as well as the size of the models hinders easy access and understanding of the details of the input-output relationship. The objective of this thesis is the development of a mathematical approach, in specific a model reduction technique, that allows (i) to quantify the importance of the different state variables for a given input-output relationship, and (ii) to reduce the dynamics to its essential features -- allowing for a physiological interpretation of state variables as well as parameter estimation in the statistical analysis of clinical data. We develop a model reduction technique using a control theoretic setting by first defining a novel type of time-limited controllability and observability gramians for nonlinear systems. We then show the superiority of the time-limited generalised gramians for nonlinear systems in the context of balanced truncation for a benchmark system from control theory. The concept of time-limited controllability and observability gramians is subsequently used to introduce a state and time-dependent quantity called the input-response (ir) index that quantifies the importance of state variables for a given input-response relationship at a particular time. We subsequently link our approach to sensitivity analysis, thus, enabling for the first time the use of sensitivity coefficients for state space reduction. The sensitivity based ir-indices are given as a product of two sensitivity coefficients. This allows not only for a computational more efficient calculation but also for a clear distinction of the extent to which the input impacts a state variable and the extent to which a state variable impacts the output. The ir-indices give insight into the coordinated action of specific state variables for a chosen input-response relationship. Our developed model reduction technique results in reduced models that still allow for a mechanistic interpretation in terms of the quantities/state variables of the original system, which is a key requirement in the field of systems pharmacology and systems biology and distinguished the reduced models from so-called empirical drug effect models. The ir-indices are explicitly defined with respect to a reference trajectory and thereby dependent on the initial state (this is an important feature of the measure). This is demonstrated for an example from the field of systems pharmacology, showing that the reduced models are very informative in their ability to detect (genetic) deficiencies in certain physiological entities. Comparing our novel model reduction technique to the already existing techniques shows its superiority. The novel input-response index as a measure of the importance of state variables provides a powerful tool for understanding the complex dynamics of large-scale systems in the context of a specific drug-response relationship. Furthermore, the indices provide a means for a very efficient model order reduction and, thus, an important step towards translating insight from biological processes incorporated in detailed systems pharmacology models into the population analysis of clinical data. N2 - Die kontinuierliche Erforschung von biologischen Prozessen hat zur Entwicklung umfangreicher, mechanistischer systembiologischer Modelle von pharmakologisch relevanten Netzwerken beigetragen. Während diese Modelle in der Regel darauf ausgelegt sind, die Auswirkung von Stimuli oder Störungen auf die Systemdynamik zu untersuchen, liegt der Fokus in der pharmakologis- chen Forschung häufig auf einer bestimmten Kontrolle, z.B. der Dosis eines Wirkstoffes, und einer bestimmten Ausgangsgröße, welche in Bezug steht zu dem Wirkstoff-Effekt oder das Ansprechen auf einen Wirkstoff über einen Surrogatmarker. Die Untersuchung und ein einfaches Verständnis einer spezifischen Eingabe-Ausgabe-Beziehung wird durch die Komplexität der Interaktionen sowie der Größe des Modells erschwert. Das Ziel dieser vorliegenden Arbeit ist die Entwicklung eines mathematischen Ansatzes, insbesondere eines Modellreduktionsverfahrens, der es ermöglicht, (i) die Bedeutung der verschiedenen Zustandsvariablen für eine gegebene Eingabe-Ausgabe-Beziehung zu quantifizieren, und (ii) die Dynamik des Systems auf seine wesentlichen Merkmale zu reduzieren, während gleichzeitig die physiologische Interpretierbarkeit von Zustandsvariablen sowie eine Parameterschätzung im Rahmen von einer statistischen Analyse klinischer Daten ermöglicht wird. Unter Verwendung eines kontrolltheoretischen Settings entwickeln wir eine Modellreduktionstechnik, indem wir vorerst einen neuartigen Typ von zeitlich begrenzten Kontrolllierbarkeits- und Beobachtbarkeitsgramian für nichtlineare Systeme definieren. Anschließend zeigen wir die Überlegenkeit der zeitlich begrenzten verallgemeinerten Gramian für nichtlineare Systeme im Kontext von Balanced Truncation am Beispiel eines Benchmark-Systems aus der Kontrolltheorie. Wir nutzten das Konzept der zeitlich begrenzten Kontrolllierbarkeits- und Beobachtbarkeitsgramian, um eine neue Zustands- und zeitabhängige Größe, die als Input-Response (IR-) Index bezeichnet wird, einzuführen. Dieser Index quantifiziert die Bedeutung von Zustandsvariablen zu einem bestimmten Zeitpunkt für eine bestimmte Eingabe-Ausgabe-Beziehung. Schließlich verknüpfen wir unseren Ansatz mit der Sensitivitätsanalyse und ermöglichen so erstmals die Verwendung von Sensitivitätskoeffizienten im Rahmen der Reduktion des Zustandsraumes. Wir erhalten die sensitivitätsbasierten IR-Indizes als Produkt zweier Sensitivitätskoeffizienten. Dies ermöglicht nicht nur eine effizientere Berechnung, sondern auch eine klare Unterscheidung, inwieweit die Eingabe eine Zustandsvariable beeinflusst und inwieweit eine Zustandsvariable die Ausgabe beeinflusst. Mit Hilfe der IR-Indizes erhalten wir einen Einblick in den koordinierten Ablauf der Aktivierung von spezifischen Zustandsvariablen für eine ausgewählte Eingabe-Ausgabe-Beziehung. Unser entwickeltes Modellreduktionsverfahren resultiert in reduzierten Modelle, welche eine mechanistische Interpretation hinsichtlich der Originalgrößen und Zustandsvariablen des Ursprungssystems zulassen. Dies war eine wichtige Anforderung an das Verfahren von Seiten der Systempharmakologie und -biologie. Die reduzierten Modelle unterscheiden sich damit wesentlich von den so genannten empirischen Wirkstoff-Effekt-Modellen. Die IR-Indizes sind explizit in Bezug auf eine Referenzlösung definiert und damit vom Anfangszustand abhängig (dies ist ein wichtiges Merkmal der Indizes). Wir zeigen anhand eines Beispiels aus dem Bereich der Systempharmakologie, dass die reduzierten Modelle sehr aussagekräftig sind, um (genetische) Mängel in bestimmten physiologischen Einheiten festzustellen. Der Vergleich unseres neuartigen Modellreduktionsverfahrens mit den bereits vorhandenen Verfahren zeigt dessen Überlegenheit. Der neuartige IR-Index als Maß für die Wichtigkeit von Zustandsvariablen bietet ein leistungsfähiges mathematisches Werkzeug zum Verständnis und der Analyse der komplexen Dynamik von großen Systemen im Kontext einer bestimmten Wirkstoff-Effekt-Beziehung. Darüber hinaus sind die Indizes eine wichtige Grundlage für das eingeführte und sehr effiziente Modellreduktionsverfahren. Insgesamt stellt dies einen wichtigen Schritt zur Nutzung von Erkenntnissen über biologische Prozesse in Form von detaillierten systempharmakologischen Modellen in der Populationsanalyse klinischer Daten dar. KW - model order reduction KW - control theory KW - large-scale mechanistic systems KW - systems pharmacology KW - Modellreduktion KW - Kontrolltheorie KW - komplexe mechanistische Systeme KW - Systempharmakologie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440598 ER - TY - THES A1 - Korges, Maximilian T1 - Constraining the hydrology of intrusion-related ore deposits with fluid inclusions and numerical modeling T1 - Bestimmung der Hydrologie von Erzlagerstätten an Intrusionen mit Flüssigkeitseinschlüssen und numerischer Modellierung N2 - Magmatic-hydrothermal fluids are responsible for numerous mineralization types, including porphyry copper and granite related tin-tungsten (Sn-W) deposits. Ore formation is dependent on various factors, including, the pressure and temperature regime of the intrusions, the chemical composition of the magma and hydrothermal fluids, and fluid rock interaction during the ascent. Fluid inclusions have potential to provide direct information on the temperature, salinity, pressure and chemical composition of fluids responsible for ore formation. Numerical modeling allows the parametrization of pluton features that cannot be analyzed directly via geological observations. Microthermometry of fluid inclusions from the Zinnwald Sn-W deposit, Erzgebirge, Germany / Czech Republic, provide evidence that the greisen mineralization is associated with a low salinity (2-10 wt.% NaCl eq.) fluid with homogenization temperatures between 350°C and 400°C. Quartzes from numerous veins are host to inclusions with the same temperatures and salinities, whereas cassiterite- and wolframite-hosted assemblages with slightly lower temperatures (around 350°C) and higher salinities (ca. 15 wt. NaCl eq.). Further, rare quartz samples contained boiling assemblages consisting of coexisting brine and vapor phases. The formation of ore minerals within the greisen is driven by invasive fluid-rock interaction, resulting in the loss of complexing agents (Cl-) leading to precipitation of cassiterite. The fluid inclusion record in the veins suggests boiling as the main reason for cassiterite and wolframite mineralization. Ore and coexisting gangue minerals hosted different types of fluid inclusions where the beginning boiling processes are solely preserved by the ore minerals emphasizing the importance of microthermometry in ore minerals. Further, the study indicates that boiling as a precipitation mechanism can only occur in mineralization related to shallow intrusions whereas deeper plutons prevent the fluid from boiling and can therefore form tungsten mineralization in the distal regions. The tin mineralization in the Hämmerlein deposit, Erzgebirge, Germany, occurs within a skarn horizon and the underlying schist. Cassiterite within the skarn contains highly saline (30-50 wt% NaCl eq.) fluid inclusions, with homogenization temperatures up to 500°C, whereas cassiterites from the schist and additional greisen samples contain inclusions of lower salinity (~5 wt% NaCl eq.) and temperature (between 350 and 400°C). Inclusions in the gangue minerals (quartz, fluorite) preserve homogenization temperatures below 350°C and sphalerite showed the lowest homogenization temperatures (ca. 200°C) whereby all minerals (cassiterite from schist and greisen, gangue minerals and sphalerite) show similar salinity ranges (2-5 wt% NaCl eq.). Similar trace element contents and linear trends in the chemistry of the inclusions suggest a common source fluid. The inclusion record in the Hämmerlein deposit documents an early exsolution of hot brines from the underlying granite which is responsible for the mineralization hosted by the skarn. Cassiterites in schist and greisen are mainly forming due to fluid-rock interaction at lower temperatures. The low temperature inclusions documented in the sphalerite mineralization as well as their generally low trace element composition in comparison to the other minerals suggests that their formation was induced by mixing with meteoric fluids. Numerical simulations of magma chambers and overlying copper distribution document the importance of incremental growth by sills. We analyzed the cooling behavior at variable injection intervals as well as sill thicknesses. The models suggest that magma accumulation requires volumetric injection rates of at least 4 x 10-4 km³/y. These injection rates are further needed to form a stable magmatic-hydrothermal fluid plume above the magma chamber to ensure a constant copper precipitation and enrichment within a confined location in order to form high-grade ore shells within a narrow geological timeframe between 50 and 100 kyrs as suggested for porphyry copper deposits. The highest copper enrichment can be found in regions with steep temperature gradients, typical of regions where the magmatic-hydrothermal fluid meets the cooler ambient fluids. N2 - Magmatisch-hydrothermale Fluide sind verantwortlich für zahlreiche Mineralisationstypen, wie porphyrische Kupferlagerstätten und granitgebundene Zinn-Wolfram (Sn-W) Lagerstätten. Die Lagerstättenbildung ist abhängig von unterschiedlichen Faktoren, z.B. dem Druck- und Temperaturregime der Intrusion, der chemischen Zusammensetzung des Magmas und der hydrothermalen Fluide sowie den Fluid-Gesteinsreaktionen während des Aufstiegs der Fluide. Flüssigkeitseinschlüsse haben das Potential, direkte Informationen zur Temperatur, zum Salzgehalt, zum Druck und der Chemie der Fluide, welche für die Lagerstättenbildung verantwortlich sind, zu liefern. Außerdem erlauben numerische Modellierungen die Parametrisierung der Plutoneigenschaften, die nicht direkt anhand von geologischen Beobachtungen analysiert werden können. Mikrothermometrie von Flüssigkeitseinschlüssen der Zinnwald Sn-W Lagerstätte zeigen, dass die Vergreisung an ein schwach salzhaltiges (2-10 wt.% NaCl eq.) Fluid gebunden ist, das zwischen 350°C und 400°C homogenisiert. Quarze der diversen Gänge beinhalten Einschlüsse mit den gleichen Temperaturen und Salzgehalten, wohingegen Kassiterit und Wolframit Einschlüsse mit niedrigeren Temperaturen (um 350°C) und höheren Salzgehalten zeigen (ca. 15 wt. NaCl eq.). Seltene Quarzproben enthalten kochende Einschluss-Ansammlungen, die aus koexistierenden salzreichen Lösungen und gasreichen Phasen bestehen. Die Bildung der Erzminerale des Greisens entsteht durch tiefgreifende Fluid-Gesteinsreaktionen, die den Verlust des Komplexbildners (Cl-) zur Folge haben, wodurch Kassiterit ausgefällt wird. Die Einschlüsse in den Gängen verdeutlichen, dass kochende Fluide der Hauptgrund für die Kassiterit– und Wolframit–Mineralisation sind. Erz- und benachbarte Gangminerale beinhalten unterschiedliche Einschlusstypen, wobei die beginnende Phasenseparation ausschließlich in den Erzmineralen erhalten ist, wodurch die Bedeutung der Mikrothermometrie in Erzmineralen hervorgehoben wird. Die Studie verdeutlicht weiterhin, dass Phasenseparation als Ausfällungsmechanismus nur in Lagerstätten gefunden werden können, die an flache Intrusionen gebunden sind, wohingegen tiefsitzende Granite die Phasenseparation verhindern. Dies hat zur Folge, dass eine Wolfram–Vererzung eher distal zur Intrusion auftritt. Die Zinn-Mineralisation der Hämmerlein Lagerstätte tritt sowohl in einem Skarn–Horizont als auch im darunterliegenden Schiefer auf. Fluideinschlüsse in Kassiteriten des Skarns enthalten Fluide mit hohem Salzgehhalt (30-50 wt% NaCl eq.) und Homogenisierungstemperaturen von bis zu 500°C, wohingegen Kassiterite des Schiefers (und von zusätzlichen Greisenproben) Einschlüsse mit geringerem Salzgehalt (~5 wt% NaCl eq.) und geringeren Temperaturen (zwischen 350 und 400°C) enthalten. Einschlüsse in Gangmineralen (Quarz, Fluorit) zeigen Homogenisierungstemperaturen von unter 350°C und Einschlüsse in Sphaleriten konservieren die niedrigsten gemessenen Temperaturen (ca. 200°C). Allerdings haben Flüssigkeitseinschlüsse in allen Mineralen (Kassiterite der Schiefer und Greisen, Gangminerale und Sphalerit) einen annähernd gleichen Salzgehalt (2-5 wt% NaCl eq.). Ähnliche Spurenelementgehalte und lineare Trends in der Chemie der Einschlüsse deuten auf ein gemeinsames Ursprungsfluid hin. Die Einschlüsse in der Hämmerlein-Lagerstätte dokumentieren eine frühe Entmischung von heißen Fluiden mit hohem Salzgehalt aus dem darunterliegenden Granit, die für die Mineralisation im Skarn verantwortlich ist. Die Kassiterite der Schiefer und der Greisen formen sich hauptsächlich durch Fluid-Gesteinsreaktionen bei niedrigeren Temperaturen. Die Niedrigtemperatureinschlüsse in Sphalerit und die im Vergleich zu den anderen Mineralen niedrigen Spurenelementgehalte deuten auf eine Bildung aufgrund von Mischungsprozessen mit meteorischen Fluiden hin. Numerische Simulationen von Magmenkammern und deren darüber gelegenen Kupferverteilungen dokumentieren die Wichtigkeit des schrittweisen Wachstums einer Intrusion durch Sills. Wir untersuchten das Abkühlungsverhalten bei unterschiedlichen Injektionsintervallen sowie bei unterschiedlicher Mächtigkeit des Sills. Die Modelle deuten darauf hin, dass für die Bildung der Magmakammer eine Injektionsrate von mindestens ca. 4 x 10-4 km³/y benötigt wird. Solche Raten sind ebenfalls nötig um eine kontinuierliche Bildung von magmatisch-hydrothermalen Fluiden zu garantieren, denn nur dann können sich hoch vererzte Bereiche in einem kurzen geologischen Zeitraum von 50.000 bis 100.000 Jahren bilden, so wie es für porphyrische Kupferlagerstätten angenommen wird. Die höchsten Kupfergehalte bilden sich in Regionen mit steilem Temperaturgradient, also vor allem in Bereichen, wo das magmatisch-hydrothermale Fluid auf kältere meteorische Fluide trifft. KW - fluid inclusions KW - numerical modeling KW - Flüssigkeitseinschlüsse KW - numerische Modellierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434843 ER - TY - THES A1 - Sarhan, Radwan Mohamed T1 - Plasmon-driven photocatalytic reactions monitored by surface-enhanced Raman spectroscopy T1 - Plasmonen-getriebene photokatalytische Reaktionen, gemessen mittels oberflächenverstärkter Raman-Spektroskopie N2 - Plasmonic metal nanostructures can be tuned to efficiently interact with light, converting the photons into energetic charge carriers and heat. Therefore, the plasmonic nanoparticles such as gold and silver nanoparticles act as nano-reactors, where the molecules attached to their surfaces benefit from the enhanced electromagnetic field along with the generated energetic charge carriers and heat for possible chemical transformations. Hence, plasmonic chemistry presents metal nanoparticles as a unique playground for chemical reactions on the nanoscale remotely controlled by light. However, defining the elementary concepts behind these reactions represents the main challenge for understanding their mechanism in the context of the plasmonically assisted chemistry. Surface-enhanced Raman scattering (SERS) is a powerful technique employing the plasmon-enhanced electromagnetic field, which can be used for probing the vibrational modes of molecules adsorbed on plasmonic nanoparticles. In this cumulative dissertation, I use SERS to probe the dimerization reaction of 4-nitrothiophenol (4-NTP) as a model example of plasmonic chemistry. I first demonstrate that plasmonic nanostructures such as gold nanotriangles and nanoflowers have a high SERS efficiency, as evidenced by probing the vibrations of the rhodamine dye R6G and the 4-nitrothiophenol 4-NTP. The high signal enhancement enabled the measurements of SERS spectra with a short acquisition time, which allows monitoring the kinetics of chemical reactions in real time. To get insight into the reaction mechanism, several time-dependent SERS measurements of the 4-NTP have been performed under different laser and temperature conditions. Analysis of the results within a mechanistic framework has shown that the plasmonic heating significantly enhances the reaction rate, while the reaction is probably initiated by the energetic electrons. The reaction was shown to be intensity-dependent, where a certain light intensity is required to drive the reaction. Finally, first attempts to scale up the plasmonic catalysis have been performed showing the necessity to achieve the reaction threshold intensity. Meanwhile, the induced heat needs to quickly dissipate from the reaction substrate, since otherwise the reactants and the reaction platform melt. This study might open the way for further work seeking the possibilities to quickly dissipate the plasmonic heat generated during the reaction and therefore, scaling up the plasmonic catalysis. N2 - Plasmonische Metallnanostrukturen können so eingestellt werden, dass sie effizient mit Licht interagieren, Photonen in energetische Ladungsträger und wärmeenergie umwandeln. Aus diesem Grund wirken plasmonische Nanopartikel wie Gold und Silbernanopartikel als Nanoreaktoren, wenn Moleküle mit deren Oberfläche verbunden sind. Durch das verstärkte elektromagnetische Feld und den somit erzeugten energetischen Ladungsträgern und der wärmeenergie können chemische Umwandlungen entstehen. Das bedeutet, in der plasmonischen Chemie sind Metallnanopartikel ein einzigartiges system um chemische Reaktionen auf der Nanoebene unter der Kontrolle von Licht verfolgen zu können. Die Herausforderung liegt darin, grundlegende Konzepte hinter den Reaktionen für das mechanistische Verständnis in Bezug auf die plasmonisch unterstützte Chemie zu definieren. Oberflächenverstärkte Raman Streuung (SERS) ist eine leistungsfähige Technik, die sich mit plasmonverstärkten, elektromagnetischen Feldern beschäftigt, um die Vibrationsmoden von den auf den Nanopartikeln absorbierten Molekülen zu analysieren. In dieser kumulativen Dissertation wurde die Dimerisierung von 4-Nitrothiophenol (4-NTP) mittels SERS als Beispielreaktion für die plasmonische Chemie untersucht. Aufgrund der hohen SERS Signalverstärkung konnten die SERS Spektren mit einer kurzen Erfassungszeit aufgenommen werden, was die Untersuchung der Kinetik und des Reaktionsmechanismus in Echtzeit ermöglichte. KW - plasmonic chemistry KW - plasmonische Chemie KW - heiße Elektronen KW - SERS KW - SERS Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-433304 ER - TY - THES A1 - Willig, Lisa T1 - Ultrafast magneto-optical studies of remagnetisation dynamics in transition metals T1 - Ultraschnelle Magneto-Optische Studien der Remagnetisierungsdynamik von Übergangsmetallen N2 - Ultrafast magnetisation dynamics have been investigated intensely for two decades. The recovery process after demagnetisation, however, was rarely studied experimentally and discussed in detail. The focus of this work lies on the investigation of the magnetisation on long timescales after laser excitation. It combines two ultrafast time resolved methods to study the relaxation of the magnetic and lattice system after excitation with a high fluence ultrashort laser pulse. The magnetic system is investigated by time resolved measurements of the magneto-optical Kerr effect. The experimental setup has been implemented in the scope of this work. The lattice dynamics were obtained with ultrafast X-ray diffraction. The combination of both techniques leads to a better understanding of the mechanisms involved in magnetisation recovery from a non-equilibrium condition. Three different groups of samples are investigated in this work: Thin Nickel layers capped with nonmagnetic materials, a continuous sample of the ordered L10 phase of Iron Platinum and a sample consisting of Iron Platinum nanoparticles embedded in a carbon matrix. The study of the remagnetisation reveals a general trend for all of the samples: The remagnetisation process can be described by two time dependences. A first exponential recovery that slows down with an increasing amount of energy absorbed in the system until an approximately linear time dependence is observed. This is followed by a second exponential recovery. In case of low fluence excitation, the first recovery is faster than the second. With increasing fluence the first recovery is slowed down and can be described as a linear function. If the pump-induced temperature increase in the sample is sufficiently high, a phase transition to a paramagnetic state is observed. In the remagnetisation process, the transition into the ferromagnetic state is characterised by a distinct transition between the linear and exponential recovery. From the combination of the transient lattice temperature Tp(t) obtained from ultrafast X-ray measurements and magnetisation M(t) gained from magneto-optical measurements we construct the transient magnetisation versus temperature relations M(Tp). If the lattice temperature remains below the Curie temperature the remagnetisation curve M(Tp) is linear and stays below the M(T) curve in equilibrium in the continuous transition metal layers. When the sample is heated above phase transition, the remagnetisation converges towards the static temperature dependence. For the granular Iron Platinum sample the M(Tp) curves for different fluences coincide, i.e. the remagnetisation follows a similar path irrespective of the initial laser-induced temperature jump. N2 - Ultraschnelle Magnetisierungsdynamiken wurden in den letzten zwei Jahrzehnten intensiv untersucht. Hingegen der Wiederherstellungsprozess der Magnetisierung nach einer ultraschnellen Demagnetisierung wird selten experimentell untersucht und im Detail diskutiert. Der Fokus dieser Arbeit liegt auf der Untersuchung der Magnetisierung auf langen Zeitskalen nach der Anregung durch einen Laserpuls. Dazu werden zwei ultraschnelle zeitaufgelöste Techniken verwendet, um die Relaxierung von dem magnetischen System und dem System des Gitters nach Anregung mit einem hochenergetischen ultrakurzen Laserpuls zu untersuchen. Das magnetische System wurde untersucht mithilfe von Messungen des zeitaufgelösten magneto-optischen Kerr Effekts. Der experimentelle Aufbau wurde im Rahmen dieser Arbeit entwickelt. Die Gitterdynamik wurde mittels ultraschneller Röntgendiffraktometrie aufgenommen. Die Kombination beider Techniken liefert ein besseres Verständnis von den Prozessen involviert in Magnetisierungsrelaxation aus einem Nicht-Gleichgewichtszustand. Drei unterschiedliche Probensysteme wurden im Rahmen dieser Arbeit untersucht: Dünne Nickel Schichten umgeben von nicht-magnetischen Schichten, eine kontinuierliche Schicht aus einer Eisen Platin Legierung und eine Probe bestehend aus Eisen Platin Nanopartikeln eingebettet in einer Kohlenstoffmatrix. Die Studie der Remagnetisierung zeigt einen generellen Trend für alle diese Systeme auf: Der Remagnetisierungsprozess kann mit zwei Zeitabhängikeiten beschrieben werden. Eine erste exponentielle Zeitabhängigkeit, die mit zunehmender Menge an absorbierter Energie verlangsamt wird bis ein lineares Verhalten beobachtet wird. Darauf folgend gibt es eine zweite exponentielle funktionale Abhängigkeit in der Zeit. Im Falle einer geringen Energieabsorption ist die erste Remagnetisierung schneller als die zweite. Mit steigender Fluenz wird die Remagnetisierung in der ersten Zeitabhängigkeit verlangsamt und kann als lineare Funktion beschrieben werden. Wenn der durch den Pump Puls induzierte Temperatursprung in der Probe ausreichend groß ist, wird ein Phasenübergang in die paramagnetische Phase beobachtet. In dem Remagnetisierungsprozess wird dieser Übergang durch einen deutlich sichtbaren Wechsel zwischen linearem und exponentiellen Verhalten sichtbar. Mithilfe der Kombination aus der von Rötngendaten gewonnener Gittertemperatur Tp(t) und der Magnetisierung M(t) erhalten wir die zeitliche Abhängigkeit der Magnetisierung von der Gittertemperatur M(Tp). Falls die Gittertemperatur unter der Curietemperatur bleibt, ist die Remagnetisierungskurve M(Tp) linear und bleibt unterhalb der statischen Gleichgewichtskurve M(T) für die kontinuierlichen Übergangsmetalle. Wenn die Probe über den Phasenübergang geheizt wird, nähert sich die Remagnetisierung der statischen Kurve an. Die transiente Remagnetisierungskurven M(Tp) der granularen Eisen Platin Probe folgen immer einem der statischen Magnetisierungskurve ähnlichen Verlauf, unabhängig von dem laser-induzierten Temperatursprung. KW - ultrafast dynamics KW - remagnetization KW - magnetization dynamics KW - transition metals KW - condensed matter KW - ultraschnelle Dynamik KW - magneto-optics KW - Magneto-Optik KW - Remagnetisierung KW - Magnetisierungsdynamik KW - Übergangsmetalle KW - kondensierte Materie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441942 ER -